4933

 

 377 

ASSEMBLÉE NATIONALE

 

SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

SESSION ORDINAIRE 2021 - 2022

Enregistré à la présidence de l’Assemblée nationale

 

Enregistré à la présidence du Sénat

le 20 janvier 2022

 

le 20 janvier 2022

 

 

au nom de

 

L’OFFICE PARLEMENTAIRE D’ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

 

sur

 

 

La Stratégie quantique française

 

 

Compte rendu de l’audition publique du 21 octobre 2021

et de la présentation des conclusions du 20 janvier 2022

 

 

 

par MM. Cédric VILLANI, député, et Gérard LONGUET, sénateur

 

 

 

 

 

 

 

Déposé sur le Bureau de l’Assemblée nationale

par M. Cédric VILLANI,

Président de l’Office

 

 

Déposé sur le Bureau du Sénat

par M. Gérard LONGUET

Premier vice-président de l’Office

 


 

 

Composition de l’Office parlementaire d’évaluation des choix scientifiques
et technologiques

 

 

Président

M. Cédric VILLANI, député

 

 

Premier vice-président

M. Gérard LONGUET, sénateur

 

 

Vice-présidents

 

 M. Didier BAICHÈRE, député Mme Sonia de LA PROVÔTÉ, sénatrice              M. Jean-Luc FUGIT, député                            Mme Angèle PRÉVILLE, sénatrice

 M. Patrick HETZEL, député  Mme Catherine PROCACCIA, sénateur

 

 

 

 

DÉputés

 

 

SÉnateurs

M. Julien AUBERT

M. Philippe BOLO

Mme Émilie CARIOU

M. Claude de GANAY

M. Jean-François ELIAOU

Mme Valéria FAURE-MUNTIAN

M. Thomas GASSILLOUD

Mme Anne GENETET

M. Pierre HENRIET

M. Antoine HERTH

M. Jean-Paul LECOQ

M. Gérard LESEUL

M. Loïc PRUD’HOMME

Mme Huguette TIEGNA

 

 Mme Laure DARCOS

 Mme Annie DELMONT-KOROPOULIS

 M. André GUIOL

 M. Ludovic HAYE

 M. Olivier HENNO

 Mme Annick JACQUEMET

 M. Bernard JOMIER

 Mme Florence LASSARADE

 M. Ronan Le GLEUT

 M. Pierre MÉDEVIELLE

 Mme Michelle MEUNIER 

 M. Pierre OUZOULIAS

 M. Stéphane PIEDNOIR

 M. Bruno SIDO

  M. Bruno SIDO

 

 

 

 

 

 

 

 

 

 

 

 

 

 


— 1 —

SOMMAIRE

___

Pages

CONCLUSIONS DE L’AUDITION PUBLIQUE DU 21 OCTOBRE 2021 SUR LA STRATÉGIE QUANTIQUE FRANÇAISE

TRAVAUX DE L’OFFICE

I. COMPTE RENDU DE L’AUDITION PUBLIQUE du 21 octobre 2021

II. EXTRAITS DU COMPTE RENDU DE LA RÉUNION DE L’OPECST DU JEUDI 20 JANVIER 2022 PRÉSENTANT LES CONCLUSIONS DE L’audition publique

ANNEXE : QUELQUES DÉFINITIONS

 


—  1  —

   CONCLUSIONS DE L’AUDITION PUBLIQUE DU 21 OCTOBRE 2021 SUR LA STRATÉGIE QUANTIQUE FRANÇAISE

Sollicité par la communauté scientifique, l’Office parlementaire d’évaluation des choix scientifiques et technologiques a organisé le 21 octobre 2021 une audition publique consacrée à la stratégie quantique française. Celle-ci a été diffusée en direct sur les sites du Sénat et de l’Assemblée nationale. Les débats avec les parlementaires ont été ouverts aux internautes au moyen d’une plateforme numérique leur permettant de poser des questions.

En 2019, l’OPECST s’était déjà intéressé aux technologies quantiques en publiant quatre notes scientifiques : introduction et enjeux[1], l’ordinateur quantique[2] (ou hardware), la programmation quantique[3] (ou software) et enfin la cryptographie quantique et post-quantique[4]. Ce travail avait donné lieu à des recommandations prenant en compte l’importance stratégique et technologique du sujet.

En 2020, Mme Paula Forteza, députée des Français établis hors de France, présentait au gouvernement les contours d’une stratégie nationale ambitieuse dans son rapport intitulé Quantique, le virage technologique que la France ne ratera pas [5]. Ce rapport présentait l’objectif des « 3 trois » : trois axes de R&D à développer préférentiellement, à savoir le calcul, les communications et la cryptographie, et enfin les capteurs quantiques ; trois fois plus de budget pour la recherche (soit un budget d’au moins un milliard d’euros sur 5 ans), et la création de trois hubs ou centres régionaux spécialisés dans les technologies quantiques à Paris, Saclay et Grenoble, en parallèle d’une restructuration de l’écosystème de recherche.

Les recommandations du rapport ont été reprises par le Président de la République lors de son discours du 21 janvier 2021 qui annonçait un plan de 1,8 milliard d’euros d’investissement sur 5 ans, dont 1 milliard venant directement de l’État.

L’audition publique du 21 octobre visait à faire le point, quelques mois après, sur la mise en place des mesures et des financements annoncés.

L’audition a été introduite par une présentation générale de la stratégie quantique française avec l’intervention de Neil Abroug, coordinateur national de la stratégie quantique. Deux tables rondes ont suivi.

La première table ronde a traité des avancées et enjeux liés à l’ordinateur quantique et aux capteurs quantiques.

Sont intervenus :

La seconde table ronde portait sur les communications quantiques et les méthodes de cryptographie post-quantique.

Sont intervenus :

Le coordinateur national de la stratégie quantique française, Neil Abroug, a commencé par présenter les enjeux et la structure de financement du plan quantique. Les 7 piliers de la stratégie quantique française sont :

Pour mettre ces chiffres en contexte, en 2018, l’Union Européenne avait prévu de consacrer un milliard d’euros sur 10 ans aux technologies quantiques, via un programme « FET Flagship »[9]. Les fonds proviennent du programme Horizon 2020 mais aussi de sources nationales.

Neil Abroug a rappelé qu’avant même la mise en place de ce plan national, des investissements publics, à hauteur d’environ 60 millions d’euros, existaient déjà et provenaient des organismes de recherche ou de l’Agence nationale de la recherche (ANR). Grâce à ces financements, la France se place au 6e rang des investisseurs mondiaux dans le domaine des technologies quantiques. Il faut donc voir la stratégie nationale comme un plan d’accélération avec trois enjeux majeurs identifiés : conquérir des parts du marché mondial dans les domaines du calcul, des capteurs, de la cryptographie et des technologies capacitantes ; développer des efforts de pédagogie et de communication pour créer un engouement sociétal ; encourager le rayonnement de la recherche et en faire « le bras armé de la compétitivité des entreprises ». Les pépites industrielles françaises sont, pour certaines, issues de la recherche académique et rivalisent déjà avec les géants américains tels que Google ou Intel. Il s’agit alors d’accélérer dans les domaines où la France possède déjà un avantage et peut tirer son épingle du jeu dans la concurrence mondiale.

Le plan inclut les technologies dites habilitantes dont l’industrie quantique a besoin et qui devraient assurer le premier retour sur investissement à court terme.

Le budget de la Stratégie quantique s’articule autour de plusieurs sources : Agence nationale de la recherche, Programme d’investissements d’avenir (PIA), Direction générale de l’armement (DGA).

1.   L’ordinateur et les capteurs quantiques

a.   L’ordinateur quantique : développement de qubits, passage à l’échelle et langage de programmation.

Dans le cadre de la Stratégie quantique, 350 millions d’euros seront investis pour l’apprentissage et l’anticipation des futurs ordinateurs quantiques. Ils serviront à développer des simulateurs quantiques, des calculateurs NISQ et le premier ordinateur hybride doté de 100 qubits à l’horizon 2023 (via une coopération du CEA avec des centres situés en Allemagne, Italie, Irlande, Espagne et Autriche). Ils serviront aussi à former et recruter des développeurs.

400 millions d’euros supplémentaires sont fléchés vers le développement et le passage à l’échelle industrielle. Ils financeront la recherche publique et privée et les partenariats industriels avec Atos et Pasqal, pour développer le premier prototype complet d’ordinateur quantique LSQ.

Philippe Chomaz a rappelé que le principal verrou technologique à l’essor de l’ordinateur quantique reste la décohérence, ou l’incapacité de l’objet physique à demeurer dans son état quantique. Lever ce verrou permettrait d’exploiter pleinement les promesses des technologies quantiques mais le défi est immense. Le CEA explore actuellement deux voies : d’une part, il met à profit son expérience en microélectronique, notamment au centre LETI de Grenoble, pour chercher à intégrer un très grand nombre de qubits physiques permettant d’obtenir quelques qubits logiques fonctionnels ; cette perspective est un « pari intéressant », Philippe Chomaz ayant précisé que le record de transistors gravés sur une puce de silicium avoisine aujourd’hui 50 milliards. La seconde voie explorée vise à créer de nouveaux concepts de qubits robustes et intrinsèquement protégés d’un certain nombre de facteurs de décohérence ou capables de corriger leurs erreurs de manière autonome, sans redondance[10]. En parallèle de ces travaux, le CEA anticipe et prépare l’intégration de ressources de calcul quantique aux centres de calcul haute performance, notamment au centre de Bruyères-le-Chatel. L’ajout d’un processeur quantique, même peu avancé, peut aider sur un certain nombre d’applications et de calculs.

Une autre technologie de qubits, utilisant des photons, est développée par la société Quandela et a été présentée lors de l’audition par Pascale Senellart, confondatrice et conseillère scientifique. La start-up étant située sur le plateau de Saclay, un des trois centres régionaux dont la stratégie quantique souhaite le développement, Pascale Senellart a insisté sur l’enjeu de l’attractivité des centres de recherches régionaux ou hubs.

Sur le volet des ressources humaines, Pascale Senellart appelle à la vigilance sur la formation des cerveaux et des talents, dont les effectifs sont aujourd’hui majoritairement absorbés par les jeunes pousses et peinent à s’orienter vers la recherche fondamentale qui doit être soutenue pour devenir plus attractive. Georges-Olivier Reymond a cependant nuancé en rappelant que les jeunes pousses restent essentielles pour attirer des talents nationaux ou internationaux, mettre en valeur l’écosystème et faire grossir les parts de marché.

Sur ce dernier point, le PDG de Pasqal appelle à se souvenir que « la première évolution quantique a été développée par des physiciens européens, mais le marché est essentiellement positionné aux États Unis. Pour la deuxième révolution, essayons d’en conserver un plus grand morceau ! »

Pasqal concurrence aujourd’hui les géants américains dans la course au prototype industriel et propose actuellement plus de qubits que Google par exemple. Avec un processeur à 200 qubits, il est en mesure de faire la démonstration de résolution de cas d’usage et de mettre en avant une plus-value du calcul quantique sur le calcul classique, même haute performance.

En complément de ce point de vue « jeunes pousses », le groupe Atos a pu donner sa vision du paysage quantique actuel et du rôle que les grands groupes peuvent avoir dans son développement. Leader européen dans les domaines du HPC (high performance computing – calcul haute performance) et de la cybersécurité, Atos a rapidement investi dans les technologies quantiques. Sa position consiste à se focaliser sur la partie dite « software » ou logiciel en utilisant du « hardware » ou des processeurs développés par d’autres, notamment Pasqal. Depuis 2017, son Quantum learning machine (QLM) simule dans le cloud le fonctionnement de quelques qubits et permet aux divers utilisateurs de tester les langages de programmation propres au quantique. Toutes ces avancées s’inscrivent dans une stratégie précise qui consiste à financer des activités de R&D – Atos est premier déposant européen de brevets sur le calcul quantique – et à entretenir des partenariats avec la recherche académique ou des jeunes pousses aux niveaux français ou européen.

Atos prépare aussi le calcul dit hybride qui consiste à ajouter un processeur quantique à des centres de calcul haute performance. À terme, et selon les cas d’usage, il sera intéressant de basculer entre différents modes de calcul selon les profils du problème à résoudre : processeur classique ou quantique, sur le même modèle des ordinateurs actuels qui utilisent des GPU[11] ou autres selon les usages.

De manière plus générale, au sujet des ordinateurs quantiques, il convient de rappeler que les annonces concernent toujours un nombre de qubits physiques et non-logiques et restent encore au stade de démonstrateur. Georges-Olivier Reymond prévient « nous sommes au début de l’histoire du calcul quantique. Nous n’imaginons pas encore ce que nous allons faire avec les machines que nous créons. »

Des cas d’usage ont été mis en avant, tels que des travaux de calcul en optimisation combinatoire pour EDF. Là où les calculateurs classiques montrent des faiblesses, une accélération quantique peut s’avérer bénéfique, notamment au-delà d’un seuil estimé à environ 1 000 qubits et pour des calculs à forte composante combinatoire.

b.   Les capteurs quantiques

La première table ronde s’est également intéressée au thème des capteurs quantiques avec les interventions de Thierry Debuisschert, de Thales, et de Jean Lautier-Gaud, de iXblue Quantum Sensors. Les capteurs quantiques reposent sur la sensibilité du système quantique à l’échelle du système unique (atome, ion, photon…). Concrètement, il s’agit d’effectuer des mesures de grande précision (champ électrique, magnétique, de gravité…) en manipulant des systèmes isolés presque individuellement. Les capteurs quantiques ont connu de nombreux développements depuis la première révolution quantique et les progrès techniques ont permis d’améliorer leur sensibilité et d’élargir la gamme d’applications potentielles. Dans le plan de stratégie quantique, 250 millions d’euros ont été fléchés vers le développement et l’intégration des capteurs, en leur ouvrant d’abord le marché de la défense puis en cherchant des marchés civils. Le rapport de Paula Forteza recommande de s’intéresser plus particulièrement aux capteurs à base d’impuretés (appelées centres NV) dans le diamant qui sont l’objet d’étude de Thierry Debuisschert.

Plusieurs étapes sont nécessaires à la fabrication d’un capteur diamant avec centres NV et la France possède sur son territoire tous les acteurs requis à la chaîne de fabrication. Elle possède ainsi tous les atouts pour se positionner au niveau mondial. Des partenariats européens viennent renforcer et compléter cette position.

Les propriétés remarquables des centres NV leur permettent de trouver une large gamme d’applications potentielles notamment en navigation, en communication mais aussi dans le domaine médical. Thierry Debuisschert estime que « la progression [du marché des capteurs quantiques] sera de l’ordre de 1 milliard de dollars sur les 10 prochaines années ».

Le degré de développement des capteurs quantiques a pu être apprécié par l’intervention de Jean Lautier-Gaud puisque le défi actuel de la société iXblue Quantum Sensors consiste à mettre au point un capteur commercial utilisable par des non-spécialistes, hors du laboratoire. Elle fournit des gravimètres mais aussi des horloges atomiques.

L’industrialisation de ces capteurs et leur utilisation par le grand public implique de les rendre plus fiables sur des temps longs, ainsi que les technologies habilitantes associées (laser, refroidissement…).

C’est pourquoi Jean Lautier-Gaud propose de renforcer l’écosystème français des technologies habilitantes. Il recommande aussi l’affichage direct des industriels dans les appels à projets PEPR. Enfin, il incite à regarder sur le long terme, au-delà du plan quantique et du programme Flagship européen afin de rendre les capteurs quantiques plus fiables et de répondre à des besoins spécifiques de potentiels clients.

Les questions des parlementaires à la fin de la première table ronde ont permis d’aborder différents points.

Tout d’abord, le rôle et l’investissement du monde de la défense, notamment dans le domaine des capteurs quantiques a été débattu. La DGA participe aujourd’hui à hauteur de 5 % au plan quantique, somme jugée insuffisante par le sénateur André Guiol. Neil Abroug a cependant rappelé que la DGA était soumise à la loi de programmation militaire (LPM) qui fige ses investissements sur le long terme. Le monde de la défense reste pleinement conscient des enjeux stratégiques liés aux technologies quantiques, notamment en ce qui concerne les capteurs et les menaces de la cryptographie post-quantique.

Neil Abroug a aussi rebondi sur les propos de Jean Lautier-Gaud en insistant sur la nécessité de trouver d’autres marchés pour les capteurs quantiques, au-delà des applications militaires, et d’en assurer la viabilité économique dans le monde civil. Il ne faut donc pas compter sur les seuls investissements de la DGA.

Le sénateur André Guiol a ensuite insisté sur la nécessité de ne pas se laisser distancer au niveau mondial et sur le risque de perte des compétences, comme ce fut le cas dans le passé pour les microprocesseurs. Développer la partie processeur (hardware) en France est crucial, d’autant plus que les compétences en programmation (software) ne pourront s’étendre sans support physique à disposition.

Les discussions ont enfin porté sur la place de la Chine dans la course mondiale aux technologies quantiques. Tous les intervenants ont confirmé sa place prépondérante, dotée de moyens exceptionnels et inégalables. Les capacités d’anticipation du gouvernement chinois lui ont permis de se placer en précurseur, par exemple sur les communications quantiques satellitaires : pendant que l’Europe et les États Unis hésitaient à inscrire un programme quantique au sein de leurs agences spatiales, la Chine lançait son premier satellite dédié à des communications quantiques en 2016.

Enfin, sur la question des cas d’usage et des problèmes sur lesquels le quantique pourrait présenter un avantage, il semble établi que chercher aujourd’hui à définir une liste de cas, en amont du développement des technologies, est inutile, voire contre-productif. Selon Pascale Senellart, « il serait hasardeux de rechercher dès à présent des cas d’usage bien identifiés, car la communauté se construit progressivement, comme toutes les communautés de rupture ». Quelques exemples ont été évoqués tels que le calcul des permanents, la résolution d’équations différentielles pour la chimie, l’équation de Navier-Stokes, l’optimisation combinatoire avec des problèmes type « voyageur de commerce ». Les méthodes de calcul classiques atteignent leurs limites sur ces problèmes aujourd’hui, mais elles peuvent toujours s’améliorer. Au-delà des capacités techniques à résoudre un problème, la comparaison calcul quantique versus calcul classique repose aussi sur le possible gain énergétique, le HPC étant de plus en plus énergivore. À fidélité de calcul égale, il serait pertinent d’établir une comparaison précise entre les deux technologies lorsqu’un processeur quantique logique sera prêt, les résultats préliminaires montrant un réel avantage énergétique coté quantique.

2.   Les communications quantiques et la cryptographie post-quantique

a.   Les projets de communications quantiques : des premiers tests à l’internet quantique européen de demain.

Depuis la publication des notes scientifiques de l’OPECST en 2019, les projets de communication quantique ont évolué et en sont aujourd’hui au stade de premier démonstrateur. Un des projets les plus aboutis, le réseau Quantum@UCA, se trouve en région Provence-Alpes-Côte d’Azur (PACA) et est développé conjointement par l’Université de Côte d’Azur (UCA) et Orange, sous le pilotage de Sebastien Tanzilli. Plus précisément, il s’agit d’un banc d’essai de réseau quantique opérationnel entre trois sites séparés de quelques dizaines de km. Les échanges de clés secrètes s’effectuent via un réseau de fibres optiques dépourvues de répéteurs classiques. Le débit de clés secrètes actuel atteint 10 millions de bits secrets par heure (un kilobit par seconde), avec un objectif à court terme d’atteindre le mégabit par seconde. Si ces travaux concernent pour le moment la mise en place d’un réseau de communication sécurisé au sol, les objectifs à plus long terme visent à articuler ce réseau avec un segment spatial, dont la source quantique serait embarquée à bord d’un satellite. Le premier marché des communications quantiques sera très probablement institutionnel, avec un niveau de fiabilité et de robustesse critique. Dans cette optique, les deux dimensions – spatiale et au sol - deviennent indispensables pour répondre à ces critères.

Pour mémoire, les équipes chinoises ont été précurseurs sur ce segment avec le lancement d’un satellite équipé d’une source quantique photonique dès 2016.

Le sursaut provoqué a amené les agences européennes à monter des projets similaires, avec notamment le projet EuroQCI, qui vise à poser les premiers éléments du futur internet quantique européen. Airbus étant acteur de ce consortium, Cédric Oudiette était présent pour présenter les principaux éléments liés à la dimension spatiale.

Le calendrier s’articule autour d’un démonstrateur prêt d’ici 2024, puis un système opérationnel avec échange de clés quantiques d’ici 2028. La dernière étape, un internet quantique inviolable et complet, est prévue pour 2035.

S’il reste quelques défis à relever, surtout en terme d’interopérabilité et d’interconnexion entre les différents réseaux locaux, Cédric Oudiette estime que la France possède toutes les ressources et compétences dans ses laboratoires et universités pour se positionner fortement et aboutir à une autonomie maximale. Il rappelle que « le fait que l’État se positionne en utilisateur de ce système est un fort élément de crédibilité apporté aux futurs utilisateurs ».

À terme, un internet quantique pourra aussi servir à mettre en réseau des processeurs ou des capteurs quantiques pour en décupler la puissance de manière totalement sécurisée, ce qui peut constituer une menace de premier plan sur les méthodes de cryptographie actuelles.

b.   La cryptographie post-quantique ou les protocoles de cryptographie à l’épreuve de l’ordinateur quantique.

L’ANSSI, autorité nationale en matière de cybersécurité, anticipe l’arrivée d’un ordinateur quantique qui pourrait compromettre les protocoles de cryptographie actuels.

Aujourd’hui, le chiffrement des données repose sur deux catégories d’algorithmes : les algorithmes symétriques, qui nécessitent un partage préalable de clés de sécurité et concernent principalement le chiffrement de communications, et les algorithmes asymétriques, qui échappent à cette nécessité et concernent les échanges de données sur de grands réseaux (chiffrement des cartes bancaires, etc.).

Selon les hypothèses, les capacités de calcul supposées d’un ordinateur quantique pourraient compromettre majoritairement les protocoles asymétriques mais relativement peu les protocoles symétriques.

S’il est encore difficile d’anticiper la date d’arrivée sur le marché d’un ordinateur quantique opérationnel et en capacité d’effectuer de telles opérations, l’ANSSI estime qu’il est plus prudent de travailler dès maintenant à la mise au point et l’adoption de nouveaux protocoles post-quantiques ou résistants à l’ordinateur quantique. Cela permettra aussi d’empêcher des attaques dites rétroactives qui visent à enregistrer les données maintenant pour les décrypter plus tard, quand la technologie sera à disposition.

Un certain nombre de problèmes mathématiques ont été certifiés résistants au calcul quantique et forment les nouvelles méthodes de cryptographie
post-quantique. Cela comprend, par exemple, les fonctions de hachage, les réseaux euclidiens, les isogénies de courbes elliptiques, etc. Cette résistance dépend cependant d’un certain nombre d’hypothèses sur les compétences présumées des ordinateurs quantiques. Il conviendra d’actualiser ces hypothèses au fur et à mesure des développements technologiques à venir, notamment si les travaux de mise en réseau d’ordinateurs quantiques aboutissent.

Au niveau national, l’ANSSI recommande de déployer, à court terme (sous 1 à 4 ans) des solutions dites hybrides qui ajoutent une surcouche de protection post-quantique aux méthodes de cryptographie classiques actuelles. Cette solution permet de protéger les données des attaques classiques, de mettre à l’épreuve des méthodes post-quantiques et surtout d’éviter toute régression de sécurité. Elle concerne principalement les données demandant une protection de longue durée, au-delà de 2035.

L’ANSSI se prononce plutôt en défaveur des méthodes de communication quantique. Les contraintes liées au déploiement et à l’utilisation de nœuds de répétition constituent, pour elle, des failles de sécurité importantes. Leur emploi n’est envisagé qu’en complément de méthodes de cryptographie.

Au niveau international, le bureau des standards américain, le National Institute of Standards and Technology (NIST), est chargé de sélectionner le prochain standard de cryptographie post-quantique, après un appel à candidatures qui a fortement mobilisé la communauté internationale. La France est très bien représentée dans cet appel à projets, notamment dans les dernières phases de sélection qui se déroulent actuellement (5 finalistes sur 7 sont français).

Les spécialistes de la cryptographie post-quantique et des méthodes mathématiques de chiffrement appellent à porter une attention toute particulière aux deux phases indispensables à la protection des données : d’une part la confidentialité (les données restent secrètes), d’autre part l’authentification (la certitude pour le destinataire de communiquer avec le bon expéditeur). Les communications quantiques ne permettent pas d’assurer la partie authentification et selon Damien Stehlé « le mot inviolable […] semble totalement inapproprié […]. Tant que ce problème ne sera pas résolu, la confidentialité complète de la création de clés est inutile dans un cas d’usage général ». Thierry Debuisschert a rappelé l’existence de travaux qui visent à combler cette faille en combinant des méthodes de sécurité quantique à des fonctions de hachage pour garantir l’authentification.

Il semble indispensable de faire travailler les différentes communautés ensemble pour combler cette faille de sécurité et garantir une authentification et une confidentialité des moyens de communication destinés à un potentiel usage institutionnel. L’ajout d’une brique post-quantique à des lignes de communication quantique semble nécessaire et doit être anticipée dès aujourd’hui.

3.   Recommandations

L’audition publique du 21 octobre 2021 a permis de faire le point sur la mise en place de la Stratégie quantique française quelques mois après les annonces du Président de la République. Les avancées scientifiques et technologiques présentées ont confirmé la place importante de la France dans la course mondiale ainsi que les défis qu’il reste à relever.

La Stratégie nationale a bien identifié les enjeux des technologies quantiques et les axes sur lesquels les efforts doivent être portés ; elle est associée à des moyens financiers substantiels qui rendent crédible l’atteinte des objectifs qu’elle s’est fixés. Une vigilance devra être maintenue sur la formation et l’attractivité, notamment pour les acteurs de la recherche fondamentale.

Les recommandations de l’Office, dont certaines ont été émises par les parties prenantes, visent à renforcer le rôle de la France dans un domaine hautement stratégique et à faciliter la diffusion des technologies quantiques dans les usages présents ou futurs. Elles s’adressent tant aux pouvoirs publics qu’aux acteurs académiques et industriels concernés, tant l’imbrication des enjeux reste forte au stade actuel de développement de ces technologies.

Elles s’articulent autour de trois objectifs :

Maintenir une veille scientifique et technologique sur l’émergence de ces technologies et les évolutions qui accompagneront leur développement:

Anticiper l’arrivée – même lointaine - des ordinateurs quantiques et leurs potentiels atouts :

Favoriser la création d’écosystèmes vertueux et dynamiques :

 

 


—  1  —

   TRAVAUX DE L’OFFICE

I.   COMPTE RENDU DE L’AUDITION PUBLIQUE du 21 octobre 2021

M. Cédric VILLANI, député, président de l’Office. Chers collègues, chers invités, je vous souhaite la bienvenue. Nous sommes réunis ce matin pour une audition publique sur la mise en place et l’avancement de la Stratégie quantique de la France. De la même façon que l’intelligence artificielle, le quantique fait partie des évolutions technologiques dont nous entendons régulièrement parler dans l’actualité et il était naturel que l’OPECST s’y intéresse. Entre les mois de mars et juillet 2019, l’Office a publié quatre courtes notes sur les technologies quantiques après avoir auditionné de nombreux acteurs, de la recherche fondamentale aux grands groupes industriels en passant par des
start-up, le tout formant l’écosystème quantique français en liaison avec l’écosystème quantique international : Les technologies quantiques : introduction et enjeux ; L’ordinateur quantique ; La programmation quantique ; Cryptographie quantique et post-quantique.

En janvier 2020, la députée des Français d’Amérique latine et des Caraïbes, Mme Paula Forteza, a remis au gouvernement le rapport Quantique, le virage technologique que la France ne ratera pas, qui dessine les contours d’une stratégie quantique ambitieuse avec l’objectif des trois « 3 » : 3 axes de R&D : calcul, communication (dont la cryptographie) et capteurs quantiques ; 3 fois plus de budget pour la recherche, soit au moins 1 milliard d’euros sur 5 ans ; création de 3 hubs quantiques à Paris, Saclay et Grenoble, accompagnée d’une restructuration de l’écosystème de recherche attaché.

C’est une course mondiale aux technologies quantiques qui est en cours, avec des répercussions aussi bien scientifiques que stratégiques, voire géopolitiques. La France a tardé, mais y est désormais engagée via sa Stratégie nationale sur les technologies quantiques qui prévoit un plan d’investissement de 1,8 milliard d’euros, dont 1 milliard d'euros de l’État sur les 5 prochaines années. Cette stratégie reprend une large partie des recommandations du rapport de Paula Forteza et s’appuie sur les contributions et les conseils d’un grand nombre de scientifiques, d’industriels et d’institutions. Alain Aspect, membre du conseil scientifique de l’Office, y a été très impliqué.

Nous entendrons tout d’abord une présentation de la Stratégie quantique française, qui sera suivie de deux tables rondes, la première consacrée à l’ordinateur et aux capteurs quantiques, la seconde aux communications quantiques et à la cryptographie post-quantique.

Cette audition est publique. Elle est diffusée en direct puis en différé sur le site du Sénat. Dans la salle et en visioconférence sont présents des parlementaires, députés et sénateurs. Les internautes ont la possibilité de poser des questions en se connectant à la plateforme dont les coordonnées figurent sur les pages internet de l’Office. Nous nous ferons l’écho d’un certain nombre de ces questions auprès des intervenants. L’Office est un organe bicaméral, ce qui lui confère une grande légitimité, une grande stabilité et une grande indépendance.

Il est intéressant pour le Parlement d’entendre une présentation de la Stratégie nationale quantique française et d’en discuter, mais il est aussi intéressant pour le responsable de cette stratégie de se confronter aux avis et questions de la représentation nationale et aux remarques et commentaires des experts.

M. Neil ABROUG, coordinateur national de la stratégie quantique française. Merci de m’avoir invité à faire cette présentation. Je souhaitais commencer par rappeler la façon dont nous avons œuvré au cours des deux dernières années à l’élaboration et à la mise en œuvre de la Stratégie quantique française, mais la présentation que vient d’en faire le président se suffit à
elle-même. Je propose donc d’aborder directement les enjeux et la répartition budgétaire. Je vous présenterai ensuite un point d’avancement de la mise en œuvre de cette stratégie, depuis l’annonce présidentielle faite au mois de janvier 2021.

La Stratégie quantique a été annoncée par le Président de la République ; elle part du constat que les technologies quantiques ont un potentiel de disruption très important dans plusieurs secteurs économiques sur lesquels un certain nombre d’entreprises sont déjà positionnées. Au regard des auditions qui ont eu lieu dans le cadre de la mission Forteza et des consultations que l’État a continué à mener pour mettre en œuvre les recommandations de cette mission, la France a les moyens de figurer dans le premier cercle des pays en capacité d’utiliser et de développer les outils quantiques.

Le premier enjeu est de conquérir des parts de marché mondiales dans le calcul, les capteurs, la cryptographie et les technologies capacitantes. La France accueille des acteurs industriels importants dans le calcul intensif tels que Atos, ainsi que dans le monde des capteurs avec les sociétés iXblue, Thalès et Airbus et un certain nombre de start-up qui collaborent avec ces grands groupes ou y sont intégrées depuis quelques mois. Nous avons également la capacité de conquérir des parts de marché dans les technologies capacitantes. Il s’agit des technologies qui ne sont pas quantiques, mais qui sont indispensables à la maîtrise et au développement des technologiques quantiques.

Le deuxième enjeu est sociétal, avec 1,8 milliard d’euros d’argent public investis sur les cinq prochaines années. Cette somme conséquente est comparable à ce qui se fait au niveau international. Vis-à-vis de nos concitoyens, il est nécessaire d’avoir un message de pédagogie, de créer une adhésion aux raisons qui ont amené l’État à investir dans ce domaine qui a des enjeux à long terme, tant sur la santé que la cybersécurité et la transition écologique.

Enfin, le dernier enjeu est scientifique et technologique ; il s’appuie sur un socle d’excellence scientifique. Les expériences d’Alain Aspect sont à la base des technologies quantiques telles qu’on les comprend aujourd'hui. Quelques pépites issues de la recherche académique française, rayonnent d’ores et déjà au niveau mondial et sont en compétition avec des industriels nord-américains tels qu’Amazon, Google ou Intel. Tout ceci n’aurait pas été possible sans l’excellence de notre recherche scientifique. L’enjeu est donc d’asseoir le rayonnement de la recherche française et d’en faire le bras armé de la compétitivité des entreprises françaises.

M. le président a évoqué la somme de 1,8 milliard d’euros pour les cinq prochaines années. Je propose de préciser comment ce montant s’articule. Nous avons fait le constat, dans le cadre de la mission Forteza, d’un investissement existant, non négligeable, qui place déjà la France au 6ème rang des investisseurs mondiaux dans le domaine du quantique, avant même l’existence d’une stratégie nationale. Les organismes de recherche, les établissements d’enseignement supérieur et l’Agence nationale de la recherche (ANR) investissaient déjà avant la mise en place d’une stratégie quantique, jusqu’à 60 millions d'euros par an. Partant de ce constat, nous avons mis en place une stratégie d’accélération, dans l’idée d’investir là où la France possède déjà un avantage compétitif. Les domaines concernés sont :

Le financement du Plan quantique français repose sur des sources diverses :

C’est ainsi que se répartit le montant annoncé de 1,8 milliard d'euros, qui reflète donc une véritable co-construction entre l’État, ses opérateurs, les industriels et les programmes européens.

Depuis l’annonce du Président de la République au mois de janvier 2021, plusieurs actions ont été lancées :

Dans les trois prochains mois, deux programmes sur lesquels les consultations ont commencé seront lancés : le programme Grand Défi sur le passage à l’échelle du calcul quantique ; le programme Actions de soutien aux filières industrielles des technologies capacitantes : cryogénie, lasers, isotopes stables et autres technologies gravitant autour du quantique.

M. Cédric VILLANI, député, président de l’Office. Les tables rondes donneront l’occasion d’aller plus avant dans l’état des lieux technologique actuel. Je vous poserai donc deux questions très ciblées. Tout d’abord, l’échelon européen n’a pas été évoqué dans cette déclinaison de la stratégie nationale. Comment celle-ci s’articule-t-elle avec l’« Initiative-phare » (Flagship) européenne qui comportait des moyens significatifs – et qui est peut-être déjà arrivée à son terme ? Deuxièmement, le programme que vous avez présenté fait état de lignes et de budgets engagés et il est organisé en Actions de soutien, en Grand Défi, etc. Tout ceci est assez abstrait. Pouvez-vous mentionner des réalisations ou des évènements emblématiques, des étapes technologiques particulières – également en termes d’organisation humaine – qui devraient jalonner cette stratégie ?

M. Neil ABROUG. La stratégie française s’inscrit entièrement dans l’effort européen. L’outil Flagship date de la programmation Horizon 2020. Aujourd'hui, le programme Horizon Europe a repris le nom de « Flagship » pour évoquer le domaine des outils quantiques, sans en reprendre les outils. Les modalités d’intervention sont différentes. Les outils européens FPA et SGA permettent d’identifier des consortia porteurs de certaines thématiques, dans une perspective de cofinancement et de collaborations avec les partenaires européens. La France a ainsi un accord de collaboration fort avec les Pays-Bas, qui identifie des complémentarités. La France a également identifié des complémentarités particulières avec l’Allemagne, l’Italie et l’Autriche sur certaines technologies clés. Aujourd'hui, les programmes européens sont conçus comme étant le liant de mise en cohérence des différents plans nationaux.

Au-delà du Flagship, d’autres programmes européens concernent le quantique, comme l’entreprise commune Euro HPC, qui investit dans des moyens de calcul et des supercalculateurs et qui a lancé depuis 2020 un certain nombre d’appels à projets et d’appels d'offres pour acquérir des machines quantiques complétant les supercalculateurs. La France et l’Allemagne se sont positionnées et sont colauréats d’un projet HPC-QS relatif à la mise en place d’un supercalculateur articulé avec un simulateur quantique basé sur la technologie française Pasqal, qui s’inscrit pleinement dans la plateforme évoquée précédemment. Un financement français complétera l’action européenne : les entreprises communes européennes ne sont financées qu’à 50 % par l’Union européenne et à 50 % par l’État membre. Cela crée une forte incitation à la complémentarité et à la cohérence globale.

Il existe également une initiative européenne sur les communications quantiques, dans laquelle le plan français co-investira à 50 % avec l’Union européenne.

La France s’inscrit donc pleinement dans la dynamique européenne et les espérances de cofinancements européens que j’ai évoquées précédemment concernent ces différentes échéances.

M. Cédric VILLANI, député, président de l’Office. Pouvez-vous nous dire quelques mots sur cet appel à projets gagné conjointement par la France et l’Allemagne ?

M. Neil ABROUG. Ce projet vise à acquérir un simulateur quantique. Il ne s’agit donc pas d’un ordinateur quantique à portes mais d’un ordinateur quantique analogique, adapté à la simulation de la chimie ou à l’optimisation combinatoire. C’est donc un premier pas. La start-up Pasqal a été sélectionnée pour être le fournisseur de cette machine. Le consortium inclut le Grand équipement national de calcul intensif (Genci) français, le centre de calcul Jülich allemand et des partenaires des autres pays membres. Le lancement officiel du projet est prévu le 1er décembre 2021 et la phase actuelle est celle de la vérification des différents contrats, conventions et notifications qu’il faut adresser aux bénéficiaires.

Concernant votre question relative aux évènements et jalons, une nouveauté du 4ème PIA est de mettre en place une évaluation au fil de l’eau de l’exécution de chaque programme par des revues de programme. L’action la plus avancée aujourd'hui est le PEPR, qui doit durer 6 ans. Deux jalons décisionnels sont programmés dans 2 et 4 ans ; d’autres jalons sont également prévus, soit techniques (nombre de qubits, niveau de puissance de froid…), soit relatifs à l’écosystème construit autour du projet (nombre de publications, nombre de personnes recrutées, nombre de brevets déposés). Les talents sont l’un des principaux enjeux de la compétition internationale sur le quantique. C’est pourquoi l’un des objectifs donnés aux porteurs de projets est de faire croître en compétence les talents internes ou de mettre en place les conditions d’attractivité pour que les talents internationaux identifient la France comme une destination clé pour la recherche et l’entrepreneuriat dans le quantique.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. En l’absence de questions supplémentaires sur cette stratégie, nous allons aborder les tables rondes, qui sont entremêlées à la stratégie.

*
*      *

Première table ronde
L’ordinateur et les capteurs quantiques

M. Cédric VILLANI, député, président de l’Office. Pour la première table ronde, dans laquelle nous allons évoquer les progrès vers l’ordinateur quantique ainsi que les améliorations de précision et l’extension des usages dans le domaine des capteurs quantiques, nous accueillons :

Je souligne la grande qualité des intervenants et je retrouve avec grand plaisir certaines personnalités scientifiques que j’ai pu côtoyer à différentes époques de ma vie.

M. Philippe CHOMAZ, directeur scientifique du CEA. En introduction, je voudrais souligner que nous devons savoir de quelles « ruptures » nous parlons et quelles sont les promesses du quantique, et maîtriser le verrou de la décohérence.

Cette rupture du quantique « 2.0 » provient du fait que des avancées scientifiques et technologiques permettent de maîtriser les objets quantiques individuellement et de travailler dans l’espace gigantesque des états quantiques, d’atteindre des propriétés et d’obtenir des capacités nouvelles et ultimes. Les promesses sont extraordinaires, avec une sensibilité extrême des capteurs, des communications inviolables et des calculs massivement parallèles. Il est en effet possible de calculer dans l’espace des états quantiques en atteignant des dimensions de calcul gigantesques et de résoudre des problèmes insolubles autrement. J’insiste sur un verrou en particulier, celui de la décohérence,
c’est-à-dire la perte de notre maîtrise des objets quantiques, de notre capacité à rester dans l’espace des états quantiques, ce qui obligerait à revenir dans une physique classique et à un ordinateur classique. Maîtriser ce verrou de la décohérence conditionne la capacité à rester dans l’espace des états quantiques.

Le CEA aborde cette question avec un biais : il est l’un des acteurs français et européens de la microélectronique et possède des capacités importantes en matière de puces électroniques ; il oriente donc ses recherches sur les systèmes à l’état solide et travaille sur des puces quantiques. Lorsque j’évoquerai les projets d’équipement de nos centres de calcul avec nos partenaires (universités, CEA, Inria, Genci), il sera question de l’ordinateur Pasqal. Nous faisons du développement hardware et nous avons conscience, dans les applications et les centres de calcul, que d’autres sont plus avancés et nous souhaitons les soutenir et faciliter ce déploiement. Le CEA limite donc ses travaux aux systèmes à l’état solide.

Pour aborder le verrou de la maîtrise de la décohérence, deux voies sont aujourd'hui identifiées à l’international. La première voie s’appuie sur la théorie de la correction des erreurs. Si on laisse un système quantique à deux états (qubit) évoluer seul, il perdra rapidement sa capacité à exister simultanément dans ces deux états, c’est-à-dire qu’il sortira de l’espace des états et ne sera plus quantique. Pour maîtriser la décohérence de cet unique qubit, il est nécessaire de corriger les erreurs. Or, pour faire un calcul quantique, il faut combiner plusieurs systèmes à deux niveaux pour obtenir des états quantiques à 2n valeurs, n étant le nombre de qubits créés. Pour maîtriser la décohérence du système global, il faut donc coupler un très grand nombre de qubits (on appelle ceci un code de surface, qui est une sorte de calcul de correction des erreurs quantiques) : il faut en fait des milliers de qubits physiques pour obtenir un qubit logique. Il est nécessaire de passer à l’échelle et nous estimons que la technologie du silicium – pour laquelle le record de nombre de transistors sur une puce avoisine 50 milliards – permet d’aller vers un très grand nombre de transistors quantiques de qubits, et qu’elle est donc un pari intéressant pour obtenir des puces dotées d’un très grand nombre de qubits couplés pour faire de la correction d’erreur et maîtriser la décohérence. Le CEA travaille avec le CNRS, les universités et l’Inria sur cette première voie.

La deuxième voie est alternative en ce qu’elle cherche à s’appuyer sur de nouveaux concepts de qubits robustes et intrinsèquement protégés d’un certain nombre de sources de décohérence. Ces dernières années, la start-up Alice et Bob s’est par exemple appuyée sur des avancées académiques portant sur des « qubits de chat ». D’autres qubits sont protégés par des propriétés topologiques du système ou par des symétries. Des systèmes hybrides permettent de coupler des qubits issus du spin du noyau, très protégés, avec des qubits qui feront les calculs – à cet égard, un article récent de Physical Review Letters évoque le calcul dans la mémoire quantique.

Le CEA explore donc deux voies : les recherches sur le silicium pour aller vers un très grand nombre de qubits et corriger les erreurs, et les voies alternatives relevant de la physique de l’état solide qui ouvrent vers de nouveaux concepts et paradigmes, en travaillant au plus près des fondements physiques de la cohérence quantique.

Cette stratégie fait écho au PEPR quantique qui, pour sa partie calcul, distingue deux grands projets : un projet dénommé Presquile adossé à tous les développements sur le silicium, domaine qui s’appuie également sur un financement du Conseil européen de la recherche par le mécanisme « ERC Synergy Grants », obtenu par les centres CEA et CNRS de Grenoble, et sur un projet Flagship ; un projet PEPR dénommé RobustSuperQ sur les puces supraconductrices, avec la volonté d’équiper Grenoble et Saclay en capacité de fabrication et de travailler avec l’ensemble des acteurs de ces voies alternatives (Alice & Bob et d’autres encore).

En dernier lieu, dans le cadre du consortium européen HPC-QS et du programme « Grand Défi NISQ » sur le calcul, nous commençons à préparer la communauté du calcul haute performance (HPC) – qui possède des centres de calcul structurés aux niveaux français et européen – à l’équipement de ses centres avec des ressources de calcul quantique. Les premiers concernés sont les centres français de Bruyères-le-Châtel et allemand de Jülich, avec une machine Pasqal qui fonctionnera en analogique et peut-être ensuite, nous l’espérons, avec un système de portes. Cette première ressource quantique sera mise à disposition de nos communautés avec deux objectifs : être en capacité de maîtriser toute la chaîne jusqu’à l’utilisateur ; être en capacité d’attirer de nouveaux utilisateurs, notamment le CERN, qui a lancé un programme d’utilisation de ressources quantiques, et les théoriciens français qui travaillent autour du problème à N-corps quantique non seulement en chimie mais aussi en physique nucléaire. On voit en effet à l’étranger que les chercheurs qui font des développements de calcul de chimie quantique utilisent des approches ab initio de résolution du problème à
N-corps issu de la physique nucléaire qui ont été développées dans les toutes dernières années.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. Les questions seront posées à la suite de l’ensemble des présentations, et je vous propose d’entendre à présent l’exposé de Pascale Senellart.

Mme Pascale SENELLART, directrice de recherche au CNRS, professeure chargée de cours à l’École polytechnique et cofondatrice et conseillère scientifique de Quandela. Mesdames et Messieurs les députés et sénateurs, je vous remercie de m’avoir invitée à cette audition. Je suis directrice de recherche au CNRS, professeure chargée de cours à l’École polytechnique, cofondatrice et conseillère scientifique de Quandela. J’ai coordonné le centre quantique de Paris Saclay de 2018 à 2021 et j’ai, à ce titre, représenté les universités dans la task force qui a contribué à la mise en place du Plan Quantique. Je vais m’exprimer avec les deux points de vue, académique et applicatif.

La start-up Quandela développe un ordinateur quantique optique. Celui-ci utilise les particules élémentaires de lumière, les photons, pour encoder l’information et faire des calculs. Il s’agit d’une des deux seules plateformes au niveau international à avoir pu démontrer un avantage quantique en termes de calcul avec des portes logiques. Ce système présente des spécificités très importantes, car le photon est une particule sans masse ni charge et n’interagit pas avec l’environnement. Il s’agit d’un atout majeur pour ne pas être soumis à la décohérence. Cependant, l’ordinateur quantique optique est pensé et conçu différemment des autres plateformes car le photon ne se prête pas au cadre des portes logiques. D’autres développements, dans le cadre d’autres feuilles de route, sont lancés pour développer un calcul quantique universel à base de photons.

Ceci motive la création d’entreprises depuis un certain nombre d’années avec des acteurs majeurs en Amérique du Nord (PsiQuantum et Xanadu), mais également en Europe (Quandela en France, QUIX aux Pays-Bas, ORCA et Duality au Royaume-Uni).

L’ordinateur quantique optique est par essence modulaire. La source part de générateur de qubits (les photons) qui se propagent à la vitesse de la lumière et arrivent dans une puce dotée de circuits dans lesquels les photons sont guidés, interagissent les uns avec les autres et réalisent des opérations captées en sortie par des détecteurs.

Quandela a été créée en 2017 sur la base d’une rupture technologique réalisée au Centre de Nanosciences et de Nanotechnologies (C2N) sur la partie « génération de bits quantiques photon-uniques », une unité mixte CNRS/Université Paris Saclay. Cette technologie de rupture nous a conduits à créer une société qui commercialise et livre à l’international des générateurs de qubits photoniques aux équipes qui développent l’ordinateur quantique optique. En parallèle, nous avons décidé de nous lancer dans la création d’une petite plateforme de calcul, qui relève de la catégorie du Noisy intermediate-scale quantum (NISQ) computer, donc un calculateur de première génération. L’équipe de Quandela comptait en septembre une trentaine d’employés.

Les start-up du quantique ont bénéficié d’un fort soutien depuis le lancement de la réflexion nationale. En avance de phase du Plan Quantique, les outils étatiques de soutien des start-up ont bien joué le jeu : Quandela a obtenu le Grand Prix iLab en 2018 puis un certain nombre de financements par le PIA3 (iLab et i Nov) puis Innov’up, avec un co-investissement de la BPI. Elle a enfin obtenu depuis 2021 un certain nombre de soutiens via le Plan de Relance. Valerian Giesz, CEO de Quandela, a dit que « grâce au plan Deeptech, Quandela a pu lancer des projets ambitieux et nous espérons que ces projets seront soutenus par le plan quantique quand celui-ci sera opérationnel ».

Concernant la recherche sur le calcul quantique optique, toutes les start-up et tous les développements technologiques quantiques reposent fortement sur un lien avec les équipes académiques. Quandela s’intéresse donc également aux développements réalisés en recherche fondamentale sur le calcul quantique optique. Je salue les importants investissements annoncés sur la recherche publique, notamment via l’outil PEPR. Celui-ci se décline en deux parties : des « projets dirigés », pour lesquels les équipes identifiées ont déjà été financées, et des « appels à manifestation d’intérêt ». Quandela regrette que le calcul quantique optique n’ait été identifié que dans la seconde partie, qui n’a pas encore donné lieu à financements alors que le contexte international est très concurrentiel.

M. Cédric VILLANI, député, président de l’Office. S’agit-il d’un frein administratif ?

Mme Pascale SENELLART. Je ne peux pas vous apporter de réponse, n’ayant pas participé aux discussions. Il s’agit d’une constatation…

M. Cédric VILLANI, député, président de l’Office. À raison !

Mme Pascale SENELLART. Le potentiel à exploiter est très important, notamment sur les plateformes de développement technologique au LETI du CEA sur la partie calculateur quantique optique. Dans le schéma que j’ai présenté précédemment, il s’agit de la brique « intermédiaire », pour laquelle Quandela ne dispose pas de la technologie et s’appuie sur des fonderies au niveau international. Une belle fonderie française a commencé ce travail et le potentiel à exploiter est important. Certains outils mentionnés par Neil Abroug pourraient être dédiés à ces développements technologiques de haut niveau et j’attire votre attention sur les moyens importants qu’ils requièrent.

Je vais à présent exprimer mon point de vue d’enseignante-chercheuse et de coordinatrice du centre Quantum de l’Université Paris-Saclay. Un enjeu essentiel du plan quantique est la formation des cerveaux : la création de valeur, l’innovation et la création d’ordinateurs et de capteurs reposent sur la matière grise formée dans les universités et les équipes de recherche. Actuellement, nous constatons un équilibre remarquable sur la création de valeur observée et la mise en route de l’écosystème, avec une accélération rapide au niveau industriel et des start-up. Par ailleurs, la France est devenue une terre d’accueil pour les start-up étrangères. Cette situation est très positive, mais elle n’est pas exempte de points de vigilance au regard de la formation. En effet, la taille du vivier d’embauches a déjà atteint ses limites, notamment sur la partie hardware, alors que la croissance toujours plus rapide du nombre des start-up oblige à former de plus en plus de cerveaux. Le Plan Quantique s’est saisi de ce problème dès cette année, mais je considère qu’il est nécessaire d’élargir fortement l’effort de formation par la recherche. Un plus grand nombre d’équipes doit contribuer à la formation des cerveaux, même si elles interviennent dans le quantique sans être spécialistes des technologies quantiques.

L’autre danger est la difficulté de maintenir la recherche fondamentale dans un contexte où les entreprises privées seront de plus en plus attractives. Voici trois ans, mon équipe recevait 20 CV et j’en adressais quelques-uns à Quandela. Aujourd'hui, c’est l’inverse : Quandela reçoit une vingtaine de CV et j’en reçois un ou deux. Mon équipe reste scientifiquement attractive, mais souffre de cet effet d’aspiration des cerveaux par les start-up.

Pour former et attirer un grand nombre de cerveaux, une piste clairement identifiée est celle de l’attractivité et de la visibilité des grands centres de recherche français. Avant même le travail réalisé par les pouvoirs publics, les chercheurs du quantique ont créé des centres quantiques, notamment à Grenoble, Saclay et Paris et plus récemment en Occitanie, à Strasbourg et à Bordeaux. Ils se sont structurés et se sont réjouis de la recommandation du rapport Forteza de soutenir ces initiatives, qui sont la clé pour attirer les cerveaux, augmenter l’effort de formation par la recherche et favoriser l’interdisciplinarité. Force est de constater que cette recommandation n’a pas été reprise pour le moment par le Plan Quantique français. Le centre quantique comme entité régionale, avec une politique scientifique locale d’innovation, d’interdisciplinarité et de lien avec la formation est pourtant un modèle européen standard, mais la France ne s’en est pas encore emparée.

M. Cédric VILLANI, député, président de l’Office. M. Abroug, souhaitez-vous commenter la dernière interpellation de Mme Senellart ?

M. Neil ABROUG. La stratégie déployée n’a pas prévu à ce stade d’action pour les écosystèmes locaux tels que conçus jusqu’à maintenant. Néanmoins, nous partageons le constat fait à l’instant et nous avons engagé des discussions avec les écosystèmes locaux. Nous incitons ces centres à mobiliser les deux AMI qui vont arriver concernant les volets formation et maturation pour adopter une logique d’écosystème. Nous serons vigilants sur la complémentarité entre les deux AMI afin que des moyens soient accordés aux écosystèmes. D’une manière générale, la majorité des équipes est mixte et elles recevront à ce titre des financements dans le cadre du PEPR. Enfin, nous veillerons à ce que des écosystèmes locaux se positionnent sur le 4ème axe « interdisciplinarité » du PEPR.

Mme Pascale SENELLART. Les parties formation et maturation permettront de financer le fonctionnement des centres. Pour l’instant, ce sont des appels à projets nationaux pilotés via l’ANR. Déléguer une partie des financements au niveau local permet d’avoir une réactivité, une connaissance du terrain et une adaptation aux enjeux et aux défis du moment que des appels à projets nationaux ne permettent pas d’avoir. Mes collègues – Eleni Diamanti du Hub de Paris et Alexia Auffèves du Hub de Grenoble – et moi-même avons défendu la nécessité qu’une partie du financement soit locale pour gérer ces enjeux et nourrir les équipes contribuant à l’effort de formation par la recherche.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. J’invite maintenant Georges-Olivier Reymond à intervenir et à répondre en premier lieu à une question d’ordre général, à savoir qu’est-ce que physiquement un qubit ? M. Chomaz a distingué les qubits physiques des qubits logiques, Mme Senellart a évoqué les qubits photoniques et M. Reymond parlera des qubits d’atomes froids. Pouvez-vous nous donner un panorama général des différentes sortes de qubits existant actuellement ?

M. Georges-Olivier REYMOND, président-directeur général de Pasqal. Merci de votre invitation. Je vais essayer d’être concret. Je suis cofondateur de la société Pasqal qui fabrique des processeurs quantiques. J’ai réalisé une thèse en physique voici 20 ans sur la technologie qui est aujourd'hui au cœur du savoir-faire de Pasqal. J’ai ensuite rejoint le monde de l’industrie dans des grands groupes et des start-up. Voici deux ans, j’ai créé Pasqal, fort de toute cette expérience. Mon parcours illustre le cercle vertueux de la recherche fondamentale : je n’aurais jamais pensé voici 20 ans qu’une start-up pourrait être créée sur le sujet de mes travaux d’alors. Aujourd'hui, le marché existe, nous livrons les machines à des clients comme le centre CEA de Bruyères-le-Châtel ou le centre de calcul de Jülich, et elles résolvent des problèmes. Nous travaillons avec EDF, le Crédit agricole. Deux machines sont en cours de construction et assureront notre service Cloud afin de rendre le calcul disponible en ligne aux utilisateurs. Deux autres machines sont prévues pour les centres de calcul.

Les smartphones actuels, qui tiennent dans une poche, sont un million de fois plus puissants que les ordinateurs qui ont amené l’homme sur la Lune. Or, un million de ces smartphones mis côte à côte à travailler ensemble ne suffiraient pas à résoudre les problèmes calculatoires qui se posent à nous. Ils ne permettraient pas de trouver de nouvelles molécules pour créer des médicaments, de simuler la matière pour inventer de nouveaux matériaux, de nouvelles batteries, des panneaux photovoltaïques et participer à la résolution du problème du changement climatique.

La solution est quantique. Une première révolution quantique a eu lieu au XXe siècle et a permis l’invention du transistor, du laser, de l’IRM… Aujourd'hui, nous assistons à une deuxième révolution quantique en utilisant les qubits et en les superposant dans leurs états intriqués, afin de réaliser des calculs massivement parallèles. Il ne s’agit pas d’une amélioration continue, mais d’une révolution du calcul, équivalente au passage du travail manuel à la machine à vapeur.

Une étude du Boston Consulting Group a évalué la valeur créée par le calcul quantique à 800 milliards de dollars en 2030. Pour une société comme Pasqal, le chiffre d'affaires annuel à cet horizon peut être estimé à 10 ou 20 milliards.

M. Cédric VILLANI, député, président de l’Office. Entendez-vous par « valeur créée » la résolution de nouveaux problèmes ou des paris sur les réalisations à venir ?

M. Georges-Olivier REYMOND. J’entends par valeur créée ce qui est apporté à l’économie, sur toute la chaîne de valeur, depuis les utilisateurs jusqu’aux sous-traitants. Une partie de ces revenus concerne les fabricants et les fournisseurs de solutions comme Pasqal.

M. Cédric VILLANI, député, président de l’Office. Pouvez-vous nous donner un exemple : sur ces 800 milliards de dollars, combien seront obtenus grâce à la résolution de quoi ?

M. Georges-Olivier REYMOND. Le premier secteur qui bénéficiera de ces technologies est celui de l’énergie. Pasqal travaille avec EDF sur un cas d’usage visant à faciliter la mobilité urbaine. Les automobilistes commencent à basculer vers les véhicules électriques et sont confrontés à la problématique de recharge. Le fait que des milliers de véhicules doivent se recharger en même temps pose d’énormes contraintes sur la grille électrique, car la demande est brutalement très forte sur un nombre limité de stations. Un ordinateur classique ne sait pas résoudre un problème aussi complexe. L’ordinateur quantique permettra de lever ce verrou de calcul. Il intervient dans la mobilité urbaine, l’invention de nouveaux matériaux, l’amélioration de la distribution d’énergie, etc.

Une course est lancée pour fournir les premières machines à usage industriel. Des preuves de concept ont été démontrées. Pasqal et sa technologie sont en tête de course, car elles proposent un nombre de qubits (200) supérieur à celui proposé par exemple par Google (50) – ces nombres sont publiés dans des revues scientifiques à comité de lecture. Les qubits sont des atomes qui encodent l’information et interagissent pour faire les calculs. Le passage de 50 à 200 qubits n’induit pas une évolution proportionnelle de la puissance de calcul : celle-ci est multipliée par deux à chaque qubit ajouté, selon une loi exponentielle. Le passage de 50 à 200 qubits permet de passer de démonstrations de principe au traitement de cas d’usage.

La deuxième course est celle de l’armement. Des levées de fonds et des investissements privés sont très importants notamment aux USA sur des technologies pourtant moins avancées. IonQ, une société similaire à Pasqal avec un ou deux ans d’avance, mais avec une moins bonne technologie est récemment entrée en bourse et vaut déjà deux milliards de dollars. D’autres levées de fonds mobilisent plusieurs centaines de millions de dollars. Certains des concurrents de Pasqal aux USA disposent de 600 millions d’euros pour mener leur stratégie à bien.

Pasqal est une société issue de l’Institut d’Optique, sur le plateau de Saclay, bâtie sur des fondements académiques et sur des années de recherche réalisées au CNRS. Deux de nos cofondateurs sont Alain Aspect, médaille d’or du CNRS, et Antoine Browaeys, médaille d’argent du CNRS. Pasqal bénéficie donc d’une forte expertise technologique. Elle est la 3ème plateforme qui a démontré l’avantage quantique – la publication correspondante a été faite dans Nature , sur un cas d’usage, en résolvant avec 200 qubits un problème de physique fondamentale, la construction du magnétisme quantique dans les matériaux, avec des applications dans les sciences des matériaux et la physique théorique.

Notre avantage est le nombre de qubits. C’est lorsque les technologies sont encore au stade de développement que les avantages qu’elles procurent ont les effets les plus importants et permettent de faire la différence : ils nous permettent aujourd'hui de faire la course avec Google.

Pasqal a été créée en mars 2019 et compte aujourd'hui 40 employés de 9 nationalités. Elle attire des talents de l’étranger. Mme Senellart a dit que les start-up prendraient des ressources à la recherche ; je dirais plutôt qu’elles offrent des débouchés aux brillants étudiants qui ont des difficultés à trouver des postes et mettent en valeur l’environnement. Elles prennent certes de la place, mais font aussi grossir le marché global et les parts de chacun. Pasqal a bénéficié d’un financement de 25 millions d’euros en avril 2021 venant de divers investisseurs internationaux. Enfin, des machines sont en construction et seront installées dans des centres de calcul en Allemagne et en France (CEA, GENCI et Atos). Dans cette première structure de calcul hybride, le calcul quantique sera intégré au calcul classique.

L’action publique est très importante dans l’écosystème : le Plan Quantique, le Plan France 2030, le Flagship européen PASQuanS, les systèmes de subvention européens EIC qui soutiennent les start-up. Un autre levier est la commande publique : le projet HPC-QF en est une belle illustration. Dire à des investisseurs que Pasqal a vendu deux machines a fortement pesé dans la balance de la levée de fonds. Pour la prochaine levée de fonds, si nous pouvons dire que Pasqal a vendu à la France des machines de 1 000 qubits (celles que nous développons actuellement) positionnées dans des centres de calcul, cela aura un énorme impact auprès des investisseurs.

La première révolution quantique a été développée par des physiciens européens, mais le marché est essentiellement positionné aux Etats-Unis. Pour la deuxième révolution, essayons d’en conserver un plus gros morceau !

M. Philippe DULUC, Chief Technology Officer Big Data and Security chez Atos. Mesdames et Messieurs les députés et sénateurs, je vous remercie d’avoir invité Atos à témoigner de l’avancement du Plan Quantique et de sa propre stratégie de développement autour du quantique. J’évoquerai notre stratégie Atos Quantum et ferai un focus sur les partenariats et les financements.

Atos est un grand groupe international dédié à la transformation digitale avec plus de 100 000 employés et 11 milliards d'euros de chiffre d'affaires. 235 millions d'euros ont été dépensés en 2020 sur la R&D. Il est aujourd'hui impossible de survivre dans la compétition internationale sans investissement important sur l’innovation et la R&D, car la seule manière de se différencier est d’avancer et de conserver sa place face aux géants américains (GAFA) et aux acteurs chinois en plein développement.

Le programme Atos Quantum a démarré en 2016 et est parti du constat suivant : Atos est leader dans le marché des supercalculateurs et seul constructeur européen – je souligne l’usage de souveraineté des supercalculateurs en sécurité et simulation nucléaire – et constate que le quantique disrupte le domaine du HPC, car il permet d’accélérer les calculs, alors que ceux des supercalculateurs deviennent difficiles à accélérer à cause de la difficulté croissante à avoir des puces performantes.

La deuxième raison pour laquelle Atos investit dans le quantique est la cybersécurité, dans laquelle Atos est leader européen. Les technologies quantiques disruptent également ce domaine, face aux risques de décryptements quantiques et d’algorithmes cryptographiques qui pourraient mettre en danger la sécurité d’internet. Atos a été dans l’obligation de définir un plan pour se développer dans le domaine du quantique. Ce plan a été lancé par Thierry Breton, qui était PDG d’Atos en 2016, en s’appuyant sur un conseil scientifique indépendant dont Cédric Villani a fait partie.

Ce conseil a mis en place un plan d’action résumé ainsi :

Dès 2017, Atos a commercialisé l’Atos QLM (Quantum Learning Machine), un serveur permettant aux utilisateurs de programmer des algorithmes quantiques, de les optimiser et de simuler leur exécution comme s’ils tournaient sur un ordinateur quantique. Cette machine est vendue dans le monde entier, par exemple à des laboratoires fédéraux américains.

Les recherches sur le HPC hybride se sont poursuivies, en examinant comment incorporer l’accélération quantique dans nos supercalculateurs. En 2023, nous serons en capacité de fournir un supercalculateur accéléré par du quantique. La stratégie d’Atos est de ne pas investir sur les processeurs quantiques, mais sur la partie logicielle, intégration et calculs et de s’appuyer sur des partenariats en identifiant des fabricants de processeurs (Pasqal, Quandela, le CEA et d’autres start-up françaises et européennes). Nous estimons qu’au moins une technologie émergera en 2023 et pourra accélérer les capacités de nos supercalculateurs.

Nous avons mis en place une activité de conseil en 2020, qui a déjà plusieurs clients. Elle est basée à Grenoble.

Enfin, sur les produits de cybersécurité, notre choix a été d’aller vers la cryptographie post-quantique, dans l’objectif de rendre tous nos équipements de cybersécurité résistants aux attaques quantiques, en implémentant des standards en cours de validation (développés par NIST) dont la publication est attendue entre 2022 et 2024.

Le financement de la R&D est essentiel pour ne pas se faire distancer par les concurrents internationaux. Atos consacre chaque année un flux constant de financement sur fonds propres à ses activités quantiques et de cybersécurité. De 2015 à 2017, 100% de cet effort a été fourni sur les fonds propres du groupe. Atos a mis en place une équipe d’une vingtaine de personnes (laboratoire Atos Quantum) composée de physiciens, mathématiciens et spécialistes de l’informatique, qui dépose des brevets et publie des articles. Atos est le premier déposeur européen de brevets sur le calcul quantique.

À partir de 2018, Atos a commencé à bénéficier de compléments de financement issus de l’ANR, du PIA, et de la région Ile-de-France. À partir de 2019, Atos a bénéficié de compléments de financements européens notamment via le Quantum Flagship, dans lequel Atos est présent avec quatre projets (AQTION, PASQuanS, NEASQC et QLSI). L’impact de ces compléments de financement n’est pas négligeable. Par exemple, le QLM est capable de simuler l’exécution mathématique d’un programme, ainsi que les caractéristiques physiques du qubit ; l’obtention d’un financement de type AQTION a permis d’ajouter dans le QLM la simulation des ions piégés ; avec PASQuanS, nous avons pu y ajouter la simulation des atomes froids pour faire de la simulation hamiltonienne. Les compléments de financement permettent d’accélérer la feuille de route et d’ajouter des fonctionnalités.

Le projet européen HPC-QS, sous l’égide du European High-Perfomance Computing Joint Undertaking (EuroHPC JU), a vocation à équiper les États membres en supercalculateurs avec un financement de 50% de l’Union et de 50 % des États. EuroHPC est orienté sur les supercalculateurs et a pris en compte avec HPC-QS la dimension quantique. Atos a obtenu conjointement avec Pasqal un financement de HPC-QS pour mettre en place une capacité d’accélération dans un supercalculateur.

À partir 2021, les compléments de financement proviennent également de la Stratégie nationale des technologies quantiques.

Atos continue à répondre aux différents volets (NISQ, LSQ, formation et cryptographie post-quantique). Atos participera au programme Grand Défi sur la plateforme nationale de calcul quantique hybride, répondra à l’AMI « métiers d’avenir » et à l’appel à projets « cryptographie post-quantique » et sera également présent sur le Grand Défi de passage à l’échelle du calcul quantique. Tout ceci nous aidera à accélérer et à améliorer nos projets, sur le plan tant des performances que des fonctionnalités. Trois start-up américaines sont aujourd'hui valorisées à plus de 1 milliard de dollars (IonQ, PsiQuantum et Rigetti Computing). Elles ont été créées en 2016 et deux d’entre elles entreront bientôt en bourse.

Le domaine des technologies quantiques est très complexe et rien ne peut se faire sans partenariats larges avec des institutions académiques, des start-up, des fournisseurs de technologies habilitantes. Les partenariats les plus emblématiques d’Atos sont les suivants :

M. Cédric VILLANI, député, président de l’Office. Vous travaillez sur l’accélération du HPC avec différentes technologies quantiques. Quels types de calcul peuvent être accélérés ? Quels cas d’usage pourraient illustrer la différence entre le HPC classique et le HPC avec accélération quantique ?

M. Philippe DULUC. Le premier cas d’usage que l’on voit apparaître est l’optimisation combinatoire. La simulation d’une molécule de 10 ou 15 atomes est facile avec un HPC. Plus la molécule est grosse, plus la complexité est forte. La simulation d’une molécule de 100 atomes est ainsi inaccessible à un HPC. Seule la voie du calcul quantique permet d’envisager de continuer à faire de la simulation, d’analyser les réactions chimiques, etc. Total Énergie travaille par exemple sur la séquestration du carbone avec des molécules de plus de 50 atomes et doit utiliser le calcul quantique. On en est encore au stade de la recherche. D’autres exemples d’optimisation combinatoire existent dans le domaine de l’énergie.

M. Philippe CHOMAZ. Lorsque nous équipons nos centres HPC avec les accélérateurs, nous sommes bien dans une phase de démonstration et de préparation de la phase suivante. C’est le bon moment pour réaliser ces investissements, avec un avantage concurrentiel direct aujourd'hui. Il est important de les intégrer à cette communauté HPC et de travailler avec les acteurs du domaine pour coupler les accélérateurs aux calculateurs. La génération de supercalculateurs Exascale qui arrive n’aura pas d’accélérateur opérationnel. On peut avoir une ambition et tracer une route, mais il ne faut pas confondre le monde d’aujourd’hui et le monde qui vient.

M. Cédric VILLANI, député, président de l’Office. M. Chomaz, vous avez évoqué l’exemple du silicium et vous avez insisté sur la différence entre les qubits physiques et les qubits logiques et sur l’existence de verrous techniques. Nous avons ensuite entendu parler de qubits photoniques, de qubits à atomes froids, etc. Pouvons-nous avoir un panorama d’ensemble et comprendre comment replacer la performance à 200 qubits dans cette compétition générale ?

M. Philippe CHOMAZ. C’est très ouvert. Dès que l’on maîtrise un quantum, c’est-à-dire un objet quantique que l’on peut contrôler – qu’il s’agisse d’un spin d’électron, d’un photon, d’un quantum de courant dans un circuit supraconducteur –, on peut commencer à imaginer des qubits et à les coupler. Le nombre de voies possibles est considérable, car tout degré de liberté quantique peut à terme être une source de calcul quantique. Les 200 atomes piégés dans des systèmes optiques de Pasqal ont une certaine avance à l’international, car les avancées académiques sont importantes et que la société Pasqal les maîtrise. Ce système reste toutefois un démonstrateur : ce n’est pas encore aujourd'hui que l’on utilisera uniquement un calculateur quantique versus un calculateur classique. Je suis plus prudent que mes collègues.

M. Cédric VILLANI, député, président de l’Office. Les 200 qubits annoncés par Pasqal sont-ils de vrais qubits logiques ? Certaines technologies distinguent le qubit logique du qubit physique, car on est certain de ce qui va se passer pour l’un, mais pas pour l’autre.

M. Georges-Olivier REYMOND. Le qubit logique n’existe pas pour le moment, seuls les qubits physiques existent. Des équipes – dont celle de Pasqal – travaillent à créer le premier. Ces développements sont encore très fondamentaux et prendront du temps.

Il faut remettre en perspective ce que nous vivons aujourd'hui : nous sommes au début de l’histoire du calcul quantique. Nous n’imaginons pas encore ce que nous allons faire avec les machines que nous créons. Les premiers processeurs inventés étaient spécifiques à une activité, la comptabilité. La situation sera identique pour le calcul quantique. Les différents qubits existant aujourd'hui présentent des avantages et des inconvénients. Telle technologie permettra de bien résoudre tel problème, telle autre permettra d’en accélérer une autre.

M. Cédric VILLANI, député, président de l’Office. Entre les années 1950 où les premiers ordinateurs ont été développés et le moment où les bénéfices de l’informatique ont été considérables pour la société, il s’est écoulé un certain temps. Vous avez cité une étude évaluant à 800 milliards de dollars la valeur ajoutée pour l’économie liée à ces technologies : d’ici à 2030, quels cas d’usage pratiques pourront dégager de telles sommes bénéficiant à la société ?

M. Georges-Olivier REYMOND. Le cas d’usage avec EDF que j’ai évoqué est un problème d’optimisation combinatoire. Il s’agit d’optimiser un planning pour que le temps global de charge de la flotte de véhicules soit minimal. Notre démonstrateur est dans la gamme de 100 à 200 qubits : nous savons qu’elle n’est pas suffisante pour EDF, qui a intérêt à continuer à travailler sur ses calculateurs classiques. Le traitement d’un cas d’usage sur une machine quantique avec de vraies données du terrain est une première mondiale. Un article a été publié récemment montrant l’avantage que pourrait avoir EDF à basculer sur la technologie quantique autour des 1 000 qubits. Pour Pasqal, cette échéance est prévue en 2023. Le problème d’optimisation d’EDF est donc un cas industriel spécifique dont le traitement quantique pourrait commencer à créer de la valeur à partir de 2023 ; les autres cas d’usage restent à identifier.

Autre exemple : nos atomes permettent de simuler le comportement d’un champ d’éoliennes et d’estimer les effets d’éventage – lorsqu’une éolienne est sous le vent d’une autre, son rendement diminue. Pour qu’un champ d’éoliennes soit rentable, il suffit d’apporter quelques pourcentages d’optimisation à l’installation du champ. L’effet de seuil est très fort.

M. Philippe DULUC. Il est difficile de comparer les technologies : Atos est orienté vers les usages et les applications et a développé une métrique Q-Score basée sur les applications. Elle compare les technologies et les processeurs quantiques sur leur capacité à résoudre un problème d’optimisation combinatoire (Max-Cut).

M. Cédric VILLANI, député, président de l’Office. Il s’agit d’une sorte de benchmark

M. Philippe DULUC. Oui. Ce souci de benchmark est également présent dans la Stratégie nationale.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. Je donne la parole à Thierry Debuisschert.

M. Thierry DEBUISSCHERT, Chef de la section physique quantique appliquée chez Thales Research & Technology. Je vous remercie de me permettre de présenter les travaux de Thales sur les capteurs quantiques, notamment sur les capteurs quantiques à base de centres NV du diamant.

Je suis chercheur chez Thales Research & Technology à Palaiseau. J’ai réalisé ma thèse sur la réduction des fluctuations quantiques de la lumière, puis j’ai travaillé sur les communications quantiques et je m’occupe actuellement des capteurs quantiques dans la même entreprise.

La première révolution quantique a montré que l’énergie était quantifiée et qu’elle se décrivait par des états discrets (état 0 ou état 1 par exemple). La microélectronique est basée sur cette avancée scientifique. Depuis une dizaine d’années, nous sommes capables de fabriquer des objets quantiques uniques ; par exemple, une source de photons uniques a été développée au Centre de Nanosciences et de Nanotechnologies (C2N), et un qubit supraconducteur a été développé au CEA. Ces objets mésoscopiques ont des propriétés quantiques au même titre qu’un atome. Une fois maîtrisé ce niveau de conception et de fabrication, nous sommes en capacité d’exploiter pleinement une propriété spécifiquement quantique, à savoir la superposition d’états : le système peut être simultanément dans l’état 0 et dans l’état 1. C’est cette propriété qui est exploitée par les capteurs quantiques, dans des systèmes à 1 qubit. Ces systèmes sont placés dans une superposition des états 0 et 1 puis, une fois couplés à un système extérieur qui matérialise la grandeur à mesurer, on regarde comment celui-ci les modifie. La modification de la superposition permet de remonter à la grandeur physique mesurée.

Les capteurs quantiques sont nombreux et il existe différentes plateformes. Thales développe par exemple :

Un cristal de diamant est naturellement plein d’impuretés, qui lui donnent sa couleur. Une impureté commune est l’inclusion d’azote dans l’arrangement d’atomes de carbone qui constitue le cristal de diamant. Un atome d’azote (N) remplace un atome de carbone (C) et crée aussi une lacune (V) dans le cristal. Ce centre NV (azote couplé à la lacune) se comporte comme un atome artificiel et est la base du « capteur du centre NV du diamant ». Il se comporte comme un aimant de la taille d’un atome que l’on peut insérer dans un diamant de synthèse – on sait aujourd’hui fabriquer des diamants de synthèse de très grande pureté et de très grande qualité cristalline, qui permettent d’explorer les propriétés des impuretés, voire d’une impureté unique, et c’est ce qui nous donne accès à cette physique. Les centres NV ont des propriétés remarquables : de taille atomique, ils permettent d’obtenir des capteurs ayant une résolution spatiale nanométrique, essentielle pour la nanoélectronique ou le nanomagnétisme par exemple ; ils sont à l’état solide, ce qui facilite leur manipulation et leur mise en œuvre ; ils fonctionnent à température ambiante, ce qui est très important pour les applications pratiques telles que celles que recherche Thales ; ils peuvent être manipulés optiquement, par exemple ils peuvent être pompés par un laser vert et on mesurera la luminescence induite qui sera faite de lumière rouge.

De nombreuses applications sont envisagées pour ces capteurs de centre NV :

Ces applications sont en cours de développement et ont de bonnes perspectives. Ces technologies sont développées dans un contexte fortement collaboratif. Je suis le coordinateur du projet européen Asteriqs du Flagship, qui réunit 23 partenaires européens, avec une forte participation française, allemande et suisse. Toutes les applications possibles des centres NV du diamant sont incluses dans ce projet. Thales est aussi impliqué dans d’autres projets européens qui développent d’autres technologies de capteurs.

La France possède des acteurs majeurs dans le domaine, qui permettent de couvrir toute la chaîne de valeur de ces capteurs : des laboratoires universitaires comme le Laboratoire des sciences des procédés et des matériaux (LSPM) et l’Institut de Recherche de Chimie Paris (IRCP) qui sont spécialistes de la croissance du diamant synthétique et peuvent faire des diamants de très haute qualité ; les laboratoires du CNRS et de l’ENS Paris Saclay qui développent des applications innovantes des centres NV, par exemple leur inclusion dans les enclumes en diamant qui sont utilisées pour les recherches sur des matériaux soumis à de hautes pressions pour lesquelles il n’existe pas d’autres moyens de mesure ; Thales, qui développe des dispositifs tels que des analyseurs de spectre utilisant les centres NV du diamant.

Le marché des capteurs quantiques sera en progression régulière au fil des ans et couvre tous les domaines d’activité : médical, communication, navigation, etc. Cette progression sera de l’ordre de 1 milliard de dollars sur les 10 prochaines années. Ce montant ne concerne pas uniquement les capteurs mais aussi tout l’équipement environnant ; par exemple, si des capteurs de champ magnétique miniature sont mis au point, cela s’accompagnera d’une diminution de la taille des équipements médicaux. L’essor des capteurs quantiques aura donc un impact considérable sur de nombreux domaines d’activité. Il est essentiel de développer ces capteurs extrêmement performants et miniaturisés.

Parmi les perspectives spécifiques aux capteurs à centre NV, je vais d’abord mentionner l’intégration : ce dispositif tient dans quelques millimètres cubes et tous les éléments nécessaires à son contrôle pourraient être positionnés sur le même substrat électronique. Il y aussi la technique PDMR (Photoelectric Detection of Magnetic Resonance) : plutôt que d’utiliser un signal optique pour détecter l’état de spin électronique du centre NV, on pourra utiliser un signal électrique, ce qui permettra d’aller plus loin dans la miniaturisation des dispositifs. Enfin, les centres NV peuvent aussi être utilisés dans le domaine des communications et des calculs quantiques, car ils peuvent être une source de photons uniques, on peut les intriquer à distance, et on peut aussi les coupler à des mémoires quantiques constituées du spin nucléaire du carbone 13 dans la maille du diamant.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. Je propose d’entendre le dernier exposé de cette première table ronde en donnant la parole à Jean Lautier-Gaud.

M. Jean LAUTIER-GAUD, Directeur commercial chez iXblue Quantum Sensors. Mesdames et Messieurs les parlementaires, je vous remercie de votre invitation. J’apporterai trois éclairages : celui d’iXblue, qui est une entreprise de taille intermédiaire (ETI), celui de Muquans, une PME qui intervient dans les technologies quantiques et qui vient d’être acquise par iXblue, et enfin ma vision d’ancien chercheur passé dans le privé. Le distillat de ces trois éclairages proposera des pistes pour l’implémentation de la stratégie quantique.

iXblue est un groupe français de haute technologie implanté sur plusieurs sites, notamment à Besançon, Lannion et Bordeaux. Il est spécialisé en photonique et opère dans trois grands secteurs d’activité : la navigation inertielle, les activités marines, et les activités photoniques, notamment pour le spatial et le quantique.

iXblue a récemment acquis la société Muquans, une PME implantée à Bordeaux depuis 10 ans et active dans le secteur des capteurs quantiques. Cette acquisition a donné lieu à la création au sein du groupe de la division iXblue Quantum Sensors. Celle-ci va fournir des capteurs quantiques et des technologies habilitantes qui pourront servir à tous les piliers des technologies quantiques.

Pour mesurer le saut parcouru dans le domaine des capteurs quantiques et de la filière à atomes froids, j’illustrerai ma présentation avec la photo d’une expérience usuelle d’atomes froids en laboratoire et avec celle d’un capteur quantique commercial. Un effort colossal a été fourni pour réduire la compacité et la complexité de la machine. Il est à noter que le physicien présent sur la première photo a disparu de la seconde : le rêve consistant à transmettre la technologie quantique à un non-spécialiste pour ses propres applications est en cours de réalisation. Le gravimètre est désormais déployé sur le terrain. Un gravimètre positionné sur le mont Etna mesure les flux et mouvements de magma dans le sous-sol.

M. Cédric VILLANI, député, président de l’Office. En quoi ce gravimètre est-il quantique ?

M. Jean LAUTIER-GAUD. Il est quantique, car il exploite la superposition d’états des particules quantiques dans des atomes neutres, en exploitant plus particulièrement le principe d’interférométrie atomique permettant des mesures de grande précision, par exemple les mesures inertielles d’accélération.

Cette réalisation est remarquable, nécessaire, mais pas suffisante. Ces technologies peuvent être prises en main par des non-spécialistes mais restent une première génération de capteurs. Il est nécessaire d’aller plus loin, notamment de renforcer la fiabilité de long terme, de diminuer le facteur d’échelle et de fiabiliser ces capteurs pour des utilisations plus opérationnelles et industrielles.

Ce résultat est celui de toute la filière atomes froids en France. Je salue notamment les laboratoires LNE-SYRTE de l’Observatoire de Paris et LP2N de l’Institut d’Optique, les établissements publics qui travaillent sur le sujet et nos fournisseurs. Je souligne l’excellence de la filière française des atomes froids, ce qui augure bien de la suite de la stratégie quantique.

L’activité d’iXblue Quantum Sensors est très vaste et repose sur la fourniture de capteurs aux non-spécialistes : gravimètres servant à suivre les flux de masse dans le sous-sol pour obtenir une meilleure exploitation en géothermie, pour mieux suivre le stockage de CO2 dans le sous-sol et pour améliorer la gestion des aquifères ; horloges atomiques – iXblue propose actuellement la meilleure horloge atomique commerciale du monde ; sous-systèmes dans le périmètre des technologies habilitantes qui offrent des solutions de photonique, d’optomécanique et d’électronique pertinentes pour toute la filière quantique française et européenne.

M. Cédric VILLANI, député, président de l’Office. L’horloge atomique offre une précision relative de 10-15 sur la fréquence. Les précisions indiquées sont-elles, chacune dans leur domaine, parmi les meilleures imaginables aujourd'hui ?

M. Jean LAUTIER-GAUD. Exactement, au niveau industriel. Cette horloge n’est pas la meilleure du monde, car les horloges optiques permettent de gagner un facteur 1000 sur les performances, mais elles sont toujours au stade du laboratoire. Nous parlons ici d’une horloge clé en main, livrable partout dans le monde et installée par n’importe quel technicien.

Le groupe iXblue, avec la reprise des activités de Muquans, incarne une excellence industrielle française pour tout ce qui concerne la manipulation des atomes neutres. Dès qu’il s’agira de manipuler des atomes neutres pour mettre en œuvre différentes technologies quantiques, les technologies habilitantes photoniques développées notamment par iXblue seront de bons candidats. Dans le portefeuille d’activités d’iXblue au sens large, les solutions photoniques seront très pertinentes pour la manipulation des photons et pour des mesures dans les centres NV.

Le travail réalisé pour rendre les capteurs quantiques industriels et fiables permet de les utiliser pour mettre en œuvre d’autres technologies quantiques, en vue de faire des preuves de concept, de développer des produits et de les commercialiser à terme.

IXblue est une entreprise rentable qui finance sur fonds propres une bonne partie de sa R&D. Cela n’est toutefois pas suffisant pour atteindre cette deuxième génération de capteurs et de technologies habilitantes pour les fiabilités à long terme.

Je souhaite évoquer les choses qui fonctionnent bien, notamment par le biais des « équipements d'excellence » (Equipex) et des partenariats public-privé de manière générale. Il est très sain que les start-up et les PME puissent être associées à des projets de recherche et de développement. Je rends hommage aux premiers succès du Plan Quantique, en mentionnant l’action du CNES dans le cadre du Plan de Relance qui nous permet de développer un système laser vers une version spatialisable et un contrat avec la Délégation générale pour l’armement (DGA) dans le cadre du programme CHOF (capacité hydrographique et océanographique future) de la Marine nationale, qui permettra de développer et fournir quatre gravimètres marins destinés au Service hydrographique et océanographique de la Marine (SHOM). La première génération d’instruments est donc validée par les clients et distribuée dans le monde entier.

Cela n’est toutefois pas suffisant et nous souhaitons vous suggérer quelques pistes d’amélioration. La première est le renforcement de l’écosystème des technologies habilitantes, notamment pour l’excellence de la filière française des atomes froids. La deuxième, dans le cadre de la stratégie quantique nationale, serait l’affichage direct des industriels dans les appels à projets PEPR, ce qui n’est pas le cas actuellement. La troisième serait d’utiliser les budgets pour rendre ces technologies plus fiables pour atteindre les applications cibles et satisfaire les besoins des clients, seul moyen de rendre ces activités économiquement viables et pérennes après la clôture du Flagship et du Plan Quantique.

M. Cédric VILLANI, député, président de l’Office. À quelle date est prévue la clôture du Flagship et des autres grands financements en cours ?

M. Jean LAUTIER-GAUD. Dans sept ans.

M. Cédric VILLANI, député, président de l’Office. Dans une de vos présentations, l’agriculture est citée comme étant une des applications possibles de ces technologies quantiques. Je serais curieux d’en savoir plus !

M. Thierry DEBUISSCHERT. Il peut s’agir d’obtenir des capteurs plus performants pour faire par exemple de la détection et du contrôle d’émissions de gaz dans les silos à grains. Il n’est pas forcément nécessaire d’avoir des capteurs de haute précision pour cela mais on a besoin de capteurs petits et intégrés.

M. Jean LAUTIER-GAUD. Pour l’agriculture, le gravimètre permet de suivre les mouvements d’eau dans le sous-sol. Le capteur est au cœur d’une meilleure gestion des ressources en eau, eau potable pour les villes ou eau pour l’irrigation des sols agricoles. Il sera nécessaire d’avoir un capteur encore plus précis et sensible pour mieux suivre en temps réel la charge et la décharge des aquifères suite à une exploitation par l’homme.

M. Cédric VILLANI, député, président de l’Office. Il est donc nécessaire de suivre les variations infimes du champ gravitationnel liées aux mouvements aquatiques.

Dans l’exemple mentionné par Thierry Debuisschert du capteur NV intégré dans le diamant, comment vient l’idée d’utiliser ce genre de dispositif ? Sur quels travaux et modélisations s’appuie-t-elle ? Quel dispositif réalise la mesure et ramène l’information ?

M. Thierry DEBUISSCHERT. Le centre NV du diamant est un défaut naturel du diamant, connu bien avant la découverte des propriétés quantiques. Il s’agit de l’impureté la plus commune des diamants naturels, qui leur donne une couleur rosée. Il existe une centaine de défauts connus dans le diamant. Le centre NV a d’abord été identifié pour ses propriétés d’émetteur de photons uniques. Le centre NV peut être isolé. En le pompant avec un laser impulsionnel suffisamment intense, on peut lui faire émettre un photon à la fois. Il s’agit d’une des premières sources de photons uniques jamais développées et il a l’avantage d’avoir une très grande photostabilité : il peut être éclairé de manière intense sans être détruit et il est stable dans le temps. L’information est captée en mesurant la quantité de lumière rouge émise par le centre NV. Lorsqu’il interagit avec une grandeur extérieure, cette quantité de lumière va diminuer avec un phénomène de résonance. Lorsque la radiofréquence qui va exciter le centre NV coïncide avec la transition (les deux niveaux que j’ai évoqués), la luminescence diminue. En mesurant cette diminution de luminescence, on peut caractériser et mesurer la grandeur à déterminer.

M. Cédric VILLANI, député, président de l’Office. J’invite les parlementaires qui sont en ligne à intervenir s’ils le souhaitent.

M. André GUIOL, sénateur. Ces présentations étaient passionnantes. J’ai connu les premiers pas de l’informatique et vos descriptions donnent le vertige pour l’avenir. J’ai relevé que 5 % du financement du Plan quantique étaient issus du budget de la défense nationale : est-ce suffisant compte tenu des enjeux stratégiques auxquels nous serons confrontés dans les années à venir ?

M. Georges-Olivier REYMOND. Je précise que le fonds d’investissement de la Défense (Def’Innov) a investi dans Pasqal. De nombreux cas d’usage sont à développer dans le domaine. Un axe de la commande pourrait être de développer ces applications pour la défense. Les technologies commencent à être prêtes.

M. André GUIOL, sénateur. Quand on sait quelle était la compétence technologique dont disposait la France en matière de microprocesseurs et qu’elle l’a perdue, et quand on connaît les difficultés que rencontre par exemple l’industrie automobile aujourd'hui, il faudra veiller à ne pas se laisser distancer dans ces nouvelles technologies quantiques, notamment en matière de matériel.

M. Neil ABROUG. La DGA est pleinement associée à la gouvernance multipartite du Plan Quantique assurée par les ministères de l’Économie, de la Recherche et des Armées. La DGA est soumise à une loi de programmation militaire (LPM) qui fige ses investissements sur le long terme. La contribution de la DGA dans le cadre du Plan Quantique s’inscrit dans la LPM, dans laquelle elle a pris le maximum des libertés qu’elle pouvait prendre. La DGA était bien consciente des enjeux du quantique, avant même la mise en place du Plan Quantique, notamment en matière de capteurs et de cryptographie post-quantique. Il est probable que les prochains exercices de la LPM renforceront ce volet. Aujourd'hui, elle correspond à ces 5 %. Dans le cadre de la stratégie nationale, il nous revient donc de veiller à la cohérence et la coordination entre les actions portées par la DGA et la liberté d’action que nous avons dans le cadre du PIA.

L’appel à manifestation d’intérêt « maturation » qui ciblera spécifiquement les capteurs et qui sera rendu public dans les trois prochaines semaines, mentionne explicitement le fait que les porteurs des actions de maturation doivent mettre en place une coordination avec la DGA, afin que les travaux issus des structures de transfert de technologies puissent à la fois alimenter les programmes de la DGA pour les applications de défense et alimenter les programmes soutenus par le PIA pour les applications civiles des capteurs.

L’un des principaux enjeux de la stratégie est également la viabilité économique à long terme des capteurs. Il est important d’avoir de la commande publique par la DGA et des programmes de défense sur les capteurs, mais il est peut-être encore plus important que les capteurs quantiques trouvent des débouchés civils. Nous avons la responsabilité dans le cadre du PIA d’inciter à développer les marchés civils de ces capteurs. Leur sophistication et leur précision font qu’ils ciblent aujourd'hui des applications de niches. Il est nécessaire de leur trouver une viabilité économique en dehors du marché de la défense.

M. Jean LAUTIER-GAUD. Une des clés consistera à pouvoir appliquer ces capteurs au domaine civil. Je rends en cela hommage aux travaux du service des biens à double usage du ministère de l’Économie, car cet objectif devra être conservé tout au long des développements et des premières applications militaires pour pouvoir les appliquer un jour au domaine civil.

M. André GUIOL, sénateur. Il s’agit de favoriser d’une manière générale la technologie duale.

M. Jean LAUTIER-GAUD. Tout à fait.

M. Philippe CHOMAZ. Le hardware est effectivement clé, d’autant que l’on pourrait nous en limiter l’accès. Sans accès au hardware, pas de software en France et en Europe. Il est important de veiller à conserver des développements de hardware en Europe et en France. Il ne faut pas se tromper de bataille. Par ailleurs, les capteurs quantiques sont très mûrs et sont déjà très avancés, les communications sont également bien avancées et l’ordinateur quantique est dans une phase semblable à celle des années 50, avant que la NASA remplace ses calculateurs manuels par des ordinateurs. Les enjeux d’applications pour la défense sont importants et il est nécessaire d’investir sur ces sujets, car nous faisons face à une forte concurrence. Dans les communications, il faut considérer le quantique comme une ressource et un élément de sécurité supplémentaires : nous n’allons pas basculer dans un monde « tout quantique ». La transformation aura lieu au niveau du système, avec le déploiement de ressources classiques et de quelques ressources quantiques.

M. André GUIOL, sénateur. Vous avez évoqué nos partenaires européens et les Etats-Unis, mais sait-on où en est la Chine dans ce domaine ?

M. Philippe CHOMAZ. La Chine investit massivement et possède depuis longtemps un Plan quantique très développé, sur différents systèmes. Elle a réalisé des premières démonstrations avec les communications par satellite. Dans sa stratégie de « saute-mouton », la Chine parie sur la génération qui vient. Il s’agit d’un concurrent fort sur la scène internationale.

Mme Pascale SENELLART. Nous avons bien identifié la force de frappe des chercheurs chinois. On entend peu parler de start-up chinoises, mais des groupes académiques sont massivement financés. L’avantage quantique calculatoire réalisé avec des photons a été démontré par un groupe chinois très connu, qui a bénéficié de moyens financiers hallucinants. Par exemple, l’équipe chinoise s’est attaquée à des problèmes calculatoires de complexité informatique très connus (calcul des permanents) et a comparé la vitesse des meilleurs supercalculateurs existants avec leur machine quantique. Les pairs scientifiques consultés pour la publication des travaux ont constaté que l’équipe montrait un avantage vis-à-vis d’un supercalculateur, mais ont noté que le calcul n’avait pas été réalisé avec beaucoup de qubits. Pour répondre à cet argument, l’équipe a dépensé près de 200 000 dollars supplémentaires. Cela ne se voit pas ailleurs.

M. Cédric VILLANI, député, président de l’Office. Sur ce calcul des permanents, leur ordinateur quantique a donc été plus efficace que l’ordinateur classique.

Mme Pascale SENELLART. Selon mes collègues théoriciens, le calcul des permanents est un des rares problèmes pour lequel l’avantage quantique est démontré théoriquement.

M. Sébastien TANZILLI, directeur de recherche à l’Institut de physique de Nice. Au-delà des financements, la Chine a la particularité de beaucoup anticiper. Philippe Chomaz a mentionné le programme de communication quantique par voie spatiale. Les premiers résultats ont abouti en 2016 et le programme spatial chinois de satellites de communication quantique a commencé dès les années 2007 et 2008, avec des financements monumentaux.

M. Philippe DULUC. Concernant la cryptographie post-quantique, il existe un programme chinois concurrent direct du programme de standardisation américain que j’ai évoqué.

M. Thierry DEBUISSCHERT. Les Chinois possèdent 5 satellites en réserve pour étendre un réseau. L’Agence spatiale européenne (ESA) a été sollicitée depuis une quinzaine d’années pour lancer des satellites quantiques, et ce sont les Chinois qui l’ont finalement fait. J’ai assisté à des réunions à l’ESA dans lesquelles les chercheurs européens et notamment l’équipe d’Anton Zeilinger de Vienne insistait pour que l’ESA lance ces satellites quantiques, car toute la technologie et le savoir-faire étaient disponibles. Cela n’a jamais pu être fait et la Chine a devancé l’Europe et les États-Unis avec un changement d’échelle.

Les Chinois ont la volonté d’apparaître comme des leaders, quitte à lancer des opérations de communication à la limite de la désinformation, comme l’illustre l’affaire des « radars quantiques » grâce auxquels les Chinois prétendaient être capables de détecter des avions à des centaines de kilomètres. Cette annonce a suscité une effervescence dans tous les ministères de la défense européens et américains : il s’agit probablement d’une désinformation qui amène les autres pays à mobiliser, voire détourner les énergies des vrais objectifs.

M. Cédric VILLANI, député, président de l’Office. Je reviens sur les cas d’usage. La programmation quantique a pris un virage quand Peter Shor a montré qu’un algorithme quantique pouvait factoriser les très grands nombres premiers. La question des problèmes que l’on pouvait mieux résoudre de manière quantique que de manière classique s’est alors posée. L’apprentissage automatique quantique par les machines est resté longtemps un problème ouvert, puis des voies de résolution sont arrivées. Le calcul des permanents évoqué par Pascale Senellart est un des rares problèmes pour lequel une suprématie théorique du quantique a été démontrée. Quel est aujourd'hui l’état de l’art sur les cas d’usage et les problèmes dont on sait qu’ils pourront être traités plus efficacement d’une manière quantique que d’une autre ?

Mme Pascale SENELLART. Le calcul quantique des permanents est désormais une réalité. Les cas d’usage se développent au fur et à mesure des progrès techniques. Nous voyons se développer des algorithmes très spécifiques, comme la résolution d’équations différentielles appliquées à la chimie qui peut se transposer à d’autres systèmes. Il serait hasardeux de rechercher dès à présent des cas d’usage bien identifiés, car la communauté se construit progressivement, comme toutes les communautés de rupture. Il est difficile de ce fait de vous apporter des exemples plus concrets que ceux évoqués au cours de cette table ronde. Les nouveaux cas d’usage émergeront lorsque de grands acteurs industriels comme EDF, Orange, Total rechercheront des optimisations.

M. Philippe CHOMAZ. Le problème à N-Corps en chimie sera probablement un des premiers résolus par le quantique et la résolution des problèmes pourra aller jusqu’à l’équation de Navier-Stokes.

M. Cédric VILLANI, député, président de l’Office. Deepmind annonçait il y a peu de temps pouvoir prédire la structure de protéines grâce au logiciel d’intelligence artificielle (IA) Alphafold, donc sans ordinateur quantique mais avec un algorithme « réseau de neurones ». Est-il possible de rétorquer que ces problèmes pourront être résolus par d’autres manières, moins exhaustives et plus approchées, mais qui seront suffisantes pour les cas d’usage ?

M. Philippe DULUC. Il existe des cas d’usage en d’apprentissage machine. Les sujets d’optimisation combinatoire permettent de traiter des algorithmes d’apprentissage comme le clustering, qui vise à classer des populations selon des critères complexes et fondés sur la détection automatique de similarités. Nous savons le faire via le calcul quantique. Plusieurs cas d’usage ont été cités ce matin. Concernant l’optimisation combinatoire, un domaine intéressant pour certains utilisateurs est le problème « des voyageurs du commerce » qui permet de réaliser de l’optimisation de ressources (ressources scheduling), car celle-ci devient complexe dès lors que les ressources sont nombreuses. Le calcul quantique s’applique très bien dans ce domaine.

M. Georges-Olivier REYMOND. Nos premiers concurrents sont les technologies classiques, qui réalisent également d’importants progrès. Le calcul quantique apporte un avantage important en termes d’énergie consommée : un processeur quantique consomme moins d’électricité que cinq sèche-cheveux. Pasqal a développé un algorithme d’apprentissage machine quantique, qui pour le moment n’est pas aussi performant que les solutions d’apprentissage profond, mais consomme 5 kilowatts, ce qu’il faut comparer aux « tonnes » d’électricité nécessaires pour faire tourner un centre HPC construit à base de processeurs graphiques. L’avantage réside certes dans la performance, mais également dans le coût économique et énergétique sous-jacent.

M. Cédric VILLANI, député, président de l’Office. Cette remarque est très intéressante. Pour aller au bout de la logique, il serait nécessaire de comparer également les coûts de production, mais ces technologies en sont à des stades de maturation différents et sont donc difficilement comparables en l’état.

Mme Pascale SENELLART. L’estimation de l’avantage énergétique apporté par les technologies quantiques est engagée. La question, compliquée, est liée à la qualité et la fiabilité du calcul quantique. On ne sait pas encore si un ordinateur avec correction d’erreur serait plus économe en énergie qu’un ordinateur classique. Il semblerait que les ordinateurs de petite taille avec des qubits imparfaits présentent un avantage énergétique mais on ne sait pas si cela reste vrai en passant à l’échelle ; il serait nécessaire de lancer une étude sur le sujet.

M. Philippe CHOMAZ. Je confirme que les technologies classiques avancent : en termes énergétiques, la spintronique, les nouveaux moyens de calcul électroniques, la vallée-tronique bénéficient de nombreuses innovations. Il s’agit d’une course. L’élément le plus marquant à mon sens est la taille de l’espace de Hilbert, c’est-à-dire la taille de la mémoire nécessaire pour stocker les calculs. Certains calculs réalisés sur un ordinateur quantique ne rentrent dans aucune mémoire d’ordinateur classique. Il faut avoir en tête ces ruptures relatives à la mémoire.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie de tous ces éléments. Nous aborderons la deuxième table ronde après une courte pause.

*
*      *

Seconde table ronde
Communications quantiques et cryptographie post-quantique

M. Cédric VILLANI, député, président de l’Office. Cette seconde table ronde sera plus courte que la première, avec quatre intervenants. On peut regretter l’absence de parité. Les sujets technologiques manquent hélas de femmes et notre société doit se donner l’objectif d’y remédier. Nous accueillons :

Je vous propose comme précédemment d’enchaîner les exposés avant de procéder aux questions/réponses.

M. Sébastien TANZILLI, directeur de recherche à l’institut de physique de Nice. M. le président, Mesdames et Messieurs les députés et sénateurs, je vous remercie de votre invitation. Je suis directeur de recherche du CNRS à l’Institut de physique de Nice, laboratoire conjoint de l’Université Côté d’Azur (UCA) et du CNRS. Je me propose de vous présenter un point de situation sur la mise en place d’un test bed (banc d’essai) d’un réseau de communication quantique opérationnel à Nice Côte d’Azur nommé Quantum@UCA. J’ai
sous-titré ma présentation en indiquant que nous allons de la production d’intrication photonique à l’établissement de clés secrètes de cryptographie. Comment établir des clés secrètes entre partenaires distants pouvant servir à des tâches de cryptographie avec de l’intrication photonique ? L’idée est d’établir un benchmark quantique grâce à des clés privées de cryptographie pour effectuer des tâches de communication que les moyens d’information classiques ne permettent pas de faire ou ne font pas de manière satisfaisante.

Une source génère une paire de photons intriqués, dont l’un est envoyé à Alice et l’autre à Bob. Dans la table ronde précédente, il a été question de superposition cohérente d’états d’un système quantique unique (état 0 et état 1). Ici, on a augmenté la dimension de l’espace de Hilbert des configurations quantiques, puisqu’on dispose d’une paire de qubits qui lorsqu’ils sont produits, sont tous les deux dans une superposition des états 0 et 1. Si ces deux photons sont distribués respectivement à Alice et à Bob, ces derniers peuvent demander à leur photon respectif quelle est sa valeur d’information. Grâce à l’intrication quantique, si Alice obtient la valeur logique 0 sur l’un des deux qubits intriqués, le photon de Bob aura automatiquement la même valeur. Les résultats des mesures chez Alice et Bob, lorsqu’on produit un état intriqué de cette manière, sont parfaitement corrélés.

Comment aller jusqu’à l’établissement de clés secrètes entre ces deux partenaires, éloignés de quelques kilomètres à plusieurs centaines de kilomètres ? Le protocole basé sur l’intrication induit que les résultats chez Alice et Bob sont non seulement parfaitement corrélés, mais aussi purement aléatoires. Le photon parti de la source jusqu’à chez Alice n’a jamais porté seulement l’état 0 puisqu’il était dans une superposition des états 0 et 1. C’est seulement lorsqu’Alice a procédé à sa mesure que ce photon a révélé son état logique. Automatiquement, la même valeur est apparue chez Bob. Des chaînes de bits établies de part et d’autre, chez Alice et Bob, sont donc à la fois parfaitement corrélées et parfaitement aléatoires. Elles peuvent être considérées comme parfaitement secrètes. La sécurité vis-à-vis de ces chaînes de bits établies aléatoirement et parfaitement corrélées est testée grâce à des témoins d’intrication. Plutôt que de faire des analyses dans la base 0 et 1, les analyseurs permettent de tester la qualité de l’intrication et de savoir, en cas d’attaque, si les clés sont bien secrètes.

Le projet Quantum@UCA vise la mise en place d’un réseau quantique opérationnel en champ réel, en partenariat entre l’UCA et Orange. Une convention de coopération a été signée en mai 2019 et a consisté à réserver une paire de fibres noires pouvant relier 3 campus de l’UCA. Il a été nécessaire de déterminer le routage spécifique de ces fibres pour relier ces 3 campus en évitant tous les systèmes classiques incompatibles avec la manipulation d’information quantique. Il a fallu également réaliser des travaux de génie civil pris en charge par Orange afin de concaténer ces fibres noires, d’éviter les répéteurs et d’avoir accès aux fibres optiques dans les bâtiments prévus. La convention crée aussi une collaboration entre les laboratoires d’Orange travaillant sur la cryptographie sécurisée par des moyens quantiques (Quantum Safe Cryptography) et notre équipe, afin de rendre ce réseau fonctionnel à court terme.

L’objectif est de créer un lien de communication quantique avec un benchmark de cryptographie quantique : le premier site (Bob) est dans la salle des machines d’Inria du campus SophiaTech, le deuxième (Alice) est basé à l’Institut de physique de Nice et le troisième (source des paires de photons intriqués) dans un bâtiment de la métropole Nice Côte d’Azur, dans le nouveau campus « Ecovallée de la Plaine du Var » de l’UCA. 15 kilomètres séparent la station centrale d’Alice et 35 kilomètres séparent la station centrale de Bob, soit 50 kilomètres au total. Lorsqu’une paire de photons est produite, l’un est véhiculé vers Alice et l’autre vers Bob. La mise de fonds de ce projet s’est faite via l’Idex UCAJedi, la métropole Nice Côte d’Azur, la société Orange et un projet Horizon 2020.

Les fibres opérationnelles ont été obtenues en janvier 2020, mais la crise sanitaire n’a pas permis de reprendre nos activités de recherche sur le terrain avant novembre 2020. Depuis juillet 2021, les caractéristiques opérationnelles de ce réseau sont les suivantes :

Le réseau Quantum@UCA se veut être un test bed ouvert offrant un environnement propice pour tester divers protocoles et divers états quantiques et diverses technologies de photonique quantique.

Les perspectives à court terme consistent à augmenter le débit : une démonstration de laboratoire a montré que via des stratégies de multiplexage fréquentiel et temporel compatibles avec les réseaux télécoms standards, on pourrait viser des débits de clefs secrètes proche du mégabits par seconde.

Les perspectives à court et moyen terme consistent à utiliser ce lien de cryptographie quantique et faire de la téléportation à base de photons uniques (fournis par Quandela) et d’intrication photonique. Nous développons un étage de conversion de fréquence en optique non linéaire intégrée : il s’agit de convertir la longueur d’onde des photons issus de la boîte quantique vers une longueur d’onde télécom, afin de rendre les sources de photons uniques compatibles avec les standards de télécommunication.

À plus long terme, nous avons obtenu, avec Thales Alenia Space et Sorbonne Université, un contrat avec le CNES pour définir des architectures de communication quantique via le segment spatial. Nous avons également obtenu un soutien de l’Agence de l’innovation de défense pour intégrer des sources de lumière quantique afin qu’elles répondent aux contraintes spatiales et être embarquées sur un satellite.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie. Il est intéressant de voir à quel point ce projet est leader dans son domaine. Je donne la parole à M. Oudiette.

M. Cédric OUDIETTE, directeur de la stratégie des programmes futurs pour les communications sécurisées chez Airbus. Merci beaucoup M. le président, Mesdames et Messieurs les parlementaires. Je vous présenterai ce que fait Airbus dans le domaine des communications quantiques, notamment dans le cadre du programme européen Europlus Line.

Le cœur de métier de notre activité concerne les communications hautement sécurisées pour les gouvernements et les ministères de la défense. L’avènement des ordinateurs quantiques est riche de promesses, mais amène également de nouvelles menaces. Il met notamment en péril la sécurité des réseaux tels qu’on les connaît aujourd'hui et fragilise la robustesse de la cryptographie des échanges qui transitent dans un réseau.

L’objectif du programme européen est de développer la première brique d’un internet quantique à l’échelle européenne et d’assurer une transmission de clés sûre permettant de répondre à ce nouveau défi lié au progrès quantique. La transmission de la clé est totalement sécurisée, basée sur les propriétés physiques de la lumière, et il est impossible pour un hacker de lire cette information sans que ceci soit connu. Les communications quantiques sont à la fois l’épée et le bouclier, car elles créent de nouvelles menaces, mais permettent aussi de communiquer de manière totalement sécurisée.

La vision européenne est incrémentale : l’étape de l’année 2021 est celle des études de systèmes qui permettront de définir l’architecture des prochains réseaux. Airbus mène un des deux consortia aujourd'hui avec Orange et de nombreux partenaires européens. À l’issue de cette étude, la Commission européenne exploitera une architecture technique afin de déployer un premier système par étape : démonstrateurs en 2024, système pleinement opérationnel permettant l’échange de clés quantiques en 2028 afin d’aller vers l’internet quantique complet et totalement inviolable en 2035.

Ce programme intègre une dimension terrestre, portée par Orange, et une dimension spatiale. En effet, l’une des problématiques des communications quantiques est la préservation de la clé sur une distance de plus de quelques dizaines de kilomètres. Les solutions spatiales permettent d’avoir une plus grande élongation. La vision est celle d’un système : pour avoir un réseau résilient pour un usage gouvernemental, il est nécessaire de combiner à la fois une dimension terrestre, organisée autour d’un réseau de fibres noires avec des nœuds sécurisés sur le territoire national et des nœuds frontières entre les pays, et une dimension spatiale satellitaire, qui permet de transmettre des clés par envoi de photons et qui présente à la fois un avantage en termes de distance et des inconvénients liés à une moindre efficacité pendant la journée et à des moindres débits. Pour l’utilisateur final, le système fonctionne de manière transparente et permet de passer des communications sécurisées. Un orchestrateur allouera en permanence le trafic, priorisera et déterminera des règles d’acheminement et de transmission des clés.

Un des principaux défis de ce programme concerne l’interopérabilité. L’information doit passer des frontières et transiter dans un réseau avec des particularités régionales ou locales. L’objectif est de concevoir une architecture système pleinement interopérable et interconnectée. Orange nous apporte son savoir-faire dans ce domaine en s’appuyant sur l’infrastructure existante, en faisant mûrir des solutions et en les transposant à l’échelle industrielle.

Le rythme des prochaines étapes est rapide. Sur les systèmes, des appels d'offres européens sont attendus dès 2022 sur la partie terrestre et orchestration, avec un objectif de déploiement d’un premier prototype en 2024. Sur le segment spatial, la réponse de l’ESA est arrivée et des appels d'offres sont attendus début 2022. À un horizon de 3 ou 4 ans, nous aurons en orbite et au sol des éléments de systèmes permettant d’avoir une première expérience opérationnelle. L’objectif est ensuite de passer d’une étape d’innovation en laboratoire ou en start-up à une échelle opérationnelle, avec des éléments mesurables pour un utilisateur.

En connexion avec le Plan Quantique français, nous avons d’excellentes chances de positionner la France comme un acteur leader dans ce programme européen. Cela passe par une exploitation maximale et une optimisation des complémentarités entre financements européens et français et par la mise en place d’une équipe française unie et forte.

Toutes les technologies sont maîtrisées en laboratoire et dans des universités et il est désormais nécessaire de passer à une échelle industrielle, de bâtir des filières d’excellence et d’être capable de produire de manière récurrente un service reconnu comme fiable et résilient. D’un point de vue technique, les communications optiques sont la base des communications quantiques. Airbus est le chef de file dans le domaine spatial pour structurer la filière industrielle concernant les liaisons laser entre l’espace et le sol. Capitaliser sur les filières qui existent déjà en France permettra d’aboutir à une autonomie maximale en Europe avec un contenu français important.

Je souligne l’importance du Plan Quantique français qui permettra de passer à la vitesse supérieure en accélérant et démultipliant les actions en cours. Le fait que l’État se positionne en utilisateur de ce système est un fort élément de crédibilité apporté aux futurs utilisateurs.

M. Cédric VILLANI, député, président de l’Office. Messieurs Tanzilli et Oudiette, à quel horizon peut-on attendre que ces usages soient bien implantés et deviennent courants ?

M. Sébastien TANZILLI. En tant que pilote du projet, j’ai toujours souhaité inscrire ce test bed de communication quantique azuréen dans son territoire, ce qui explique la présence de la métropole Nice Côte d’Azur. Nous identifions actuellement un cas d’usage qui permettrait de sécuriser des échanges de données sensibles entre divers bâtiments de la métropole. La sécurisation des échanges de données soulève deux questions : pour un jeu de données, quel est le niveau de sécurisation nécessaire ? Quel est le degré de pérennité avec lequel on souhaite sécuriser cette information sensible ? Ce cas d’usage répondrait à cette question de haute sécurité et de pérennité.

M. Cédric OUDIETTE. On peut distinguer deux étapes. La première consiste à échanger des clés quantiques dans un réseau avec des nœuds sécurisés avec un déchiffrage et un rechiffrage : un système sera opérationnel à l’horizon 2028, dans le cadre du programme EuroQCI. La seconde étape concerne l’échange de photons intriqués, autrement dit la téléportation photonique, qui est en maturation et un réseau opérationnel n’est pas attendu avant 2030-2035.

M. Sébastien TANZILLI. Deux cas d’usages ont été identifiés par la communauté des chercheurs et consistent à mettre en relation des processeurs ou des capteurs quantiques via des procédés sécurisés d’échanges de données. La stratégie nationale s’appuie sur plusieurs piliers de développement et l’une des perspectives de cet outil de financement sera de réfléchir à une architecture permettant à des processeurs quantiques de communiquer les uns avec les autres pour en décupler la puissance, via une sécurisation des transmissions de données par cryptographie quantique – la même chose valant évidemment pour les capteurs.

M. Cédric VILLANI, député, président de l’Office. La technologie est-elle stabilisée ou plusieurs types d’architecture sont-ils encore explorés ?

M. Sébastien TANZILLI. La réponse est à la fois oui et non. On a identifié le photon comme le porteur d’information quantique privilégié : les photons intriqués tels que ceux produits à l’UCA par optique non linéaire, ou les photons uniques tels que ceux produits par le C2N ou par Quandela. D’autres plateformes technologiques que celles évoquées aujourd'hui permettent de générer des photons uniques ou intriqués. Les photons sont le véhicule principal pour établir des clés secrètes à distance, mais d’autres éléments des architectures de réseaux de communication quantique ne sont pas encore sortis des laboratoires, comme les mémoires quantiques qui sont des systèmes matériels à base d’atomes froids ou de défauts du diamant. À terme, il faudra pouvoir coupler génération et manipulation de photons pour établir des clés secrètes, mémoire quantique pour stocker, reproduire et distiller l’information quantique, en combinaison avec le segment spatial par satellite.

Mme Pascale SENELLART. Des efforts sont également réalisés sur la cryptographie avec d’autres vecteurs lumineux, qui relèvent de ce que l’on appelle les variables continues, notamment par les équipes d’Eleni Diamanti et Philippe Grangier. Leur approche s’appuie sur des composants « sur étagères » permettant d’utiliser des objets plus faciles à produire et dès à présent de réaliser des échanges de clés cryptographiques. On a donc la chance, en France, d’avoir des acteurs travaillant selon deux approches techniques différentes, même si celle-ci permet l’échange de clés cryptographiques mais n’ouvre pas à l’internet quantique qui permettra peut-être un jour de mettre en réseau des ordinateurs quantiques.

M. Cédric OUDIETTE. La transmission de clés mobilise deux familles de technologies, en variables continues ou en variables discrètes, et d’un point de vue industriel, l’enjeu est de réussir à obtenir des standards et de l’interopérabilité ; ceci n’empêche pas la coexistence de plusieurs technologies mais elles doivent se placer dans un cadre cohérent. La communication entre ordinateurs quantiques est plus disruptive, avec un aspect multiplicateur qui n’existe pas dans le monde des calculateurs standards. Lorsqu’on connecte deux ordinateurs quantiques, on obtient un facteur d’échelle exponentiel. Sur ce volet, les standards et les niveaux de performance n’ont pas encore été définis.

M. Thierry DEBUISSCHERT. Nous avons réalisé une démonstration sur le terrain de distribution de clés par variables continues voici 10 ans entre Massy et Palaiseau, qui a fonctionné pendant 6 mois. Cette technologie, établie, est en phase d’être reprise par Thales Alenia Space qui possède un savoir-faire de distribution quantique de clés notamment pour les applications spatiales, sur les protocoles quantiques et également sur les stations au sol permettant de faire des communications optiques avec les satellites.

M. Damien STEHLÉ, Professeur à l’ENS Lyon. Je souhaite apporter quelques corrections à certains propos que j’ai entendus sur les communications quantiques. Je suis spécialiste en cryptographie, mon domaine de recherche depuis une quinzaine d’années. Il faut être vigilant sur ce qui est dit de la sécurisation des données avec les communications quantiques : l’installation de nœuds pour déchiffrer et rechiffrer les données représente une faille de sécurité monumentale et il est dangereux de déployer ce type d’infrastructures. La sécurisation des données passe par deux propriétés fondamentales : la confidentialité (les données sont secrètes) et l’authenticité (je sais à quelle personne je parle). Dans certains cas de figure, le besoin d’authenticité ne s’accompagne pas nécessairement d’un besoin de confidentialité, par exemple pour la signature de documents, mais il est très rare d’avoir besoin de confidentialité sans avoir besoin d’authenticité. Les communications quantiques apportent une forme de solution pour la confidentialité, mais pas pour l’authenticité. Dans tous les cas, la sécurité du système repose sur celle du maillon le plus faible, en l’occurrence la sécurité de l’authenticité.

M. Thierry DEBUISSCHERT. La question de l’authentification du canal en cryptographie quantique a été beaucoup étudiée et a notamment été prise en compte par le réseau Secoqc (Secure Communication based on Quantum Cryptography, soit Communication sûre fondée sur la cryptographie quantique) développé à Vienne, en Autriche, voici une dizaine d’années et qui regroupe plusieurs acteurs européens. Il utilise des fonctions de hachage et de sécurité inconditionnelle afin de garantir qu’Alice parle bien à Bob, sans espion dans le canal.

M. Henri GILBERT, responsable des laboratoires de Cryptographie de l’ANSSI. L’ANSSI est l’autorité nationale en matière de cybersécurité. Je partirai d’une esquisse du domaine technique de la cryptographie post-quantique et j’évoquerai l’utilité et les modalités du déploiement de la cryptographie
post-quantique. La menace quantique est celle que représente l’éventualité de l’apparition d’ordinateurs quantiques très puissants pour la sécurité des informations numériques. La cryptographie post-quantique est une branche de la cryptographie qui vise à prévenir la menace quantique par des moyens fondés sur des principes mathématiques. Il ne faut pas la confondre avec la cryptographie quantique qui vise à prévenir cette menace par des moyens fondés sur les principes de la physique quantique.

La cryptographie permet de protéger des informations numériques au moyen d’algorithmes cryptographiques en utilisant de manière combinée deux principales catégories d’algorithmes : les algorithmes symétriques (chiffrement des communications) et asymétriques (établissement de clés, signatures numériques). L’excellence française académique et industrielle est reconnue dans le domaine de la cryptographie et l’ANSSI a un rôle de conseil et d’autorité réglementaire.

Précisons la menace quantique. Si des ordinateurs quantiques à très grande capacité de calcul voient le jour, la cryptographie asymétrique actuelle s’effondrera car sa sécurité repose sur des problèmes mathématiques faciles à résoudre pour un ordinateur quantique ; la cryptographie symétrique sera plus faiblement affectée et il suffira pour restaurer sa sécurité d’adapter légèrement les paramètres.

M. Cédric VILLANI, député, président de l’Office. Pouvez-vous rappeler quels sont les principes de la cryptographie asymétrique et de la cryptographie symétrique ?

M. Henri GILBERT. La cryptographie symétrique repose sur le partage préalable par les interlocuteurs d’un secret commun, la clé. La cryptographie asymétrique échappe à la nécessité d’une possession préalable de secret et permet de régler de grands problèmes comme des échanges de données sécurisées dans de très grands réseaux.

Il est difficile de prédire si de tels ordinateurs existeront un jour et, dans l’affirmative, s’ils apparaîtront avant ou auprès 2035, mais la prudence commande de commencer à se prémunir dès maintenant contre les attaques de tels ordinateurs, afin notamment de prévenir les attaques rétroactives du type « enregistrer maintenant sur des systèmes actuels, cryptanalyser n années plus tard ». Pour des données hautement sensibles à protéger durablement, nous sommes dès aujourd'hui exposés à cette menace.

L’ANSSI recommande, comme la plupart des agences mondiales de sécurité, de commencer à prévenir cette menace quantique dès que possible,
c’est-à-dire dans un délai de 1 à 4 ans, au moins dans deux cas : lorsque les informations sensibles nécessitent une protection de longue durée au-delà de 2030 ; pour les produits de sécurité susceptibles de continuer à être utilisés au-delà de 2030. Et cela, en déployant des solutions post-quantiques « hybrides ».

Un des grands avantages de la cryptographie post-quantique est d’être déployable dans les systèmes de communication numériques sans modifications majeures, tout en nécessitant quelques adaptations de la partie cryptographique. Elle enrichit la boîte à outils des algorithmes asymétriques actuellement déployés avec des algorithmes post-quantiques, dont la sécurité est fondée sur des problèmes mathématiques conjecturés comme résistant aux ordinateurs quantiques. Il existe 5 principales familles d’algorithmes asymétriques post-quantiques fondés sur les réseaux euclidiens et les codes correcteurs d’une part, et sur les graphes d’isogénies, la cryptographie multivariée et le hachage de l’autre.

L’ANSSI considère que la cryptographie post-quantique est une réponse réaliste à la menace quantique. La France abrite une proportion substantielle des compétences mondiales sur les quatre premières familles d’algorithmes mentionnées ainsi qu’un écosystème riche de la sécurité numérique capable de développer des solutions allant de la recherche publique aux entreprises de la sécurité numérique en passant par des start-up pour le développement de briques logicielles ou matérielles.

La cryptographie quantique est une autre réponse à la menace quantique, mais elle nécessite une infrastructure spécifique de liaisons quantiques point à point. L’ANSSI a rédigé un avis scientifique et technique sur les possibilités ouvertes par la cryptographie quantique. En tant que cryptologue, je rejoins les commentaires de Damien Stehlé qui sont convergents avec le contenu de l’avis.

La cryptographie quantique ne fournit pas un équivalent fonctionnel complet de la cryptographie asymétrique, notamment en raison de fortes contraintes de déploiement. En milieu terrestre, on ne peut pas avoir l’équivalent des capacités de routage actuelles sur un grand réseau et elle n’est pas déployable à grande échelle avec une haute sécurité pratique, sauf en prenant le risque d’utiliser des nœuds de confiance, ce qui fait considérablement chuter la sécurité.

Les possibilités ouvertes restent proches de ce que permettent des architectures de gestion de clé fondées uniquement sur la cryptographie symétrique, que l’ordinateur quantique menace faiblement.

L’emploi de la cryptographie quantique est envisageable dans un nombre limité de cas. La recommandation sera de l’utiliser en complément à une protection cryptographique, à titre de défense en profondeur.

La campagne de normalisation du National Institute of Standards and Technology (NIST) vise à sélectionner des algorithmes symétriques
post-quantiques et à établir des clés et des signatures en vue de leur normalisation par l’État américain. Plus de 80 algorithmes issus du monde entier ont été examinés : au troisième tour, il reste 7 finalistes, dont 2 seront probablement sélectionnés avant fin 2021, et 8 finalistes alternatifs. La légitimité du NIST pour mener ce genre d’opération est paradoxale, car il s’agit d’un organisme national de normalisation ; elle provient de sa capacité unique à mobiliser la communauté de recherche. Il joue un formidable rôle d’accélérateur de la maturation du domaine. La recherche académique et industrielle française est très fortement représentée dans le processus engagé, puisque 5 finalistes et 4 alternatifs ont au moins un co-auteur français.

Notre perception de la maturité des techniques post-quantiques est assez bonne, notamment grâce aux efforts du NIST, mais elle ne doit pas être surestimée. On manque encore de recul, davantage que pour la cryptographie actuellement déployée, sur la sécurité classique et post-quantique des algorithmes, sur leur intégration dans des protocoles plus complexes et sur la sécurité des implémentations.

En conséquence, le remplacement direct des algorithmes asymétriques classiques existants par les nouveaux algorithmes asymétriques post-quantiques entraînerait un risque significatif de régression de la sécurité face aux attaquants actuels. Ce constat ne doit toutefois pas servir d’argument pour retarder le début de la migration, mais appelle certaines précautions afin de prévenir toute régression. Une courte phase d’apprentissage pourrait être tolérée afin que ces techniques deviennent un jour une solution de substitution complète.

Les préconisations de l’ANSSI sur la transition post-quantique sont les suivantes :

L’ANSSI publiera avant la fin de l’année un avis sur la cryptographie post-quantique où il sera question de migration et qui définira les grandes lignes d’un schéma de migration en 3 phases. La phase 1, au moins jusqu’en 2025, correspondra au début de la migration et à une phase d’apprentissage. La phase 2, jusqu’en 2030, visera un renforcement des exigences. La phase 3, après 2030 verra la finalisation de la migration.

M. Cédric VILLANI, député, président de l’Office. Je vous remercie pour cette présentation et je propose d’entendre M. Damien Stehlé.

M. Damien STEHLÉ, Professeur à l’ENS de Lyon. Merci Monsieur le président, Mesdames et Messieurs les parlementaires de votre invitation. Je me suis présenté précédemment. Je souhaite appuyer un propos très important de Pascale Senellart. Nous lançons actuellement des projets ambitieux et de grande envergure sur du long terme et la formation des étudiants est essentielle pour les construire sur des bases solides et pérennes.

Face à la menace quantique, la plupart des protocoles à clé publique déployés aujourd’hui reposent sur des variantes des problèmes suivants :

Ces problèmes sont toutefois faciles à résoudre pour un ordinateur quantique suffisamment puissant. Dès aujourd’hui, un attaquant peut stocker les communications pour les déchiffrer plus tard avec un ordinateur quantique.

Qu’est-ce que la cryptographie post-quantique ? Alice et Bob veulent communiquer de manière sécurisée, avec confidentialité et authenticité, et sont classiques en ce sens qu’ils ne disposent pas de ressources quantiques. En revanche, l’attaquant a accès à un ordinateur quantique et interagit classiquement avec Alice et Bob. La principale différence par rapport à la situation actuelle est donc la capacité de calcul de l’adversaire.

Il est nécessaire de choisir des hypothèses de difficulté calculatoire sur lesquelles on peut faire reposer la sécurité post-quantique. Pour cela, il faut identifier des problèmes algorithmiques à la fois quantiquement difficiles et suffisamment expressifs, malléables, pour permettre la construction de primitives cryptographiques. Il est rare que ces propriétés soient simultanément présentes dans les problèmes issus de la théorie de la complexité : de nombreux problèmes semblent être quantiquement difficiles, mais parmi eux peu sont suffisamment malléables pour conduire à des développements intéressants du point de vue de la cryptographie.

Certains problèmes sont issus de la cryptographie symétrique, comme les fonctions de hachage, et fournissent des signatures assez grosses (environ 30 ko), utilisables en pratique.

D’autres problèmes sont dits « algébriques » et reposent sur des objets mathématiques : codes correcteurs d’erreurs, systèmes d’équations quadratiques, isogénies sur les courbes elliptiques, réseaux euclidiens, qui fournissent du chiffrement à clé publique et des signatures de plus petite taille (moins de 2 ko).

Je suis spécialisé dans les réseaux euclidiens. Un tel réseau est l’ensemble des combinaisons linéaires entières d’une matrice, que l’on peut visualiser comme une grille dans un espace euclidien. Les réseaux euclidiens sont un objet mathématique utilisé depuis longtemps, notamment en théorie des nombres et depuis une quarantaine d’années en cryptanalyse, en optimisation, en théorie des communications ; cet objet transverse à de nombreux domaines a été étudié de façon approfondie notamment pour son intérêt en algorithmique. Avec ces réseaux, on peut construire non seulement des protocoles cryptographiques traditionnels comme les signatures ou les chiffrements, mais aussi des protocoles cryptographiques avancés qui permettent l’externalisation des calculs tout en préservant la confidentialité – je fais référence ici aux chiffrements homomorphes, procédés qui permettent d’effectuer des calculs sur des données chiffrées sans pour autant devoir les déchiffrer.

Le problème central lié aux réseaux euclidiens est formulé ainsi : étant donné B et t = B×k + e avec e petit, trouver B×k. Connaissant une base B du réseau et la donnée transmise t, qui est l’information cryptée, le problème consiste à déterminer B×k, le « point » du réseau le plus proche de la donnée transmise, choisi lors du cryptage ; on en déduira alors e, qui est représentatif de l’information non cryptée, le message à transmettre.

Concernant la maturité de la cryptographie post-quantique, le projet de standardisation du NIST date de 2015. La soumission des candidatures a été clôturée en novembre 2017 et plus de 80 candidatures ont été recueillies, issues de nombreux pays. La deuxième phase de sélection en janvier 2019 a fait tomber le nombre de dossiers retenus à 26 et depuis l’été 2020, la troisième phase de sélection a identifié 7 finalistes et 8 semi-finalistes. Un des objectifs annoncés par le NIST est d’aboutir fin 2021 à des premiers choix de standards. Il se laisse le choix de sélectionner plusieurs standards ou non et éventuellement de rouvrir une phase d’étude pour d’autres choix de candidats. Parmi les 7 finalistes on trouve 4 candidats aux chiffrements (Kyber, McEliece, NTRU et Saber) et trois candidats aux signatures (Dilithium, Falcon et Rainbow).

Un premier point est à signaler : la contribution des chercheurs français est importante, car ils font partie de 5 des 7 équipes finalistes. Si l’on tient compte de l’ensemble des chercheurs qui ont travaillé ou ont été formés dans des équipes françaises, la part de l’école française de cryptographie est encore plus importante. Le deuxième point intéressant est que les réseaux euclidiens semblent être le type d’objet algébrique qui se prête le mieux, à ce stade, à la cryptographie
post-quantique.

Pour conclure, le processus de standardisation touche à sa fin. On peut regretter que les discussions actuelles gravitent essentiellement autour de la propriété intellectuelle alors qu’elles devraient se focaliser sur la sécurité. À plus long terme, il est nécessaire de continuer à étudier les hypothèses algorithmiques sous-jacentes, ce travail relevant de la conception d’algorithme et de l’expérimentation, classique ou quantique ; dès qu’il y aura un ordinateur quantique, les cryptographes et les cryptanalystes s’attacheront certainement à tester la puissance de calcul vis-à-vis des hypothèses utilisées. Il faudra enfin concevoir des protocoles post-quantiques avancés incluant le chiffrement homomorphe, le calcul multipartite sécurisé, avec des applications plus courantes comme la monnaie électronique, le vote électronique, etc.

M. Cédric VILLANI, député, président de l’Office. Aujourd'hui, la majorité des cyberattaques et cyber-incidents ne repose pas sur le décryptage d’un problème algorithmique, mais le plus souvent sur des failles systémiques.

M. Damien STEHLÉ. Tout à fait.

M. Cédric VILLANI, député, président de l’Office. De ce fait, l’objectif du post-quantique est-il d’éviter que s’ajoute à ces problèmes systémiques une faille encore supérieure susceptible de briser des protocoles ?

M. Damien STEHLÉ. Quand on évoque la sécurité cryptographique, on est au fondement le plus bas de l’infrastructure de sécurité. S’il est cassé du point de vue mathématique, tout le reste tombe. L’effort de standardisation du NIST vise à aboutir à un standard universel utilisé à moyen ou long terme pour assurer la sécurité de l’ensemble des infrastructures d’État, commerciales, de communication.

M. Cédric VILLANI, député, président de l’Office. Nous avons évoqué la question de la suprématie quantique et Mme Senellart a indiqué que l’on savait dans certains cas que l’ordinateur quantique a un avantage par rapport à l’ordinateur classique. Cet avantage n’est toutefois pas démontré dans de nombreux cas. A contrario, certains problèmes ont été identifiés dans lesquels on sait que l’ordinateur quantique n’apportera pas un avantage établi ou que les algorithmes resteront trop complexes pour être vulnérables à une attaque quantique.

M. Damien STEHLÉ. Votre question fait référence à la théorie de la complexité en informatique. On ne sait pas à ce stade prouver que des problèmes sont impossibles ou très difficiles à résoudre, même classiquement. Cela rejoint le problème P = NP, fondamental en informatique théorique. En cryptographie, l’objectif est d’avoir une bien meilleure résistance que celle permettant de faire face à des attaquants polynomiaux. Pour savoir si des problèmes sont quantiquement difficiles, il reste nécessaire de déployer des hypothèses.

M. Henri GILBERT. Il y a présomption qu’un certain nombre des problèmes sur lesquels repose la cryptographie symétrique soient peu affectés par l’algorithmique quantique. Cette question fait l’objet de recherches, et elle le mérite car il n’y a pas de preuve absolue de résistance aux algorithmes.

M. Damien STEHLÉ. Dans les familles algébriques que j’ai mentionnées – codes correcteurs, réseaux euclidiens et système polynomiaux –, des problèmes sont connus comme étant NP-complets. La cryptographie ne repose pas directement sur eux, mais sur des problèmes qui en sont très proches.

M. Cédric OUDIETTE. Nous devons rester collectivement humbles face à la difficulté du défi technique et à la vitesse du progrès technologique. Le passé a montré que le progrès peut être important. Il existe une grande complémentarité entre l’exploration de la filière de transmission de clés quantiques et la consolidation des technologies de cryptographie post-quantique. Dans un cas, la technique est inviolable mais rencontre des problèmes délicats de déploiement opérationnel – par exemple la relation inverse entre élongation et débit –, ce qui fait qu’elle peut fonctionner pour des applications très précises et hautement sécurisées, mais pas, par exemple, pour sécuriser des cartes bleues. Dans l’autre cas, nous ne sommes pas à l’abri, par la connexion quantique entre ordinateurs quantiques, d’un saut qui augmenterait fortement le facteur d’attaque.

M. Cédric VILLANI, député, président de l’Office. La cryptographie post-quantique deviendra donc un standard universel, alors que la cryptographie quantique restera probablement limitée à quelques centres ou personnes de hautes responsabilités et ne sera pas disponible pour le tout-venant ?

M. Sébastien TANZILLI. On entend beaucoup dire que le déploiement de la technologie quantique pour faire de la cryptographie quantique est complexe et coûteux, mais les technologies impliquant des sources de photons et les plateformes qui permettent de les générer, de les manipuler ou de les détecter ont fait des progrès considérables au cours des dix dernières années. On peut installer une source de photons uniques dans un petit cryostat et une source de paires de photons intriqués dans un appareil de la taille d’une boîte à chaussures. L’efficacité des détecteurs de photons dépasse aujourd'hui les 90 %, au lieu de 20 % il y a 10 ans. Des solutions de cryptographie quantique sont basées sur des variables continues qui ne nécessitent pas de détecteurs de photons, mais des détecteurs classiques qui sont des produits standardisés de l’industrie des télécommunications. Ce déploiement nécessitera certes un effort, mais ne me semble pas avoir une portée aussi lointaine que M. Gilbert l’a indiqué.

M. Damien STEHLÉ. Le mot « inviolable » me semble totalement inapproprié, car il met de côté l’aspect authentification des communications. Tant que ce problème ne sera pas résolu, la confidentialité complète de la création de clés est inutile dans un cas d’usage général.

M. Cédric VILLANI, député, président de l’Office. Pendant la Seconde Guerre mondiale, une ligne secrète a été installée entre le QG britannique et le QG américain et il n’y avait donc pas de problème d’identification, car l’émetteur et le récepteur étaient connus. Turing et d’autres ont beaucoup travaillé sur la confidentialité.

M. Sébastien TANZILLI. Des pays voisins de la France ont commencé à travailler sur des programmes d’hybridation de cryptographie quantique et
post-quantique dans lesquels le post-quantique serait dédié à l’authentification des partenaires à distance. Il faut adopter une vision plus large du quantique et du post-quantique : dans certains pays, les gens commencent à travailler ensemble et à créer des synergies entre le quantique et le post-quantique. Il serait pertinent que la France anticipe les choses pour ne pas être à la traîne dans les prochaines années.

M. Henri GILBERT. J’ai davantage parlé de perspective limitée que de perspective lointaine, mais « lointaine » reste quand même assez vrai, car nous manquons de recul sur des aspects comme la sécurité des dispositifs de cryptographie post-quantique vis-à-vis d’attaques. Un apprentissage se fera. Les limites sont plus préoccupantes. Il ne faut pas être borné, car les efforts de R&D auront beaucoup d’autres retombées en recherche fondamentale, dans la maîtrise des techniques quantiques. Il faut toutefois être très prudent dans l’emploi de termes comme « très haute sécurité » accolés au domaine, car cela peut créer des illusions.

M. Thierry DEBUISSCHERT. La cryptographie quantique ne prétend pas authentifier le canal entre Alice et Bob. Pour cela, on utilise des fonctions de hachage, qui ont d’ailleurs été mentionnées comme des fonctions de sécurité post-quantique. En combinant les algorithmes de cryptographie quantique et les fonctions de hachage, on réussit à garantir la sécurité de l’établissement et de la transmission des clés entre Alice et Bob. Ceci a notamment été étudié par le projet Secoqc que j’ai précédemment mentionné.

M. Sébastien TANZILLI. La communauté de la communication quantique foisonne de nouvelles idées visant notamment à faire de la cryptographie quantique indépendante du matériel employé. Si l’on peut définir un témoin de sécurité, bien sûr basé sur l’intrication, selon le niveau de complexité du lien (pertes dans les fibres optiques ou dans l’atmosphère, détecteur), on peut borner l’action de l’espion. Dès lors que l’on garantit un certain niveau d’intrication sur le lien, on peut se déclarer totalement indépendant du matériel. Cela peut ouvrir des perspectives de haute sécurité conceptuellement nouvelles, mais qui nécessiteront des années de recherche et d’efforts supplémentaires.

M. Cédric VILLANI, député, président de l’Office. Je remercie l’ensemble des intervenants. Nous arrivons au bout des questions. Ces quelques heures nous ont permis d’aller sur des terrains variés et d’apprécier toute la richesse des programmes de recherche quantique. Je vous remercie pour votre disponibilité et pour la qualité de ces échanges.

 

II.   EXTRAITS DU COMPTE RENDU DE LA RÉUNION DE L’OPECST DU JEUDI 20 JANVIER 2022 PRÉSENTANT LES CONCLUSIONS DE L’audition publique

Examen des conclusions de l’audition publique sur la stratégie quantique de la France (Cédric Villani, député, et Gérard Longuet, sénateur, rapporteurs)

M. Gérard Longuet, sénateur, premier vice-président de l’Office. – Je vous souhaite la bienvenue pour cette nouvelle réunion de l’Office. Nous avons deux sujets à l’ordre du jour aujourd’hui. Le premier est l’examen des conclusions de l’audition publique du 21 octobre 2021 sur l’avancement de la stratégie quantique de la France.

M. Cédric Villani, député, président de l’Office, rapporteur. ‑ Quoiqu’elle s’inscrive dans le prolongement de travaux antérieurs de l’Office, l’idée de cette audition publique nous a été suggérée par le coordinateur même de la Stratégie nationale en matière de technologies quantiques. Ceci montre qu’il est toujours intéressant de suivre les travaux menés du côté de l’exécutif, en les soumettant à un examen exigeant et attentif.

En 2019, l’OPECST s’était intéressé aux technologies quantiques en publiant quatre notes scientifiques : introduction et enjeux ; l’ordinateur quantique ; la programmation quantique ; la cryptographie quantique et
post-quantique. Je rappelle que la cryptographie quantique permet de développer des chiffrements extrêmement sûrs, tandis que la cryptographie post-quantique vise à développer des codes capables de résister même aux attaques d’un ordinateur quantique, étant entendu que celui-ci n’existe pas encore.

En 2020, Mme Paula Forteza, députée des Français établis hors de France, présentait au gouvernement les contours d’une stratégie nationale ambitieuse dans son rapport intitulé Quantique, le virage technologique que la France ne ratera pas. Ce rapport présentait l’objectif des « 3 trois » : trois axes de recherche et développement à emprunter préférentiellement, à savoir le calcul, les communications et la cryptographie, et les capteurs quantiques ; trois fois plus de budget pour la recherche, soit un budget d’au moins un milliard d’euros sur cinq ans ; la création de trois hubs ou centres régionaux spécialisés dans les technologies quantiques à Paris, Saclay et Grenoble, en parallèle d’une restructuration de l’écosystème de recherche.

Les recommandations du rapport ont été reprises par le président de la République dans son discours du 21 janvier 2021 qui annonçait un plan de 1,8 milliard d’euros d’investissement sur 5 ans, dont 1 milliard venant directement de l’État. L’audition publique du 21 octobre visait à faire le point, quelques mois après, sur la mise en place des mesures et des financements annoncés. Elle a été introduite par une présentation générale de la stratégie quantique française avec l’intervention de Neil Abroug, coordinateur national de la Stratégie quantique.

Plusieurs points sont à retenir.

L’investissement de 1,8 milliard d’euros sur 5 ans est réparti suivant 7 grands axes de financement. Il concerne toutes les technologies quantiques – ordinateur, capteurs, communication – ainsi que l’écosystème associé. Avant la mise en place de ce plan, les investissements français dans les technologies quantiques s’élevaient déjà à 60 millions d’euros, somme qui place la France en sixième position des investisseurs mondiaux dans ce domaine. L’objectif de la Stratégie est d’accélérer dans les secteurs où la France possède déjà un certain avantage. Les pépites industrielles françaises du calcul quantique rivalisent déjà avec les géants américains tels que Google.

Le budget s’articule autour de plusieurs sources, à savoir l’Agence nationale de la recherche (ANR), le Programme d’investissements d’avenir (PIA) et la direction générale de l’armement (DGA).

Plusieurs enseignements sont à retenir de ces tables rondes. La France se place en bonne position mondiale en recherche fondamentale, mais aussi dans le développement de ses start-up telles que Quandela ou Pasqal. Les grands groupes industriels, tels qu’Atos, trouvent aussi leur place dans ce paysage et se positionnent sur ces sujets hautement stratégiques qui concernent le calcul haute performance et la cybersécurité. En matière d’ordinateur quantique, la France possède les ressources pour développer à la fois la partie processeur, ou hardware, et la partie logiciel, ou software. Différentes technologies de qubits sont à l’étude et la Quantum learning machine d’Atos permet de mettre au point des langages de programmation adaptés à chaque support physique : elle émule le fonctionnement d’un ordinateur quantique pour se préparer à faire face à des attaques de type nouveau, quand un tel ordinateur verra le jour.

Il faut cependant garder à l’esprit que les annonces concernent toujours des qubits physiques et non logiques. Les qubits logiques sont ceux qui sont capables d’effectuer des calculs à coup sûr, tandis que les qubits physiques stockent l’information avec un certain degré d’incertitude, ne permettant pas d’effectuer des calculs avec sûreté sur cette base. Il faut de nombreux, voire de très nombreux qubits physiques pour réaliser l’équivalent d’un qubit logique. Cette distinction peut expliquer pourquoi certaines annonces spectaculaires peuvent exagérer les avancées en cours.

Les capteurs quantiques sont à l’étude depuis plus longtemps et ont donc atteint un stade de développement plus avancé. Leur sensibilité extrême à des champs électromagnétiques ou gravitationnels leur promet des applications dans des domaines variés, par exemple pour la détection de masses. Longtemps subventionnés par le secteur militaire, ils doivent s’ouvrir aux applications civiles pour être économiquement viables.

Les projets de communications quantiques s’articulent autour de deux axes : le segment au sol – représenté lors de l’audition par le projet Quantum@UCA porté par l’Université de Nice et la région Provence-Alpes-Côte d’Azur – et le segment satellitaire – représenté par Airbus. Ces deux axes forment les briques du futur Internet quantique européen. Voué à un marché institutionnel, il devra présenter un niveau critique de fiabilité et de robustesse. Le calendrier prévoit un démonstrateur d’ici 2024, puis un système opérationnel d’ici 2028. Un Internet quantique inviolable et complet est prévu pour 2035. D’ici-là toutes sortes d’obstacles imprévus pourraient survenir.

La communauté de cryptographie reste, de fait, sceptique face à ces systèmes de communication quantique. Elle leur reproche de ne pas certifier l’authentification des échanges. La communication en elle-même peut être très sécurisée, mais en l’absence de garantie sur l’identité des interlocuteurs connectés, la sécurité est fragile. Pour mémoire, deux conditions sont complémentaires et indispensables pour assurer la protection des échanges : la confidentialité des données et l’authentification des personnes qui les échangent. Il est indispensable de faire travailler ensemble les différentes communautés pour éviter ce défaut de sécurité et garantir l’authentification et la confidentialité des moyens de communication destinés à un usage institutionnel. L’ajout d’une brique
post-quantique à des lignes de communication quantique semble nécessaire et doit être anticipée dès aujourd’hui.

Les capacités de calcul prêtées à l’ordinateur quantique pourraient – notez bien le conditionnel – compromettre les protocoles de chiffrement actuels. Pour parer à cette évolution, la communauté mondiale de cryptographie propose et teste de nouvelles méthodes, censées résister aux ordinateurs quantiques. Il s’agit de la cryptographie post-quantique. S’il est encore difficile d’anticiper la date d’arrivée sur le marché d’un ordinateur quantique opérationnel et en capacité d’effectuer de telles opérations, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) recommande de mettre au point rapidement des protocoles post-quantiques et de déployer à court terme des solutions dites hybrides. Il s’agit d’ajouter une surcouche de protection post-quantique aux méthodes classiques. Enfin, le National Institute of Standards and Technology (NIST), l’institut américain de normalisation, a entrepris de définir la prochaine norme mondiale et a lancé un appel à projet qui a connu un grand succès. La France y est bien représentée, notamment dans les dernières phases de sélection qui se déroulent actuellement.

Voilà le compte rendu des échanges dans le cadre desquels des sujets parfois spéculatifs et parfois fort techniques ont été abordés. Les recommandations que nous pouvons tirer de ces discussions concernent aussi bien le porteur de la Stratégie nationale que les instances gouvernementales, nos collègues parlementaires et tout organisme concerné par le sujet.

La Stratégie nationale a bien identifié les enjeux des technologies quantiques et les axes sur lesquels les efforts doivent porter. Cette stratégie est associée à des moyens financiers substantiels qui rendent crédible l’atteinte des objectifs qu’elle s’est fixés. Une vigilance devra cependant être maintenue sur la formation et l’attractivité, notamment pour les acteurs de la recherche fondamentale.

Les recommandations de l’Office, dont certaines ont été émises directement par les parties prenantes, visent avant tout à renforcer le rôle de la France dans un domaine hautement stratégique et à faciliter la diffusion des technologies quantiques dans les usages présents ou futurs. Elles s’adressent tant aux pouvoirs publics qu’aux acteurs académiques et industriels concernés. L’imbrication des enjeux reste très forte parmi ces acteurs au stade actuel de développement de ces technologies. Ces recommandations s’articulent autour de trois objectifs.

Tout d’abord, il faut maintenir une veille scientifique et technologique sur ces technologies et les évolutions qui accompagneront leur développement. Ainsi, les capteurs quantiques sont encore largement financés par le monde de la défense. Il convient d’en développer les usages et les marchés civils, afin d’assurer la viabilité économique de ce secteur sur le long terme. De même, les algorithmes de cryptographie post-quantique actuellement étudiés reposent sur des hypothèses de fonctionnement et de performance d’un futur ordinateur quantique. Ces hypothèses doivent faire l’objet d’une veille rigoureuse, afin d’anticiper de potentielles failles ou difficultés en matière de sécurité.

Il faut aussi anticiper l’arrivée, même lointaine, des ordinateurs quantiques et leurs potentiels atouts. Cela passera par la maîtrise des processeurs quantiques – aux stades de la conception, du développement et de la fabrication –, qui est essentielle pour garantir la souveraineté française et européenne dans de nombreux domaines. Il faut donc conforter les efforts des acteurs impliqués dans ces activités. Cela assurera aussi un environnement propice à la communauté qui travaille sur la programmation et les développements de logiciels associés, et permettra de conserver un avantage dans les deux domaines, matériel et logiciel.

En outre, les centres de calcul à haute performance (High Performance Computing ou HPC) consomment de plus en plus d’énergie. Les processeurs quantiques actuels présentent un avantage en termes de consommation d’énergie mais restent imparfaits. À terme, lors d’un éventuel passage à l’échelle et de la mise au point d’une technologie de simulation quantique, il conviendra de prendre en compte de potentiels gains énergétiques dans les comparaisons de performance entre processeurs classiques et processeurs quantiques.

Un autre objectif consiste à favoriser la création d’écosystèmes vertueux et dynamiques – le mot important étant écosystème. L’écosystème scientifique et industriel des technologies quantiques ne peut croître que si des talents en nombre suffisant procurent à la fois à la recherche académique, aux start-up et aux grands groupes les forces vives dont ils ont besoin. Il est donc indispensable de faire émerger ces talents, par une politique de formation dynamique, appuyée sur des financements spécifiques.

Enfin, la sécurité d’une communication électronique repose à la fois sur la confidentialité des données échangées et sur l’authentification des intervenants connectés. Or, les communications quantiques, même si elles offrent intrinsèquement de fortes garanties en matière de confidentialité, n’ont pas encore d’avantage comparatif vis-à-vis des technologies classiques en matière d’authentification. Pour mettre au point des systèmes de communication offrant les meilleures garanties, il sera donc indispensable de faire travailler de concert les communautés de la cryptographie quantique et de la cryptographie post-quantique.

Voilà, mes chers collègues, les conclusions que je vous propose et que je soumets à votre discussion.

M. Stéphane Piednoir, sénateur.  J’ai assisté à cette audition du mois d’octobre dernier. La teneur des échanges est très bien restituée. L’importance
– en fait, la nécessité absolue – de l’investissement dans les technologies quantiques a été évoquée. Pour faire émerger de jeunes talents il faut sans aucun doute donner une impulsion. L’une des recommandations du rapport porte sur le triplement de l’investissement dans la recherche, pour le porter à au moins un milliard d’euros. Du coup, faut-il privilégier un appel à projets spécifique au quantique ou financer les axes de recherche traditionnels ?

M. Cédric Villani, député, président de l’Office, rapporteur.  S’agissant d’un sujet qui reste foisonnant et émergent, il est important de ne pas se fermer de portes. Il faut mener de front des appels à projets ciblés et des développements dans le cadre d’actions plus intégrées. Le budget substantiel le permettra, à une nuance près : il s’agit ici de financements publics.

Nous bénéficions d’un écosystème dynamique de jeunes pousses. À titre personnel, j’ai été favorablement surpris lors de l’audition par le dynamisme affiché par cet écosystème. La grande inconnue reste l’intensité de la recherche effectuée au sein des grands groupes. Sans eux, le développement industriel ne pourra se faire. Se limiteront-ils au développement au stade préindustriel ou seront-ils prêts à jouer le jeu de la recherche fondamentale ? La question reste ouverte.

Un point mentionné dans l’exposé m’a beaucoup frappé : la façon dont certaines recherches ont des retombées dans d’autres secteurs. C’est particulièrement vrai pour les capteurs quantiques. Ils peuvent être intégrés à une stratégie d’informatique quantique, mais leurs applications vont déjà très au-delà de celle-ci.

Pour revenir aux appels à projets spécifiques, je rappelle qu’il existe déjà des actions spécifiques au niveau européen, notamment un flagship doté d’environ un milliard d’euros, un élément extrêmement conséquent.

En 2020, Atos a dépensé en recherche et développement 235 millions d’euros. Des sommes significatives ont été mises sur la table sur ce sujet. Comme le disent les recommandations, il faut trouver un bon équilibre pour la recherche et développement, sans se couper de l’amont, dans lequel la France a des atouts indéniables.

M. Gérard Longuet, sénateur, premier vice-président de l’Office.  Thierry Breton avait annoncé, d’une façon peut-être un peu enthousiaste, qu’Atos maîtrisait les ordinateurs quantiques. Quelles sont les entreprises privées françaises qui s’impliquent fortement dans ce secteur ?

M. Cédric Villani, député, président de l’Office, rapporteur.  Atos est incontestablement l’un de ces acteurs, mais on voit ici toute l’ambiguïté d’une telle annonce. Certaines entreprises projettent de réaliser des systèmes qui, sans être basés sur la technologie quantique, simulent le fonctionnement d’un ordinateur quantique. D’autres évoquent des démonstrateurs mettant en jeu un certain nombre de qubits, qui ne sont opérationnels que pour certaines opérations spécifiques. Nombreux sont ceux qui cherchent à obtenir des effets d’annonce, dans un domaine comportant une bonne part de « hype » – pour employer un mot cher à nos amis anglo-saxons – et qui cherche à attirer les investissements.

Pour ce qui est des entreprises françaises, Atos est incontestablement en pointe sur le sujet, IBM France aussi, si l’on considère cette entreprise comme française ou seulement à moitié américaine. Les deux start-up représentées à l’audition, Quandela et Pasqal, présentes sur des segments assez différents, en pariant sur des technologies distinctes, ont fait très bonne impression. Thalès, également représenté, est visiblement très avancé sur les capteurs. Nous pourrions aussi parler d’Orange pour la communication. En Europe, Airbus est aussi en pointe sur ce volet. Il n’y a donc pas lieu de rougir de l’écosystème national, auquel il faudrait ajouter les groupes qui font de la veille sans s’impliquer directement sur le sujet.

M. Gérard Longuet, sénateur, premier vice-président de l’Office.  La DGA est-elle impliquée ?

M. Cédric Villani, député, président de l’Office, rapporteur.  La DGA finance déjà certains projets. Elle a identifié les technologies quantiques comme étant un sujet sensible, en particulier pour les capteurs, dans certains usages. Ainsi, un détecteur de variation du champ gravitationnel, permettant de déceler un objet par sa simple présence plutôt que par son bruit, sa température ou sa signature radar, pourrait être l’arme ultime en matière de détection. C’est un exemple parmi d’autres d’objets de haute précision susceptibles d’avoir un impact stratégique crucial en matière de défense.

L’ordinateur quantique reste aujourd’hui un rêve et il n’est même pas certain que nous puissions le voir de notre vivant. Mais les développements industriels et les applications qui viennent des recherches réalisées sur l’ordinateur quantique sont déjà là, par effet de sérendipité. Le simple fait qu’elles se situent au carrefour de l’informatique, de la cryptographie et des technologies quantiques apporte des retombées, même si l’on doit encore attendre avant d’avoir un ordinateur quantique opérationnel. J’ajoute que certaines grandes écoles, comme l’École normale supérieure de Paris-Saclay, ont intégré l’informatique quantique à leurs cursus. Ce domaine est donc appelé à s’installer dans le paysage de recherche français.

M. Gérard Longuet, sénateur, premier vice-président de l’Office. – Merci pour ces précisions. Je propose que nous approuvions les conclusions de l’audition publique « Stratégie quantique de la France » du 21 octobre 2021.

L’Office adopte les conclusions de l’audition publique du 21 octobre 2021 et autorise la publication, sous forme de rapport, du compte rendu de l’audition et de ces conclusions.

 

 


—  1  —

   ANNEXE : QUELQUES DÉFINITIONS

 

Les technologies quantiques de nouvelle génération reposent principalement sur deux propriétés physiques liées à la mécanique quantique et inexistantes dans le monde « classique » : la superposition d’état et l’intrication.

Avec le principe de superposition, l’état global d’un système quantique à un instant donné devient une combinaison linéaire de tous ses états possibles à cet instant. Seule la probabilité de présence d’une particule à une position donnée peut-être prédite.

L’intrication consiste en la connexion entre deux, ou plusieurs, objets quantiques et entre leurs informations. Une modification d’état chez l’un entraîne un changement chez l’autre de manière instantanée. Il faut alors considérer la paire comme un système unique, inséparable et global : les propriétés de la paire ne sont pas simplement égales à la réunion des propriétés des deux corps.

Ces principes permettent de démultiplier la puissance des ordinateurs actuels.

En informatique classique, l’information est stockée et manipulée sur un bit,
c’est-à-dire un support physique de valeur 0 (bloquant) ou 1 (passant). Dans le monde de l’informatique quantique, son équivalent s’appelle le qubit. Le qubit désigne un objet physique (atome, ion, électron, photon…) dans un état quantique. En application du principe de superposition, l’état d’un qubit est une combinaison des états 0 et 1 ; et, grâce à l’intrication, différents qubits peuvent être liés entre eux.

En physique classique, ajouter un bit supplémentaire permet de décrire seulement une valeur de plus ; en physique quantique, l’ajout d’un nouveau qubit double la puissance de calcul théorique. Pour N bits quantiques, le système connaît une croissance exponentielle de sa puissance de calcul car il existe alors 2N états possibles[12]. Ainsi, une machine quantique de 10 qubits peut traiter simultanément 210=1024 états (contre 10 pour une machine classique disposant de 10 bits).

Il existe différents types de qubits qui diffèrent par le support physique utilisé (Tableau 1). Ils présentent différents avantages et inconvénients en fonction de leurs propriétés intrinsèques. La fidélité de lecture est liée au caractère probabiliste de la mesure quantique. Différents facteurs temporels interviennent pour juger une performance de calcul quantique : la durée pendant laquelle le système reste dans un état quantique, le temps nécessaire au passage d’une porte logique (calcul) et enfin le temps nécessaire à la mesure de l’état (résultat). Un système performant restera le plus longtemps possible dans son état quantique et effectuera rapidement les calculs.

 

Tableau 1. Comparaison des différentes technologies de qubits
et de leurs différentes propriétés

 

Maintenir la cohérence quantique pendant le temps nécessaire au calcul requiert d’isoler le système. En effet, à la suite de perturbations extérieures, les qubits finissent par perdre leur dimension quantique: c’est le phénomène de décohérence, qui empêche la poursuite du calcul. Plus le nombre de qubits intriqués augmente et plus le risque de décohérence est élevé.

Un calcul quantique n’a de sens que si les erreurs et la décohérence restent marginales. Afin de limiter le bruit dans le calcul quantique, une approche consiste à multiplier les qubits physiques (support physique de l’information) afin de faire fonctionner in fine, quelques qubits dits logique (capables de traiter parfaitement l’information et d’effectuer le calcul logique). Les qubits physiques victimes d’erreurs seront relayés par les autres qubits afin de terminer l’opération en cours.

En attendant l’avènement d’un ordinateur quantique universel ou large scale quantum (LSQ), composé de qubits logiques, les processeurs en développement aujourd’hui sont de type NISQ ou noisy intermediate-scale quantum. Il s’agit d’ordinateurs quantiques de taille intermédiaire, disposant de 50 à 100 qubits physiques pour lesquels les erreurs ne sont pas corrigées (« quantique bruité »).

 

 


[1] https://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/secretariat/notes-scientifiques-de-l-office/les-technologies-quantiques-introduction-et-enjeux-n-13-mars-2019

[2] https://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/secretariat/notes-scientifiques-de-l-office/technologies-quantiques-l-ordinateur-quantique-n-15-juillet-2019

[3] https://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/secretariat/notes-scientifiques-de-l-office/technologies-quantiques-la-programmation-quantique-n-16-juillet-2019

[4] https://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/secretariat/notes-scientifiques-de-l-office/technologies-quantiques-cryptographies-quantiques-et-post-quantiques-n-18-juillet-2019

[5] https://forteza.fr/wp-content/uploads/2020/01/A5_Rapport-quantique-public-BD.pdf

[6] Noisy intermediate–scale quantum

[7] Large scale quantum

[8] Les technologies habilitantes ou capacitantes font référence aux technologies de pointe indispensables et pré-requises pour le développement des technologies quantiques. Par exemple la cryogénie, les lasers, l’ultra-vide…

[9] FET : Technologies futures émergentes - http://www.horizon2020.gouv.fr/cid123504/1er-appel-du-fet-flagship-sur-les-technologiesquantiques.html

[10] La technologie dite « des qubits de chat » constitue le cœur d’activité de la start-up française Alice & Bob et repose sur des travaux scientifiques de premier plan (Lescanne, R., Villiers, M., Peronnin, T. et al. Exponential suppression of bit-flips in a qubit encoded in an oscillator. Nat. Phys. 16, 509–513 (2020). https://doi.org/10.1038/s41567-020-0824-x

[11] Graphics Processing Unit ou unité de traitement graphique, qui sert à optimiser le traitement et l’affichage d’images ou de vidéos sur ordinateur.

[12] À titre d’exemple, pour N=10 bits quantiques, il existe alors 210=1024 états possibles simultanément et pour N=50, on atteint 250≈1015 états superposés, soit un million de milliards.