—  1  —

 

 1823

 

 418

ASSEMBLÉE NATIONALE

 

SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

SESSION ORDINAIRE 2018 - 2019

Enregistré à la présidence de l’Assemblée nationale

 

Enregistré à la présidence du Sénat

le 28 mars 2019

 

le 28 mars 2019

 

 

RAPPORT

 

au nom de

 

LOFFICE PARLEMENTAIRE DÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

 

présentant

 

Les notes scientifiques de l’Office publiées de mars 2018 à mars 2019 (nos 1 à 12)

 

par

 

 

Didier Baichère, Valéria Faure-Muntian, Jean-Luc Fugit, Claude de Ganay,
Anne Genetet, Loïc Prud’homme, Huguette Tiegna, Cédric VILLANI, députés,

 

Et

 

Jérôme Bignon, Roland Courteau, Ronan Le Gleut, Gérard LONGUET,
Angèle Préville, Catherine Procaccia, sénateurs

 

 

 

 

 

 

 

 

_____________

 

Déposé sur le Bureau de l’Assemblée nationale

par M. Cédric VILLANI,

Premier vice-président de lOffice

 

 

_____________

 

Déposé sur le Bureau du Sénat

par M. Gérard LONGUET

Président de lOffice

 

 



 

 

 

Composition de lOffice parlementaire dévaluation des choix scientifiques
et technologiques

 

 

 

 

Président

M. Gérard LONGUET, sénateur

 

Premier vice-président

M. Cédric VILLANI, député

 

 

Vice-présidents

 M. Didier BAICHÈRE, député M. Roland COURTEAU, sénateur

 M. Patrick HETZEL, député  M. Pierre MÉDEVIELLE, sénateur

 Mme Huguette TIEGNA, députée Mme Catherine PROCACCIA, sénateur

 

 

 

 

 

DÉputés

 

 

SÉnateurs

M. Julien AUBERT

M. Didier BAICHÈRE

M. Philippe BOLO

M. Christophe BOUILLON

Mme Émilie CARIOU

M. Claude de GANAY

M. Jean-François ELIAOU

Mme Valéria FAURE-MUNTIAN

M. Jean-Luc FUGIT

M. Thomas GASSILLOUD

Mme Anne GENETET

M. Pierre HENRIET

M. Antoine HERTH

M. Patrick HETZEL

M. Jean-Paul LECOQ

M. Loïc PRUD’HOMME 

Mme Huguette TIEGNA

M. Cédric VILLANI

 M. Michel AMIEL

 M. Jérôme BIGNON

 M. Roland COURTEAU

 Mme Laure DARCOS

 Mme Annie DELMONT-KOROPOULIS

 Mme Véronique GUILLOTIN

 M. Jean-Marie JANSSENS

 M. Bernard JOMIER

 Mme Florence LASSARADE

 M. Ronan Le GLEUT

 M. Gérard LONGUET

 M. Rachel MAZUIR

 M. Pierre MÉDEVIELLE 

 M. Pierre OUZOULIAS

 M. Stéphane PIEDNOIR

 Mme Angèle PRÉVILLE

 Mme Catherine PROCACCIA

 M. Bruno SIDO



SOMMAIRE

___

Pages

introduction

Note N° 1 : LES objets connectés

Note N° 2 : Limpression 3d

Note N° 3 : stocker plus de carbone dans les sols : un enjeu pour le climat et pour lalimentation

Note N° 4 : comprendre les blockchains (chaînes de blocs)

Note N° 5 : le transport à hypergrande vitesse sous vide (hyperloop)

Note N° 6 : la rénovation énergétique des bâtiments

Note N° 7 : enjeux sanitaires et environnementaux de lhuile de palme

Note N° 8 : mars : nouvelle frontière de lexploration spatiale ?

Note N° 9 : les lanceurs spatiaux réutilisables

Note N° 10 : biodiversité : extinction ou effondrement ?

Note N° 11 : le stockage de lélectricité

Note N° 12 : les grands accélérateurs de particules

EXAMEN DU RAPPORT PAR LOFFICE


 

—  1  —

 

introduction

À l’occasion du renouvellement de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, consécutif à la fois aux élections législatives du printemps 2017 et aux élections sénatoriales de l’automne de la même année, ses modes d’intervention ont fait l’objet d’un réexamen, après trente-cinq ans d’existence.

Jusqu’à présent, l’Office intervenait principalement sous deux formes : d’une part, de classiques rapports d’étude très approfondis portant sur des sujets larges, sur saisine des commissions permanentes ou du Bureau des assemblées ; d’autre part, des auditions publiques d’actualité introduites dans les années 2000. Pour compléter ces types de travaux, il a été proposé de s’inspirer des meilleures pratiques des homologues européens chargés de l’évaluation technologique parlementaire membres du réseau de l’EPTA (European Parliamentary Technology Assessment). L’Office a ainsi décidé, sur la proposition de son Premier vice-président Cédric Villani, de réaliser des notes scientifiques synthétiques sur des sujets d’actualité plus restreints, établies dans un délai court, d’un à trois mois. Elles sont présentées dans un format standard de quatre pages, accompagnées d’annexes qui précisent les renvois à des références scientifiques et la liste des nombreux experts consultés, au premier rang desquels les membres du conseil scientifique de l’Office, ainsi que des différentes parties prenantes du sujet.

Suivant une méthodologie fondée sur la consultation de tous les acteurs, d’une manière comparable à celle d’une mission d’information parlementaire, enrichie d’une démarche contradictoire avec la soumission du projet de texte à l’ensemble des experts consultés (entre dix et vingt selon les sujets), et la sollicitation aussi systématique que possible de l’appui des Académies ([1]) et des grands organismes de recherche, l’élaboration des premières notes scientifiques a été engagée concrètement à la fin de l’année 2017. Pour chaque sujet, l’Office a désigné un ou plusieurs rapporteurs membres de l’Office. Il convient de souligner que ce choix diffère structurellement de la pratique des notes scientifiques du POST britannique (Parliamentary Office of Science and Technology, commun à la Chambre des Communes et à la Chambre des Lords), qui publie de telles notes depuis longtemps, mais sans associer directement des parlementaires, ce qui lui interdit d’y inclure des préconisations engageant les élus.

Les premières notes scientifiques ont été publiées en mars 2018, et depuis un an, douze notes ont été produites et publiées, soit en moyenne une par mois.

Le tableau ci-après rappelle le détail des thèmes, la chronologie et les auteurs de chacune de ces douze notes.

11
 

Les objets connectés

M. Didier Baichère, député,
vice-président

Mars 2018

12
 

L’impression 3D

Mme Huguette Tiegna, députée,
vice-présidente

Mars 2018

13
 

Stocker plus de carbone dans les sols : un enjeu pour le climat et pour l’alimentation

M. Roland Courteau, sénateur,
vice-président

Mars 2018

14
 

Comprendre les blockchains (chaînes de blocs)

Mme Valéria Faure-Muntian et M. Claude de Ganay, députés,
M. Ronan Le Gleut, sénateur

Avril 2018

15
 

Le transport à hypergrande vitesse sous vide (Hyperloop)

M. Cédric Villani, député,
Premier vice-président

Juillet 2018

16
 

La rénovation énergétique des bâtiments

MM. Jean-Luc Fugit et
Loïc Prud’homme, députés

Juillet 2018

17
 

Enjeux sanitaires et environnementaux de l’huile de palme

Mme Anne Genetet, députée

Novembre 2018

18
 

Mars : nouvelle frontière de l’exploration spatiale ?

Mme Catherine Procaccia, sénateur, vice-présidente

Décembre 2018

19
 

Les lanceurs spatiaux réutilisables

M. Jean-Luc Fugit, député

Janvier 2019

110
 

Biodiversité : extinction ou effondrement ?

M. Jérôme Bignon, sénateur

Janvier 2019

111
 

Le stockage de l’électricité

Mme Angèle Préville, sénatrice

Février 2019

112
 

Les grands accélérateurs de particules

M. Cédric Villani, député,
Premier vice-président

Février 2019

Les sujets ont été proposés par des membres de l’Office, par des commissions permanentes ou par des missions d’information en émanant, ou encore par le conseil scientifique de l’Office. Ils ont concerné les différents thèmes principaux d’intervention de l’Office, seul le thème des sciences de la vie apparaissant un peu moins représenté :

– numérique (objets connectés, impression 3D, blockchains) ;

– physique et énergie (rénovation énergétique des bâtiments, stockage de l’électricité, grands accélérateurs de particules) ;

– environnement (stockage du carbone dans les sols, enjeux sanitaires et environnementaux de l’huile de palme, biodiversité : extinction des espèces ou effondrement ?) ;

– espace (Mars : nouvelle frontière de l’exploration spatiale ?, lanceurs spatiaux réutilisables) et technologies des transports (transport à hypergrande vitesse sous vide – hyperloop) ;

– sciences de la vie (enjeux sanitaires et environnementaux de l’huile de palme).

Ces douze notes ont mobilisé huit députés – deux membres députés ayant présenté deux notes chacun – et cinq sénateurs, soit treize des trente-six membres de l’Office. La grande majorité des notes ont été présentées par un seul membre de l’Office, une note l’ayant été par deux députés, une par trois membres (deux députés et un sénateur).

La présentation synthétique de ces notes constituant un élément intrinsèque de ces dernières, elle a fait l’objet d’une attention particulière visant à ce que ces documents, agrémentés de photos et d’illustrations graphiques, soient aussi lisibles et pédagogiques que possible. En particulier, dans l’esprit des publications scientifiques, chaque note présente un résumé soulignant les principaux enseignements majeurs sur le sujet, inscrits dans un format standard. De même, les notes s’efforcent à chaque fois de préciser le contexte dans lequel elles s’inscrivent, et sont complétées in fine par des références aussi détaillées que nécessaire ([2]).

Les notes font l’objet d’un examen collégial par l’Office, qui décide formellement d’autoriser leur publication. Cet examen a donné lieu à des débats approfondis au sein de l’Office, conduisant parfois à des enrichissements substantiels préalablement à leur publication. Une fois ainsi validées, les notes sont publiées sur le site des deux assemblées et diffusées à tous les parlementaires, transmises aux présidents et secrétariats des commissions permanentes compétentes, aux ministres concernés, aux membres du conseil scientifique, aux organismes impliqués, aux médias, et leur publication est mentionnée sur les réseaux sociaux.

Par ailleurs, chaque note est accompagnée d’une courte vidéo de présentation par son rapporteur, réalisée par les services de l’assemblée de ce dernier, et diffusée sur le site de chaque assemblée.

Enfin, les notes sont traduites en anglais pour une diffusion élargie, les sujets traités dépassant en règle générale le seul monde francophone.

*

*  *

Désireux de marquer ce premier anniversaire par une publication sous forme d’un rapport d’information rassemblant les douze premières notes scientifiques dans un même document récapitulatif ([3]), les Président et Premier vice-président de l’Office espèrent qu’en ayant ainsi « prouvé le mouvement en marchant », l’Office aura fait œuvre utile pour la diffusion d’une information scientifique et technologique de qualité, dans un délai rapide. Il convient maintenant de poursuivre cet effort.

Ce premier bilan n’exclut pas des améliorations : en particulier, il conviendrait que la diffusion de ces notes soit aussi large que possible. Celle-ci serait nettement facilitée si elles pouvaient être considérées comme les autres documents parlementaires que sont les rapports, de façon à en faciliter l’accès, notamment sur le site internet des assemblées. Tel n’est pas aujourd’hui le cas, bien qu’elles soient présentées par des parlementaires et que leur publication soit formellement autorisée par l’Office.

Au-delà, ces premières notes scientifiques posent la question de la nature et de la diversité du conseil scientifique et de l’évaluation technologique que les organes institutionnels d’une démocratie moderne peuvent légitimement attendre aujourd’hui, à l’heure où les technologies sont partout présentes, y compris dans la vie quotidienne.

L’organisation du conseil scientifique destiné aux responsables politiques est un sujet qui mérite une réflexion approfondie, incluant un parangonnage international avec des pays comparables.

S’agissant de la France, l’organisation du conseil scientifique auprès de l’exécutif est sans doute perfectible, mais relève de la responsabilité de ce dernier. Pour ce qui concerne le Parlement, qui peut s'organiser comme il l’entend, les réponses à ce besoin prennent différentes formes, parmi lesquelles ces nouvelles notes scientifiques. Élaborées en un temps plus court, en quelques mois, voire quelques semaines en cas d’urgence, dans le cadre d’un processus réactif et en conséquence plus susceptible de concourir éventuellement à l’examen des textes législatifs, elles s’inscrivent dans la même démarche que l’ensemble des autres travaux de l’Office, pour lesquels l’essentiel est de préserver l’exigence de rigueur scientifique, d’appui sur des expertises multiples pour croiser les avis, et d’écoute contradictoire et objective des différentes parties prenantes. Il demeure encore à construire l’évaluation des impacts technologiques a priori des projets de loi, qui aujourd’hui est simplement inexistante.


Note N° 1 : LES objets connectés

 

Note n°

1

 

___

Les objets connectés

 

___

 

Mars 2018

 

Illustration conceptuelle dune « maison intelligente »

© TAlex/Adobe Stock

Résumé

    Progressivement, les objets connectés vont être utilisés dans tous les secteurs économiques (industrie, santé, vente, etc.).

    Par exemple, lusage de capteurs connectés communiquant, en temps réel, des données sur létat du réseau ferroviaire (état des caténaires, température des rails, etc.) permettra bientôt à la SNCF de prédire les opérations de maintenance à effectuer.

    Les objets connectés sont donc porteurs de nombreuses promesses. Ils posent néanmoins dimportants défis techno­logiques et sociétaux.

M. Didier Baichère, Député, Vice-président

 

Le contexte

Les objets connectés existent depuis de nombreuses années (signalisation à distance, capteur de pression à l’entrée des parkings, etc.). Ces objets, qui étaient auparavant limités, se sont récemment perfectionnés et multipliés si bien que l’on parle maintenant de l’« internet des objets » (Internet of things – IoT).

Cela s’explique par les progrès réalisés dans l’électronique, les télécommunications, le traitement des données, ou encore par la capacité de calcul disponible dans le « nuage » (cloud). De ce fait, les objets connectés ne sont donc plus de simples capteurs : ils fonctionnent au sein de réseaux et peuvent créer, communiquer, agréger, analyser et agir sur des données. Ces améliorations se sont accompagnées d’une baisse significative du coût de ces technologies.

Aussi le secteur de l’internet des objets devrait-il prendre une grande ampleur. En effet, les investissements dans les technologies correspondantes sont colossaux (à l’échelle mondiale, l’équivalent de 700 milliards d’euros y ont été investis en 2017) et le nombre d’objets connectés dans le monde devrait exploser rapidement selon les spécialistes du secteur ([4]) (plusieurs dizaines de milliards en 2020).

Tous les secteurs sont impactés

L’internet des objets touche tous les secteurs d’activité : transport, santé, logement, industrie, vente, services publics, etc. Par exemple, les technologies concernées sont utilisées pour faciliter la maintenance des équipements industriels, rationaliser l’usage des intrants utilisés en agriculture ou mesurer la qualité de l’air des métropoles.

Malgré la couverture médiatique dont il bénéficie, le marché grand public n’a pas atteint le même degré de maturité. Au vu de leur prix, de leur durée d’intérêt ou encore de leur obsolescence rapide, la valeur ajoutée des objets connectés actuels n’apparaît pas évidente aux consommateurs. Se distinguent, néanmoins, les objets connectés liés à la santé et au bien-être, qui connaissent le plus grand succès.

L’exemple de la maintenance prédictive

À ce jour, la maintenance prédictive est une des applications les plus probantes de l’internet des objets. Notamment utilisée dans l’industrie, elle s’appuie sur des réseaux de capteurs sans fil (RCSF).

Les capteurs des RCSF sont disposés à des endroits stratégiques des objets à surveiller (infrastructures, chaîne de production, etc.). Tous ces capteurs connectés recueillent d’importants volumes de données, dont l’analyse permet de prédire de manière localisée des dysfonctionnements, et ainsi d’anticiper des interventions de maintenance.

À titre d’exemple, un RCSF composé de 64 capteurs connectés a été mis en place pour surveiller, à distance, les propriétés mécaniques du Golden Gate Bridge de San Francisco. Les vibrations mesurées chaque millième de seconde par chaque capteur sont analysées au regard du modèle mécanique théorique du pont, afin de prédire des anomalies éventuelles. La mise en place de ce RCSF permet donc d’assurer la sécurité du pont à un faible coût, de manière fiable et sans interférer avec son exploitation.

Des enjeux économiques considérables

L’internet des objets est un enjeu économique de premier plan. Le cabinet AT Kearney estime que, grâce à la vente et à l’usage des objets connectés, la création de valeur pour l’Union européenne s’élèverait à environ mille milliards d’euros en 2025 ([5]) :

       80 milliards d’euros seraient générés par le marché des objets connectés en lui-même ;

       210 milliards d’euros seraient économisés par la réduction des risques de santé et générés par le gain de temps dans la vie quotidienne des individus, réemployés dans des tâches productives ;

       le pouvoir d’achat des citoyens européens pourrait augmenter de 300 milliards d’euros, notamment en raison d’une meilleure maîtrise de leurs dépenses d’énergie ;

       430 milliards d’euros seraient dus à l’augmentation de la productivité dans les entreprises.

Le risque de captation de valeur

L’intérêt de l’objet connecté réside avant tout dans les données qu’il génère, celles-ci étant nécessaires à la mise en place de services. En particulier, la capacité à faire fonctionner ensemble des réseaux d’objets connectés conçus pour des applications différentes est essentielle, la mise en relation des données de ces réseaux pouvant donner lieu à des solutions à haute valeur ajoutée économique.

Néanmoins, il existe des centaines de standards de communication applicables à l’internet des objets. Pour permettre d’agréger les données générées par des réseaux d’objets connectés divers et pour permettre leur interaction d’une manière simple et standardisée, des plates-formes tendent donc à émerger. Celles-ci seront un élément clé de l’interopérabilité des objets connectés.

Le risque pour la France est donc que les acteurs économiques qui parviendront à imposer leur plate-forme en attirant concepteurs d’objets connectés, prestataires de services associés, développeurs d’applications, utilisateurs, etc. soient des entreprises étrangères. Celles-ci capteraient alors systématiquement une partie de leur valeur ajoutée.

Des effets incertains sur l’emploi

L’internet des objets pourrait permettre à la France de produire davantage de solutions technologiques à haute valeur ajoutée, favorisant ainsi l’emploi industriel. Par exemple, un fabricant d’enceintes haut de gamme a pu s’implanter en France et y créer des emplois, du fait de la forte automatisation de son usine. En revanche, l’optimisation des chaînes de production grâce aux objets connectés s’est aussi accompagnée d’importants plans de licenciement en Chine.

Ainsi, ici comme ailleurs, les emplois nécessitant peu de qualifications risquent d’être les plus affectés, tandis qu’un besoin accru de main-d’œuvre est attendu dans le domaine des technologies de l’information et de la supervision des équipements industriels.

Outre les disparités socio-professionnelles, l’internet des objets pourrait creuser les effets de la fracture numérique et favoriser, économiquement parlant, les régions les mieux connectées. Sous cet angle comme sous beaucoup d’autres, il convient donc d’accompagner le développement du très haut débit sur l’ensemble du territoire national.

Les enjeux énergétiques

Certaines applications de l’internet des objets doivent permettre d’optimiser la consommation d’énergie et la gestion des ressources énergétiques et naturelles.

Par exemple, le principe du réseau électrique intelligent – REI (smart grid) – est de surveiller, de manière précise, l’état du réseau de distribution d’électricité (puissances consommées et transitées, courants, etc.) et l’état de fonctionnement des équipements (température des transformateurs, etc.).

Cette surveillance s’appuie sur l’usage de nombreux objets connectés tout le long du réseau, tels que des compteurs numériques « haute tension », des transformateurs connectés ou des compteurs domestiques communicants. Cet usage permet ainsi d’optimiser la production d’électricité en fonction de la demande (ce qui induit des économies d’énergie et un meilleur service) et d’assurer une maintenance plus efficiente du matériel du réseau.

Aux extrémités des REI, les bâtiments intelligents utiliseront, eux aussi, les objets connectés. Ils seront équipés d’éclairage intelligent, de systèmes de contrôle des flux d’air connectés ou de thermostats intelligents.

Ces avancées sont un enjeu majeur pour la France, le secteur du bâtiment représentant plus de 45 % de la consommation nationale d’énergie finale et de l’ordre de 25 % des émissions de gaz à effet de serre ([6]).

Paradoxalement, si certaines applications de l’internet des objets vont ainsi tendre à réduire la consommation énergétique, la consommation électrique due aux objets connectés et à leurs centres de données (data centers) devient de plus en plus importante.

Une source de déchets électroniques

De manière analogue au marché des terminaux de poche (smartphones), se pose la question de la durée de vie et de l’obsolescence programmée des objets connectés : certains objets connectés sont perçus comme des gadgets et ont une faible durée d’utilisation, d’autres sont conçus sans système de mise à jour logicielle. Ainsi, au vu de l’explosion attendue du nombre d’objets connectés, ceux-ci pourraient être une source massive de déchets électroniques.

Les enjeux de santé publique

Les objets connectés de santé sont porteurs de nombreuses promesses : télémédecine, dépistage en temps réel, etc. C’est pourquoi les objets connectés « grand public » portatifs (les wearables) sont particulièrement populaires. Ils permettent d’automesurer certaines de nos données physiologiques et d’apporter des solutions pour améliorer notre santé, notre bien-être ou nos performances physiques. Ces solutions sont plus ou moins complexes, allant de la mise en place d’un programme personnalisé au soulagement du problème. Par exemple, le bandeau « Dreem » module l’activité cérébrale de son porteur à l’aide d’ondes sonores pour améliorer la qualité du sommeil profond de son utilisateur.

Cette automesure connectée (quantified self) constante doit permettre la médecine prédictive. Il n’est plus question d’aller chez le médecin seulement une fois malade : l’interprétation des données mesurées doit permettre d’anticiper ou de prendre en charge rapidement des problèmes de santé et, en parallèle, de réaliser d’importantes économies.

En outre, l’usage d’objets connectés de santé, voire de médicaments connectés (un premier médicament connecté a déjà été commercialisé aux États-Unis), pourrait, sur le long terme, conduire à des évolutions profondes de la prise en charge des problèmes de santé. Si, aujourd’hui, prendre un médicament connecté induit une action éphémère sur le corps (toute trace du médicament étant éliminée à terme), demain il est probable que nous serons connectés de manière permanente, par exemple via des implants-capteurs surveillant notre santé.

Le département du Loiret a créé un dispositif d’accompagnement et de protection des bénéficiaires de l’allocation personnalisée d’autonomie (APA), reposant sur la technologie de connexion bas débit d’une entreprise française ([7]). Avec un coût et une consommation d’énergie minimes, les bénéficiaires et leurs familles peuvent accéder à l’ensemble des données en temps réel via un portail social.

Les objets connectés de santé ne sont pas tous portatifs : ainsi les cabines de santé (télémédecine), dont certaines comportent plus de dix capteurs de mesure connectés et permettent une visioconférence avec le médecin ([8]).

De multiples enjeux sociaux

L’internet des objets soulève de nombreux enjeux sociaux, dont le premier est l’acceptabilité de ces technologies. L’acceptabilité sociale d’un objet connecté dépend de multiples critères : le secteur d’utilisation et les applications permises par l’objet, le périmètre d’utilisation de l’objet (collectif ou domestique), le caractère imposé ou volontaire de l’usage de l’objet, la nature de l’intrusion de l’objet (nominative, personnelle ou statistique), la nature de l’interaction de l’utilisateur avec l’objet (utilisateur passif ou actif), etc. La bonne prise en compte de l’acceptabilité sociale des objets connectés utilisés dans le cadre de projets publics est essentielle pour éviter les situations de tension telles que les « frondes anti compteurs communicants Linky » ([9]).

Outre l’acceptabilité, l’usage même des objets connectés appelle de nombreuses questions d’ordre social ([10]). Dans un sens, les objets connectés peuvent être créateurs de liberté. Par exemple, les données collectées par les REI pourraient favoriser l’autonomisation des clients du réseau s’il était décidé que ces données leur soient remises afin qu’ils puissent optimiser leur consommation d’électricité. Les objets connectés peuvent néanmoins être créateurs de contraintes. Un manque de recul sur les diagnostics d’un objet connecté de santé peut, par exemple, inciter l’utilisateur à se conformer à une norme non nécessairement pertinente : les podomètres connectés incitent leurs utilisateurs à faire « 10 000 pas par jour », bien qu’aucune étude scientifique n’en atteste le bienfait.

On peut aussi se demander si les objets connectés sont créateurs de lien social ou d’inégalités. Si, d’une part, les technologies de l’internet des d’objets peuvent aider à réguler des questions sociales complexes (embouteillages, etc.) en s’appuyant sur le concours de chacun, l’usage des objets connectés peut aussi être générateur d’exclusion. En effet, il accentue la fracture numérique de « second degré », au détriment de certaines personnes âgées qui peuvent éprouver plus de difficultés à utiliser ces technologies.

Enfin, les objets connectés « grands publics » produisent de grandes quantités de données personnelles. Les possesseurs d’objets connectés n’en sont pas nécessairement conscients, si bien qu’ils ne mesurent pas pleinement les risques auxquels ils s’exposent. Ils n’ont pas toujours connaissance des risques de piratage, du destinataire avec qui ils partagent leurs données, de l’usage ultérieur que celui-ci peut en faire et des conséquences pour leur vie privée – voire leur liberté individuelle.

Sur ce sujet sensible de la protection des données personnelles, le nouveau règlement général sur la protection des données (RGPD), qui entre en vigueur le 25 mai 2018, apporte des améliorations significatives, en permettant aux utilisateurs de mieux maîtriser leurs données personnelles.

La loi française protège également les citoyens. Par exemple, contrairement à une idée largement répandue, les codes des assurances et de la mutualité interdisent aux assureurs de moduler leur tarification par des malus en fonction de l’état de santé de chaque client. Seuls sont permis par le code de la sécurité sociale des programmes de prévention au moyen de bonus.

Pénétration des objets connectés dans les foyers français

Objet connecté

Français équipés

en 2016

en 2017

Télévision

Dispositif de sécurité

Montre

22 %

5 %

6 %

29 %

12 %

11 %

Source : OpinionWay (1 070 sondés, marge dincertitude entre 2 et 3 %).

Un sondage ([11]) réalisé en mars 2017 par OpinionWay montre que les Français s’équipent de plus en plus d’objets connectés et en ont donc une meilleure compréhension. Ainsi, ils saisissent mieux les avantages liés à l’usage de ces objets (surveillance à distance du logement, suivi de l’état de santé...), de même que les risques associés : en 2017, 42 % des sondés se déclaraient inquiets par la collecte de leurs données contre 33 % en 2016.

De nombreux défis technologiques à relever

Une des contraintes technologiques les plus critiques lors de la conception d’un objet connecté demeure la gestion de l’énergie ([12]). Par exemple, certains RCSF nécessitent que des objets connectés travaillent de manière autonome pendant plusieurs mois sans aucune recharge. Ces objets connectés sont souvent très compacts (de manière à pouvoir être installés partout) et embarquent donc des batteries de petite taille. La R&D est donc essentielle dans les domaines des technologies de production, de stockage et de gestion de l’énergie des systèmes embarqués (batteries, systèmes de « récolte d’énergie », etc.).

En outre, avec l’internet des objets, l’exploitation de lacunes de sécurité pourrait nuire d’une manière nouvelle, les attaques informatiques pouvant avoir un impact sérieux sur le monde réel ; des chercheurs ont ainsi été capables de prendre le contrôle à distance de certains modèles de voitures connectées.

En plus d’être des cibles, les objets connectés peuvent être utilisés pour participer à des attaques d’autres systèmes d’information. Ainsi en 2016, l’hébergeur de sites OVH a été frappé pendant cinq jours par une attaque massive impliquant 145 607 caméras connectées piratées.

La réglementation européenne incite les fabricants à concevoir des objets connectés sécurisés, qui produisent et transmettent le strict minimum de données. Pour autant, les standards de conception assurant la sécurité informatique des technologies de l’internet des objets ne sont pas encore généralisés. Les défauts de sécurisation des réseaux d’objets connectés sont pourtant des risques majeurs et une attention particulière doit y être prêtée.

Enfin, le spectre hertzien – soit l’ensemble des fréquences sur lequel les systèmes de radiocom­munications peuvent opérer – est aujourd’hui saturé. L’optimisation de l’utilisation du spectre par des dispositions réglementaires et des solutions technologiques constitue un élément clé du développement des objets connectés, à l’heure de l’explosion prévisible de leur nombre.

Experts consultés

Membres du conseil scientifique de lOffice :

M. Stéphane Mangin, professeur de physique, université de Lorraine, institut Jean Lamour – CNRS, membre de l’institut universitaire de France ;

Mme Virginie Tournay, directrice de recherche au CNRS, centre de recherches politiques de Sciences Po (CEVIPOF).

 

Autres experts consultés :

M. Dimitri Carbonnelle, fondateur de Livosphere, expert en internet des objets et en intelligence artificielle auprès de la direction générale des entreprises du ministère de l’économie et des finances (DGE - plan objets intelligents) et de la Banque publique d’investissements (BPI) ;

M. Ludovic Le Moan, directeur général (CEO) et cofondateur de Sigfox ;

M. Christian Licoppe, professeur de sociologie des technologies d’information et de communication, Télécom ParisTech ;

M. Hugo Mercier, cofondateur de Rythm (une société spécialisée dans les objets connectés de santé).

 


 

—  1  —

Note N° 2 : L’impression 3d

 

 

Note n°

2

 

___

Limpression 3D

 

___

 

Mars 2018

 

Résumé

     Historiquement employée à des fins de prototypage, limpression 3D sintroduit progressivement dans la fabrication de produits finaux.

     Lintérêt dutiliser limpression 3D reste néanmoins limité à des cas spécifiques où sa maîtrise peut conduire à un fort avantage compétitif dans lindustrie et à des avancées considérables dans le domaine de la santé.

     Des recherches tendent à améliorer les techniques dimpression 3D et leurs champs dapplication. Demain, limpression 3D pourrait donc avoir un impact économique non négligeable.

Mme Huguette Tiegna, Députée, Vice-présidente

 

 

L’impression 3D avait été présentée par l’administration Obama comme une solution pour préserver l’industrie manufacturière et les emplois en relocalisant les activités sur le territoire national. Qu’en est-il ?

Un concept, plusieurs procédés et technologies

Contrairement aux méthodes d’usinage classiques (fraisage, découpage…), qui permettent la fabrication de pièces par enlèvement de matière, la fabrication additive d’une pièce repose sur l’ajout de matière, couche par couche, selon les spécifications définies dans un « modèle 3D » numérique. La fabrication additive se distingue également de l’injection thermoplastique par moulage.

Si les premières machines étaient très lentes, coûteuses et contraignantes (en termes de dimension des pièces imprimables, de diversité des matériaux utilisables, etc.), les techniques d’impression 3D ont depuis beaucoup évolué.

Il existe à ce jour une centaine de fournisseurs de systèmes d’impression 3D dans le monde, des dizaines de technologies de fabrication additive (dépôt de fil, frittage par laser sélectif, stéréo-lithographie, etc.), sept principes de fonctionnement, plus de 200 types de matériaux utilisables en impression 3D (plastiques, métaux, céramiques…). Certaines machines permettent d’utiliser différents matériaux de même nature lors d’une même impression. Les techniques disponibles permettent d’imprimer des objets mesurant de quelques centimètres à quelques mètres.

Une solution complémentaire aux méthodes d’usinage classiques

Historiquement, l’impression 3D a beaucoup été utilisée pour le prototypage rapide de produits. Ne nécessitant pas d’outillage, l’impression 3D, permet de produire des pièces à faible coût tout en réduisant les délais. Le concepteur peut facilement faire évoluer ses prototypes (en modifiant le modèle 3D) et ainsi travailler de manière itérative.

Si certaines filières industrielles continuent d’utiliser massivement les techniques d’impression 3D à des fins de prototypage, ces dernières s’introduisent aussi dans la conception de produits finaux du fait de leurs avantages techniques par rapport aux approches traditionnelles.

L’impression 3D est particulièrement utile pour produire des pièces de géométries complexes, parfois inspirées de formes observées dans la nature (biomimétisme). Si la complexité des pièces induit, le plus souvent, un surcoût et une difficulté de production élevés en usinage classique, ce n’est pas le cas en impression 3D. Il arrive d’ailleurs que l’impression 3D soit la seule technique possible pour réaliser de telles pièces. L’impression 3D peut aussi permettre, dans certains cas, de réduire drastiquement le nombre de pièces nécessaires à la réalisation d’un produit et donc de simplifier la conception. L’impression 3D peut rendre bon marché la production de pièces uniques et de petites et moyennes séries.

Pour autant, la fabrication additive n’a pas vocation à remplacer les méthodes de fabrication classiques. En effet, l’impression de pièces en grandes séries n’est, à ce stade, pas économiquement viable. Par ailleurs, la fabrication additive est parfois inadaptée aux besoins de la mécanique de précision ([13]). La qualité des parties fonctionnelles des pièces imprimées en 3D dépend de nombreux facteurs (température, matériaux, machines, pratiques de fabrication, etc.). En conséquence, le respect des exigences fonctionnelles des pièces imprimées en 3D (tolérances, état de surface, résistance des matériaux, etc.) peut être variable. Enfin, il est très souvent nécessaire de parachever l’impression 3D de pièces en métal ou en plastique par des opérations d’usinage ou de ponçage pour améliorer la qualité des surfaces.

Ainsi, les techniques d’impression 3D viennent en complément des méthodes classiques de fabrication et ouvrent de nouvelles possibilités de production. Le choix par l’industriel du procédé dépend des exigences en termes de coûts, délais, qualité ou complexité du produit.

Principaux secteurs industriels

Du fait des avantages de la fabrication de prototypes et de pièces par impression 3D, les techniques de fabrication additive sont utilisées dans l’ensemble de l’industrie (aérospatial, industrie alimentaire, production d’éoliennes, luxe…) voire parfois par des artisans (chocolatiers, joailliers…).

Dans le domaine de l’électronique grand public, l’impression 3D offre des solutions nouvelles aux concepteurs. Par exemple, des fabricants de semi-conducteurs et des laboratoires américains ([14]) développent une technologie qui permet de réaliser des circuits électroniques (senseurs et microcontrôleurs) flexibles grâce à l’impression 3D ([15]). Les applications de cette technologie peuvent être nombreuses, ainsi dans le domaine des objets connectés portatifs (les wearables), un marché à fort potentiel.

De même, l’impression 3D est de plus en plus répandue dans le secteur aérospatial, bien que le nombre de pièces imprimées en 3D intégrées dans les produits finaux demeure extrêmement modeste. Dans ce secteur, l’impression 3D est tout d’abord utilisée pour réaliser des nombres relativement faibles de pièces à haute valeur ajoutée ayant des caractéristiques géométriques très spécifiques. Par exemple, les 19 buses du moteur LEAP équipant les Airbus A320neo sont imprimées en 3D. Ces buses nécessitent des géométries complexes pour assurer le bon mélange de l’air et du carburant dans le moteur. Grâce à l’impression 3D, les buses sont réalisées en une seule pièce, contre 20 pièces pour celles fabriquées par des méthodes d’usinage classiques. Ces buses sont 25 % plus légères que celles usinées et cinq fois plus résistantes à la température. Ce choix technologique induit donc une réduction du coût d’exploitation de l’équivalent de 2,4 millions d’euros par avion équipé du moteur LEAP et par année ([16]) (notamment grâce aux économies de carburant).

De plus, la fabrication additive pourrait être une réponse pour réduire les besoins en stockage des constructeurs du secteur aérospatial. Selon le cabinet de conseil EY ([17]), Airbus estime que les changements de pièces pour ses modèles d’avion A300 et A310 s’effectueront jusqu’en 2050. Néanmoins Airbus stockait déjà 3,5 millions de pièces à cet effet en 2014. Avec la généralisation de l’usage de l’impression 3D, les stocks pourraient être réduits au strict nécessaire : il n’y aurait alors plus besoin de stocker ni pièces ni outillages spécifiques. En effet, l’impression pourrait se faire à la demande, le plus souvent à partir de poudres métalliques faciles à entreposer.

Dans le secteur automobile, l’impression 3D est principalement cantonnée au prototypage ou à la production d’outils. La fabrication additive est peu utilisée dans les produits finaux. Des sociétés ([18]) ont néanmoins démontré la faisabilité de réaliser une carrosserie de voiture par impression 3D, et ce seulement en 44 heures ([19]). Il apparaît ainsi possible de développer des micro-usines automobiles générant peu de déchets et assurant des livraisons rapides de véhicules produits directement dans les zones urbaines. Les capacités de production de telles usines seraient néanmoins nettement inférieures à celles des grands groupes automobiles actuelles. Là encore, un des intérêts de l’impression 3D est la capacité à fabriquer des pièces détachées.

Enfin, l’impression 3D pourrait être un moyen privilégié pour moderniser la filière BTP. En ce qui concerne le gros œuvre, deux laboratoires nantais ont développé une technologie, BatiPrint3D ([20]), qui permet d’imprimer, sur place, des logements respectant les normes en vigueur. Fin 2017, l’emploi de cette technologie a permis de fabriquer, en quelques jours, un logement social de 95 mètres carrés à Nantes, ayant une performance énergétique présentant une consommation inférieure de 30 % par rapport à la réglementation thermique 2012.

Enjeux économiques et de compétitivité industrielle

Selon le cabinet Wohlers Associates, le marché de l’impression 3D (machines, matériaux et conseil) croît actuellement de 20 % par an et pourrait s’élever à 18,5 milliards d’euros à l’horizon 2020. Les États-Unis concentrent 40 % du parc mondial des machines, la France ne représentant que 3 %, au 7e rang mondial et seulement au 4e rang européen.

Les exemples précédents montrent que l’impression 3D correctement utilisée peut se traduire par un fort avantage compétitif.

Tout d’abord, l’emploi de la fabrication additive peut donner lieu à d’importantes innovations. Produire des composants électroniques flexibles, « imprimer » des logements rapidement constituent des ruptures technologiques majeures qui donnent un avantage compétitif aux industries qui les maîtrisent.

L’impression 3D de faibles nombres de pièces spécifiques et particulièrement complexes peut per­mettre une montée en qualité et une réduction du coût de production, avec une importante valeur ajoutée pour le client et le fabricant.

Le passage à l’impression 3D simplifie grandement la gestion des stocks. La gestion des stocks en termes de coût, d’entreposage, et de traçage est un problème majeur pour les grands groupes industriels comme Airbus. L’impression 3D permet une production de pièces à la demande et un entreposage facilité (la matière première se présentant le plus souvent sous forme de poudres).

L’impression 3D permet aux entreprises maîtrisant ces technologies d’arriver sur le marché plus rapidement. La fabrication additive permet d’accélérer les phases de prototypage et de déceler rapidement les corrections à apporter sur le produit. Celui-ci est donc plus rapidement mis au point et peut être testé sur le marché. En outre, l’investissement dans l’impression 3D par les PME et jeunes pousses (start-up) est abordable. L’impression 3D peut donc abaisser la barrière d’entrée à certains marchés, ce qui promeut l’arrivée rapide de nouveaux acteurs sur ces marchés.

Enfin, l’usage de la fabrication additive peut favoriser la relocalisation de certaines activités au plus près du consommateur. Le concept de micro-usine intégrée dans l’aire urbaine pourrait voir le jour avec divers avantages, ainsi la production à la demande ou la réduction des frais de distribution et effets environnementaux positifs.

Enjeux de santé : la bio-impression

Certains procédés de fabrication additive, dits de « bio-impression », permettent de produire artificiellement des structures cellulaires.

En principe, les cellules imprimées peuvent provenir de cultures de cellules embryonnaires humaines. Néanmoins, de telles cellules sont difficilement disponibles, leur accès étant particulièrement encadré par la loi pour des raisons éthiques. Il est donc plus commode de produire et d’utiliser des cellules souches pluripotentes induites (CSPI), c’est-à-dire des cellules adultes reprogrammées, à des fins de bio-impression.

À terme, l’impression de CSPI pourrait permettre de reconstituer :

       des organes artificiels pour remplacer des organes déficients, et ce, sans causer de rejet immunologique (les cellules employées étant celles du patient) ;

       des organes artificiels permettant, dans certains cas, d’effectuer des essais sur maquettes 3D sans avoir recours à l’expérimentation animale ;

       des « organoïdes » 3D servant à la recherche.

Si l’impression 3D d’organes complexes (reins, poumons…) en vue de greffes reste expérimentale, certaines applications thérapeutiques portant sur l’impression d’organes simples (cheveux, muqueuse gingivale et implants osseux) sont déjà très prometteuses. Par exemple, Un grand groupe français collabore avec une jeune pousse (start-up) ([21]) pour traiter la calvitie en reconstituant un follicule pileux à l’aide de la technologie de bio-impression par laser.

Ainsi, à court terme, la bio-impression pourrait profondément modifier la production d’implants facilement imprimables (cheveu, gencive, peau, os). Sur le plus long terme, les progrès concernant l’impression d’organes complexes pourraient permettre de pallier la pénurie de donneurs d’organes, de même que limiter l’expérimentation animale.

Autres enjeux de santé publique

L’impression 3D est aujourd’hui massivement utilisée dans le secteur des prothèses auditives, permettant la fabrication de prothèses adaptées à l’audiogramme individuel et à l’anatomie du conduit auditif du patient. De manière analogue, l’impression 3D pourrait bouleverser le marché des prothèses dentaires en améliorant leur qualité tout en réduisant leur coût de fabrication.

L’impression 3D peut trouver des applications dans la production de médicaments. Les techniques d’impression 3D peuvent être utilisées afin d’améliorer la galénique des médicaments, en permettant une libération complexe dans le temps du principe actif de ceux-ci.

Enfin, l’impression 3D peut être utilisée en chirurgie orthopédique. Une intervention réalisée au CHU d’Amiens à l’automne 2017 a permis de redresser un rachis. Après scanner, le squelette d’un patient a été reconstitué à l’identique en 3D, permettant la modélisation d’une intervention chirurgicale par un robot. Une fois l’opération validée sur la maquette, elle a été réalisée sur le patient.

Usage de l’impression 3D par des particuliers

Le marché domestique de l’impression 3D est très peu dynamique. En outre, les « fab-labs » (des lieux collaboratifs ouverts au public et équipés de machines permettant de concevoir et réaliser des objets) sont de plus en plus délaissés par les particuliers et orientés vers des utilisations professionnelles. Bien qu’abordable, le fait de créer ou modifier ses propres pièces avec une imprimante personnelle demeure, en effet, souvent complexe, les logiciels de conception assistée par ordinateur étant difficiles à maîtriser.

Il n’empêche que l’usage domestique des techniques d’impression 3D appelle de nombreuses questions, en tout premier lieu d’ordre juridique, mais aussi concernant la sécurité des personnes ou leur santé.

Par exemple, si le partage illégal ou la « copie privée » autorisée dans le cadre familial de modèles 3D devenaient communs, ils nuiraient aux ayants-droit. Des solutions juridiques devraient rapidement être trouvées (mise en jeu de la responsabilité des utilisateurs finaux et des plates-formes d’intermédiation, promotion d’une offre légale…).

En outre, les pièces imprimées par les particuliers sont fabriquées en dehors de tout circuit de contrôle. Cela pose un problème de sécurité physique des personnes, la fiabilité des pièces imprimées et le respect des normes n’étant pas garantis. Par exemple, une pièce de rechange imprimée pour une automobile pourrait ne pas répondre aux exigences nécessaires et être la cause d’un accident. Se pose ainsi la question de la responsabilité en cas d’un accident dû à une pièce défaillante imprimée en 3D. Le responsable de l’accident serait-il le fabricant de l’imprimante, celui du matériau, le concepteur du modèle 3D ou la personne qui a imprimé l’objet ?

Enfin, des études ([22]) ont montré que, lors de l’impression, certaines imprimantes 3D « de bureau » émettent de nombreuses particules ultrafines (moins de 100 nanomètres) ainsi que des composants volatiles dangereux. L’usage de ces imprimantes pourrait donc présenter un risque pour la santé, en particulier dans les lieux sans systèmes de ventilation.

Perspectives et préconisations

L’impression 3D ne semble être qu’à ses débuts. D’importantes recherches sont menées pour perfec­tionner les techniques existantes ou élargir le champ d’application de la fabrication additive : amélioration des rendements, nano-impression 3D et même impression 4D – procédé encore expérimental qui consiste à imprimer en 3D des matériaux « stimulables », qui changent de propriétés (couleur, forme…) dans le temps en fonction des conditions (température, humidité…).

Ainsi, bien que le marché de la fabrication additive soit aujourd’hui très modeste (quelques milliards d’euros à l’échelle mondiale) et que la place de l’impression 3D dans l’industrie demeure limitée, la situation pourrait évoluer au cours de la prochaine décennie. Des études menées au Royaume-Uni ([23]) et aux États-Unis ([24]) tendent à montrer que la fabrication additive pourrait devenir un levier économique important, un facteur d’amélioration du pouvoir d’achat des citoyens, une source d’emplois qualifiés et un outil de réduction de l’empreinte carbone du secteur industriel.

C’est pourquoi, il convient de soutenir la recherche et les investissements en impression 3D, notamment par les subventions du programme d’investissement d’avenir (PIA) et de la Banque publique d’investissements (BPI), ainsi que les appels à projets de l’Agence nationale de la recherche (ANR) et du programme européen Horizon 2020.

Il convient également de renforcer la structuration de la filière en soutenant l’action de l’Alliance Industrie du Futur (AIF) et de l’institut Carnot Cetim, notamment par une mise en réseau des acteurs. Il convient de décliner territorialement cet effort en invitant les régions à y participer autour des pôles de compétitivité et des plates-formes de référence.

Enfin, les formations et l’information sur les techniques et les possibilités de l’impression 3D devront être développées pour faire reconnaître cette technologie de rupture et la populariser.

Experts consultés

Membres du conseil scientifique de lOffice :

M. Patrick Netter, membre de l’Académie nationale de médecine ;

M. Antoine Petit, professeur des universités, PDG du CNRS ;

M. Guy Vallancien, membre de l’Académie nationale de médecine et de l’Académie nationale de chirurgie ;

M. Marcel Van de Voorde, professeur à l’université technologique de Delft.

 

Autres experts consultés :

M. Raymond Ardaillou, membre du comité national des sciences physiologiques ;

M. Philip Boucher, administrateur au service de prospective de l’Office d’évaluation des options technologiques et scientifiques (Science and Technology Options Assessment) du Parlement européen ;

M. Arnault Coulet, directeur de l’agence Fabulous ;

M. Didier Fonta, Pollen AM ;

 

M. Benoit Furet, enseignant-chercheur à l’université de Nantes responsable scientifique du projet Batiprint3D ;

M. François Sillion, directeur général délégué à la science de l’INRIA.

 

Contributions :

Service enseignement supérieur, recherche et innovation de l’Ambassade de France au Royaume-Uni

Service pour la science et la technologie et service économique régional de l’Ambassade de France aux États-Unis

Service pour la science et la technologie de l’Ambassade de France en Allemagne

Service pour la science et la technologie de l’Ambassade de France aux Pays-Bas

Service pour la science et la technologie de l’Ambassade de France en Inde

Académie des technologies.


 

 


 

—  1  —

 

 

Note N° 3 : stocker plus de carbone dans les sols : un enjeu pour le climat et pour l’alimentation

 

Note n°

3

 

___

Stocker plus de carbone dans les sols : un enjeu pour le climat et pour lalimentation

 

___

 

Mars 2018

Flux et stocks de carbone

 

 

Source : Castagnon/IPCC

Résumé

        Les sols peuvent stocker davantage de carbone quils nen émettent, dans certaines conditions, encore soumises à des incertitudes dun point de vue scientifique.

        Stocker plus de carbone dans les sols présente un intérêt majeur, dune part, pour compenser les émissions anthropiques de CO2, dautre part, pour renforcer la sécurité alimentaire.

        Les programmes de recherche qui, par une meilleure connaissance des sols, permettront de mettre en œuvre des pratiques favorables au stockage de carbone dans les sols agricoles et forestiers notamment, telle linitiative « 4 pour 1 000 », doivent être poursuivis et encouragés.

M. Roland Courteau, Sénateur, Vice-président

Contexte de la note

Les questions de réchauffement climatique et de sécurité alimentaire sont brûlantes. Or les sols, importants réservoirs de carbone (C) sous la forme de matière organique (MO), représentent un élément essentiel, bien que longtemps sous-estimé, de ces deux sujets. En effet, bien que les sols soient trop souvent vus comme de simples surfaces, ils forment des volumes aux propriétés physico-chimiques complexes et nécessaires à la vie. Ainsi, leur préservation est importante non seulement à l’échelon local car des évolutions, mêmes faibles, du stock de carbone des sols ont des effets majeurs sur leur fertilité, et donc sur la productivité agricole, mais aussi au niveau global, à travers le cycle mondial des gaz à effet de serre (GES). Le sol est émetteur de GES, sous la forme de dioxyde de carbone (CO2), lorsque les matières organiques s’y dégradent mais, en même temps, il contribue au stockage de carbone lorsqu’elles s’y accumulent, la matière organique des sols étant constituée pour plus de 50 % de carbone. Dans certaines conditions, le sol peut stocker plus quil német. Il y a, au total, plus de carbone dans le sol que dans la végétation qui le recouvre et l’atmosphère réunies, puisqu’il s’agit d’un minimum estimé de 1 500 milliards de tonnes de carbone dans la matière organique des sols mondiaux, soit plus de deux fois le carbone du CO2 atmosphérique.

Le rapport de l’OPECST « De la biomasse à la bioéconomie : une stratégie pour la France » ([25]) appelait en 2015 une poursuite des investigations sur la question des relations entre sols et carbone, et tout particulièrement sur les enjeux du stockage de carbone dans les sols ([26]). C’est l’objet de la présente note.

Connaissances scientifiques sur le rôle des sols dans le stockage du carbone

Dans une étude visionnaire parue en 1853 et intitulée « Des climats et de l’influence qu’exercent les sols boisés et non boisés » ([27]), Antoine-César Becquerel expliquait que « les faits nombreux et variés exposés dans cet ouvrage montrent combien est complexe la question relative à linfluence du déboisement et du défrichement sur les climats, attendu quil faut prendre en considération une foule de causes secondaires que lon néglige ordinairement dans la discussion ». 165 ans après ce travail, cette complexité multicausale dans les interactions entre les sols et le climat continue de se vérifier.

Le climat influe sur la teneur en carbone organique des sols en jouant sur les entrées, à travers la productivité végétale par exemple, et sur les sorties, par l’intermédiaire de l’activité biologique et de l’érosion. Le sol fait figure d’acteur-clé dans les cycles biogéochimiques du carbone. Les flux de carbone dans les sols dépendent de nombreux facteurs : nature des écosystèmes ; nature et quantité des apports de matières organiques ; activité biologique dont dépendent à la fois l’humification et la minéralisation, l’équilibre entre les deux étant principalement fonction des conditions physicochimiques, de la température et des possibilités de liaisons entre les matières organiques et des particules minérales. L’augmentation de la température, la diminution de l’humidité des sols ou encore le travail mécanique du sol favorisent la minéralisation.

Les sols sont marqués par une grande diversité : la quantité maximale de MO qui y est contenue peut fluctuer fortement d’un écosystème à un autre, suivant les variations des différents facteurs évoqués. Selon la nature du sol et son usage, le stockage de carbone dans les sols est très inégal : entre tourbières, sols forestiers, sols agricoles, ou encore sols dégradés, artificialisés, voire imperméabilisés, les écarts sont grands ([28]).

 

Stock de carbone dans les sols selon lusage

Source : ADEME (valeur pour les 30 premiers cm de sol).

Le temps de résidence du carbone dans le sol est en moyenne de quelques décennies mais il est très variable puisqu’il peut aller, pour un même sol, de quelques heures à plusieurs millénaires, sous l’effet de plusieurs facteurs ([29]). Ce temps est augmenté par l’association de la matière organique aux particules minérales du sol, en particulier aux argiles, car elles assurent une protection physique et physicochimique vis-à-vis des micro-organismes décomposeurs ([30]). La protection physique des matières organiques est un processus dont l’amplitude est complexe à estimer, et qui est susceptible d’être affectée par les pratiques culturales comme par les changements climatiques. Ainsi, un broyage fin des agrégats du sol s’accompagne d’une minéralisation accrue du carbone organique. Favorisée par le travail mécanique et l’absence de couverture végétale, l’érosion est, sous l’effet du ruissellement, un facteur de destruction des sols et de perte de MO. La dégradation des sols, par des­truction du complexe organo-minéral ou par érosion, réduit leur capacité à stocker le carbone et leur rendement de produits agricoles et forestiers. Elle aboutit, au pire, à la désertification. Il faut pourtant plusieurs milliers d’années pour « faire un sol » ([31]). Le sol est donc une ressource non renouvelable à l’échelle de temps des activités humaines. Aujourd’hui, 25 % des sols de la planète sont fortement dégradés (41 % pour les sols cultivés) auxquels s’ajoutent chaque année 12 millions d’hectares supplémentaires. Lartificialisation des sols ([32]) a pour conséquences : leur imperméabilisation (ils ne rendent alors plus d’autre service que de supporter les constructions et les voies de transport), la fragmentation des milieux et une atteinte à la biodiversité, un mitage de l’espace agricole et une moindre régulation des flux d’eau (aggravation des inondations) et des températures chaudes en ville.

 

 

Lépaisseur du sol est elle aussi très diverse, puisqu’elle peut aller de quelques centimètres à quelques mètres tout en jouant un rôle essentiel, mais différencié, selon sa profondeur et sa nature physicochimique dans les cycles de l’eau, du carbone, du phosphore et de l’azote. L’utilisation des sols pour stocker davantage de carbone, grâce aux matières organiques qu’ils contiennent, rend nécessaire d’évaluer le niveau maximal de matières organiques qu’un sol peut contenir, sachant que ce niveau dépend de nombreux facteurs : du bilan humidification/minéralisation, des apports de matières organiques et de destruction de l’humus à la suite de sa minéralisation, mais aussi de son épaisseur (les apports de matières organiques y sont intégrés), de sa minéralogie ou, encore, de la granulométrie de ses particules (argiles, limons, sables…).

Les méthodes de quantification du carbone dans le sol relèvent de deux types : des méthodes de labo­ratoire, dites « classiques », qui s’appuient sur la combustion sèche ou l’oxydation sulfochromique d’un échantillon de sol, et des mesures spectroscopiques (ultraviolet-visible et infrarouges), d’utilisation plus récente pour ce qui concerne la quantification du carbone du sol. Ces mesures reposent sur le traitement du spectre de réflectance du sol qui dépend, entre autres paramètres influents, de sa teneur en matière organique. Les résultats varient selon les différentes profondeurs de sol retenues : 30 ou 40 premiers centimètres, un mètre, deux mètres… En France, les sols agricoles et forestiers (environ 80 % du territoire) stockent actuellement 4 à 5 Gt de carbone (soit 15 à 18 Gt de CO2) dont près d’un tiers dans la biomasse (arbres principalement) et plus des deux tiers dans les sols au sens strict, et toute variation positive ou négative de ce stock influe sur les émissions nationales de GES. Pour mémoire, ces émissions sont estimées à 0,5 Gt CO2 éq/an (valeur 2011). Les dynamiques d’évolution des stocks de carbone dans nos sols présentent cependant de fortes incertitudes.

Les incertitudes scientifiques

Stocker plus de carbone dans les sols présente un intérêt pour compenser les émissions anthropiques de CO2 face au réchauffement climatique et pour la sécurité alimentaire car la présence accrue de matière organique améliore la structure physico-chimique du sol, sa résistance à l’érosion et sa fertilité, donc le rendement des cultures. L’amélioration des connaissances scientifiques sur le stockage du carbone dans les sols, en particulier sur l’âge du carbone stocké et les cycles biogéochimiques à différentes échelles de temps et d’espace, reste nécessaire. En effet, selon le contexte, une même pratique favorable au stockage de carbone n’engendre pas le même effet. Par exemple, les tourbières, certaines prairies ou forêts approchent déjà un niveau de stockage maximal. Les efforts ne pourront donc porter que sur une partie des sols. Par ailleurs, la saturation ou niveau maximal de capacité de stockage globale demeure incertaine. Un stockage additionnel de carbone ne serait donc qu’une solution pertinente à moyen terme, limitée dans le temps, car les sols atteindraient un nouvel équilibre après quelques décennies jusqu’à saturation de leurs capacités (la durée d’atteinte de ce nouvel équilibre peut être de 20 ans comme de plus de 100 ans, selon les conditions). De plus, stocker plus de carbone suppose une disponibilité accrue d’azote (N) et de phosphore (P) pour permettre la croissance des végétaux et pour stabiliser la MO, ce qui – pour éviter des engrais de synthèse – plaide pour le recyclage des effluents et la culture de légumineuses ([33]). L’émission d’autres GES, comme le méthane (CH4) et les oxydes d’azote (NOx), doit être surveillée, afin qu’un effort en matière de stockage de carbone dans les sols ne conduise pas à les augmenter ([34]).

Les perspectives politiques et de recherche

La réflexion internationale se poursuit depuis le protocole de Kyoto, qui vise à augmenter les puits de carbone ([35]) et a complété en 1997 la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), adoptée lors du Sommet de la Terre à Rio de Janeiro en 1992. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) intègre de plus en plus le rôle des sols dans ses analyses. Il en sera ainsi pour ses trois rapports spéciaux prévus d’ici à la fin de l’année 2018, portant sur : le réchauffement de 1,5°C ([36]) ; les changements climatiques et les océans et la cryosphère ([37]) ; les liens entre le changement climatique, la désertification, la dégradation des terres, la gestion durable des terres, la sécurité alimentaire et les flux de GES dans les écosystèmes terrestres ([38]). La FAO a conduit un travail spécifique sur le sujet ([39]). L’Union européenne, qui s’est engagée à réduire d’ici à 2030 d’au moins 40 % ses émissions de GES par rapport à 1990, donne une place grandissante au stockage du carbone dans les sols : le règlement « LULUCF » (pour land use, land use change and forestry) en cours d’adoption ([40]), fait du carbone des sols l’un des objectifs de l’Union en matière climatique ; le projet de directive sur la protection des sols ([41]) identifie la diminution de la MO des sols comme l’une des huit menaces contre lesquelles lutter ; et, depuis 2017, les mesures agro-environnementales et climatiques (MAEC) de la politique agricole commune (PAC) sont enrichies d’une MAEC « sols », visant la réduction du travail du sol, la mise en place de couverts végétaux et la diversification des rotations culturales dans le but, notamment, d’accroître la MO des sols ([42]). En France, la politique d’atténuation du changement climatique s’incarne dans la stratégie nationale bas carbone ([43]) (SNBC), la stratégie pour la bioéconomie et la stratégie nationale de mobilisation de la biomasse ([44]) (SNMB) prévues par la loi relative à la transition énergétique pour la croissance verte (TECV) du 17 août 2015. La SNBC a recours au label « bas carbone » et la SNMB inclut un volet sur la séquestration du carbone. La question est sensible car la SNMB pourrait avoir de nombreuses incidences négatives sur l’enjeu de protection de la qualité des sols : la valorisation économique de la biomasse est souvent supérieure au maintien des sols en l’état, faute d’incitations spécifiques (dans le cas où prélever plus de bois s’accompagne d’une promotion de l’agroforesterie, cette valorisation peut toutefois être bénéfique). La tendance à l’artificialisation du foncier agricole et le développement d’usages non alimentaires de la biomasse issue de l’agriculture et de la forêt impliquent une vigilance particulière sur les conflits d’usages qui peuvent être engendrés. La mise en œuvre nationale de l’initiative « 4 pour 1 000 » sera donc à suivre avec attention et nécessitera un effort en matière de recherche ([45]) sur un plan national, européen et international.

Les recommandations de l’Office

       Poursuivre et amplifier, au niveau international, linitiative « 4 pour 1 000 », dans son volet « recherche », comme dans son volet « projets » : les sciences des sols, par nature interdisciplinaires, devront permettre d’éclairer les mesures à mettre en œuvre et les pratiques favorables au stockage de carbone dans les sols agricoles et forestiers (agroforesterie, implantation de cultures intermédiaires ou intercalaires, agriculture de conservation pour réduire le travail du sol…).

       Construire une PAC incitative au stockage de carbone dans les sols : rémunérer les services écosystémiques fournis par les agriculteurs, diffuser les bonnes pratiques, éviter de laisser le sol à nu et donc allonger la durée de couverture des sols, y compris avec la culture de légumineuses, soutenir les prairies et supprimer la règle classant en prairie temporaire les seules prairies de durée de vie de moins de cinq ans, qui présente l’effet pervers d’inciter à retourner les prairies. Au regard du stockage possible au sein des surfaces agricoles de l’UE ([46]), de l’ordre de 115 millions de tonnes de carbone par an et selon un prix de 30 euros la tonne de carbone, la valeur en jeu s’élève à 3,5 milliards d’euros (soit 6 % des 56 milliards d’euros de budget annuel de la PAC). En raison des difficultés à évaluer rigoureusement les variations annuelles de stockage dans chaque exploitation, cette nouvelle PAC devrait moins reposer sur un contrôle des résultats que sur une contractualisation autour d’objectifs et de moyens, au sein par exemple de « zones homogènes » délimitées par les États membres sur leur territoire.

       Se doter dune stratégie nationale sur les sols et mettre en œuvre l’initiative « 4 pour 1 000 » selon une approche territoriale, en veillant à la cohérence des actions conduites, en particulier par le ministère de la Transition écologique et solidaire et par le ministère de l’Agriculture, la SNBC et la SNMB ne devant en aucun cas se contredire. Le pilotage de ces politiques devra s’appuyer sur les expertises de l’INRA et du programme « GESSOL » (« GEStion du patrimoine SOL ») et sur les inventaires du centre interprofessionnel technique d’études de la pollution atmosphérique (CITEPA), qui comptabilise les sources et les puits de GES, ainsi que du système d’information sur les sols et du réseau de mesure de la qualité des sols (RMQS) du « GisSol » (groupement d’intérêt scientifique sur les sols). La mesure des stocks de carbone à un moment donné est satisfaisante mais la compréhension fine de leurs évolutions dans le temps reste un enjeu pour la recherche scientifique. Plus généralement, les sols sont un compartiment de la zone superficielle de notre planète, appelée « zone critique » par les géologues, dont le fonctionnement global demeure mal compris mais qui régule la formation des sols, la composition de l’atmosphère, la qualité des eaux et la durabilité des écosystèmes.

Experts consultés

Mme Valérie Masson-Delmotte, directrice de recherche au CEA, membre du GIEC et du conseil scientifique de l’OPECST ;

M. Philippe Mauguin, ingénieur général des ponts, des eaux et des forêts, président-directeur général de l’INRA ;

M. Jean-François Soussana, vice-président de l’INRA, chargé de la politique internationale, membre du GIEC, conseil scientifique de l’initiative « 4 pour 1000 », coordinateur de l’initiative CIRCASA ;

Mme Claire Chenu, professeur à AgroParisTech, conseil scientifique de l’initiative « 4 pour 1000 », présidente du conseil scientifique du programme Gessol et ambassadrice de l’année internationale des sols (2015) ;

M. Thierry Caquet, directeur scientifique « environnement » de l’INRA ;

Mme Isabelle Feix, experte « sol » à l’ADEME ;

M. Jérôme Mousset, chef du service agriculture et forêt à l’ADEME, groupement d’intérêt scientifique Sol (GIS Sol) 

M. Sylvain Pellerin, directeur de recherche à l’INRA (Bordeaux), coordinateur de l’étude de l’INRA « Dix mesures pour réduire les GES par les pratiques agricoles » ;

M. Dominique Arrouays, ingénieur de recherche à l’INRA (Orléans), ancien président de l’association française pour l’étude des sols (AFES), expert auprès du GIEC ;

M. Jean Marc Callois, directeur du département « Territoires » de l’Irstea ;

M. François Laurent, responsable du service agronomie-économie-environnement chez ARVALIS – Institut du végétal 

M. Philippe Ciais, directeur de recherche au laboratoire des sciences du climat et l’environnement, médaille d’argent du CNRS en 2017 ;

M. Jérôme Gaillardet, professeur à l’Institut de physique du globe de Paris ;

Mme Delphine Derrien, directrice de recherche à l’INRA (Nancy) ;

M. Laurent Augusto, directeur de recherche à l’INRA (Bordeaux) ;

M. Florian Claeys, chercheur au Cirad, a représenté M. Hervé Saint Macary, directeur de recherche au Cirad, référent du projet « 4 pour 1000 » au Cirad ;

M. Michel Grimaldi, chercheur à l’IRD, a représenté M. Jean-Luc Chotte, directeur de recherche à l’IRD, référent du projet « 4 pour 1000 » à l’IRD ;

Mme Solène Demonet, coordinatrice du projet « Protection des sols » de France Nature Environnement, membre de l’association française pour l’étude des sols (AFES) ;

M. Camille Dorioz, chargé de mission « agriculture » chez France Nature Environnement ;

Mmes Virginie Montagne (INRA), Anne Blanchart (ADEME-Université de Lorraine) et Aurélie Cambou (ADEME‑AgroCampus d’Angers), M. Colas Robert (Centre interprofessionnel technique d’études de la pollution atmosphérique-Citepa), jeunes chercheurs.

Personnes rencontrées

Mme Brigitte Allain, ancienne députée, présidente du Club parlementaire pour la protection et l’étude des sols.

 

Ministère de lAgriculture et de lalimentation :

Mme Héloïse Pestel, sous-directrice en charge de l’international, et sa prédécesseure Mme Marie‑Noëlle Le Hénaff ;

Mme Murielle Trouillet, chargée du suivi de l’initiative « 4 pour 1 000 » ;

Mme Valérie Dermaux, chef du bureau de la mondialisation et de la sécurité alimentaire, et son prédécesseur M. Ludovic Larbodière ;

M. Denis Gourdon, chargé de mission « changement climatique » et initiative « 4 pour 1 000 » au bureau de la mondialisation et de la sécurité alimentaire ;

Mme Marie-Françoise Slak, chargée de mission « sols » au bureau des sols et de l’eau.

 

Ministère de la Transition écologique et solidaire :

Mme Stéphanie Croguennec, chef du département de lutte contre l’effet de serre, Direction générale de l’énergie et du climat ;

M. Olivier de Guibert, adjoint au chef du département de lutte contre l’effet de serre ;

M. Joseph Lunet, chargé de mission « agriculture et forêt » au département de lutte contre l’effet de serre ;

M. Pascal Douard, ingénieur général des ponts, des eaux et des forêts, Conseil général de l’environnement et du développement durable (CGEDD-collège « Énergie et climat »).

 


 

—  1  —

 

Note N° 4 : comprendre les blockchains (chaînes de blocs)

Note n°

4

 

______

Comprendre les blockchains
(chaînes de blocs)

 

______

 

Avril 2018

 

Le fonctionnement général dune blockchain

Source : OPECST daprès Blockchain France

Résumé

 Apparues il y a 10 ans comme combinaison de technologies plus anciennes formant le protocole sous-jacent au bitcoin, les blockchains permettent des échanges décentralisés et sécurisés, sans quil soit besoin dun tiers de confiance.

 Leurs applications dépassent le cadre strict des cryptomonnaies et sont potentiellement nombreuses mais peu conjuguent, à ce jour, maturité technologique suffisante et pertinence de lusage.

 La recherche doit relever le défi de la capacité des blockchains à monter en charge, ainsi que celui de leur consommation énergétique.

Mme Valéria Faure-Muntian et M. Claude de Ganay, députés, M. Ronan Le Gleut, sénateur

Contexte de la note

La présente note répond à une demande de la mission d’information commune sur « les usages des blockchains et autres technologies de certification de registres » créée à l’Assemblée nationale. Elle sera suivie d’une note plus développée. Ce qu’on appelle, par métonymie, chaînes de blocs ou blockchains sont des technologies de stockage et de transmission dinformations, permettant la constitution de registres répliqués et distribués, sans organe central de contrôle, sécurisées grâce à la cryptographie, et structurées par des blocs liés les uns aux autres, à intervalles de temps réguliers.

Pour comprendre le fonctionnement de ces registres informatiques, qui utilisent des réseaux décentralisés pair à pair (peer to peer), et forment les technologies sous-jacentes aux cryptomonnaies, type particulier de monnaies virtuelles ([47]), il est nécessaire de revenir à leurs origines ([48]).

Aux origines des blockchains

L’émergence des cryptomonnaies a partie liée avec le mouvement pour le logiciel libre, initié dans les années 1980 par Richard Stallman, ainsi qu’avec la communauté « cypherpunk » ([49]), désireuse d’utiliser les technologies de chiffrement pour créer une monnaie électronique et garantir des transactions anonymes. Les premières tentatives – David Chaum en 1983 avec ecash puis en 1990 avec digicash, Wei Dai en 1998 avec b‑money et, surtout, Nick Szabo avec bitgold – sont des échecs. L’invention de hashcash par Adam Back en 1997, avait pourtant marqué un progrès avec l’idée de valider les transactions en utilisant les fonctions de hachage cryptographiques, appelées « preuve de travail » ([50]). L’objectif de ces technologies est de rendre inutile l’existence d’un « tiers de confiance », en recourant à un système de confiance distribuée permettant de constituer une sorte de « grand livre comptable » infalsifiable.

L’obstacle à lever résidait dans le problème de la double dépense (risque qu’une même somme soit dépensée deux fois) et, plus généralement, dans celui de la tolérance aux pannes, qu’elles soient accidentelles ou malveillantes ([51]).

La réponse à ces difficultés est apportée en 2008 dans un article de Satoshi Nakamoto ([52]). Ce dernier y décrit le fonctionnement d’un protocole infalsifiable utilisant un réseau pair à pair – la blockchain – comme couche technologique d’une nouvelle cryptomonnaie – le bitcoin.

Le fonctionnement de la blockchain

Le bitcoin repose sur un protocole sous-jacent appelé blockchain. On parle de chaînes de blocs, ou blockchains, car les transactions effectuées entre les utilisateurs du réseau sont regroupées par bloc ([53]) « horodaté ».

Une fois le bloc validé, en moyenne toutes les dix minutes, la transaction devient visible pour l’ensemble des détenteurs du registre, potentiellement tous les utilisateurs, qui vont alors l’ajouter à leur chaîne de blocs.

Chaque transaction a recours à la cryptographie asymétrique, apparue avec le protocole Diffie-Hellman de 1976, qui fonctionne avec une paire de clés, l’une privée et l’autre publique, liées entre elles par un algorithme à courbes elliptiques (ECDSA). La clé publique est diffusable et permet de recevoir des transactions, la clé privée est quant à elle gardée secrète. Protéger ses clés privées est le seul moyen de conserver ses bitcoins en sécurité. Dans la mesure où il est possible de retracer toutes les transactions du propriétaire d’une clé publique, il s’agit plus d’un système pseudonyme qu’anonyme. La datation des blocs ainsi constitués est appelée « horodatage ».

Chaque bloc, outre les transactions et l’horodatage, possède un identifiant (case à fond noir du bloc 90 dans le schéma ci-dessous), qui prend la forme d’un « hash » permettant de relier les blocs les uns aux autres ([54]). En informatique, le « hachage » permet de convertir n’importe quel ensemble de données numériques en un hash, c’est-à-dire en une courte suite binaire qui lui est propre. L’algorithme de chiffrement utilisé à cet effet est appelé « fonction de hachage cryptographique ». Le hash d’un ensemble de données peut ainsi être comparé à une empreinte digitale, bien moins complexe que l’individu entier, mais l’identifiant de manière précise et unique. Une fonction de hachage est dite « à sens unique » : elle est conçue de telle sorte que le hash produit, à savoir une image ou empreinte de taille fixe créée à partir d’une donnée de taille variable, fournie en entrée, est impossible à inverser ([55]). Celle utilisée pour le bitcoin est parmi les plus répandues : il s’agit de la fonction Secure Hash Algorithm-256 (SHA-256), ainsi dénommée car elle produit des hashs d’une taille de 256 bits.

 

La structure dune blockchain

Source : Blockchain France.
 

Nœuds du réseau, « mineurs » et consensus

Chaque bloc est validé par certains utilisateurs baptisés « mineurs » (en référence aux chercheurs d’or), et sont transmis aux « nœuds » du réseau, c’est-à-dire aux détenteurs du registre, qui l’actualisent en permanence. La validation des blocs permet de se prémunir du risque d’attaques malveillantes ([56]). Aucune autorité centrale ne s’en occupe, puisque les utilisateurs s’en chargent en surveillant le système et en se contrôlant mutuellement. Cette sécurité, source de confiance, est l’un des aspects essentiels de la blockchain ([57]). Le fait que des centaines de copies du registre soient mises à jour simultanément et régulièrement, au terme d’une compétition cryptographique, rend les blockchains quasiment indestructibles. Une « méthode de consensus » permet de décider qui validera le prochain bloc à ajouter à la chaîne. Dans le cas du bitcoin, elle est appelée « preuve de travail » (proof of work) car elle suppose la réussite à une épreuve cryptographique dénommée « minage », qui se répète en moyenne toutes les dix minutes ([58]). Elle consiste en la résolution par les mineurs de problèmes cryptographiques complexes. Ils consistent à obtenir un hash, commençant par un certain nombre de zéros, du bloc que le mineur souhaite intégrer. Cette opération, très coûteuse en puissance de calcul informatique, est motivée par l’obtention d’une récompense en bitcoins par le mineur gagnant. Le bloc validé par ce dernier est transmis de pair à pair à chaque nœud qui ajoute à sa propre blockchain le bloc ainsi validé. Si deux blocs sont validés au même moment, les mineurs utilisent l’un ou l’autre et deux chaînes parallèles se développent. Le protocole prévoit alors que, rapidement, seule la plus longue subsiste, c’est-à-dire en pratique celle que la majorité des nœuds aura adoptée.

La rémunération des mineurs est complétée par des frais prélevés sur les transactions qu’ils intègrent à chaque nouveau bloc. Leur montant est en théorie déterminé librement par les utilisateurs, mais les mineurs sélectionnant en priorité les plus élevés, ces frais varient de fait en fonction du nombre de transactions en attente. L’organisation des mineurs en groupements ou « pools » ([59]) induit le risque qu’une majorité organisée oriente la validation des blocs. La confiance des utilisateurs dans le système étant en théorie un objectif partagé par les mineurs, celui-ci est censé suffire à garantir le respect des règles, dans une logique de « main invisible » protégeant les intérêts privés. Il faut cependant souligner que quatre pools dont trois chinois, appuyés sur des « fermes de minage », assurent aujourd’hui plus de 60 % de la puissance de calcul nécessaire à la blockchain du bitcoin et pourraient utiliser cette position dominante contre l’intérêt des autres utilisateurs.

 

Les « pools » de mineurs du bitcoin

 

 

 

 

 

D’autres méthodes de consensus que la « preuve de travail » (proof of work) existent et sont souvent plus centralisées ([60]) : la principale alternative, qui présenterait un risque plus grand d’utilisation malveillante ([61]), est la « preuve denjeu », appelée aussi « preuve de participation » (proof of stake), basée sur la possession de cryptomonnaies mises en gage, qui se décline à son tour en « preuve de possession » (proof of hold), fondée sur la durée de possession, « preuve d’utilisation » (proof of use), fonction du volume de transactions, ou encore « preuve d’importance » (proof of importance), reposant sur la « réputation ». Deux autres méthodes moins usitées peuvent aussi être évoquées : la « preuve de capacité » (proof of space) qui consiste à mettre en gage de l’espace disque disponible, ou encore la « preuve de destruction » (proof of burn) qui revient à détruire des cryptoactifs, pour obtenir la confiance du réseau.

Le défi de la montée en charge (« scalabilité »)

La capacité à faire face à une augmentation du nombre de transactions constitue l’un des principaux défis pour les blockchains, à commencer par celle du bitcoin. Cette dernière ne permettait jusqu’en 2017 la validation que de quatre transactions par seconde en moyenne (autour de 20 en 2018). Ce défi de la montée en charge (scalabilité) reste entier. Il a conduit à accélérer la naissance d’autres cryptomonnaies, plus de 1 500 à ce jour, souvent dites alternatives (« altcoins »). Il a également mené à des innovations encore peu matures d’un point de vue technologique, comme la parallélisation de blockchains collatérales, aux fonctions différentes et complémentaires (« sidechains » pour le bitcoin, « sharding » ou « plasma chains » sur Ethereum), le recours à des bases de données liées à la blockchain (« side databases »), ou encore la création d’une nouvelle couche de protocole allégé et rapide « au-dessus » de la blockchain mais bénéficiant de sa sécurité (« lightning networks » pour le bitcoin, « state channels » sur Ethereum).

D’autres applications pour la blockchain ?

Le rôle de la blockchain en tant que technologie sous-jacente des nombreuses cryptomonnaies est aujourd’hui dominant. Cependant, ses protocoles se déclinent dans de nombreux secteurs et pourront donner naissance à des applications nouvelles variées, dépassant le cadre strict de la finance : par exemple des services d’attestation et de certification pouvant concerner l’état civil, le cadastre, des contrats de type notarié ou encore des mécanismes de protection de la propriété intellectuelle. Mais peu d’applications conjuguent, à ce jour, pertinence de l’usage et maturité technologique suffisante. La blockchain Ethereum offre une infrastructure adaptée à des outils tels que des codes informatiques qui pourraient s’exécuter après avoir été écrits dans une blockchain : smart contracts, applications décentralisées dites « Dapps » ([62]) et organisations autonomes décentralisées ou « DAO » ([63]).

La distinction entre blockchains ouvertes ou publiques et blockchains fermées ou privées

La distinction blockchains publiques/blockchains privées ne repose pas sur une distinction entre blockchains de personnes publiques (États, collectivités…) et blockchains de personnes privées (entreprises, ONG…), mais sur le caractère ouvert ou fermé de la blockchain, les protocoles de chaînes de blocs pouvant être distingués selon qu’ils sont ouverts à l’écriture et à la lecture sans restriction ou que l’une ou l’autre de ces opérations est soumise à l’acceptation d’un tiers. On parlera de blockchains ouvertes (permissionless) ou fermées (permissioned) ou encore de blockchains publiques ou privées.

Les protocoles de blockchains sans restriction d’accès sont les plus connus. Ils soutiennent le bitcoin ou l’ether. Comme il a été vu, n’importe qui peut en devenir un nœud, et ces protocoles nécessitent une méthode de consensus.

Il existe aussi un grand nombre de protocoles à restriction daccès, pour certains particulièrement aboutis et déjà opérationnels. Parmi ces derniers, les blockchains « de consortium » résultent du regroupement de plusieurs organisations indépendantes, voire concurrentes, utilisant la blockchain pour archiver dans un registre décentralisé des transactions sécurisées, ou échanger des actes certifiés, sans avoir à faire intervenir un tiers de confiance. D’autres protocoles sont utilisés au sein d’une même organisation, pour simplifier et automatiser des échanges et des certifications. Dans une blockchain privée, une autorité régulatrice valide l’introduction de nouveaux membres, et accorde les droits en écriture et en lecture. Cette autorité peut être seule aux commandes, ou gouvernée collégialement par les différents participants. À la différence d’une blockchain publique, les blockchains privées peuvent exiger une majorité renforcée. De même, il suffit de trois participants pour faire fonctionner une blockchain privée, tandis que les blockchains publiques sont appelées à en compter plusieurs milliers.

Un débat existe pour qualifier les blockchains privées de « vraies » ou de « fausses » blockchains, sachant que créer un produit recourant à ces technologies est aussi un enjeu de marketing. Le recours de certaines applications aux blockchains ne semble pas toujours justifié, les fonctionnalités offertes par les bases de données partagées et sécurisées existantes apparaissant en effet suffisantes à leur réalisation, alors que des technologies alternatives de registres distribués sont en développement : hashgraph, tangle ou directed acyclic graph (DAG).

Le succès de certaines levées de fond spécifiques à l’écosystème des cryptomonnaies (Initial Coin Offering ou ICO) interroge également. Ces émissions d’actifs numériques (appelés jetons ou tokens) échangeables contre des cryptomonnaies ont représenté plus de 3 milliards de dollars en 2017, ce qui peut sembler peu rationnel puisqu’elles n’offrent aucune garantie aux investisseurs.

Un regard plus distancié paraît nécessaire, en raison des effets de mode propres aux écosystèmes entrepreneuriaux. Ces effets de mode, visibles dans le recours à certains concepts, tels que les technologies disruptives, l’intelligence artificielle, les données massives (big data), le cloud, l’internet des objets (IoT pour internet of things) ou, encore, la blockchain, sont parfois le reflet de stratégies marketing séduisantes, mais sans toujours s’accompagner d’innovations aussi majeures que celles annoncées.

Les enjeux énergétiques et environnementaux

Outre les questions de montée en charge, de sécurité, de régime fiscal, ou de cadre juridique, les blockchains posent aussi celle, essentielle, de leurs impacts énergétiques et environnementaux. Les besoins en électricité des blockchains fondées sur la preuve de travail sont considérables.

Leur estimation fait l’objet de débats mais la consommation pour le seul bitcoin est d’au moins 24 TWh/an ([64]). La dépense énergétique étant corrélée à l’intéressement des mineurs, sa croissance est quasi-exponentielle ([65]). Face à l’explosion des cours, la réduction par deux tous les quatre ans des récompenses de minage (phénomène appelé « halving ») ([66]) apparaît insuffisante pour jouer son rôle de régulation de la compétition. De meilleures capacités de calcul ou l’utilisation de surplus électrique ne permettront pas de diminuer la consommation énergétique. En effet, la compétition se jouant sur les coûts, les économies offertes aux mineurs le sont aussi aux attaquants potentiels.

L’impact en termes d’émissions de gaz à effet de serre est d’autant plus important que les groupements de mineurs sont surtout établis en Chine, pays qui présente l’intensité carbone la plus élevée au monde ([67]). La recherche doit donc relever ce défi de la consommation énergétique des blockchains, à l’image de l’initiative française BART ([68]) (« Blockchain Advanced Research & Technologies »), qui doit permettre de valider la blockchain en consommant moins d’énergie, par des méthodes de consensus robustes aux moyens cryptographiques avancés, tout en développant de nouvelles architectures facilitant la fiabilité et la montée en charge du réseau.

Experts consultés

M. Gérard Berry, professeur au Collège de France, membre du conseil scientifique de l’Office ;

Mme Emmanuelle Anceaume, chargée de recherche en informatique à l’Institut de recherche en informatique et systèmes aléatoires (Irisa/CNRS/INRIA/IMT Atlantique/ENS Rennes/INSA Rennes/CentraleSupelec/Université de Bretagne Sud/Université de Rennes 1) ;

M. Daniel Augot, directeur de recherche à l’INRIA ;

Mme Claire Balva, présidente de Blockchain France et de Blockchain Partner ;

M. Nicolas Courtois, professeur d’informatique au University College London (UCL) ;

M. Jean-Paul Delahaye, professeur émérite en informatique à l’Université Lille I (Centre de recherche en informatique, signal et automatique de Lille/CRISTAL) ;

M. Gilles Fedak, chargé de recherche à l’INRIA et président d’iExec ;

M. Georg Fuchsbauer, chargé de recherche à l’École normale supérieure de Paris et à l’INRIA ;

M. Fabrice Le Fessant, chargé de recherche à l’INRIA et fondateur de OCamlPro, Move&Play et CleverScale ;

M. Renaud Lifchitz, consultant et chercheur en sécurité informatique et en cryptographie ;

M. Gérard Memmi, responsable du département Informatique et Réseaux de Télécom ParisTech ;

M. Ricardo Perez-Marco, directeur de recherche en mathématiques (CNRS/Université Paris Diderot) ;

M. Simon Polrot, avocat, fondateur d’Ethereum France et de VariabL ;

M. Pierre Porthaux, président de Blockchain Solutions et d’EmergenceLab ;

M. Manuel Valente, directeur de la Maison du Bitcoin.

Note N° 5 : le transport à hypergrande vitesse sous vide (hyperloop)

 

Note n°

5

 

___

Le transport à hypergrande
vitesse sous vide (Hyperloop)

 

___

 

Juillet 2018

 

Concept en 3D dun véhicule à grande vitesse circulant dans un tube

Malp © Adobe Stock (n° : 169 405 186)

Résumé

     Depuis le livre blanc dElon Musk en 2013, plusieurs projets industriels d’« Hyperloop », capsules pressurisées circulant dans un tube sous vide, sont en cours de développement. Ils affichent une triple promesse : vitesse extrême (plus de 1 000 km/h), empreinte écologique réduite et faible coût.

     Les progrès de ce nouveau mode de transport sont rapides mais les défis immenses : technologie, modèle économique, impact environnemental et aménagement du territoire.

     Si cette technologie doit encore faire ses preuves, elle ne doit être ignorée ni par les entreprises, ni par les collectivités publiques, pour ses enjeux en termes de recherche, de propriété intellectuelle, de réglementation ou de potentialités économiques et humaines.

M. Cédric Villani, Député, Premier vice-président

En 2013 ([69]), Elon Musk, le P.-D.G. de SpaceX et Tesla, a spectaculairement relancé l’idée, qu’il a alors dénommée « Hyperloop » ([70]), de capsules pressurisées circulant sur coussin d’air dans un tube à basse pression à une vitesse proche de celle du son ([71]). Ces capsules pourraient transporter des marchandises ou des passagers avec une fréquence élevée. Selon ses estimations, les coûts d’infrastructure d’une ligne San Francisco–Los Angeles seraient divisés par dix (6 milliards de dollars) par rapport à une ligne ferroviaire à grande vitesse (LGV) et le trajet pourrait être effectué en 30 minutes avec un billet ne coûtant que 20 dollars.

Depuis 2013, les projets de trajets sont annoncés sur les cinq continents, à la demande des autorités publiques locales, ainsi par exemple en Californie, au Canada, aux Émirats arabes unis, en Inde, en Europe du Nord ou de l’Est et, tout récemment, en France.

Quels sont les enjeux de cette technologie de rupture, que l’on pourrait dénommer génériquement « transport à hypergrande vitesse sous vide – THV » ? Quel est son degré de maturité technologique ? Cela modifiera-t-il l’aménagement du territoire à l’échelle nationale, voire continentale ? Les trains à grande vitesse (TGV), dont les premiers datent de 1981, sont-ils maintenant dépassés ([72]) ? Le transport aérien court et moyen-courrier restera‑t‑il compétitif ?

Certains évoquent un « miroir aux alouettes », une « chimère », voire un « leurre », sur les plans technologique, économique et social. La technologie ne serait pas suffisamment mature, ses coûts réels seraient exorbitants et son utilité contestable.

Après le Schéma national des infrastructures de transport (SNIT), élaboré en 2011 à la suite du Grenelle de l’environnement, après les Assises de la mobilité, organisées au 3e trimestre 2017 sous la responsabilité d’Élisabeth Borne, ministre chargée des transports, et avant les choix structurants qui sont en cours pour préparer le projet de loi d’orientation sur les mobilités (LOM), prévu au début 2019, et la programmation budgétaire subséquente des financements des infrastructures de transport, il convient d’analyser en détail les potentialités et les limites du THV.

Les projets de véhicule à grande vitesse circulant dans un tube

Nombreux ont été les rêves de science-fiction en la matière, ainsi ceux de Jules Vernes en 1860 dans « Paris au XXIe siècle » ou en 1889 dans « Au XXIXe siècle ou La journée d’un journaliste américain en 2889 » ([73]).

Le THV s’inscrit dans un contexte également caractérisé par un grand nombre de projets de trains sur coussin d’air ou à sustentation magnétique. Si, en Chine, le train à sustentation magnétique Transrapide Maglev, qui relie le centre-ville à l’aéroport de Shanghai, est en service depuis 2004, cela n’a jamais été le cas, en France, de l’Aérotrain sur coussin d’air de l’ingénieur Bertin, abandonné en 1974 et dont il reste 20 km de voie d’essai à monorail en béton près d’Orléans. Pas plus que les trains à sustentation magnétique Trans-rapide en Allemagne ou Swissmetro en Suisse. Le Japon développe actuellement le SCMaglev (Superconducting Magnetic Levitation), à horizon… 2027 pour le premier tronçon. La vitesse maximale de ces trains plafonne à environ 600 km/h, pour une vitesse d’exploitation comprise entre 300 et 450 km/h.

Dans ce contexte incertain, les projets ont été spectaculairement relancés à la suite de l’initiative d’Elon Musk. Ce dernier n’a pas déposé de brevet mais organise, chaque année depuis 2015, un concours des meilleurs projets universitaires ; 20 universités des continents américain, européen et asiatique ont été sélectionnées en vue de l’attribution du prix le 22 juillet 2018 ([74]). Elon Musk a également créé en 2016 The Boring Company, une entreprise qui porte le projet d’un métro THV souterrain qui connecterait les principales villes du nord-est des États-Unis (New-York, Washington…). Les autorisations réglementaires sont en cours de demande. Mais Elon Musk n’investit dans aucun des quelque douze projets industriels de THV, qui se développent dans un climat de compétition vive et de course aux investisseurs. Les trois principales jeunes entreprises sont :

     Virgin Hyperloop One (VH1) ([75]), en Californie, qui a mobilisé le plus de fonds (280 millions de dollars), avec l’entrée récente à son capital de Richard Branson et qui est soutenue également par la SNCF ;

     Hyperloop Transportation Technologies (HTT) ([76]), aussi en Californie, sur le modèle original de production participative (crowd-sourcing), avec une communauté de chercheurs et d’ingénieurs dans le monde entier rémunérés en options sur titres (stock-options) ;

     et TransPod ([77]), au Canada, cofondée par le Français Sébastien Gendron avec, notamment, un apport de capitaux italiens.

Ces deux dernières entreprises ont tout récemment entrepris, avec l’aide des collectivités territoriales et de l’État, d’implanter leur centre de recherche européen et une piste d’essais, près de Toulouse et près de Limoges.

G:\OFFICE_CHOIX\NOTES COURTES\Hyperloop\Images\transpod-station-design-interior-logo (2).jpg

Source : Transpod.

Trois plus petites entreprises sont européennes : Hardt (Pays-Bas), Zeleros (Espagne) et Hyper (Pologne).

Les défis technologiques

Les principales briques technologiques nécessaires au THV existent déjà, l’enjeu majeur étant de les intégrer. Très peu de documents sont publiés sur les technologies, pour des raisons de concurrence et de propriété intellectuelle (brevets Inductrack, JetGLide, Quantum Power…). Les trois principales jeunes entreprises interrogées, dans le cadre d’un accord de confidentialité avec l’Office, ont expliqué que des progrès considérables avaient été réalisés depuis le livre blanc d’Elon Musk, a fortiori par rapport aux générations précédentes des très coûteux trains Maglev ([78]).

Tous les projets reposent sur des fondamentaux similaires : deux tubes sous faible pression d’air (100 Pa) sur des pylônes ; pilotage automatique centralisé où toutes les capsules circulent à la même vitesse ; capsules aveugles ([79]) transportant de 20 à 40 passagers (ou quelques dizaines de tonnes de marchandises) ; fréquence d’une capsule toutes les 30 à 80 secondes ; aiguillages avec rampes de lancement ; gares complexes pour permettre des départs fréquents.

 

Toutes les entreprises travaillent sur une sustentation magnétique et une propulsion à moteur linéaire à induction, mais les variantes sont importantes : sustentation magnétique active ou passive, propulsion continue ou non, batteries embarquées ou énergie au sol, aimants permanents ou pas…

Les plus grands défis sont résolus ou en passe de l’être, selon les entreprises interrogées, avec des options techniques variées :

     la dissipation de l’énergie cinétique des capsules par réduction de l’empreinte thermique ([80]), récupération au freinage et évacuation par la piste, la capsule et le vide à l’intérieur du tube ;

     le tracé des routes, où une optimisation économique serait réalisée au cas par cas entre vitesse (plus la durée de parcours sera courte, plus le transport sera attractif et donc rentable) et coût (une ligne droite nécessite tunnels et viaducs) ([81]) ;

     une accélération et une décélération normales entre 0,1 et 0,3 g, pour ne pas incommoder les passagers ([82]) ;

     des champs magnétiques qui contournent les capsules pour ne pas exposer les passagers ;

     un dispositif de stabilisation des capsules tenant compte des imperfections, même infimes, du tube ;

     les problèmes de perturbations à l’approche de la vitesse du son (limite de Kantrowitz) ;

     la gestion du vide par une étanchéité très contrôlée et par une optimisation des systèmes de pompage ;

     des tubes en alliage métallique avec des joints de dilatation réguliers ;

     des pylônes aux propriétés antisismiques ;

     des dispositifs de sécurité hérités de l’aviation ou des chemins de fer, avec des scénarios d’urgence en cas de repressurisation rapide du tube (sas, évacuation des passagers…).

Quel horizon de temps crédible pour le déploiement ?

Selon les informations publiques, Hyperloop Transportation Technologies vise une première mise en service entre Al-Aïn et Abu Dhabi (Émirats arabes unis) dès le début des années 2020 ([83]). Virgin Hyperloop One, pour sa part, a signé avec l’État du Mahārāshtra (Inde) un accord-cadre pour construire une ligne entre Pune et Mumbai, que des passagers pourraient utiliser d’ici le milieu des années 2020. Transpod, enfin, soutient qu’elle pourra transporter des passagers au début des années 2030, après une première utilisation de son dispositif pour le transport de marchandises légères.

Les coûts du THV

Les chiffrages initiaux d’Elon Musk sont questionnés. Certaines jeunes entreprises interrogées estiment maintenant que l’infrastructure d’une ligne de THV coûterait entre 60 % et 100 % de celle dune LGV. La géographie de chaque trajet est différente, avec des tunnels et des viaducs qui peuvent conduire à quadrupler les coûts de construction. Pour mémoire, une LGV coûte en France environ 20 millions d’euros le km.

G:\OFFICE_CHOIX\NOTES COURTES\Hyperloop\Images\H1_83446_2018-04-06.jpg

Source : Virgin Hyperloop One.

Mais plus que sur les dépenses d’infrastructure (CAPEX), c’est sur les dépenses dexploitation (OPEX) que l’écart se creuserait. Les jeunes entreprises développant le THV estiment que leurs OPEX seraient nettement inférieures à celles des LGV : absence de friction (vide et sustentation magnétique), occasionnant consommation d’énergie et fatigue mécanique réduites ; protection contre les intempéries (neige…) ; automatisation.

Aujourd’hui, seule la LGV Paris-Lyon est rentable financièrement. Les LGV construites ensuite n’ont été rentables qu’en termes socio-économiques (en intégrant les gains de temps et les bénéfices environnementaux). La plupart des LGV aujourd’hui en projet ne sont pas rentables en termes socio-économiques et encore moins financièrement. En comparaison, les jeunes entreprises qui développent le THV estiment le retour sur investissement de leurs lignes entre 8 et 11 ans. Le prix du billet resterait inférieur (ou égal) à celui d’une LGV.

Les enjeux écologiques

Le THV étant alimenté électriquement, il n’émet pas de CO2 en exploitation, dans un contexte où le réchauffement climatique tend à augmenter le prix de la tonne de CO2.

Quelque 70 % de la consommation d’énergie d’une LGV sont dus aux frictions (air et roues) : les concepteurs du THV estiment que la consommation dénergie en fonctionnement pourrait même être inférieure à la production d’énergie renouvelable qui résulterait de la pose de panneaux solaires, voire d’éoliennes ou d’unités de géothermie.

En comparaison des nuisances sonores de l’avion et du train, le THV présenterait un très faible niveau sonore, que l’un de ses concepteurs estime à celui d’un avion à 50 km d’altitude. Cela permet d’envisager, pour une ligne sur pylônes avec deux tubes, un corridor d’une largeur de seulement 10 m.

Le THV décongestionnerait les routes (embouteillages, pollution) et représenterait une alternative plus respectueuse de l’environnement que l’avion pour les vols courts et moyens-courriers. Il absorberait une partie du trafic aérien mondial qui, depuis 1945, double tous les 15 ans.

Enjeux économiques et sociaux

Les économistes des transports posent la question de lutilité de la vitesse. D’un côté, des transports plus rapides font gagner du temps, qui devient la ressource rare du monde contemporain. Ils permettent de rapprocher les territoires, par exemple autour d’une grande métropole, en développant l’activité économique, en désenclavant les zones rurales et en accroissant l’accès au travail. Ils permettent une circulation plus fluide des personnes et des idées, facteur de progrès. Ils libèrent du temps pour le travail mais, aussi, les relations sociales, les loisirs et améliorent ainsi la qualité de vie.

Ivan Illich, dans les années 1970 ([84]), a contesté l’utilité sociale de la vitesse, en développant la notion de « vitesse généralisée », qui intègre à la vitesse physique les coûts individuels et sociaux rapportés au pouvoir d’achat ([85]). Ces coûts sont d’abord le prix des billets. On constate historiquement que, plus les durées et prix au kilomètre baissent, plus les personnes multiplient leurs trajets et, donc, leurs temps et leurs dépenses de transport… Ces coûts sont aussi composés des coûts collectifs pour la société : subventions publiques aux transports collectifs, dans un contexte de raréfaction des deniers publics ; coûts environnementaux (CO2, bruit…) et énergétiques ; et coûts sociaux. Le risque existe de créer un système de transports à deux vitesses – sans jeu de mots – où les plus rapides sont réservés aux plus riches (le Concorde en a été un exemple), avec une montée des inégalités.

Une LGV peut supporter un trafic maximum de 12 000 personnes par heure ; avec les nouvelles rames TGV, il sera possible d’aller jusqu’à 15 000. Une capsule de THV de 40 personnes toutes les 30 secondes permet un débit maximal de 4 800 voyageurs aux heures de pointe. Même sous ces hypothèses limites, le débit du THV resterait donc encore trois fois moindre que celui d’une LGV.

Par contre, le THV permet un transport à la demande très agile : pas de nécessité de réserver, dès qu’une capsule est pleine, elle peut partir. Culturellement, il s’insère dans l’« économie du partage » (shared economy) aux côtés du covoiturage, de l’autopartage ou même du vélopartage.

Le THV répond parfaitement à la croissance attendue des besoins de transport du commerce électronique, avec des envois prioritaires personnalisés. Des opérateurs comme DHL, DP World ([86]) ou Amazon ont déjà marqué leur intérêt. La vitesse de livraison permet de réduire les coûts de stockage.

G:\OFFICE_CHOIX\NOTES COURTES\Hyperloop\Images\HyperloopTT system front view_preview.jpeg

Source : Hyperloop Transportation Technology.

Du point de vue de laménagement du territoire, les questions sont nombreuses. Le THV permettrait théoriquement de rapprocher les banlieues des centres-villes : avantage d’un meilleur accès au travail ou inconvénient de cités-dortoirs ? Contrairement à ce que pensent nombre d’élus locaux, les économistes ont montré que la baisse des coûts de transport a favorisé la concentration urbaine ([87]).

Si le THV semble bien adapté aux pays-continents comme les États-Unis ou l’Inde, qu’en est-il pour les petits pays européens déjà équipés de LGV ? L’utilité pourrait se trouver dans les liaisons entre capitales ou métropoles européennes, ou entre aéroports. Mais les liaisons entre métropoles sans arrêts intermédiaires se feraient-elles au détriment des territoires traversés ?

Les projets de THV n’ont pas vocation à se substituer aux autres modes de transport, notamment LGV et liaisons aériennes. Au-delà de 1 000 km, notamment pour les trajets nécessitant de traverser la mer, l’avion reste compétitif. Même si certaines lignes de THV courtes sont possibles, en deçà de 400 km, le train présente un avantage certain en raison de la plus faible différence de durée et de l’accès aux centres-villes qu’il permet sans rupture de charge. C’est bien l’une des difficultés du THV, à savoir qu’il sera très difficile, voire impossible, de construire des lignes dans les grandes métropoles jusqu’aux centres-villes, en raison de la difficulté et du coût des expropriations nécessaires. La réponse proposée est le raccordement des lignes de THV à des pôles multimodaux – aéroport, métro ou RER –, afin de relier les centres-villes en moins de 30 minutes sans rupture de charge.

Conclusions

La technologie de THV sest énormément développée en cinq ans, depuis le livre blanc d’Elon Musk. Mais, on l’a vu, plusieurs objectifs initiaux (vitesse, coûts…) ont été réduits.

La France, pays pionnier en aviation et en LGV, doit veiller à développer ses capacités de R&D et dinnovation, publique comme privée, dans ce secteur dont les enjeux de propriété intellectuelle peuvent être importants. L’hypothèse d’une réussite de cette technologie ne peut pas être exclue à cette date, même s’il serait prudent d’attendre le bilan – technologique et économique – des premières réalisations, annoncées au début des années 2020 (vitesse, fiabilité, coûts, sécurité…), avant d’engager des financements importants dans le cadre de la programmation en cours des investissements publics d’infrastructures de transport, structurante pour les prochaines décennies. À ce stade, cette technologie prometteuse doit encore faire ses preuves.

Le cadre réglementaire français et européen gagnerait à être adapté rapidement au THV. Si nombre de normes techniques ou de sécurité relatives aux transports ferroviaires ou aériens peuvent être déclinées pour le THV, il reste à réaliser un important travail de complément et d’intégration pour pouvoir, le cas échéant, certifier ce nouveau mode de transport. Pour ce faire, l’Établissement public de sécurité ferroviaire (EPSF) et l’Agence de l’Union européenne pour les chemins de fer (ERA) devraient voir leurs compétences étendues à tous les transports guidés. Un groupe d’experts pourrait être mis en place, avec les entreprises développant le THV qui le souhaitent, avec des organismes privés de certification, voire avec la Commission européenne, afin de commencer dès maintenant à travailler sur les caractéristiques réglementaires relatives au THV. Cette démarche faciliterait l’évaluation des risques par les agences de sécurité (EPSF, ERA) et, in fine, la certification européenne de ce nouveau mode de transport, s’il voit le jour, plutôt que devoir importer, un jour, des normes qui auraient été définies dans d’autres pays.

Enfin, un site de développement européen pourrait être créé, par exemple en réaménageant lancienne ligne dAérotrain, près d’Orléans, où tous les acteurs pourraient tester leurs produits, avec une possible convergence ou interopérabilité des infrastructures.

Experts consultés

M. Marcel Van de Voorde, professeur à l’université technologique de Delft, Pays-Bas, membre du conseil scientifique de l’Office ;

M. Dominique Bureau, président du conseil scientifique des économistes de la Société du Grand Paris (SGP), ingénieur général des ponts, des eaux et des forêts, délégué général du Conseil économique pour le développement durable (CEDD), président de l’Autorité de la statistique publique ;

M. Alexandre Cadain, cofondateur et chief executive officer (CEO) d’ANIMA.ai ;

M. Yves Crozet, professeur à l’université de Lyon (IEP), laboratoire aménagement économie transports (LAET) ;

M. Rob Ferber, VP chief engineer, Mme Diana Zhou, directrice de la stratégie de projet et chef de cabinet, Virgin Hyperloop One ;

M. Sébastien Gendron, chief executive officer (CEO) et cofondateur, M. Ryan Janzen, chief technology officer (CTO) et cofondateur, M. Thierry Boitier, directeur Business Development de Transpod ;

M. Pierre Izard, directeur général délégué système & technologies ferroviaires, M. Fabien Letourneaux, adjoint programmes système à la direction système et technologie, et Mme Laurence Nion, conseillère parlementaire du groupe, SNCF ;

M. Laurent Jarsale, vice-président plate-forme Mainlines, M. Stéphane Kaba, directeur développement commercial grande vitesse, Mme Julie Morel, directrice stratégie, et M. Damien Cabarrus, responsable affaires publiques France, Alstom ;

M. El Miloudi el Koursi et M. Joachim Rodriguez, Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR) de Villeneuve d’Ascq ;

M. Jean-Claude Raoul, ancien conseiller technique de la Fédération des industries ferroviaires, ancien membre du conseil d’administration de Swissmetro et ancien directeur de l’Association européenne pour l’interopérabilité ferroviaire (AEIF), qui est devenue l’Agence de l’Union européenne pour les chemins de fer (European Union Agency for Railways – ERA), M. Michel Laroche, ancien directeur général adjoint recherche et technologie, Safran, et Mme Muriel Beauvais, membre de l’équipe permanente, Académie des technologies ;

M. Alexandre Zisa, responsable à Toulouse, M. Andres de Leon, chief operating officer (COO), Hyperloop Transportation Technology.

contributions

Académie des technologies

Service pour la science et la technologie et service économique régional de l’ambassade de France aux États-Unis.

 

Note N° 6 : la rénovation énergétique des bâtiments

 

Note n°

6

 

___

La rénovation énergétique

des bâtiments

 

___

 

Juillet 2018

 

Image thermique dun immeuble dont une partie seulement est isolée

© Ingo Bartussek/Adobe Stock

Résumé

    Latteinte des objectifs de réduction des émissions de gaz à effet de serre et de consommation dénergie nécessite une véritable rupture dans la démarche de rénovation énergétique des bâtiments.

    Initier une dynamique de rénovation énergétique implique dêtre en capacité de mesurer les résultats unitaires obtenus, de suivre lévolution globale du parc, de concentrer les efforts là où leur efficacité est avérée, didentifier les obstacles de tous ordres et de les lever.

    Pour faire émerger de nouvelles solutions adaptées, la recherche scientifique doit être développée et renforcée suivant de multiples axes : numérique, matériaux, sciences sociales, etc.

 

MM. Jean-Luc Fugit et Loïc Prudhomme, députés

 

Contexte de la note

En France, le secteur du bâtiment représente de l’ordre de 25 % des émissions de gaz à effet de serre (36 % en moyenne dans l’UE) et de 45 % de la consommation d’énergie finale (40 % dans l’UE) ([88]).

En conséquence, latteinte des objectifs nationaux de réduction des émissions de gaz à effet de serre (baisse de 40 % en 2030 et 75 % en 2050, par rapport à 1990) et de consommation dénergie finale (diminution de 50 % en 2050, par rapport à 2012) est fortement dépendante de la réalisation des objectifs fixés au secteur du bâtiment ([89]) :

       diminution des émissions de gaz à effet de serre à hauteur de 54  % à l’horizon 2028, et d’au moins 87  % à l’horizon 2050, par rapport à 2013 ;

       diminution de la consommation énergétique de 15 % à l’horizon 2023 et de 28 % à l’horizon 2030, par rapport à 2010.

Du fait d’un rythme de renouvellement du parc de bâtiments de l’ordre de 1 % par an depuis 30 ans, les progrès considérables réalisés sur la performance des bâtiments neufs ne peuvent, même à l’échelle de la décennie, avoir qu’un effet limité sur les caractéristiques globales d’émissions et de consommation des bâtiments.

De ce fait, latteinte des objectifs fixés au secteur dépend pour lessentiel des possibilités damélioration des performances du parc immobilier existant. C’est l’objectif de la rénovation énergétique, qui recouvre l’ensemble des travaux visant à diminuer la consommation d’énergie et les émissions de gaz à effet de serre du bâtiment et de ses habitants, ou utilisateurs dans le cas du tertiaire.

En termes dactions à mener, la priorité doit donc être donnée aux mesures qui favorisent une rénovation efficace par rapport à lamélioration des performances des constructions neuves, lesquelles présentent, par ailleurs, l’inconvénient de mobiliser plus de matières premières et, dans un grand nombre de cas, des terres agricoles de qualité et de proximité.

Depuis l’apparition, dans les années 1970, de la préoccupation de performance énergétique dans les bâtiments, les parties prenantes (responsables politiques, administrations, organismes, associations, etc.) privilégient le perfectionnement des réglementations, méthodes et technologies destinées à la construction neuve. Or, la démarche en matière de construction neuve nest pas immédiatement transposable à la rénovation, a fortiori lorsque l’objectif affiché est celui de la massification. Qui plus est, les gains unitaires visés, de l’ordre de dizaines de kWh/m2/an dans la construction neuve, sont très inférieurs à ceux de la rénovation des logements les moins bien isolés, de l’ordre de plusieurs centaines de kWh/m2/an.

Des résultats nationaux nettement insuffisants,
malgré un investissement substantiel

La loi dite « Grenelle I » du 3 août 2009, a fixé un objectif de réduction de la consommation énergétique des bâtiments de 38 % entre 2009 et 2020, en prévoyant à cette fin la mise en œuvre d’incitations financières visant à réaliser, sur cette période, 4 millions de rénovations lourdes de résidences principales privées et 9 millions de rénovations intermédiaires, sans préciser de niveau de performance énergétique à atteindre.

Ces incitations financières ont été révisées à plusieurs reprises, pour essayer d’accroître leur efficacité. Pour la seule année 2015, leur montant cumulé s’est élevé à 3,8 milliards d’euros ([90]).

Si les résultats obtenus en nombre de logements privés rénovés s’approchent des objectifs pour certaines années ([91]), ce n’est en revanche pas le cas s’agissant de l’objectif de diminution de la consommation : entre 2009 et 2016, celle-ci a ainsi baissé de seulement 1 % (de 498 TWh à 493 TWh) ([92]).

Latteinte des objectifs nationaux et sectoriels implique donc une véritable rupture dans la démarche de rénovation énergétique.

Pour une démarche plus rigoureuse en matière de
rénovation énergétique des bâtiments

Initier une véritable dynamique de rénovation énergétique maîtrisée, permettant d’atteindre les objectifs climatique et énergétique fixés, implique d’être en capacité de mesurer les résultats unitaires obtenus, de suivre l’évolution globale du parc, de concentrer les efforts là où leur efficacité est avérée, d’identifier les obstacles de tous ordres et de les lever.

La mesure des performances de lenveloppe et de la consommation réelle des bâtiments constitue un prérequis indispensable au pilotage de la rénovation énergétique. Les recherches menées ces dernières années, en France et à l’étranger, ont permis de lever les obstacles, et plusieurs techniques de mesure permettant d’atteindre, pour diverses typologies de bâtiments, un niveau satisfaisant de précision, sont aujourd’hui disponibles ([93]). À ce stade, il devient possible de les évaluer, en vue d’une mise en œuvre à grande échelle ([94]). Cela constitue tout à la fois un préalable à la mise en place dun diagnostic de performance énergétique opposable, envisagée pour 2020, à lintroduction dune garantie de performance énergétique, permettant de redonner confiance aux donneurs d’ordres, à une généralisation de la corrélation entre la valorisation dun bien immobilier et sa performance énergétique, ainsi qu’à la simplification et à la lisibilité des aides à la rénovation, en remplaçant les aides ciblées, fonction des caractéristiques des produits, par des aides fondées sur la performance globale d’une opération de rénovation.

La création dun véritable observatoire du bâtiment permettrait de suivre en permanence la situation réelle du parc, aux niveaux national et local, ainsi que son évolution, de cibler les bâtiments à rénover en priorité, pour permettre des opérations groupées, et d’évaluer l’adéquation des actions engagées. Cette démarche a déjà été initiée, avec la proposition de centralisation des diagnostics immobiliers dans un observatoire géré par le Centre scientifique et technique du bâtiment (CSTB) ([95]). Mais elle doit être étendue et accélérée, pour créer un référentiel de données utilisable par les décideurs comme les chercheurs.

Pour des raisons d’efficacité, une réelle priorité doit être donnée aux « passoires », énergétiques et à gaz à effet de serre. Les gains les plus rapides peuvent, en effet, être obtenus sur les 7,4 millions de logements qui consomment plus de 330 kWh/m2/an. Par exemple, le bénéfice résultant de l’isolation d’une paroi est directement fonction du niveau initial de perte de celle-ci, plus encore que des caractéristiques de l’isolant utilisé. Au regard des enjeux climatiques mais aussi de santé (des études reprises par l’OMS ayant montré que 1 € investi dans des travaux de rénovation énergétique conduit à 0,42 € d’économies en dépenses de santé publique) ([96]), il convient de traiter spécifiquement le cas des 2,6 millions de « passoires »  représentant 35 % du total habitées par des ménages modestes.

Il est indispensable dinverser la désaffection croissante des ménages, constatée en France mais aussi à létranger, vis-à-vis de la rénovation énergétique. Ceci implique de mieux cerner les conditions de déclenchement d’une décision de rénovation, en habitat individuel et collectif ; et de la rendre plus attractive, en l’associant à l’amélioration de la qualité de vie dans l’habitat, en développant de nouvelles offres de produits, adaptés à des situations diversifiées, « embarquant » plusieurs fonctionnalités, le tout à un coût attractif. Rétablir la confiance implique aussi de mettre fin à la dispersion des services de conseil aux particuliers, en mettant en place un dispositif de pilotage national plus structuré que les plateformes de rénovation énergétiques, qui pourrait devenir un point de passage obligé pour l’obtention des aides à la rénovation.

Certains obstacles réglementaires à linnovation dans la rénovation énergétique doivent être levés. Ainsi, la mise en œuvre de la mesure de la performance réelle des opérations de rénovation limiterait la certification préalable des produits aux seuls critères touchant à la sécurité, ce qui conduirait à une baisse des délais et des coûts de mise sur le marché pour les entreprises innovantes. Elle ouvrirait également la rénovation à des démarches et protocoles alternatifs, comme ceux issus de la construction passive.

De nouvelles solutions en matière dingénierie financière doivent être identifiées, par exemple en mettant en œuvre un mécanisme hypothécaire s’inspirant du viager permettant un remboursement du principal lors de toute mutation juridique du bien rénové ([97]).

De multiples axes de recherche à développer

Plusieurs axes de recherche apparaissent incontournables pour lever les obstacles à la rénovation énergétique des bâtiments, identifiés en France ainsi que dans d’autres pays plus avancés sur ce sujet.

Le développement des technologies numériques ouvre la voie à une multitude de nouvelles applications, la plupart restant encore à imaginer. Parmi beaucoup, on peut citer la gestion active de l’énergie dans les bâtiments, à travers les objets connectés ([98]), qui permet de piloter en temps réel les équipements en fonction de l’utilisation effective des locaux et de suivre la consommation d’un bâtiment ([99]), ou encore l’analyse massive des données ([100]), pour cibler, dans un parc de bâtiments, ceux dont la rénovation serait prioritaire. Les techniques d’intelligence artificielle pourraient faciliter l’identification des travaux de rénovation les plus appropriés pour un bâtiment ([101]). A contrario, des solutions numériques performantes pour la construction neuve, comme le BIM (building information modeling), ne sont pas nécessairement transposables, sans un important travail d’adaptation, au monde de la rénovation ([102]).

En matière d’isolation, les caractéristiques des matériaux développés pour les constructions neuves, souvent épais et contraignants en termes de pose, ne répondent pas nécessairement à la diversité des situations en rénovation. De nouveaux matériaux, plus performants, plus simples ou rapides à mettre en œuvre restent à élaborer et à industrialiser, pour apporter des solutions adaptées à chaque configuration et type de bâtiment. Ainsi, des recherches ont permis de mettre au point de nouveaux matériaux thermo-isolants très performants : les aérogels ([103]), pouvant, par exemple, être simplement intégrés à un revêtement mural ou projetés lors d’un ravalement ([104]), des isolants minces ou, encore, sous vide. Ces recherches sintéressent de plus en plus aux matériaux biosourcés, qui permettent de réduire limpact environnemental des rénovations.

Les recherches sur la qualité de lair et le confort intérieur, ainsi que le respect du bâti existant, doivent également être poursuivies. Pour que la rénovation devienne attractive, il est, en effet, essentiel qu’elle soit perçue, à l’avenir, non seulement comme une source potentielle d’économies futures mais aussi comme pourvoyeuse d’une réelle amélioration, immédiatement perceptible, des conditions de vie dans les logements, les espaces publics ou les entreprises. Ainsi, dans le tertiaire, l’amélioration de la productivité résultant de meilleures conditions de travail pourrait devenir l’un des principaux critères déclencheurs d’une opération de rénovation ([105]).

Dans le domaine de la production de chaleur, des barrières technologiques restent aussi à lever. S’agissant des chaudières à gaz, utilisant une source d’énergie facile à stocker mais carbonée, la réduction de 90 % des émissions de gaz à effet de serre d’ici 2050 impose une accélération du développement des sources non carbonées ([106]). De même, il demeure nécessaire d’améliorer, en périodes de grand froid, lefficience des pompes à chaleur aérothermiques, susceptibles de diviser d’un facteur 3 à 5 en moyenne la consommation électrique ([107]). Par ailleurs, le développement des technologies permettant la récupération de la « chaleur fatale » des fluides issus du bâtiment doit être également approfondi.

Lapport dune approche sappuyant sur les sciences sociales apparaît également primordial, notamment pour identifier les facteurs qui contribuent à déclencher la décision de rénovation d’une habitation, mieux prévoir l’évolution du comportement des habitants d’un logement, notamment en vue de limiter les effets rebond après une rénovation, ou même cerner les facteurs conduisant un artisan à privilégier certaines solutions de rénovation et favorisant l’acceptation des innovations ([108]).

Un nécessaire renforcement de la recherche

Au regard des enjeux liés à l’atteinte des objectifs climatiques et énergétiques, leffort de recherche publique et privée en matière de rénovation énergétique napparaît pas à la hauteur des défis scientifiques et technologiques à relever.

Concernant la recherche privée, le secteur du bâtiment, qui génère en France un chiffre d’affaires annuel d’environ 130 milliards d’euros, n’alloue qu’environ 0,1 % à 0,2 % de ce montant à la recherche, contre 2 % en moyenne dans les autres secteurs. Cette situation découle en partie de sa structure, car il est essentiellement constitué de très petites entreprises et d’un nombre réduit de grands groupes, à quelques notables exceptions près peu mobilisés sur les problématiques de la rénovation énergétique, les entreprises intermédiaires étant a contrario presque inexistantes. Elle est en partie compensée par l’apport des recherches effectuées, notamment sur les matériaux et le numérique, par des entreprises extérieures au secteur ; par exemple, les silices, issues de l’industrie chimique, pourraient conduire à de nouveaux isolants.

Ce financement insuffisant de la recherche privée se conjugue, paradoxalement, avec une désaffection croissante des grands organismes publics de recherche et de financement pour le domaine de la performance énergétique des bâtiments, au moment même où cette recherche devient cruciale. Sur le plan des effectifs, la communauté de recherche française est en décroissance depuis plusieurs années, alors même qu’elle était déjà plus réduite que dans les pays d’Europe ou d’Amérique du Nord, où existe une tradition structurée de recherche publique dans ce secteur. Les budgets français de recherche connaissent la même diminution. En particulier, les crédits alloués par l’Agence nationale de la recherche (ANR) à des projets concernant le bâtiment sont en décroissance : ces dernières années, seulement un ou deux projets ont été attribués à de jeunes chercheurs dans le domaine du bâtiment au titre du sixième défi, relatif aux systèmes urbains (ville, bâtiment, mobilité, etc.).

Il apparaît plus que jamais souhaitable de remettre la recherche sur le bâtiment au cœur de la politique déconomie dénergie française, notamment en inversant la tendance à la baisse des crédits alloués. La France ne disposant plus d’un grand pôle de recherche dans ce domaine, même si des équipes très compétentes existent au sein du CSTB, du CEA et de quelques centres universitaires régionaux, il convient de poursuivre l’effort de regroupement de ces équipes scientifiques. La création, à terme, dun institut de recherche dédié, éventuellement partiellement financé par le secteur privé, permettant de disposer d’infrastructures adaptées et de donner à ces travaux la visibilité nécessaire, aux niveaux national et international, afin d’attirer de nouveaux talents, pourrait constituer une étape structurante importante de cette démarche.

Experts consultés

M. Francis Allard, professeur émérite au Laboratoire des sciences de l’ingénieur pour l’environnement (LASIE), université de La Rochelle ;

M. Jean-Loup Berthez, vice-président cofondateur de la Fédération française de la construction passive (FFCP) ;

Mme Catherine Langlais, directrice générale, Saint-Gobain Recherche, Académie des technologies ;

M. Thomas Leduc, directeur du Centre de recherche nantais architectures urbanités (CRENAU), CNRS ;

M. Patrick Maestro, directeur scientifique de Solvay, Académie des technologies ;

M. Emmanuel Normant, directeur développement durable de Saint-Gobain ;

M. Nicolas Petit, fondateur d’OPERENE ;

M. Ignacio Requena-Ruiz, maître de conférences, ENSA Nantes ;

Mme Auline Rodler, chercheure contractuelle, ENSA Nantes ;

M. Didier Roux, Académie des sciences ;

M. Jean-Marie Thouvenin, directeur physique du bâtiment, Saint-Gobain ;

Mme Brigitte Vu, enseignante-chercheure contractuelle, université de technologie de Belfort-Montbéliard ;

M. Etienne Wurtz, directeur de recherche, CEA.

Contributions

Académie des technologies

Unités mixtes UMR – CNRS.

 


 

Note N° 7 : enjeux sanitaires et environnementaux de l’huile de palme

 

      Note n°

7

 

___

Enjeux sanitaires et environnementaux

de lhuile de palme

 

___

 

Novembre 2018

C:\Users\Famille DAUTRY neoPC\Desktop\philippe temporaire\photo palme.jpg

 

Résumé

       La très forte rentabilité du palmier à huile combinée aux qualités intrinsèques de lhuile de palme et à une demande alimentaire massive et croissante, ainsi quà des conditions de culture géographiquement concentrées, conduit à un impact certain de son exploitation sur la déforestation dans les pays producteurs, quil est difficile de quantifier précisément. Si le passé est irréversible, le futur de forêts primaires est menacé par laccroissement de la demande mondiale en huile de palme du fait de son utilisation récente dans les biocarburants de première génération.

       Sur le plan sanitaire, son utilisation alimentaire peut, dans certains cas, présenter un risque du fait de sa richesse en acide palmitique et de sa présence fréquente dans les produits alimentaires transformés, avec une consommation réelle inconnue. Son utilisation cosmétique ne représente pas de risque particulier.

      La certification est nécessaire pour en tracer lorigine, mais elle se heurte, sagissant des exigences européennes, à des incertitudes concernant la définition des critères qualifiant limportance de limpact sur le changement indirect daffectation des sols.

 

Le contexte de la note

L’huile de palme est présente en France dans les produits de consommation courante, alimentaires et cosmétiques. Elle est utilisée dans certains carburants (biodiesel). Produit d’une chaîne agro-industrielle à déploiement mondial, sa demande connaît une progression spectaculaire. Sa présence fréquente et croissante dans l’alimentation transformée et les produits cosmétiques, fût-ce en faible quantité mais sans étiquetage clair permettant de la quantifier, pose la question de ses effets sur la santé, tandis que son mode de production, qui impacte la biodiversité et la captation du carbone, suscite une attention particulière de la part des consommateurs, industriels et décideurs politiques ([109]), notamment au regard des enjeux de la déforestation, rappelés par un récent rapport d’une ONG ([110]) et par le plan gouvernemental 2018-2030 de lutte contre la déforestation importée ([111]).

Le produit et ses utilisations

L’huile de palme est une huile végétale extraite de la pulpe du fruit du palmier à huile ([112]) et doit être distinguée de lhuile de palmiste, extraite du noyau de ce même fruit. Cette pulpe pressée produit 99 % d’huile ([113]) d’où le faible intérêt des tourteaux, résidus végétaux compactés riches en protéines, utilisés, pour le soja ou le colza, en alimentation animale. L’huile de palme est une graisse végétale à température ambiante, plastique et manipulable, stable à la cuisson et ne s’oxydant pas ([114]). Ses propriétés physiques, rhéologiques et chimiques sont à l’origine de son succès en agro-alimentaire, domaine qui en constitue le premier débouché mondial. Elle est aussi utilisée dans une moindre mesure en cosmétique et plus récemment incorporée dans des biocarburants. Selon une étude menée en 2016 par WWF, la production d’huile de palme mondiale est destinée pour 68 % au secteur alimentaire, pour 27 % à des utilisations industrielles (cosmétiques, détergents, produits de nettoyage) et pour 5 % aux biocarburants ([115]). La production mondiale ([116]) de biocarburants a globalement connu une croissance forte, de 37 % entre 2010 (59 MTep ([117])) et 2017 (81 MTep). En 2015, les plus gros consommateurs d’huile de palme étaient l’Inde et l’Indonésie, suivis par l’Union européenne et la Chine ([118]).

Sa composition et ses effets physiologiques 

L’huile de palme est composée ([119]) principalement dacide palmitique (43,5 %), acide gras saturé à chaîne longue qui est athérogène en cas d’excès ([120]) – tout comme le sont deux autres acides gras saturés, le laurique (huile de coco) et le myristique (beurre et crème de lait) ([121])–, dacide oléique (36,6 %), acide gras monoinsaturé majoritaire dans notre alimentation, et, de manière plus limitée, dacide linoléique (9 %), acide gras polyinsaturé précurseur de la famille des oméga 6, famille d’acides gras dits essentiels ([122]).

Lutilisation alimentaire de lhuile de palme, dont les micronutriments sont en partie éliminés par le raffinage, est peu pertinente d’un point de vue nutritionnel, voire néfaste pour la santé si, du fait de sa teneur en acide palmitique, sa consommation contribue à dépasser la limite supérieure conseillée de 8 % de l’apport énergétique total ([123]), qu’il est toutefois difficile de calculer dans la vie quotidienne, compte tenu du manque de données sur la consommation des aliments transformés et sur la quantité d’huile palmitique effectivement consommée.

En cosmétologie, l’huile de palme est utilisée dans des crèmes hydratantes et produits d’hygiène depuis près de 40 ans pour sa stabilité, sa neutralité olfactive et son innocuité. En effet, ses lipides naturellement présents dans la couche cornée, à l’instar des cholestérols ou des céramides, sont non comédogènes aux faibles doses utilisées ([124]) et restent dans les couches superficielles de l’épiderme sans pénétrer dans l’organisme.

Son utilisation dans les biocarburants 

La troisième utilisation de l’huile de palme résulte de sa transformation en biocarburant gazole (dit biodiesel) utilisé en mélange au carburant diesel du commerce jusqu’à un volume maximum de 8 % ([125]). Deux procédés existent : la transestérification des huiles, qui produit des EMAG ([126]) (Ester méthyliques d’acides gras), et plus récemment lhydrotraitement, qui produit du biodiesel HVO (Hydrotreated Vegetable Oil), ce dernier procédé nécessitant des unités de production beaucoup plus coûteuses. Sur la base de données 2015 ([127]), le procédé EMAG utilisait pour matière première soit du colza (82,3 %), soit de l’huile de palme (13,7 %), soit du soja (2,3 %), en provenance d’Europe pour 78 %. Si la performance énergétique est la même quelle que soit la matière première, le bilan carbone de la totalité de la chaîne d’exploitation (production + distribution) diffère avec une réduction de l’émission de GES par rapport aux carburants traditionnels de 38 % pour le colza, 31 % pour le soja, et 19 % pour l’huile de palme ([128]).

Sa culture, son cycle 

Le palmier à huile est une plante pérenne dont la culture (élaeiculture) se déploie en zone tropicale humide, dans une zone géographique restreinte autour de l’équateur, où elle trouve les conditions d’hygrométrie (200 mm de pluie par mois ([129])) et d’ensoleillement nécessaires ([130]) à la production continue tout au long de l’année de régimes portant quelque 2 000 fruits ([131]). Son cycle de vie économique est d’environ 25 ans ([132])([133]) avec un début de production la 3e année et une pleine maturité photosynthétique atteinte au bout de 5 à 6 ans ([134]).

Ses rendements sont très élevés : 3,8 tonnes dhuile par hectare (t/ha) et par an en moyenne mondiale et un potentiel de plus de 10 t/ha ([135]). Cette moyenne est très supérieure aux rendements du soja (0,4 t/ha/an), du tournesol (0,55) et du colza (0,72), et explique la part importante que l’huile de palme représente dans la production totale d’huiles végétales ([136]). Ces hauts rendements permettent en effet d’accroître le volume produit pour une même surface cultivée, ou de réduire la surface cultivée pour une production d’huile fixée. Au-delà, la quête de l’amélioration des rendements passe principalement par la recherche sur les pratiques culturales telle celle menée par le Centre de coopération internationale en recherche agronomique pour le développement (CIRAD) et permet datteindre une augmentation moyenne d1 % par an ([137]). Les techniques de modification génétique sont pour leur part à l’heure actuelle exclues, du fait notamment de la complexité du génome du palmier à huile et des multiples populations de gènes impliqués.

Les surfaces cultivées sont concentrées en Malaisie et en Indonésie qui fournissent 85 % de la production mondiale en 2018 ([138]) tandis qu’une quarantaine d’autres pays produisent les 15 % restants ([139]). Elles ont doublé entre 2000 et 2017 pour atteindre 18,7 millions d’hectares, soit l’équivalent de 34 % de la superficie de la France hexagonale ([140]) et de 6,6 % des surfaces cultivées en oléagineux dans le monde ([141]). Rendements et surfaces ont produit 59 millions de tonnes d’huile de palme dans le monde en 2016 ([142]) et près de 63 millions en 2017 ([143]) (+ 6,7 %) soit 38,7 % de la production mondiale totale d’huiles végétales.

Sa production, son exploitation 

Après récolte (tous les 10 à 14 jours), les fruits doivent être pressés sous 24 h ([144]), ce qui impose lorganisation de bassins de récolte centrés autour dusines dextraction. S’agissant des produits phytosanitaires et autres intrants, les besoins de lélaeiculture sont considérés comme inférieurs à ceux dautres cultures oléagineuses ([145]) avec une consommation observée d’herbicides de 0,41 kg/ha/an pour le palmier à huile contre 4,2 kg/ha/an pour le soja ([146]). Une fertilisation raisonnée « zéro déchet » est possible qui transforme en compost les effluents liquides des usines, les régimes vides de fruits, les quelques tourteaux récupérés après pressage et les feuilles tombées à terre ([147]) et évite ainsi la méthanisation. Toutefois sont évoquées en Indonésie et en Malaisie des utilisations de paraquat, interdit dans l’Union européenne pour les risques toxicologiques graves ([148]) qu’il présente lors de sa manipulation.

La culture du palmier à huile est généralement une monoculture intensive dont les exploitations sont pour 60 % des complexes agro-industriels (supérieurs à 50 hectares) et pour 40 % des petits exploitants agricoles dont le profil est très hétérogène ([149]), entre indépendants, exploitants liés à une ou plusieurs coopératives, jusqu’aux affiliés à une entreprise gestionnaire de leur plantation. Cette diversité des modèles doit être prise en compte dans l’analyse de l’impact social et sociétal de la production d’huile de palme ([150]) (cf. infra).

Le constat d’une baisse des rendements moyens ([151]) des plantations existantes entre 2010 et 2014 en Indonésie (-6 %) et en Malaisie (-26 %), qui serait liée au vieillissement naturel des palmiers, induit que la hausse concomitante de la production est essentiellement due à l’augmentation des surfaces allouées à l’élaeiculture : + 7 millions d’hectares en Asie du sud-est entre 2000 et 2014 ([152]). La question est alors celle de l’origine des terres supplémentaires allouées à cette culture : déforestation de forêt primaire, utilisation de forêts dégradées, de tourbières ou de surfaces agricoles non forestières ?

Comment mesurer la déforestation ?

La principale source de données concernant la déforestation ([153]) est l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), qui publie régulièrement des rapports d’évaluation des ressources forestières mondiales, détaillant pays par pays ([154]) l’état des forêts et des terrains boisés sur la base de données standardisées fournies par chaque pays. Cette méthode présente des limites due à son approche administrative déclarative ([155]).

L’autre source est celle de l’ONG Global Forest Watch, avec un programme de surveillance satellitaire de l’état des forêts mondiales qui, via le World Ressources Institute ([156]), exploite les photographies aériennes des surfaces émergées en les analysant à l’aide d’un algorithme pour en déduire le couvert végétal global. Cette approche connaît également des limites ([157]).

Lobservation de terrain constitue une 3e voie, à l’échelon local, en permettant de dresser l’historique de l’évolution des sols et d’estimer le rôle qu’y joue l’élaeiculture. De tels travaux ([158]), s’ils nécessitent plus de moyens, permettront à terme de pouvoir modéliser l’évolution des agro-systèmes.

Elaeiculture et déforestation : quel lien ?

Le palmier à huile est exploité soit en palmeraie sauvage, soit avec d’autres cultures sur des terres défrichées par brûlis, soit en monoculture intensive sur des terres antérieurement agricoles ([159]). La quantification du lien direct entre culture du palmier et déforestation est difficile à estimer, d’autant que la perte de forêt primaire a pour raison première l’exploitation des bois d’œuvre et l’exploitation minière qui la dégradent en friche, savane ou terre agricole ([160]) sur lesquels les palmeraies peuvent s’installer dans un second temps. Pour l’Indonésie, on estime la proportion de déforestation directe et indirecte liée à l’expansion de l’élaeiculture entre 11 % (2000 à 2010) et 16 % (1990 à 2005) ([161])([162]). Parallèlement, en 2016, dans ce même pays, 45 % des plantations de palmiers à huile se trouvaient sur des terres qui, en 1989, étaient des forêts ([163]).

En tout état de cause, si les estimations quantitatives précises diffèrent ([164]), leur sens général est univoque. Selon l’UICN, si seulement moins de 0,5 % ([165]) de la déforestation peut être imputée à l’échelle mondiale directement à l’huile de palme entre 2000 et 2013 ([166]), cette part est beaucoup plus élevée dans certaines régions tropicales comme l’illustrent les données précédemment citées et s’aggrave sur de nouveaux fronts, comme à Bornéo où, de 1989 à 2008, près de 30 % des forêts primaires abattues ont été converties en palmier à huile ([167]).

Impact de l’élaeiculture : le changement indirect d’affectation des sols

La conversion d’un hectare de palmiers destinés à l’alimentation en un hectare pour les biocarburants, n’augmente pas la « déforestation nette », d’autant que la même huile sert parfois aux deux usages. Mais dans les faits, la forte demande en huile pour biocarburant pousse les producteurs dhuile de palme à usage alimentaire (dont la demande mondiale est majoritairement rigide, hors Europe ([168])) à se tourner vers de nouvelles surfaces : forêts dégradées, tourbières ou forêts primaires. Bien que difficile à mesurer et sujet à controverse, la notion de changement indirect d’affectation des sols (CASI, ou ILUC) va être prise en compte par l’Union européenne dans sa politique énergétique ([169]).

Pointant les effets pervers de la certification des biocarburants, deux rapports publics, « Mirage ([170]) » et « Globiom ([171]) », ont développé des méthodes de quantification de l’influence du CASI sur leur impact carbone final. Le Parlement européen, la Commission et le Conseil se sont entendus le 14 juin 2018 (dans le cadre de la réforme de la réglementation sur les énergies renouvelables) sur le plafonnement de la consommation des biocarburants « à fort impact CASI » ([172]) jusquà la fin 2023 au niveau enregistré en 2019 et sur leur baisse progressive jusquà leur suppression définitive en 2030 ([173]), remettant ainsi en cause la production de biocarburants à partir de biomasse alimentaire, dont lhuile de palme. Cette décision s’inscrit également en réaction aux perspectives d’utilisation croissante des biocarburants pour le transport aérien.

Bilan carbone de l’élaeiculture

Si la réglementation européenne prévoit de prendre en compte à court terme la notion de CASI, les critères d’évaluation de son impact, faible, modéré ou sévère, sont difficiles à trancher ([174]) et devront tenir compte des dernières données scientifiques disponibles. Lévaluation du cycle de vie complet de la production d’huile de palme mesuré en grammes de CO2 par mégajoules de biodiesel consommé est de 40 en moyenne, contre seulement 9 pour une culture sans CASI, mais 400 si la palmeraie a remplacé une tourbière ([175]). Les évaluations de cycle de vie complet varient toutefois dans les études selon la méthode utilisée pour mesurer la charge carbone de la biomasse et selon l’hypothèse retenue de durée de vie de la plantation.

La contribution de l’élaeiculture au réchauffement climatique dépend aussi d’autres facteurs tels les rejets liquides (effluents), source de méthane lors de leur fermentation ([176]). Le traitement des effluents est cependant généralisé dans les plantations industrielles, par cogénération (combustion des déchets pour produire de l’énergie), compostage et méthanisation ([177]).

Enfin, l’analyse plus complète de l’utilisation du sol précitée ([178]) montre, dans le cadre de la méthodologie suivie, que les émissions nettes de CO2 pour le biodiesel utilisant l’huile de palme apparaissent significativement plus élevées que pour ceux utilisant de l’huile de soja ou de tournesol, ou que les biocarburants incorporant de l’éthanol. Les technologies de biocarburants de deuxième (à partir de biomasse résiduelle, tels que les déchets forestiers) et de troisième génération (à partir d’algues), présentent un bilan bien meilleur. La troisième génération n’a toutefois pas encore atteint la maturité nécessaire à son exploitation à grande échelle.

Impact sur la biodiversité

Les régions dans lesquelles se développe l’élaeiculture abritent les forêts les plus riches en biodiversité sur Terre ([179]). Et dans cette zone tropicale, il est bien établi que la conversion de surfaces forestières en terres agricoles est responsable d’une baisse significative de la variété des espèces ([180]). Les monocultures, telles celle du palmier à huile, affectent l’habitat de grands mammifères dont la diversité aurait baissé entre 65 % et 90 % ([181]). De la même façon, la diversité des oiseaux, papillons et champignons dans une palmeraie n’est qu’une fraction de celle d’une forêt, qu’elle soit primaire ou exploitée ([182]). L’UICN (Union Internationale pour la Conservation de la Nature) estime que, dans la liste qu’elle dresse des espèces « en danger critique », « en danger » ou « vulnérables », l’aquaculture et l’agriculture sont les premiers facteurs causaux (devant la pêche et la chasse), menaçant 9 251 espèces. L’huile de palme menacerait, elle, 193 espèces de cette même liste.

Elaeiculture et développement

L’impact sociétal du développement de lélaeiculture est complexe à analyser, variant selon le lieu, le temps et les populations ([183]) et son analyse plus complète nécessiterait d’autres travaux. On relèvera ici, d’une part, que l’observation de terrain témoigne que la hausse indubitable des revenus permise par l’élaeiculture ne profite pas à tous ([184]) et, d’autre part, que le fait de mieux respecter les droits des communautés et sécuriser juridiquement la propriété foncière des zones concernées est souvent associé à des effets plus positifs sur la forêt ([185]).

Sa labellisation et sa traçabilité 

Tracer et certifier l’huile de palme est un outil indispensable pour mesurer et contenir son impact. Le label RSPO (« Roundtable on Sustainable Palm Oil ») est né en 2004 à l’initiative d’acteurs industriels et d’ONG (WWF) ([186]) et se veut multipartite et volontaire. Un cahier des charges établit des critères que les producteurs labellisés doivent respecter. À ce jour, 20 % de la production mondiale est certifiée RSPO ([187]). Ce label comporte plusieurs niveaux d’exigences de traçabilité très différents (RSPO Next en est le plus élevé ([188])), mais ses effets favorables sont progressifs ([189]) et font lobjet de critiques récurrentes ([190]).

D’autres dispositifs de certification existent également : certifications nationales des États producteurs ([191]), certification de l’huile de palme importée en Europe pour les biocarburants ([192]), labellisations des produits utilisant eux-mêmes de l’huile de palme ([193]).

Conclusions

Plusieurs recommandations peuvent être formulées : dans le domaine alimentaire, collecter des données sur la consommation de produits transformés pour évaluer la nécessité ou non de faire évoluer l’étiquetage « huile végétale » vers la précision du contenu en acide palmitique ; sur le plan environnemental, évaluer régulièrement les progrès qualitatifs et quantitatifs de la certification sur la traçabilité, et encourager les efforts en faveur d’outils donnant une connaissance précise et en temps réel de la déforestation pour mieux la contenir ; enfin, s’agissant de l’utilisation pour les transports, développer des calculs de cycle de vie complets pour les différents biocarburants et soutenir les efforts en faveur des biocarburants de deuxième et troisième générations.

PERSONNES consultéEs

- Mme Marie-Hélène Aubert, inspectrice générale de l’administration du développement durable, CGEDD (Conseil général de l’environnement et du développement durable) ; MM. Jean-Jacques Bénézit, ingénieur général des ponts, des eaux et des forêts, CGAAER (Conseil général de l’alimentation, de l’agriculture et des espaces ruraux), M. François Champanhet, Ingénieur général des ponts, des eaux et des forêts et Michel-Régis Talon, administrateur général, CGEDD, auteurs du rapport « durabilité de l’huile de palme et des autres huiles végétales » du CGEDD et du CGAAER ;

- Mme Martine Bagot, professeur de médecine, chef de service de dermatologie à l’Hôpital Saint- Louis ;

- Mme Emmanuelle Cheyns, chercheuse au Cirad en sciences sociales, spécialiste de la question de la certification ;

- Mme Elizabeth Clark, responsable mondiale WWF (World Wide Fund for Nature) pour le sujet de l’huile de palme ;

- M. Alain Karsenty, chercheur au Cirad en sciences sociales, spécialistes de la foresterie, de l’environnement et des ressources naturelles ;

- M. Jean-Michel Lecerf, nutritionniste et endocrinologue, chef du département nutrition à l’Institut Pasteur de Lille ;

- M. Philippe Legrand, professeur à Agro-campus Ouest, directeur du Laboratoire de Biochimie / Nutrition humaine. Auteur du livre « Un coup de pied dans le plat », Marabout, 2015 ;

- Mme Irène Margaritis, professeur des Universités détachée auprès de l’ANSES - chef de l’évaluation nutritionnelle et coordinatrice pour l’Anses des rapports de 2011 et de 2015 sur les ANC et les apports en acides gras trans dans l’alimentation en France ;

- Mme Catherine Mollière, membre du conseil fédéral des Amis de la Terre et M. Sylvain Angerand, coordinateur des campagnes des Amis de la Terre ;

- M. Alain Rival, correspondant de la filière du Cirad pour le palmier à huile, directeur régional pour l’Asie du sud-est insulaire. Auteur, avec Patrice Levang (IRD) du livre « la Palme des controverses », Quae Ed., 2013 ;

- M. Thierry Thomas, directeur adjoint, direction des dispositifs médicaux thérapeutiques et des cosmétiques, Agence nationale de sécurité du médicament et des produits de santé (ANSM) ;

- MM. Christophe Vuillez, Directeur stratégie-développement-recherche, Bertrand Deroubaix, Directeur des affaires publiques et Régis Althoffer, Directeur des relations institutionnelles France Raffinage chimie, représentants de Total.



 

Note N° 8 : mars : nouvelle frontière de l’exploration spatiale ?

 

   Note n°

8

 

___

Mars : nouvelle frontière de lexploration spatiale ?

 

___

Décembre 2018

G:\OFFICE\NOTES\Notes courtes de l'Office\Planète Mars (MB)\SLIDES et photos\MARS CNES.JPG

Source : CNES

Résumé

    En dépit de la présence deau sous forme de glace en surface et deau liquide dans le sous-sol, la vie sur Mars paraît peu probable dans les conditions actuelles et, si elle existe, est repoussée en profondeur.

    Après 43 missions envoyées vers la planète rouge, dont la dernière en date, InSight (NASA), a atterri le 26 novembre 2018 avec un sismomètre développé par le Centre national détudes spatiales (CNES), le vieux rêve de lexploration humaine de Mars devient un projet crédible mais complexe et coûteux.

    Terra americana, avec 8 succès américains sur 17 tentatives datterrissage, Mars doit continuer à accueillir en priorité des missions robotisées. Notre participation à lAgence spatiale européenne (ESA) et nos accords de coopération internationale doivent conforter le rôle de puissance spatiale de la France.

Mme Catherine Procaccia, Sénateur

Aller sur Mars, un vieux rêve…

Objet d’observation et de curiosité depuis l’Antiquité, notamment dans les civilisations mésopotamienne, babylonienne, égyptienne, chinoise et grecque, Mars n’a pas cessé de faire rêver le grand public et de fasciner les scientifiques ([194]). Elle tire son nom du dieu de la guerre en raison de son mouvement erratique vu de la Terre et de sa couleur rouge, due aux poussières riches en oxydes de fer que l’on trouve dans les couches superficielles de sa surface. Elle est vue pour la première fois à travers une lunette astronomique en 1610 par Galilée, mais il faut attendre Giovanni Schiaparelli pour établir en 1877 une première carte de la planète ([195]). Il met en évidence des « canaux martiens », introduisant dans l’opinion, mais aussi chez certains scientifiques ([196]), la notion de canaux artificiels structurés dans un réseau géométrique et, peut‑être, construits par une civilisation extraterrestre. C’est par exemple l’interprétation faite par l’astronome Camille Flammarion dans ses travaux sur la planète Mars ([197]), qu’il pense habitable. L’astronome américain Percival Lowell persiste ensuite dans l’idée d’un réseau de canaux d’irrigation ([198]).

Ces thèses - à l’origine du mythe des martiens, qui a beaucoup inspiré les auteurs de science-fiction ([199]) - ont été invalidées au début du siècle dernier, puis peu à peu abandonnées par les scientifiques, grâce au perfectionnement des télescopes, leur précision croissante ayant permis de dévoiler que ces canaux rectilignes n’étaient que des illusions doptique. La théorie de la vie martienne a également été contestée par les premières analyses spectroscopiques, qui démontraient il y a plus d’un siècle que Mars n’était pas habitable ([200]). Ces découvertes, antérieures à l’ère spatiale, ont été complétées d’avancées grâce aux télescopes spatiaux, dont Hubble est un bel exemple, et, surtout, aux missions en survol ou sur place, devenues technologiquement possibles dans la seconde moitié du 20e siècle.

… en passe d’être une réalité pour l’homme
et pas seulement pour la machine

Les photographies de la sonde Mariner 4 en 1965 ont définitivement invalidé la thèse des « canaux martiens ». 43 missions ont été envoyées vers Mars et ses deux lunes Phobos et Deimos depuis les années 1960. Elles ont pris deux formes : des missions autour de Mars (sondes et orbiteurs) ou sur place (atterrisseurs et robots mobiles ou rovers). Elles ont été, pour moins de la moitié d’entre elles, des succès.

Ces missions robotisées, qui représentent un poids total de 9 tonnes de matériel envoyées sur ou autour de Mars, montrent que cette planète a toujours été l’un des enjeux de la course à lespace et que sa proximité relative en fait une destination accessible pour une expédition humaine ([201]), même si la question du retour reste encore délicate.

Elles ont surtout permis d’améliorer nos connaissances sur cette planète.

Bilan synthétique des connaissances sur Mars

Moitié moins grande que la Terre et d’une masse 10 fois plus faible, Mars est soumise à une gravité de lordre du tiers de la nôtre et est exempte de champ magnétique interne. Dans ces conditions, et en raison d’une atmosphère 60 fois moins massive (120 fois moins dense) que sur Terre, la surface y est très exposée aux rayons cosmiques et solaires ionisants. Deux fois moins ensoleillée que la Terre car 1,5 fois plus éloignée du Soleil, cette planète désertique connaît en surface des écarts de température importants (de -133°C à + 27°C) avec une moyenne d’environ -55°C. Une journée solaire y dure 24 heures 37 minutes et 23 secondes tandis que sa période orbitale dure près de 687 jours terrestres. Son atmosphère, composée à plus de 96 % de dioxyde de carbone ([202]), est très chargée en poussière et connaît des tempêtes particulièrement violentes qui peuvent durer plusieurs semaines et soulever les poussières jusqu’à 80 km d’altitude.

Son relief accidenté, fait de cratères, de volcans et de vallées, révèle une histoire géologiquement active, avec une dichotomie entre les « jeunes » plaines de l’hémisphère nord et les zones plus anciennes et fortement cratérisées de l’hémisphère sud. La chronologie de Mars se divise en trois époques géologiques ([203]). Bien que les nombreuses traces d’écoulements observées soient sèches, Mars contient une quantité importante deau sous forme de glace près de la surface et sur ses calottes polaires, mais aussi d’eau liquide dans son sous-sol ([204]). La présence d’eau liquide en surface n’est pas possible en raison d’un passage rapide de l’état solide à l’état gazeux par sublimation, compte tenu des conditions actuelles de pression et de température.

La présence d’eau et de carbone ont été des facteurs ayant pu y faciliter lapparition de la vie, mais les sondes et les explorations robotisées n’ont pas encore permis d’en trouver des traces : les molécules organiques détectées par Curiosity dans des roches sédimentaires datant d’environ 3,5 milliards d’années pourraient résulter de processus physicochimiques abiotiques et ne pas être d’origine biologique ([205]). Il faut observer qu’en plus de ses températures froides, Mars est stérile en surface sous l’effet des rayonnements cosmiques et solaires et des perchlorates, puissants oxydants ([206]). Le fait que Mars ne semble ni habitable ni habitée ne veut pas dire quelle ne la jamais été.

 

Les missions réussies de 2001 à aujourdhui   Les missions en 2018 et au-delà

G:\OFFICE\NOTES\Notes courtes de l'Office\Planète Mars (MB)\Image à coller en haut de la page 3.JPG

NB : les missions américaines sont en bleu, les autres en jaune
Source : NASA

Selon la NASA, qui s’appuie sur le travail de chercheurs, la vie sur Mars, si elle existe, serait repoussée dans le sous-sol, à une profondeur d’au moins 7,5 mètres ([207]).

Mars, nouvelle frontière américaine

Depuis « l’effet Spoutnik », mobilisation nationale qui a fait suite au choc du lancement soviétique du premier satellite artificiel en 1957, les États-Unis sont les pionniers de lexploration spatiale. Dès les années 1960, les autorités américaines envisagent des voyages habités sur Mars, qui fait figure de terra americana selon Roger-Maurice Bonnet, ancien directeur scientifique de l’ESA. Sur 17 tentatives d’atterrissage sur Mars, on dénombre huit succès, tous américains. L’atterrisseur InSight s’est posé sur Mars le 26 novembre 2018 pour une mission de deux ans après avoir été lancé le 5 mai 2018. Le seul rover actif aujourd’hui est Curiosity, alimenté par une pile nucléaire, Opportunity étant mis en sommeil depuis l’été 2018 car ses panneaux solaires ne captent plus assez d’énergie à la suite d’une longue tempête de poussières. D’après Jacques Villain ([208]), ingénieur spécialiste de la conquête spatiale, le budget spatial civil et militaire américain (environ 50 milliards de dollars par an) représente 80 % de l’ensemble des budgets spatiaux mondiaux. Il est nettement supérieur à toute l’Europe (environ huit milliards de dollars, dont trois pour la France), de la Russie et de la Chine (cinq milliards de dollars chacun). Le président Trump a récemment repris le projet annoncé en 2004 d’une station en orbite lunaire devant servir de premier pas pour une expédition vers Mars ([209]). La NASA a annoncé qu’elle construirait dès 2022 le premier élément d’un relais vers l’espace profond (Deep Space Gateway rebaptisé Lunar Orbital Platform Gateway). En 2020, la mission Mars 2020 de la NASA devrait atteindre Mars avec un dérivé de Curiosity dans le but de tester la fabrication doxygène sur place et, surtout, de sélectionner 500 grammes d’échantillons en vue de leur retour sur Terre avec la future mission Mars Sample Return, qui reste à planifier et qui serait, elle, commune avec l’ESA. Cette dernière mission devrait permettre de mieux répondre à la question de l’apparition de la vie sur Mars et de démontrer si l’on peut au cours de ce siècle en revenir ou pas.

Les autres initiatives

À court terme et en poursuivant plusieurs objectifs ([210]), l’ESA se prépare à l’envoi du rover ExoMars en 2020, à l’aide d’un lanceur, d’instruments, de véhicules de rentrée et de descente et d’un atterrisseur russes.

 

Depuis les années 1960, la Russie, à travers son agence spatiale Roscosmos, envisage des projets de missions spatiales habitées sur Mars, mais la grande majorité de ses missions opérationnelles ont échoué. D’autres puissances spatiales émergent et projettent d’aller sur Mars (Chine, Émirats arabes unis) ou d’y retourner (Japon ou Inde ([211])). Par ailleurs, bien que la place du secteur privé soit croissante dans le secteur spatial, la NASA s’appuyant par exemple de plus en plus sur des entreprises, les initiatives privées d’exploration de Mars sont peu réalistes. Allant plus loin que le tourisme spatial ([212]), deux projets visent spécialement Mars : celui de SpaceX envisagé pour 2024 ([213]) et celui encore moins crédible de Mars One en 2032. Enfin, l’organisation internationale Mars Society ([214]) propose la « terraformation » à long terme de Mars, c’est-à-dire sa transformation en planète habitable. Bien que les technologies seraient disponibles pour certains ([215]), cette perspective paraît incertaine, voire irréaliste.

Les difficultés inhérentes à une mission habitée

L’exploration humaine de cette planète, y compris pour un simple vol orbital, reste un défi :

       pour une raison de complexité et de coût tout d’abord. L’exploration humaine de l’espace a toujours été l’activité spatiale la plus onéreuse et Mars confirmera cette règle. Après le lancement successif et l’assemblage en orbite basse ou autour de la Lune de divers équipements spatiaux, les difficultés techniques et logistiques seront les plus grandes jamais rencontrées (longueur de la mission de l’ordre de 640 ou 910 jours dont six à neuf mois pour le seul trajet aller, avec de rares fenêtres de lancement ([216]), besoins inédits d’énergie, notamment de carburant, d’oxygène, d’eau, de nourriture et d’équipements divers, par exemple pour la gestion des déchets…). De plus, la question du retour reste sensible, car après l’atterrissage sur Mars, le décollage en vue du retour sera plus délicat que celui opéré depuis la Lune, en raison d’une gravité martienne plus importante. Cela impactera donc les besoins en carburant et ira même au-delà. Un lanceur de grande taille, décollant dans une fenêtre de lancement précise, à partir d’un emplacement remplissant des conditions spécifiques, sera ainsi nécessaire ;

       pour une raison de risques importants pour la vie et la santé des astronautes ensuite. Outre l’incertitude sur le retour, l’impesanteur sur longue durée, les éruptions solaires et les rayonnements cosmiques sont dangereux et appellent des précautions spécifiques. Au niveau psychologique, l’équipage sera soumis à un stress intense dans un volume habitable restreint, sur un temps long et sans possibilité d’assistance en temps réel depuis la Terre (délais de communication de trois à vingt minutes). Des conflits humains pourraient survenir. Les agences spatiales américaines, européennes et russes procèdent ainsi à des expériences de confinement et de simulation ([217]). L’habitat sur Mars devra tenir compte de ces aspects psychologiques et apporter une dimension conviviale, au-delà d’une adaptation au travail des astronautes, qui d’après la NASA devront chacun posséder au moins une des compétences suivantes : commandement, médecine et chirurgie, géologie, biologie, mécanique, électricité et électronique. Des moyens de déplacement sur place seront nécessaires.

Exemple de base martienne expérimentale

Source : NASA

Les recommandations de l’Office

L’Office a formulé en 2012 dans un rapport sur la politique spatiale européenne ([218]) des recommandations qui restent d’actualité en matière de gouvernance, de stabilisation des budgets et d’indépendance. S’agissant plus spécifiquement de Mars, il est préconisé de :

       privilégier les missions robotisées sur Mars par rapport à lexploration humaine, faire de cette dernière un objectif de long terme et conserver un équilibre entre Mars et lexploration du reste du système solaire. Les coûts des missions sur Mars sont élevés (souvent autour d’un seuil minimal d’un milliard d’euros) et représenteront plusieurs dizaines de milliards d’euros en cas de vol habité, alors que les bénéfices pour la science, nos sociétés et nos économies ne semblent pas valoir un tel investissement. Les motivations symboliques ou politiques, en termes par exemple de prestige, semblent jouer un rôle plus important que les objectifs scientifiques, dans la mesure où les robots recueillent des données pour des coûts moindres. La recherche en matière de sciences du vivant n’a pas non plus besoin de mission habitée : des tests d’adaptation d’organismes aux conditions martiennes peuvent être conduits sans présence humaine ;

       conforter le rôle de puissance spatiale de la France au travers de l’ESA ainsi que dans des accords de coopération équitables avec les autres puissances spatiales : États-Unis, Russie et Japon, à l’image de la mission MMX d’exploration des lunes de Mars, à laquelle notre pays participe avec l’Allemagne. Le CNES doit continuer à fournir, avec nos laboratoires spatiaux, des instruments essentiels à la pointe de la technologie.

Experts consultés

 

Mme Claudie Haigneré, conseillère spéciale du directeur général de l’Agence spatiale européenne (ESA), membre du conseil scientifique de l’OPECST, ancienne ministre ;

Mme Sylvie Espinasse, responsable de l’équipe de coordination du directorat des programmes d’exploration humaine et robotique de l’Agence spatiale européenne (ESA) ;

M. Francis Rocard, responsable des programmes d’exploration du système solaire au Centre national d’études spatiales (CNES) ;

M. Philippe Lognonné, professeur en géophysique et planétologie à l’Université Paris Diderot, responsable de l’équipe « Planétologie et sciences spatiales » de l’Institut de physique du globe de Paris, Institut universitaire de France, investigateur principal du SEIS pour la mission InSight ;

M. François Poulet, responsable de l’équipe « Exploration spatiale » à l’Institut d’astrophysique spatiale (IAS) ;

M. Sébastien Fontaine, directeur du planétarium du Palais de la découverte ;

M. François Forget, directeur de recherche au CNRS, membre de l’Académie des sciences ;

M. Norbert Paluch, conseiller pour le spatial auprès de l’ambassadeur de France aux États-Unis et représentant du CNES ;

M. Jean-Loup Puget, directeur de recherche au CNRS, président du comité des programmes scientifiques du CNES, président du comité de la recherche spatiale de l’Académie des sciences, ancien directeur de l’Institut d’astrophysique spatiale.



Note N° 9 : les lanceurs spatiaux réutilisables

 

Note n°

9

 

___

Les lanceurs
spatiaux réutilisables

 

___ Janvier 2019

 

Source : SpaceX, barge de récupération du 1er étage de Falcon 9

 

Résumé

     Aucun pays, aucun secteur dactivité, aucun particulier ne peut se passer des services rendus par les satellites lancés en orbite : télécommunications, défense, météorologie, géolocalisation…

     Lirruption dacteurs privés spatiaux, notamment laméricain SpaceX, et lémergence du « New Space », ont entraîné une chute des prix et une concurrence exacerbée, en particulier grâce à la maîtrise de la récupération et de la réutilisation des lanceurs.

    Le lanceur européen Ariane 6, qui sera opérationnel en 2020, nest pas réutilisable. Son plan daffaires nest par ailleurs pas encore totalement assuré dans le contexte actuel du marché. Le débat continue sur la nécessité ou non de maîtriser les technologies de réutilisation pour assurer à lEurope le maintien de son rang de puissance spatiale autonome.

     Au-delà, apparait le besoin dune évolution de la gouvernance de la politique spatiale européenne qui permette des choix clairs.

M. Jean-Luc Fugit, Député

Accès autonome à l’espace

Sous l’impulsion de la France, le programme des lanceurs Ariane ([219]), initié en 1974, a répondu au besoin des pays européens d’un accès autonome à l’espace, comme élément de leur souveraineté. Indépendamment du projet américain de « force spatiale » ([220]), l’enjeu est évident pour les besoins de défense et de sécurité, afin de garantir notre « liberté d’agir dans l’espace » ([221]). Mais il l’est tout autant pour les acteurs commerciaux, afin d’éviter les distorsions de concurrence aux dépens de l’Europe. Cette vision n’est cependant pas partagée par tous, notamment les pays nordiques et anglo-saxons. Ainsi, le Royaume-Uni n’estime pas indispensable de disposer d’un lanceur européen ; dans une approche purement financière de retour sur investissement, ce pays a quitté les programmes lanceurs depuis Ariane 5 ([222]).

Espace : la « prochaine activité économique
à mille milliards de dollars » ([223])

Les activités permises par la maîtrise de l’espace, essentiellement avec l’envoi de satellites autour de la Terre, prennent de plus en plus d’importance, concernent tous les secteurs économiques et impactent la vie quotidienne : télécommunications, connectivité, télédiffusion, météorologie, géolocalisation, observation de la Terre, prévention et secours en cas de catastrophes naturelles, surveillance des infrastructures, sécurité et défense, connaissance scientifique, suivi des évolutions climatiques, exploration spatiale…

Une étude de Morgan Stanley estime que le montant total du marché spatial – des constructeurs de satellites jusqu’aux fournisseurs de services – va plus que tripler, passant de 350 milliards de dollars en 2017 à 1 100 milliards en 2040 ([224]).

L’irruption de la réutilisabilité avec SpaceX

Le 100e lancement d’Ariane 5 a été réalisé en septembre 2018. Le lanceur européen Ariane a été le seul opérationnel en continu pendant 30 ans sur les marchés ouverts à la concurrence, avec les promesses non tenues de la navette spatiale américaine ([225]) et le recul sur le marché des lanceurs russes. En effet, la navette américaine, en activité entre 1981 et 2011, devait voler chaque semaine, avec un prix unitaire de 30 millions de dollars ; mais elle n’a jamais effectué que 4 à 5 lancements par an, avec un prix unitaire estimé entre 0,5 et 1,5 milliard de dollars ([226]). En revanche, avec les lanceurs Falcon, la société privée SpaceX ([227]), créée par Elon Musk en 2002, mais ayant largement bénéficié du soutien de la NASA, est en passe de devenir le leader mondial des lancements spatiaux, en diminuant drastiquement les prix grâce à une organisation industrielle très concentrée et à l’exploitation des retours d’expérience et en ayant misé dès l’origine sur les technologies réutilisables. Seulement trois ans après le 1er essai réussi de récupération (fin 2015), SpaceX récupère et réutilise maintenant le 1er étage de ses lanceurs pour plus d’un tir sur deux ([228]). Selon SpaceX, la version Block 5 du Falcon 9, lancée pour la première fois en mai 2018, pourrait être réutilisable jusqu’à dix fois avec une remise en état en 24 heures ([229]). Depuis, de nombreux acteurs spatiaux mondiaux suivent cette voie. À la différence des États-Unis, l’Europe ne dispose ni d’un moteur de forte puissance, à poussée modulable et réutilisable, ni de la maîtrise du retour d’étage, sur lesquels les Américains travaillent depuis dix ans déjà. En décembre 2014, les pays européens ont cependant décidé de développer le lanceur Ariane 6, dont le premier vol est prévu en 2020, qui vise à permettre de réduire le prix de lancement de 40 à 50 %. L’Office, qui suit les affaires spatiales depuis son origine, y a consacré deux rapports depuis 2012 ([230]).

(*) CALT : Chinese Academy of Launch Vehicle Technology (中国运载火箭技术研究院)

Ariane 6 fonctionne avec trois moteurs : Solid Rocket Motor, à poudre, pour les propulseurs d’appoint, qui n’est pas réutilisable ; deux moteurs cryogéniques (hydrogène et oxygène liquides), Vulcain 2.1 de l’étage principal et Vinci de l’étage supérieur, dont la réutilisabilité n’a jamais été développée en dehors des essais au sol. Les lanceurs Falcon 9 fonctionnent avec un seul moteur, Merlin, semi-cryogénique (oxygène liquide et kérosène) et réutilisable ; seul un tel moteur peut être utilisé sur les deux étages ([231]).

SpaceX a maîtrisé avec succès la rentrée dans l’atmosphère terrestre d’éléments de lanceurs grâce à la mise à disposition par la NASA et par le ministère américain de la défense (DoD) des technologies développées depuis la fin des années 1980 sur des démonstrateurs comme Delta Clipper, X33/X34 ou Aerospaceplane de McDonnell Douglas. Outre la modulation très fine de la poussée des moteurs, il est nécessaire de maîtriser le profil de retour dans toutes ses composantes physiques ([232]), avec une gestion de l’instabilité évitant qu’une infime erreur entraîne mauvaise inclinaison et désintégration dans l’atmosphère.

Analyse économique

La concurrence internationale menée par SpaceX et les autres constructeurs de lanceurs met à mal le plan d’affaires (business plan) d’ArianeGroup. Le maintien d’une chaîne de production de lanceurs nécessite au minimum une production annuelle de 6 et idéalement 10 exemplaires, mais ArianeGroup regrette de ne pas voir garanties les 3 à 5 commandes institutionnelles par an (défense, géolocalisation, observation…). En effet, à la différence de toutes les autres puissances spatiales, il n’existe pas de règle assurant une préférence européenne pour les lancements institutionnels ([233]). Même les commandes sur le marché commercial des lancements (communications, observation…) ne sont pas certaines pour Ariane 6 : le prix de 130 millions de dollars pour le lancement de deux satellites, qui équilibre le projet industriel, risque en effet d’être supérieur à ce que proposeront SpaceX et d’autres concurrents. La société SpaceX facture près de 100 millions de dollars par lancement à la NASA ou au DoD ([234]), mais descend à 50 ou 60 millions pour un lancement équivalent sur les marchés commerciaux. SpaceX bénéficie également des importants budgets de R&D de la NASA et de l’US Air Force. Arianespace évoque maintenant à nouveau l’hypothèse d’un soutien à l’exploitation des lancements d’Ariane 6 sur le marché concurrentiel, pour compenser l’absence de 5 lancements institutionnels sur lesquels s’était engagée l’Agence spatiale européenne (ESA) en 2014 et le rétrécissement du marché commercial (contraction des commandes de satellites géostationnaires, situation d’attente vis-à-vis des constellations de satellites). Derrière les pratiques commerciales de SpaceX, substantiellement soutenue par la NASA et le DoD, on peut voir le souhait du gouvernement américain de s’assurer une domination sur un secteur jugé stratégique ([235]).

Le bilan coûts-avantages de la réutilisabilité reste controversé à ce stade. Ainsi, si ArianeGroup estime que la réutilisation du 1er étage pourrait entraîner une économie de 10 % sur le prix d’un lancement, le CNES ([236]) et SpaceX estiment cette économie à 30 %.

Une autre controverse concerne la cadence des lancements. La taille du marché américain des lancements orbitaux lourds, entre 20 et 30 par an, permet de faire vivre deux programmes de lanceurs (United Launch Alliance – ULA ([237]) et SpaceX) ([238]). En outre, les lancements institutionnels sont, de par la loi américaine, réservés exclusivement aux lanceurs américains ([239]). L’Europe ne réalise qu’une dizaine de lancements par an, dont un tiers pour des satellites institutionnels, les autres devant être cherchés sur les marchés concurrentiels pour amortir les lignes de fabrication et de lancement ([240]) ; elle ne peut faire vivre qu’un seul programme de lancement lourd, avec l’opérateur ArianeGroup (coentreprise d’Airbus et de Safran, qui a intégré la structure de commercialisation Arianespace) en situation de monopole. Longtemps sur la défensive au motif que le marché potentiel des lanceurs européens ne justifiait pas le développement de lanceurs réutilisables, le CNES considère maintenant que la preuve est faite par SpaceX et qu’il n’y a pas d’autre choix ([241]). Le point reste discuté, au motif qu’en Europe le modèle économique de la réutilisation n’est pas encore prouvé, que le marché ne la justifie pas, que la réduction des prix d’Ariane 6 est suffisante pour les besoins européens, et que la priorité du moment est le succès d’Ariane 6 en 2020 ([242]).

« New Space » (nouvel espace) ([243])

La combinaison de la baisse du coût d’accès à l’espace, de la multiplication du nombre des acteurs privés, des financements et des ruptures technologiques – comme la miniaturisation des composants, la motorisation électrique, l’impression 3D ou la réutilisation –, a été dénommée « New Space ». Ainsi, Jeff Bezos, fondateur et PDG d’Amazon, a créé en 2002 Blue Origin, qui développe les lanceurs lourds réutilisables New Glenn et New Shepard en s’appuyant sur une fortune considérable avec un budget qu’il qualifie d’« illimité » ([244]). Par ailleurs, aux principales puissances spatiales historiques (États-Unis, Chine ([245]), Russie, Europe, Japon et Inde, mais aussi Israël, Iran et les deux Corées), s’ajoutent Singapour, le Brésil, l’Arabie saoudite, les Émirats arabes unis ([246])

Mais il n’y a pas de « New Space » sans « Old Space » ; or on estime que, sur les 80 milliards de dollars par an d’investissements publics et privés dépensés aux États-Unis dans l’espace, le « New Space » ne représenterait que 4 milliards ([247]). En comparaison sur le même périmètre, en Europe, mais avec un fonctionnement totalement différent, le total des investissements publics dans l’espace – ESA, Commission européenne et agences spatiales nationales – ne dépasse pas 10 milliards de dollars par an (9 milliards d’euros).

La période actuelle marque un certain reflux du nombre de lancements, en raison de l’incertitude relative au choix entre classiques satellites lourds géostationnaires et micro-constellations en orbite basse, qui n’ont pas encore fait leurs preuves. Mais est attendu par tous un boom des activités spatiales à terme, entraîné par la multiplication des applications nécessitant des satellites. Selon l’Association de l’industrie satellitaire (SIA), le secteur des lanceurs ne représente que 1,3 % de l’économie spatiale mondiale, l’industrie satellitaire 79 % ([248]). Au vu de ces proportions relatives, la dispersion des acteurs des lanceurs apparaît excessive, en raison de son importance stratégique ([249]).

Analyse écologique

L’analyse des impacts environnementaux des lancements spatiaux a fait l’objet d’une étude du CNES dès 2013. La phase de vol elle-même, bien que spectaculaire, n’est pas la plus impactante sur l’environnement. Les activités industrielles intervenant en amont (fabrication, carburant, base spatiale) arrivent nettement en tête. Avec Ariane 5, les trajectoires sont contraintes de façon à libérer l’orbite des éléments accessoires des lancements en moins de 25 ans. Avec Ariane 6, un pas supplémentaire sera franchi avec une rentrée atmosphérique systématique de l’étage supérieur après lancement, au prix d’une perte de performance.

La trajectoire des éléments qui retombent lors du lancement est calculée pour viser des zones maritimes définies et leur conception prend en compte le besoin de ne pas générer d’épaves flottantes.

Concernant les lanceurs réutilisables, chaque élément réutilisé n’a par définition pas besoin d’être refabriqué et ne retombe pas en mer. Mais SpaceX ne réutilise que les 1ers étages.

Quelle réutilisabilité européenne ?

Dès 2010, Airbus a travaillé, sur fonds propres, à un programme de réutilisation partielle du 1er étage des lanceurs, dénommé ADELINE ([250]). Mais c’est seulement en 2015 que le CNES et ArianeGroup ont décidé d’initier le programme Prometheus de moteur à oxygène et méthane liquides, qui permettrait une division par dix des coûts ([251]) et une réutilisabilité sur un lanceur, encore à déterminer. Le programme a ensuite été soutenu par l’ESA ([252]), avec l’appui de l’Allemagne, de la Belgique, de la Suisse, de la Suède et de l’Espagne. Après les premiers tests prévus en 2020, Prometheus pourrait être disponible en 2025. À terme, il est amené à remplacer les trois moteurs actuels : Solid Rocket Motor (produits au Haillan près de Bordeaux et à Colleferro près de Rome) ; Vulcain 2.1 et Vinci (produits à Vernon dans l’Eure).

La maîtrise de la réutilisation des lanceurs, qui peut être seulement partielle, nécessitera sans doute une évolution d’Ariane 6, qu’il faudrait doter d’un seul moteur, à oxygène et hydrocarbure liquides. Cette évolution est permise par le degré de maturité maintenant atteint par la filière moteurs des lanceurs civils (oxygène et hydrocarbure liquides). Un tel choix, qui abandonnerait donc la propulsion solide pour le civil, réduirait les synergies civil-militaire (missiles balistiques M51) aux compétences de maîtrise d’œuvre système, de programmes de vol et de pilotage.

Callisto

Source : CNES, démonstrateur européen Callisto

Outre le moteur Prometheus, l’Europe porte deux projets, Callisto et Themis. Callisto est un démonstrateur de lanceur à échelle 1/10 permettant de tester le retour du 1er étage, le programme de vol et l’atterrissage en un point précis. Il est actuellement développé par le CNES, la DLR ([253]) et JAXA ([254]), mais sans l’ESA ni ArianeGroup. Le projet Themis, porté actuellement par le CNES et ArianeGroup, est un démonstrateur à l’échelle 1 d’un étage réutilisable propulsé par Prometheus, qui sera proposé au financement des pays membres de l’ESA fin 2019 ([255]). En fonction des financements mobilisés, un 1er essai en vol pourrait intervenir avant 2025.

Conclusions et recommandations

La politique spatiale européenne constitue un succès historique majeur qu’il faut poursuivre, voire renforcer ; or une certaine fébrilité est actuellement perceptible, certains remettant même en cause le développement d’Ariane 6.

La maîtrise de la réutilisation

L’irruption de nouveaux constructeurs de lanceurs, comme SpaceX, constitue une menace sérieuse pour la compétitivité du futur lanceur européen Ariane 6. Au-delà de l’industrialisation des processus de production (lean management), qui a déjà divisé les prix par deux (Ariane 6, Falcon 9…), la réutilisabilité de certaines parties des lanceurs pourrait permettre une baisse supplémentaire des prix. Or l’Europe ne disposant toujours pas des technologies le permettant, on pourrait craindre que l’industrie spatiale européenne ne soit reléguée au second rang, alors que la puissance des nations s’exerce aussi dans l’espace.

La maîtrise des technologies de récupération et de réutilisation des lanceurs ne fait cependant actuellement pas consensus en Europe.

Au plan scientifique, elle conditionne notre capacité collective à maîtriser des connaissances clés qui irrigueront un grand nombre de domaines de recherche et de développements technologiques, de secteurs industriels et de services. Mais, au niveau stratégique, est-elle la condition de la préservation de notre autonomie d’accès à l’espace ? Les difficultés de modernisation du secteur spatial russe montrent qu’un pays qui n’innove plus est condamné, interdisant tout scénario de repli sur les technologies existantes. Au plan de l’attractivité pour nos jeunes scientifiques, les ruptures technologiques constituent très certainement un élément fondamental. Face au scepticisme européen globalement croissant, le programme Ariane représente un argument puissant.

 

 

Les enjeux financiers

En 2018, le budget de l’ESA était de 5,6 milliards d’euros, celui du CNES de 1,4 milliard et le budget spatial de la DLR de 1,5 milliard ([256]). La Commission européenne, dans sa proposition d’enveloppe budgétaire de juin 2018, a porté les crédits de la politique spatiale à 16 milliards sur la période 2021-2027 ([257]).

Dans la perspective de la prochaine conférence ministérielle de l’ESA prévue en novembre 2019 en Espagne, il importera de s’interroger sur les évolutions possibles d’Ariane 6 : incrémentales en fonction des évolutions technologiques continues, puis conceptuelles, avec un nouveau lanceur réutilisable. Elon Musk a pour sa part indiqué qu’il avait dépensé jusqu’à présent 1 milliard de dollars pour développer la récupération et la réutilisation ([258]). Selon ce que l’on souhaite récupérer et comment, les estimations de besoin de financement public varient entre 1 et 3 milliards d’euros ([259]). Le développement d’Ariane 6 et de Vega C avait nécessité 3,4 milliards d’euros en cinq ans, plus 600 millions d’euros pour la construction d’un nouveau pas de tir au centre spatial guyanais (Kourou) ([260]). Ces dépenses ont un effet de levier important sur l’activité économique. L’ESA a ainsi calculé que, pour 100 euros dépensés pour le développement d’Ariane 5, 320 sont générés en valeur ajoutée supplémentaire dans l’économie ; quelque 50 milliards d’euros de chiffre d’affaires auraient ainsi été générés entre 2000 et 2012 dans l’industrie européenne spatiale et non spatiale ([261]).

La simplification de la gouvernance

Il apparaît souhaitable de simplifier la gouvernance des programmes européens de lanceurs, par exemple avec un rapprochement entre l’ESA et la Commission européenne et un cœur industriel composé des trois pays principaux contributeurs (France, Allemagne et Italie), les autres pays de l’ESA qui le souhaitent pouvant participer en appui selon leurs compétences. Cette évolution devra sans doute entraîner un assouplissement du principe de retour géographique ([262]) actuellement appliqué à 0,01 % près, entraînant redondances de compétences et duplications d’investissements, au profit d’un système (smart geo-return) fondé sur la compétitivité comparée (fair contribution), afin de laisser l’industrie libre de se restructurer de façon optimale et, ainsi, de réduire les prix.

Il sera difficile d’expliquer à nos concitoyens pourquoi les pays européens financent la conception de lanceurs spatiaux s’ils confient certains de leurs lancements à SpaceX ou d’autres constructeurs mondiaux. Il conviendrait à cet égard de s’entendre enfin sur une préférence européenne pour tous les lancements institutionnels des pays de l’ESA ([263]). En France également, la réforme de 2014 n’a pas mis fin aux tensions entre les différents acteurs.

Perspectives

Au-delà des lanceurs, il y a lieu de souligner que le spatial répond aux grands enjeux sociétaux, comme la lutte contre la fracture numérique ou la connaissance de la situation environnementale de la Terre. Thales, par exemple, estime que le satellite permettrait de gagner cinq à dix ans sur le délai de raccordement des zones reculées aux réseaux de communication, pour un coût quatre fois moindre qu’avec la fibre optique. La conférence ministérielle de l’ESA fin 2019 pourrait être l’occasion de réexaminer les priorités sur l’ensemble de la filière spatiale (lanceurs, satellites et services).

Personnes auditionnées

M. Riadh Cammoun, vice-président affaires publiques et réglementaires, M. Louis Laurent, directeur adjoint centres de compétences de Thales Alenia Space (TAS) et Mme Isabelle Caputo, directeur adjoint des relations institutionnelles de Thales

M. David Cavaillolès, conseiller budgétaire, industrie et espace au cabinet de la ministre de l’enseignement supérieur, de la recherche et de l’innovation

M. Alain Charmeau, président exécutif d’ArianeGroup et M. Stéphane Israël, président exécutif, M. Alexandre Archier, directeur des affaires publiques, M. Maxime Jambon, assistant exécutif du président, Arianespace

M. Jean-Jacques Dordain, conseiller auprès du président du Centre national d’études spatiales (CNES), ancien directeur général de l’Agence spatiale européenne (ESA)

M. Morgan Guérin, responsable du programme Europe, et M. Arthur Sauzay, avocat, auteur de la note « Espace : l’Europe contre-attaque ? », Institut Montaigne

M. Jean-Yves Le Gall, président, M. Jean-Marc Astorg, directeur des lanceurs et M. Pierre Tréfouret, directeur de cabinet du président, CNES

M. Daniel Neuenschwander, directeur du transport spatial de l’ESA

 

Contributions

Académie des technologies – groupe de travail composé de :

M. Jean-Jacques Dordain, conseiller auprès du président du CNES ; M. Michel Courtois, ancien directeur du centre technique de l’ESA (ESTEC) ; M. Michel Laroche, ancien directeur général adjoint recherche et technologie, Safran ; M. Marc Pircher, ancien directeur du CNES, centre spatial de Toulouse ; avec la consultation de M. Bruno Le Stradic, directeur ingénierie systèmes spatiaux, Airbus Defence & Space

Experts consultés

 

Mme Astrid Lambrecht, directrice de recherche au CNRS, directrice de l’Institut de physique du CNRS (INP/CNRS), membre du conseil scientifique de l’OPECST ;

M. Marcel Van de Voorde, Professeur à l’Université technologique de Delft, Pays-Bas, membre du conseil scientifique de l’OPECST ;

Mme Isabelle Sourbes-Verger, directeur de recherche au CNRS, directeur de recherche au centre Alexandre Koyré (EHESS, CNRS, MNHN) ;

M. Xavier Pasco, directeur de la Fondation pour la recherche stratégique (FRS) ;

M. Hervé Grandjean, conseiller pour les affaires industrielles, cabinet de la ministre des armées.



Note N° 10 : biodiversité : extinction ou effondrement ?

 

    Note n°

10

 

___

Biodiversité : extinction ou effondrement ?

 

__


Janvier 2019

 

 

Résumé

 De nombreux travaux scientifiques mettent en évidence des pertes de biodiversité considérables et très rapides. La question dune sixième extinction des espèces est désormais posée.

 Pourtant, malgré des données scientifiques de plus en plus nombreuses et fiables, on observe un scepticisme persistant dans lopinion.

 La recherche scientifique doit être encouragée pour faire comprendre lorigine humaine des pertes de biodiversité et leurs conséquences pour lhumanité.

M. Jérôme Bignon, Sénateur

 

La notion d’extinction

« Extinction massive » est une expression apparue en 1796 dont la paternité est attribuée au naturaliste français Georges Cuvier. Plus récemment, plusieurs scientifiques ont évoqué une « sixième crise d’extinction » : Paul et Anne Ehrlich dans un ouvrage intitulé « Extinction » daté de 1981 ou encore Paul S. Martin dans ses publications sur « the overkill hypothesis »([264]) en 1984, mais aussi Robert Barbault qui, en 2006, écrivait : « l’horizon est sombre et une sixième crise d’extinction une perspective certaine ». Cette expression vaudra en 2015 à la journaliste Élisabeth Kolbert le prix Pulitzer pour son ouvrage « La sixième extinction, comment l’homme détruit la vie » ([265]).

La notion d’« extinction de masse » désigne l’élimination d’une partie considérable des espèces du monde entier au cours d’un intervalle de temps géologiquement insignifiant selon Anthony Hallam et Paul Wignall ([266]). Ces crises qui se déroulent habituellement sur des centaines de milliers voire des millions d’années sont des événements qui génèrent des pertes de biodiversité.

La biodiversité constituée par la variété de tous les organismes vivants est appréciée à cinq niveaux – écosystèmes, espèces, populations, individus et gènes. C’est un vaste ensemble ([267]) qui inclut les organismes vivants et les relations qu’ils établissent entre eux et avec l’environnement. Chaque crise d’extinction s’est traduite par la disparition de très nombreuses espèces, et a été suivie, plusieurs millions d’années plus tard, par l’apparition de nouvelles espèces encore plus nombreuses, illustration de la résilience de la biodiversité ([268]).

Rectangle 396

 

Effondrement de la biodiversité et temporalité

Toutes les espèces sont vouées à disparaître, mais la vitesse de l’érosion actuelle de la biodiversité est alarmante car elle est dix à cent fois plus rapide que celle constatée lors des époques géologiques antérieures ([269]).

Cette vitesse du changement, sans commune mesure avec le rythme naturel dextinction, est inquiétante en raison des déséquilibres qu’elle provoque sur les écosystèmes terrestres et marins, au sein de l’anthropocène.

La notion danthropocène a été introduite en 2002 par Paul Crutzen, météorologue et chimiste hollandais, prix Nobel de chimie en 1995. Elle désigne une nouvelle époque géologique, dominée par lhomme, ses animaux domestiques et ses plantes cultivées ([270]). À la différence des périodes géologiques antérieures où les changements ont été induits par des catastrophes et événements naturels, l’homme, au cœur de l’anthropocène, est le principal moteur du changement actuel.

Connaître aussi précisément que possible la composition de la biodiversité est important pour mesurer l’ampleur de la crise. Chaque année, 16 à 18 000 espèces nouvelles sont découvertes, mais, dans le même temps, des espèces disparaissent avant même davoir été découvertes et donc décrites, nommées, référencées et classées ([271]).

Les océanographes et spécialistes du monde marin confirment une forte et inquiétante décroissance des effectifs d’organismes exploités (poissons, crustacés, mollusques) en milieu marin, ce qui ne constitue pourtant pas encore une extinction. Cette différence d’appréhension est due à la faible connaissance actuelle des stocks marins. À l’inverse, la biodiversité terrestre a fait l’objet de plus nombreuses études et les connaissances sont plus Rectangle 5abondantes.

On constate aujourd’hui un « effondrement du nombre des individus dans les populations de très nombreuses espèces sauvages » ([272]). Il faut dissocier ce phénomène du concept d’« extinction massive » ([273]), mais c’est une étape préliminaire. L’homme peut néanmoins agir pour contrer l’effondrement et ainsi éviter l’extinction massive. Leffondrement peut être limité, alors qu’une crise d’extinction, quand elle a eu lieu, est irréversible.

La perte de biodiversité ne doit pas être réduite à une diminution de la diversité des espèces : elle impacte aussi l’adaptation des communautés d’espèces aux environnements les plus variés ([274]). Or, la vitesse du changement entraîne deux conséquences : les écosystèmes font d’abord face à une homogénéisation (perte de nombreuses espèces spécialistes remplacées par quelques espèces généralistes qui sont les mêmes partout), phénomène qui conduit dans un deuxième temps à diminuer fortement leur capacité de résilience. Lorsqu’ils sont fragilisés, les écosystèmes perdent en complexité, en abondance et en diversité. Or, la force d’un écosystème se trouve dans sa composition : c’est la cohabitation d’un grand nombre d’individus et d’espèces, complémentaires qui ne rendent pas les mêmes services écologiques. Cette simplification des écosystèmes se manifeste donc par une diminution des espèces spécialisées, dont l’adaptabilité et la survie sont soumises à des conditions très strictes ([275]). Le phénomène du blanchissement des coraux en est une bonne illustration ([276]).

Les outils et indicateurs scientifiques

Le monde scientifique ne ménage pas ses efforts pour, à la fois, établir de façon solide la réalité de ces constatations et le sérieux de ces travaux, et les faire partager par le plus grand nombre.

Scientifiques, notamment biologistes et océanographes, se fondent sur des outils divers et nombreux pour constater l’effondrement du nombre d’individus des populations.

Laction principale de l’Union internationale pour la conservation de la nature (UICN), organisme composé de gouvernements et d’organisations de la société civile est détablir des listes rouges des espèces menacées([277]), en identifiant les espèces concernées et en faisant des recommandations par catégorie([278]) au sein de cette liste. Pour la France, afin de recueillir des données fiables, le Comité français de l’UICN et le Muséum national d’histoire naturelle (MNHN) s’appuient sur une grille, applicable théoriquement à toutes les espèces, dont les critères objectifs comprennent les facteurs biologiques associés aux risques d’extinction, la taille de la population de l’espèce, son taux de déclin, la superficie de sa répartition géographique ou son degré de fragmentation([279]). Dans les faits, pour la majorité des espèces (invertébrés notamment, qui représentent plus de 95 % des espèces animales), la qualité des données disponibles sur la démographie, la dynamique des populations ou la répartition géographique est insuffisante pour pouvoir appliquer les critères. La liste n’est pas élaborée par une seule personne, car l’expertise est issue d’un groupe de spécialistes, en collaboration avec des experts et des associations. La décision de classer l’individu ou l’espèce dans telle ou telle catégorie est prise de façon collective et unanime. Déclarer une espèce éteinte est une décision lourde de conséquences car elle empêche ipso facto la mise en place d’actions de conservation.

Le Comité français de l’UICN et le MNHN ont élaboré pour la France des listes relatives aux mammifères, aux oiseaux, aux reptiles et amphibiens, aux crustacés d’eau douce ou encore aux libellules et papillons ([280]). À ce jour, le Comité français de l’UICN n’a évalué que 5 % des espèces de France, c’est-à-dire 93 500 espèces du territoire métropolitain et ultramarin. Il cherche désormais à étendre son champ d’action aux invertébrés, longtemps laissés de côté ([281]).

Image associée 

 

 

 

 

 

 

 

 

 

La Liste Rouge de lUICN est un outil fiable pour connaître le statut de conservation des espèces les plus connues, mais est très insuffisante pour la plus grande partie de la biodiversité : insectes, mollusques, champignons etc., qui constituent limmense majorité des espèces vivantes.

Pour cette raison, diverses autres techniques ont été développées par des chercheurs pour connaître létat de la biodiversité. Ainsi la relation aires – espèces ([282]), suivant une méthode probabiliste, permet de comptabiliser les pertes despèces en partant du principe que plus un territoire est grand, plus le nombre despèces quil abrite est important.

Grâce à une relation mathématique, on peut calculer le nombre despèces amenées à disparaître lorsquon perd une surface donnée dun écosystème, notamment en cas de déforestation. Mais cet outil nest pertinent que sur des territoires de grande cohérence géographique ([283]).

Une autre méthode, également probabiliste, permet de bâtir une modélisation mathématique des probabilités dextinction à partir des dates de collecte et dobservation des espèces([284]) en retenant trois paramètres : une date de changement de vitesse globale du taux dextinction après laquelle les extinctions deviennent possibles et, pour chaque zone géographique, une probabilité dextinction par an et une probabilité de collecte de lespèce lors des travaux sur le terrain. Les résultats obtenus sont comparés aux informations fournies par des experts, consultés en amont et ayant une connaissance locale des faunes régionales ou des connaissances mondiales sur des groupes particuliers despèces. Les résultats de ces deux approches, testées sur un échantillon aléatoire de 200 espèces de mollusques terrestres du monde entier, sont remarquablement congruents.

Contrairement au taux de 0,04 % suggéré par la liste rouge de lUICN, cette approche montre que, depuis le début des années 1980, près de 10 % de la faune terrestre serait éteinte.

La science participative est un autre outil, particulièrement utilisé par la Ligue pour la protection des oiseaux, Agir pour la biodiversité (LPO) et le Muséum national dhistoire naturelle pour récolter des données ensuite analysées par des scientifiques et comparées aux données des années précédentes. Les oiseaux sont particulièrement étudiés dans cette démarche car ils sont de bons indicateurs de perte de biodiversité, en raison de leur présence dans tous les milieux  forestier, urbain et rural  et de leur place au sommet de la chaîne alimentaire.

Le STOC, programme de Suivi Temporel des populations dOiseaux Communs, sappuie sur les LPO locales et un réseau naturaliste. Mis en place en 1989 par le Centre de Recherche sur la Biologie des Populations dOiseaux du Muséum national dhistoire naturelle, il permet destimer les variations deffectifs des oiseaux nicheurs les plus communs à moyen et long terme, tout en établissant des indicateurs plus complexes pour mesurer lévolution des écosystèmes. Ces données sont recueillies par des naturalistes volontaires lors de sessions découte. Ce programme a permis de mettre en évidence le dramatique déclin des oiseaux communs en France, et notamment en milieu agricole, avec une perte dun tiers des effectifs depuis 2001.

Dernier né, en juillet 2017, le portail naturaliste et interactif Faune-France a permis de récolter 70 millions de données en un an, grâce à un large réseau de bénévoles qui sappuie sur 80 000 inscrits dont 20 000 contribuent régulièrement. Le réseau Faune-France comprend les données du STOC, mais aussi des données opportunistes et des données de recherche. Le portail Faune-France recense lespèce de loiseau, le lieu de comptage et lheure. Ces données exploitées à laide de lintelligence artificielle permettent à Faune-France danalyser les pertes de biodiversité et les modifications de comportements, comme limpact du changement climatique sur les migrations des oiseaux. Les indicateurs mis au point permettent de suivre lavancée ou le retard de la date de migration, par rapport à la date considérée comme normale. Leur analyse met en évidence les changements et modifications de mode de vie des oiseaux.

Lintelligence artificielle est également au cœur des travaux de la Fondation « Tara expéditions » ([285]) à la fois lors de la collecte mais également de lanalyse des données. Grâce à la goélette Tara aménagée pour recevoir des équipes et des matériaux scientifiques de pointe, ont été analysés 283 lieux différents de locéan et 600 écosystèmes marins en transposant les techniques humaines de médecine génomique au monde océanique pour développer une « science de locéan ». Une base de données massive, publique et gratuite a été constituée. Référence pour tous les scientifiques, elle a fait lobjet en deux ans de trois millions de requêtes. Analyser et modéliser ces données nécessite lutilisation dalgorithmes de plus en plus sophistiqués.

Les causes des pertes de biodiversité

L’effondrement du nombre d’individus résulte d’une multitude de causes qui se combinent entre elles et impactent la biodiversité. Si elles font consensus au sein du monde scientifique, tous les chercheurs ne les citent pourtant pas dans le même ordre : ils sont néanmoins d’accord sur le fait que le changement climatique ne doit pas occulter les autres causes. Celles-ci font d’ailleurs l’objet actuellement d’une évaluation par l’IPBES ([286]).

Ces principales causes sont :

       La destruction et lartificialisation des habitats et des milieux naturels ([287]) ;

       La pollution sous toutes ses formes (pesticides et effondrement des insectes ; lumineuse ; sonore agricole et maritime ; marine aux hydrocarbures) ;

       La surexploitation des ressources naturelles et la surpêche, lorsque le seuil de reproduction ou de renouvellement n’est pas respecté ;

       La dissémination despèces invasives, volontaire ou involontaire, particulièrement importante au sein des écosystèmes maritimes et dans les écosystèmes insulaires. En raison du défaut de présence de leurs prédateurs et de leurs parasites, ces espèces se multiplient bouleversant l’équilibre de l’écosystème ([288]) ;

       Le réchauffement climatique ([289]) ;

       La croissance démographique, elle-même liée à plusieurs autres facteurs ([290]).

Faits scientifiques et scepticisme

Le monde scientifique multiplie les efforts pour faire prendre conscience au grand public de ces pertes massives de biodiversité. Les données sont de plus en plus nombreuses et fiables. Pourtant, on observe un fossé, une déconnexion entre la fiabilité de ces données et labsence de réaction des décideurs comme de lopinion pour mettre fin à cet effondrement.

Ce scepticisme a fait lobjet détudes très solides aux États-Unis, mais malheureusement beaucoup moins en Europe, sur le fondement de la psychologie sociale, mais aussi par la combinaison d’approches sociologique et philosophique. Ces travaux de recherche sont complémentaires : les premiers expliquent le refus actuel de la population de reconnaître ces pertes de biodiversité, les seconds mettent en avant le manque de cohérence du discours écologiste, insuffisamment lié aux intérêts de la population.

C’est ainsi que lamnésie environnementale générationnelle ([291]), théorisée par Peter Kahn en 2002, établit que la construction de l’identité environnementale se façonne au sein d’un cadre de référence, correspondant pour chaque individu à une nature normale. Ce carcan référentiel, bâti au cours de l’enfance, fait que chaque génération n’a pas les mêmes références. Il est tout simplement impossible d’avoir conscience de quelque chose que l’on n’a pas connu, ce qui conduit à protéger seulement ce qui est connu : cette amnésie constitue une première cause.

La seconde serait une dissonance cognitive ([292]) entre les croyances de lindividu et linformation scientifique, perçue comme trop violente ([293]). L’individu, refusant de réajuster son équilibre cognitif, rejette l’information qui lui est donnée. Malgré une meilleure diffusion de l’information et les nombreuses publications scientifiques, l’importance des pertes de biodiversité aboutit à remettre en cause le comportement humain d’une manière telle que l’ignorance pure et simple des constats scientifiques est préférée.

Selon enfin d’autres études mêlant philosophie et sociologie, le scepticisme serait dû à la difficulté pour l’écologie d’appréhender les questions environnementales d’un point de vue politique. Ainsi, plutôt que de mentionner la nature et la biodiversité, il serait préférable de parler de sol ou de territoire ([294]). Ce changement de vocabulaire permettrait de faire apparaître les questions environnementales comme des questions d’avenir qui intéressent directement les citoyens. Les notions de territoire et de sol facilitent le lien entre les objectifs d’abondance ou de prospérité et les préoccupations environnementales. L’individu se sent alors directement concerné par les pertes de biodiversité et accepte de s’engager pour les éviter.

*

Tous les travaux scientifiques saccordent désormais sur la crise dextinction qui dépasse en rapidité les crises précédentes et qui a une origine humaine. La biodiversité est en train de seffondrer, avec des conséquences pour lhumanité qui sont difficiles à prédire, mais qui affecteront des services indispensables à notre bien-être et à notre survie (service de pollinisation, régénération des sols, cycle de leau, loisirs, etc.).

Il est donc nécessaire de bien comprendre les causes multiples des phénomènes qui entrainent des pertes de biodiversité. Pour cela, il est indispensable de développer lapproche psychologique et sociologique de lacceptation de ces pertes par les citoyens. Il faut enfin continuer dencourager la recherche scientifique en noubliant pas la science participative. Cest sur cette triple base quil convient davancer dans la clarté et la précision des concepts : il ne faut pas tout mélanger.

Experts consultés

M. Gilles Bœuf, biologiste, ancien président du Muséum national d’histoire naturelle et président du Conseil scientifique de l’Agence française pour la biodiversité ;

M. Laurent Couzi, responsable du service connaissance de la Ligue pour la protection des oiseaux ;

M. Benoît Fontaine, ingénieur de recherche au Centre d’écologie et des sciences de la conservation au Muséum national d’histoire naturelle ;

M. Frédéric Jiguet, professeur au Muséum national d’histoire naturelle, directeur du Centre de recherches sur la biologie des populations d’oiseaux (CRBPO), coordinateur national du programme de science citoyenne Suivi temporel des oiseaux communs (STOC) ;

Mme Pascale Joannot, océanographe, chargée de conservation au Muséum national d’histoire naturelle ;

M. Bruno Latour, philosophe, anthropologue et sociologue, professeur émérite associé au Médialab de Sciences‑Po Paris ;

M. Cédric Marteau, directeur de l’environnement et directeur de la Réserve naturelle nationale des Terres australes et antarctiques françaises ;

M. Serge Planes, chercheur au CNRS, directeur IRCP-Institut des récifs coralliens du Pacifique (EPHE) responsable du pôle Environnement de l’Université Paris Sciences et Lettres ;

Mme Anne-Caroline Prévot, directrice de recherche au CNRS au Centre d’écologie et des sciences de la conservation au Muséum national d’histoire naturelle ;

M. Gilles Rayé, professeur agrégé de sciences naturelles, chargé de mission biodiversité, forêt et sols au Commissariat général au développement durable, ministère de la Transition écologique et solidaire ;

M. Romain Troublé, directeur général de la Fondation Tara expédition ;

M. Yves Verilhac, directeur général de la Ligue pour la protection des oiseaux.


Note N° 11 : le stockage de l’électricité

 

Note n°

11

 

___

Le stockage de lélectricité

 

___

 

Février 2019

© Romain Chicheportiche

Résumé

        Au niveau mondial, le stockage de lélectricité est appelé à se développer dans un contexte de fort essor des énergies renouvelables (EnR) variables.

       Les simulations montrent toutefois que les besoins de stockage stationnaire resteront limités dans le cas de la France du fait de la flexibilité de notre système électrique et de son interconnexion au système européen. Cest seulement après 2035, si devait se mettre en place un mix électrique composé quasi exclusivement de moyens de production renouvelables, que des besoins de stockage significatifs, notamment inter-saisonniers, pourraient apparaître.

        Le stockage de lélectricité se trouve par ailleurs au cœur de lessor de formes de mobilité durable, dès maintenant pour la mobilité électrique, à plus long terme pour ce qui concerne une mobilité de masse à lhydrogène.

Mme Angèle Préville, sénatrice

Différents modes de stockage

Stocker l’électricité, c’est transformer l’énergie électrique en une autre forme d’énergie, puis transformer de nouveau cette dernière en électricité, avec des pertes inévitables lors de chaque conversion ([295]). Chaque mode de stockage possède des caractéristiques qui déterminent son champ d’applications pratiques ([296]). On en citera principalement trois ([297]) : les STEP, les batteries et l’hydrogène.

Les STEP ([298]) sont formées de deux bassins situés à des altitudes différentes entre lesquels est placé un groupe hydroélectrique qui peut fonctionner comme un ensemble pompe-moteur ou turbine-alternateur. Le bassin supérieur est alimenté par pompage de l’eau du bassin inférieur quand le prix de l’électricité est bas. Lorsque la demande électrique et le prix de l’électricité augmentent, les STEP injectent de l’électricité sur le réseau en turbinant l’eau du bassin supérieur. Technique maîtrisée, qui permet un stockage massif d’énergie couplé à des puissances élevées tout en offrant un bon rendement ([299]), les STEP sont le mode de stockage de l’électricité le plus répandu en France et dans le monde ([300]). Elles permettent par ailleurs de produire une électricité décarbonée (lorsque la phase de stockage a été alimentée en énergie décarbonée comme c’est le cas en France). Il convient donc d’identifier ses gisements potentiels sur le territoire ([301]) et de réfléchir aux mesures de compensation écologiques et économiques susceptibles de mieux faire accepter les projets par la population. Enfin, il est essentiel de veiller à ce que les règles qui concourent à la formation des prix de l’électricité n’handicapent pas les équipements de stockage en général et les STEP en particulier ([302]).

Moyen de stockage en fort développement, les batteries convertissent l’énergie électrique en énergie chimique et réciproquement. On en distingue plusieurs familles en fonction du couple oxydo-réducteur impliqué dans les réactions électrochimiques, des classiques accumulateurs au plomb aux batteries Sodium-Soufre (Na-S), Lithium-Soufre (Li-S) ou Nickel-Cadmium (Ni-Cd), en passant bien sûr par toute la gamme des batteries Lithium‑ion ([303]). Ces dernières ont constitué à partir des années 1990 une rupture technologique permettant d’envisager des applications allant du stockage stationnaire à l’alimentation des appareils électroniques, en passant par la mobilité. Ces batteries offrent des performances croissantes en termes de densité énergétique ([304]), ainsi qu’un très bon rendement (90-95 %), des coûts de revient en baisse ([305]) et un niveau de sécurité satisfaisant ([306]). Sans rendre obsolètes les autres couples électrochimiques ([307]), elles sont aujourd’hui celles qui portent l’essor rapide du marché des batteries ([308]). Les axes de recherche portent à la fois sur la sécurité, l’augmentation de la densité énergétique, la cyclabilité ([309]) et la diminution de la consommation en métaux critiques ([310]). On attend, à partir de 2022/2023, l’arrivée sur le marché des batteries « tout solide » ([311]) qui permettront de nouveaux gains de sécurité et de densité ([312]).

Lhydrogène est le troisième vecteur stratégique de stockage de l’électricité. Les technologies power-to-gas permettent de produire, par électrolyse de l’eau, un hydrogène qui pourra alimenter des piles à combustibles (PAC) ([313]), remplacer dans certaines filières industrielles l’hydrogène issu du vapo reformage du méthane ([314]) ou être injecté directement dans les réseaux de gaz ([315]). On peut aussi l’utiliser pour produire du méthane par méthanation ([316]), ce qui permet de remplacer du gaz naturel fossile par du gaz renouvelable. Ce méthane peut enfin servir à produire de l’électricité dans des centrales électriques au gaz (gas to power), avec des applications dans le domaine du stockage inter-saisonnier de l’électricité. Les voies de progrès concernent principalement les technologies d’électrolyseurs ([317]), avec l’objectif de faire baisser fortement le coût de l’hydrogène électrolytique ([318]).

Le stockage de l’électricité : une nécessité
pour accomplir la transition énergétique ?

La France est engagée dans la diversification de son mix électrique ([319]). Or, le remplacement de moyens de production nucléaires ou thermiques, dont le niveau peut être ajusté à la hausse comme à la baisse, par des moyens éoliens et solaires non « commandables » implique un accroissement sensible des besoins de flexibilité du système électrique ([320]). C’est dans ce contexte que s’inscrit la réflexion sur les liens entre stockage de l’électricité et gestion du système électrique. Parce qu’il permet de décorréler dans le temps production et consommation d’électricité, le stockage est un moyen de répondre aux besoins de flexibilité du système. Pour autant, il est excessif de le présenter comme une condition nécessaire de l’essor des EnR variables ([321]), car il n’est qu’un levier de flexibilité parmi d’autres. Le pilotage de la consommation, le foisonnement permis par les réseaux d’électricité ou les variations de production des moyens pilotables résiduels peuvent, dans une large mesure, se substituer à lui pour apporter au système électrique la flexibilité requise. Au-delà des généralités, définir la place du stockage suppose donc une analyse précise des relations de substitution/complémentarité entre les différents leviers de flexibilité dans un système électrique donné.

Pour appréhender les besoins de stockage stationnaire dans le cas de la France ([322]), il faut commencer par souligner que le système électrique français actuel est déjà très flexible. Outre une forte proportion de moyens pilotables ([323]), sa flexibilité repose sur :

- un réseau de transport et de distribution d’électricité de grande qualité, interconnecté à l’échelle européenne. Reliant l’ensemble des zones de production et de consommation continentales ([324]), il offre de vastes possibilités de foisonnement qui permettent déjà de réduire la demande résiduelle européenne de 75 GW à l’horizon annuel ([325]). Pour la France seule, il réduit la production de pointe de 120 à 100 GW ([326]) :

le pilotage de la consommation par effacement des pointes ou déplacement dans le temps de la consommation. La capacité d’effacement installée en France, en recul par rapport aux années 1990, représente environ 2,5 GW ([327]). Par ailleurs, 11 millions de ballons d’eau chaude, d’une capacité de 9 GW, permettent de déplacer près de 20 GWh de consommation par jour vers les heures de faible consommation. Cet outil de lissage, qui repose sur le stockage thermique de l’énergie, est éprouvé, simple, peu coûteux et efficace. Il pourrait, grâce à un pilotage plus dynamique ([328]), jouer un rôle majeur dans l’exploitation des pics de production renouvelables ([329]) ;

- enfin, le stockage hydraulique, qui offre des solutions de flexibilité à tous les horizons temporels (y compris inter-saisonniers grâce aux réservoirs de lac). Les autres techniques de stockage, notamment les batteries, occupent en revanche aujourd’hui une place marginale dans le mix de flexibilité.

Les scénarios pour quantifier les besoins de stockage futurs

Des travaux sont conduits par RTE et l’Ademe pour définir les adaptations à apporter à ce mix de flexibilité dans un contexte de transition énergétique. Ces simulations prospectives prennent en compte des paramètres techniques et économiques à la fois nombreux et encore incertains à ce stade, concernant notamment le niveau futur de la consommation d’électricité ([330]), l’ampleur de la diversification du mix de production ([331]), le prix du carbone ou encore les progrès et la baisse de coût du stockage (en particulier pour les batteries et la filière power to gas to power). En raison du grand nombre d’inconnues, ces études définissent de multiples scénarios d’évolution, eux‑mêmes déclinés en de nombreuses variantes – le tout finissant par dresser une carte des avenirs probables qui permet de dégager quelques prévisions robustes en matière de besoins de flexibilité et de stockage.

RTE a élaboré en 2017 quatre scénarios à lhorizon 2035 ([332]). Ces simulations ([333]) confirment que les besoins de flexibilité augmenteront fortement dans tous les cas de figure, mais sans pour autant induire un développement significatif des besoins de stockage. Ainsi, dans le scénario Ampère, qui est pourtant un scénario ambitieux pour les EnR ([334]), l’essentiel des besoins de flexibilité serait satisfait à moindre coût par l’hydraulique, les interconnexions et, dans une moindre mesure, la mobilisation des gisements d’effacement – cette dernière solution apparaissant moins onéreuse que le stockage par batteries pour passer les pointes ([335]). C’est seulement dans le scénario Watt, qui est un scénario de rupture basé sur un déclassement rapide du parc nucléaire et des EnR atteignant 70 % du mix de production, que pourrait apparaître un espace marchand pour le stockage de l’électricité en 2035. Le fort développement de l’éolien et du solaire conduirait en effet à des périodes d’abondance de production à bas coûts, propices à la rentabilité des activités de stockage ([336]). Par ailleurs, le maintien de la sécurité d’approvisionnement appellerait alors une mobilisation forte de tous les leviers de flexibilité en sus d’un développement des centrales au gaz ([337]). RTE, qui ne propose pas un chiffrage précis des besoins de stockage dans ce scénario ([338]), souligne toutefois que le stockage ne constituerait pas une révolution à ce stade ([339]).

Cette conclusion, qui nuance fortement le potentiel de développement du stockage stationnaire en France d’ici 15 ans, fait l’objet d’un consensus des experts consultés. La diversification du mix électrique français n’implique ni changement d’échelle ni rupture technologique dans le domaine du stockage jusqu’au milieu des années 2030. Le maintien d’une part non négligeable de moyens de production pilotables à cet horizon de temps ([340]), accompagné d’un accroissement modéré des capacités d’effacement et de stockage par STEP, ainsi que d’investissements sur le réseau pour le rendre plus « agile » ([341]) et plus robuste, seront suffisants pour équilibrer l’offre et la demande à tous les horizons de temps.

LAdeme a exploré des scénarios encore plus ambitieux pour le développement des EnR à lhorizon 2050/2060, avec des taux de pénétration qui vont de 80 à 100 % ([342]). Le bouclage technico-économique de ces scénarios confirme que le renforcement significatif des capacités de stockage devient indispensable pour équilibrer l’offre et la demande d’électricité à chaque heure de l’année seulement quand on atteint ces taux considérables d’EnR dans le mix de production. Le stockage de court terme se développe dès le scénario 80 % d’EnR, tandis que des besoins de stockage inter-saisonnier mobilisant les technologies power to gas et gas to power ([343]) apparaissent à partir d’un mix 90-95 % d’EnR.

Dans ces scénarios, la possibilité de boucler le modèle repose donc sur le postulat de disponibilité de certaines ruptures technologiques ([344]). Les progrès techniques nécessaires devraient concerner deux problématiques en particulier :

       la réponse à la perte dinertie du système électrique ([345]). L’essor des EnR variables mettant en jeu un étage d’électronique de puissance au lieu d’une connexion directe des alternateurs se traduira par une baisse de l’inertie assurée aujourd’hui par les masses tournantes raccordées au réseau ([346]). Or, en cas de chute de la fréquence du courant, le premier correctif est aujourd’hui celui qu’exerce spontanément cette inertie ([347]). Les écarts de fréquence pour un même déséquilibre initial risquent donc d’être plus importants à l’avenir ([348]). Des taux aussi hauts d’EnR, si toutefois le choix était fait de réduire à ce point le parc nucléaire, ne seraient toutefois pas atteints avant 2035, ce qui laisse le temps de développer les techniques nécessaires – d’autant que des solutions se dessinent déjà : installation de compensateurs synchrones sur le réseau ([349]) ; obligation pour les éoliennes d’assurer un service de réglage rapide de la fréquence (ce qu’on appelle l’inertie synthétique ([350]) ou refonte radicale de la stratégie de service de synchronisation et de contrôle de la fréquence, à travers ce qu’on appelle le « Grid Forming » ([351]). Dans tous les cas, le recours à des batteries deviendrait alors un élément–clé de la stabilité du système électrique ;

       le développement de moyens de stockage adaptés à la régulation saisonnière du système électrique. En cas de très forte pénétration des EnR variables, le passage de l’hiver implique en effet le transfert de l’énergie solaire produite en été pour l’utiliser à la saison froide ([352]). Les besoins annuels de stockage inter-saisonnier sont évalués à une quarantaine de TWh dans les études de l’Ademe. Cette solution implique l’arrivée à maturité des technologies Power to gas to power qui en sont encore au stade du démonstrateur ([353]). Là encore cependant, le problème de l’urgence ne se pose pas, puisque la question du stockage inter-saisonnier n’interviendra pas avant 2035.

Les batteries et l’hydrogène au cœur de formes émergentes de mobilité

En raison des gains d’autonomie des batteries Lithium-ion et de la chute de leur coût de fabrication, l’industrie s’est engagée dans un développement massif du marché de la voiture électrique. Cette évolution s’inscrit par ailleurs pleinement dans les politiques publiques de réduction des émissions de gaz à effet de serre ([354]). Cela pose cependant plusieurs enjeux pour les pouvoirs publics en ce qui concerne :

       les conditions d’extraction des métaux critiques dans les pays producteurs et leurs impacts humains et environnementaux. Il est indispensable d’imposer aux fabricants de batteries des critères exigeants de RSE ([355]) et de traçabilité des matériaux ;

       la sécurité d’approvisionnement des métaux critiques, singulièrement du cobalt ([356]) et dans une moindre mesure du lithium ou du nickel ;

       la valorisation des batteries tout au long de leur cycle de vie (comme solution de stockage stationnaire quand les performances sont devenues insuffisantes pour la mobilité ([357]) et avec la mise en place d’une filière de recyclage) ([358]) ;

       la place des industriels français et européens dans le secteur des batteries, où risque de se répéter le scénario catastrophe du photovoltaïque. Aujourd’hui, les dix premiers fabricants de cellules de batteries Li‑ion sont asiatiques ([359]). L’alliance entre SAFT, Siemens, Manz et Solvay offre l’opportunité d’un retour des Européens sur le marché. Il faut la soutenir ([360]) ;

       la mise en place d’un réseau de recharge électrique capable d’irriguer tout le territoire avec des bornes non propriétaires ;

       la gestion intelligente des impacts d’une mobilité électrique de masse sur le fonctionnement du système électrique pour transformer une contrainte potentielle en un levier de flexibilité ([361]).

Lhydrogène pourrait également jouer un rôle-clé dans les mobilités futures. Le bilan carbone de la mobilité à l’hydrogène peut en effet être excellent si on utilise une électricité décarbonée pour l’électrolyse de l’eau ([362]). Techniquement possible, l’essor de la mobilité à l’hydrogène se heurte cependant à des obstacles économiques dans un avenir proche.

Le premier est le coût de l’hydrogène électrolytique. Pour que la mobilité à l’hydrogène soit compétitive par rapport à la mobilité électrique ou hybride, deux conditions doivent être réunies :

       disposer d’une électricité à bas coût pour alimenter des électrolyseurs pendant des durées relativement longues (de l’ordre de 4 000 heures par an). Cela suppose qu’un très fort taux de pénétration de l’éolien et du photovoltaïque génère de longues périodes de production électrique abondante ([363]) ;

       augmenter le rendement et la durée de vie des électrolyseurs. Des progrès comparables à ceux qu’ont connus les panneaux photovoltaïques et les batteries sont imaginables, mais, sans être improbables, relèvent encore de la conjecture.

 

Même si l’on parvient demain à produire un hydrogène électrolytique bon marché, un second obstacle se dresse : celui des investissements nécessaires au déploiement et à l’entretien d’infrastructures de stockage et de distribution de l’hydrogène. La création d’un réseau énergétique supplémentaire, en plus du réseau électrique, du réseau gazier, des réseaux de chaleur et du futur réseau de recharge des véhicules électriques est-elle financièrement soutenable et économiquement pertinente ? Si les recherches doivent se poursuivre pour préparer l’émergence possible d’une mobilité de masse à base d’hydrogène dans la seconde moitié du siècle, à plus court terme, il faut sans doute plutôt encourager des solutions de mobilité à l’hydrogène plus ciblées, par exemple la mobilité des poids-lourds, des flottes de transport des collectivités ou encore des trains, comme le préconise d’ailleurs le Plan Hydrogène.

Experts consultés

- M. Yves Bamberger, président du comité des travaux, et Mme Muriel Beauvais, adjointe au président du comité des travaux (Académie des technologies) ;

- MM. Jean Bergougnoux, président, Étienne Beeker, conseiller scientifique, et Gilles RogersBoutbien, secrétaire général (Équilibre des énergies) ;

- MM. Yannick Jacquemart, directeur de la R&D et de l’innovation, et Philippe Pillevesse, directeur des relations institutionnelles (Réseau de transport de l’électricité – RTE) ;

- M. Dominique Jamme, directeur général adjoint, Mmes Pauline Henriot, chargée de mission, et Olivia Fritzinger, chargée des relations institutionnelles (Commission de régulation de l’énergie - CRE) ;

- MM. Marc Jedliczka, et Yves Marignac, porte-paroles (Association NégaWatt) ;

- M. François Kalaydjian, directeur Économie et veille, Mmes Valérie Sauvant-Moynot, responsable du département Électrochimie et matériaux, et Armelle Sanière, responsable des relations institutionnelles (IFP Énergies nouvelles) ;

- Mme Florence Lambert, directrice du Laboratoire d’innovation pour les technologies des énergies nouvelles et les nanomatériaux (LITEN), et M. Jean-Pierre Vigouroux, chef du service des affaires publiques (Commissariat à l’énergie atomique et aux énergies alternatives – CEA) ;

- Mme Astrid Lambrecht, directrice de recherche au CNRS, laboratoire Kastler Brossel, directrice adjointe scientifique de l’Institut de physique au CNRS (INP/CNRS) ;

- M. David Marchal, directeur adjoint productions et énergies durables (Ademe) ;

- M. Patrick de Metz, directeur des affaires environnementales et gouvernementales (SAFT) ;

- M. Henri Safa, physicien chercheur ;

- MM. Sean Vavasseur, responsable « Systèmes électriques », Alexandre Roesch, délégué général, Mme Marianne Chami, membre de la commission « Industrie et innovation » et responsable « Programme Solutions de stockage » du CEA Liten, et M. Alexandre de Montesquiou, cabinet Ai2p (Syndicat des énergies renouvelables) ;

- Mmes Louise Vilain, pilote stratégique du plan stockage électrique, et Véronique Loy, directrice adjointe des affaires publiques (EDF).


 

Note N° 12 : les grands accélérateurs de particules

 

Note n°

12

 

___

Les grands accélérateurs
de particules

 

___

 

Février 2019

 

Segment danneau dun accélérateur de particules

© fotonat67 / Adobe Stock

 

Résumé

   Les accélérateurs de particules, à linstar des autres « très grandes infrastructures de recherche « (TGIR), permettent de mener des projets de pointe et ainsi de répondre à des enjeux stratégiques : acquisition de connaissances, renforcement de lattractivité scientifique, préparation de ruptures technologiques, diplomatie scientifique…

   Le CERN, laboratoire européen de la physique des particules, opère actuellement le plus grand accélérateur circulaire de particules au monde, le LHC, qui atteint les plus hautes énergies produites à ce jour.

   Une décision du gouvernement japonais est attendue prochainement pour le projet daccélérateur linéaire, lILC, proposé depuis 2012 par la communauté scientifique de ce pays.

   La réflexion sur la future stratégie européenne pour la physique des particules a débuté en 2018 et devrait être présentée au printemps 2020. Si le gouvernement japonais confirme son intérêt pour lILC, cette stratégie européenne devra en tenir compte : une possible participation de lEurope, et notamment de la France, devra être évaluée en termes de retour scientifique, de coût et de retombées industrielles.

M. Cédric Villani, Député, Premier Vice-président

Au cours de l’année 2019, seront envisagés plusieurs projets de grands équipements de recherche dans le domaine de la physique des particules, en Europe et en Asie. Leur importance stratégique, leur coût unitaire très élevé et leurs buts scientifiques différents justifient qu’on leur prête une attention particulière.

Le « modèle standard » en physique des particules

Chaque atome de matière est fait d’un noyau entouré d’électrons, le noyau étant lui-même constitué de protons et de neutrons ([364]). Électrons, protons et neutrons ont longtemps été considérés comme les constituants les plus élémentaires de la matière. Cette idée a été bouleversée par la notion de quark, apparue par la théorie dans les années 1960, et mise en évidence par les expériences menées dans les années 1970. Protons et neutrons apparaissent alors comme une combinaison de trois quarks, de type up et down ([365]). Lélectron et les quarks up et down constituent ainsi les briques élémentaires de la matière ordinaire. Une quatrième particule fondamentale, postulée en 1930, a été découverte dès 1956 : le neutrino, particule électriquement neutre, qui fascine par sa très faible masse et ses interactions quasi-nulles avec la matière ([366]). Finalement, on s’accorde pour identifier douze particules fondamentales constituant la matière, ou « fermions » : six quarks ([367]) et six leptons (électron, muon et tau ainsi que trois types de neutrinos qui leur sont respectivement associés). On appelle « hadrons » les particules constituées de quarks, comme le proton. Les interactions entre fermions, aussi appelées forces fondamentales, sont transmises par l’échange d’un autre type de particules, les « bosons » ([368]). Le « modèle standard » ([369]) de la physique des particules est la théorie quantique et relativiste ([370]), qui classe toutes ces particules et décrit leurs interactions ([371]). Finalisé dans les années 1970, ce modèle est le fruit d’un siècle de recherches théoriques et expérimentales ([372]), jalonné par de nombreux prix Nobel de physique.

Les accélérateurs de particules comme outil d’exploration de la matière

Les accélérateurs de particules ont été conçus pour explorer la matière à travers des états de très haute énergie qui permettent de défaire des particules en constituants (comme une valise scellée que l’on ferait exploser pour avoir des informations sur son contenu) et de créer de nouvelles particules (similairement à la création de matière qui, selon la théorie maintenant bien acceptée du Big Bang, a eu lieu dans des conditions d’énergie considérable). Leur principe est daccélérer certaines particules à une vitesse extrême (proche de celle de la lumière) et, à loccasion, de les faire entrer en collision.

Accélérer des particules requiert trois éléments :

       un champ électrique pour fournir de l’énergie ;

       un champ magnétique pour guider la trajectoire ;

       enfin, un vide poussé, afin d’éviter les collisions avec le gaz résiduel, qui conduirait à la perte rapide des particules.

Les premiers accélérateurs ont été mis au point dans les années 1930 et sont nommés cyclotrons ([373]). Leur technologie a été perfectionnée après la Seconde Guerre mondiale : si on fait varier le champ magnétique en fonction de l’énergie des particules accélérées, la trajectoire de ces dernières devient circulaire. Ces accélérateurs (de type « synchrotron ») ont trouvé une vaste palette d’utilisations sous forme de synchrotrons et de collisionneurs ([374]). Le but des synchrotrons n’est plus tant l’exploration de la physique des particules que la production de rayonnements de grande intensité et de grande cohérence, très maîtrisés (généralement du rayonnement X), et utilisés pour divers domaines d’étude : biologie, chimie, astrophysique, archéologie… Pour leur part, les collisionneurs ont toujours pour fonction d’explorer la matière par l’analyse des produits des collisions entre particules. Inégalement réparties à travers le monde, ces ressources constituent des enjeux de connaissance et de rayonnement scientifique, attirant compétences et collaborations.

Le LHC : accélérateur emblématique de la physique des particules

En 1952, le Conseil européen pour la recherche nucléaire (CERN) est créé par douze États membres ([375]). Au lendemain de la Seconde Guerre mondiale, l’enjeu est de rétablir des relations de confiance, mais aussi d’endiguer la fuite des cerveaux vers les États-Unis, et de placer l’Europe au premier plan de la recherche en physique fondamentale, qui se limitait, à l’époque, à l’échelle des noyaux atomiques (i.e. nucléaire). Depuis, le CERN s’est développé, par les sujets étudiés, pour embrasser toute la physique des particules, et aussi dans sa gouvernance, puisqu’il est, aujourd’hui, géré par un consortium de vingt-deux États membres ([376]) et accueille des chercheurs de toutes les nationalités. Basé à Genève, c’est un modèle de très grande infrastructure qui n’a été rendu possible que par la mutualisation des investissements.

La composante la plus célèbre du CERN est le grand collisionneur dhadrons (Large Hadron Collider, ou LHC). Cent mètres sous terre à la frontière franco-suisse, d’une circonférence de 27 km et muni de 9 500 aimants dont une partie à supraconducteurs, il permet d’accélérer des protons à une énergie de l’ordre de dix mille fois leur énergie au repos. Les protons y circulent à une vitesse très « proche « de celle de la lumière ([377]). Pour cela, de nouvelles technologies ont été mises au point, notamment des aimants supraconducteurs ([378]) créés spécialement. Deux faisceaux de protons, ou d’autres particules selon les cas, sont accélérés dans des sens opposés, avant de collisionner ([379]).

Figure 1. lexpÉrience atlas au lhc, qui a permis de dÉtecter le boson de higgs

(source : CERN)

Depuis sa mise en service, le CERN a marqué plusieurs fois l’histoire. En sciences, par la découverte, au début des années 1980, des bosons W et Z ([380]), conduisant à l’attribution du prix Nobel de physique 1984 à Carlo Rubbia et Simon Van der Meer. Puis, la mise en évidence en 2012 du boson de Higgs ([381]), qui confirma le modèle standard et valut le prix Nobel 2013 à François Englert et Peter Higgs. Pour détecter avec certitude la trace du boson de Higgs, il a fallu provoquer des collisions de protons à l’énergie considérable de 6,5 TeV ([382]) et analyser par de puissants outils statistiques les gigantesques masses de données produites par ces collisions ([383]).

Le CERN a eu également un très fort impact sociétal à travers la création du World Wide Web (WWW) en 1989 ([384]) sous la direction de Tim Berners-Lee et son collaborateur Roger Cailliau. Il s’agissait à l’origine d’une réponse au besoin des chercheurs d’échanger simplement et instantanément un volume important de données dans le cadre de collaborations internationales. Le CERN a publié les logiciels développés sous une licence du domaine public, conformément à sa convention fondatrice ([385]) qui stipule que tous ses résultats doivent être publiés et rendus accessibles.

Au-delà du modèle standard : la nouvelle physique

Grâce à la découverte du boson de Higgs, le modèle standard apparaît aujourd’hui comme un pilier solide sur lequel s’appuie la physique des particules. Pourtant, selon les dernières estimations, le modèle standard ne rend compte que denviron 5 % de lUnivers observable ([386]), le reste étant constitué d’environ 27 % de matière noire et de 68 % d’énergie sombre qui, à l’heure actuelle, ne peuvent être détectées qu’indirectement ([387]). Cette « zone d’ombre » appelle à la quête d’une théorie plus exhaustive et plus fondamentale que le modèle standard, qui apparaît alors comme une première approximation dans la description de la matière. C’est dans cette quête d’une nouvelle théorie que les accélérateurs de particules, et leurs énergies toujours plus élevées, pourront apporter des éléments de réponse ([388]) en confirmant ou infirmant certaines théories émergentes ([389]).

Vers des accélérateurs linéaires

Les accélérateurs circulaires, formés en réalité d’une succession de nombreuses portions droites, nécessitent des cycles de décélération/accélération ; cela limite l’énergie atteignable, car le freinage d’une particule chargée produit des photons par rayonnement de freinage (en allemand Bremsstrahlung([390]). Cet effet est beaucoup plus fort pour les électrons, c’est pourquoi les collisions à très haute énergie dans le LHC sont des collisions entre protons. Quand le tunnel du LHC a abrité le programme LEP (Large electron positron ring) de collisions électron/positron ([391]) (e+/e-), ces collisions n’ont pu se faire qu’à énergie plus basse ([392]).

Pour dépasser ces limitations et communiquer à des électrons des énergies très élevées, on en vient à planifier des accélérateurs complètement linéaires, évitant le Bremsstrahlung en phase d’accélération. C’est le principe de l’accélérateur linéaire d’électrons expérimental bâti à Hambourg (Allemagne) : lE-XFEL (European X-ray free-electron laser). D’un coût total de 1,2 milliard d’euros, il permet d’accélérer des électrons sur une seule branche linéaire, jusqu’à 17,5 GeV sur une longueur totale de 3,4 km ([393]). Imitant le comportement d’un laser, il fait osciller le faisceau d’électrons dans des structures magnétiques, engendrant des émissions pulsées de rayons X à très haute intensité. Ses excellents résultats permettent de considérer les infrastructures linéaires comme désormais maîtrisées.

Le projet ILC au Japon

En 2012, un projet a été proposé au ministère japonais de l’Éducation, de la culture, des sports, des sciences et de la technologie (MEXT), par un consortium international de chercheurs ([394]).

Préparé depuis la fin des années 1980, ce projet porte sur la création dun accélérateur linéaire international de grandes dimensions (International Linear Collider ou ILC) permettant des collisions e+/e- à très haute énergie (500 GeV, 15 km, 8 milliards d’euros environ). Il a fait l’objet d’un Technical Design Report (TDR) ([395]) en 2013, ce qui en fait le plus avancé des différents projets de grands collisionneurs linéaires à travers le monde.

En 2016, le Japon envisage de financer une partie du projet à condition de réduire le coût total d’un tiers, soit un coût total de 5 à 6 milliards d’euros. Ce compromis budgétaire limitait alors lénergie du collisionneur à 250 GeV : insuffisant pour explorer la physique des ultra-hautes énergies, mais suffisant pour réaliser des mesures de précision sur le boson de Higgs via des collisions e+/e- avec un bruit de fond très réduit par rapport aux collisions p/p du LHC. Il est à noter qu’une montée en énergie serait toujours possible dans une phase ultérieure, via un allongement des branches d’accélération.

Le projet prévoit une installation dans la région de Tohoku au nord-est de l’île principale d’Honshū, encore gravement affectée par le séisme de 2011. Ce séisme a été responsable de l’accident nucléaire de Fukushima. Cette localisation pose la question de l’impact d’un éventuel séisme. Au vu des coûts induits des installations et des énergies mises en jeu, il s’agit d’un point central sur lequel un effort de sécurité et de recherche en amont a été réalisé. Le Japon prendrait à sa charge les opérations de génie civil et la production de quelques structures de haute technologie pour lesquelles il possède une expertise reconnue. Les autres infrastructures (cryomodules, cavités supraconductrices…) dépendraient de financements internationaux. Les discussions en cours évoquent des participations en nature émanant de lEurope et des États-Unis, à hauteur dun milliard deuros chacun, et une contribution asiatique complémentaire (Chine, Corée du Sud, Inde).

Le développement de l’ILC a également contribué à l’avancée de projets parallèles : ainsi, la technologie supraconductrice des cavités et des cryomodules du faisceau d’électrons du X‑FEL est le résultat direct de la R&D mise au point pour l’ILC et développée par l’industrie européenne. Le budget de fonctionnement annuel s’élèverait, en complément, à 300 millions d’euros. La faisabilité de l’ILC dépendra en particulier de la décision du Japon, qui pourrait être annoncée en mars 2019 ([396]), et de celle des pays européens, qui l’ont inscrit dans les projets prioritaires de la stratégie européenne 2013-2020 ([397]). Les deux décisions sont fortement liées.

Figure 2. SIMULATION DUNE COLLISION DE PARTICULES DANS lexperience cms au lhc

(source : CERN)

Les autres projets à moyen et long terme

Les calendriers de décisions du gouvernement japonais, d’une part, et des investisseurs étrangers, d’autre part, ne sont pas synchronisés : si le premier doit rendre publique sa décision vis-à-vis de l’ILC au premier trimestre 2019, l’élaboration de la stratégie européenne, à laquelle participe le CERN, vient tout juste de débuter et sera rendue publique seulement en 2020.

Au CERN, le LHC est maintenant en arrêt pour travaux. Il reprendra une activité à 14 TeV en 2021-2023 avant de s’arrêter à nouveau en 2024-2025 et de commencer, en 2026, la phase de « haute luminosité » c’est-à-dire avec un nombre plus élevé de collisions en un temps donné ([398]).

Le CERN envisage également un collisionneur circulaire à haute énergie, avec le projet FCC (Futur collisionneur circulaire) près de l’actuel site. Il serait doté d’une circonférence de 80 à 100 km et pourrait monter à une énergie dix fois plus importante qu’au LHC, pour atteindre des énergies de l’ordre de 300 GeV pour les électrons et 150 TeV pour les protons. Il hébergerait des collisions e+/e- dès 2040 (pour un coût total de 9 milliards d’euros, dont 5 milliards d’euros pour la construction du tunnel) et des collisions proton-proton vers 2055 (pour un coût de 15 milliards d’euros). Le Conceptual Design Report (CDR) a été publié en janvier 2019 ([399]).

D’autres propositions du CERN sont contenues dans le projet CLIC (Compact Linear Collider), dont le principe et le fonctionnement se rapprochent de l’ILC, avec des énergies cependant supérieures. Le CLIC permettrait de dépasser l’énergie de 1 TeV, soit quatre fois ce qu’annonce l’ILC dans sa version actuellement envisagée, et deux fois ce que l’ILC annonçait dans sa version originale. Ce projet bénéficierait des installations et du savoir-faire des équipes locales du CERN, permettant aussi de conserver en Europe l’expertise actuelle en physique des particules. Il est cependant plus lointain (mise en fonctionnement sans doute après 2050) et encore hypothétique.

En Chine se prépare également un autre projet majeur, le CepC (Circular electron positron collider), éventuellement suivi par le projet CppC (Circular proton proton collider) en compétition directe avec le FCC européen.

Tous ces projets ([400]) doivent s’appréhender sous des aspects multiples : enjeux scientifiques, attraction de talents, retombées technologiques, contraintes financières, diplomatie scientifique et technologique.

Par ailleurs, à moyen et long termes, le paradigme des accélérateurs de particules toujours plus grands et plus coûteux pour être plus performants, sera sans doute confronté à l’émergence de nouvelles technologies d’accélération actuellement encore en développement pour des énergies limitées, comme les lasers à très haute intensité ([401]). Ceux-ci pourraient permettre de construire des accélérateurs d’une taille bien moindre, et trouvent des applications dans différents domaines. 

Experts consultés

M. Thierry dAlmeida, ingénieur de recherche au CEA ;

Mme Ursula Bassler, directrice adjointe de l’Institut de physique nucléaire et de physique des particules (IN2P3) du CNRS. Nouvelle présidente du Conseil du CERN (depuis janvier 2019) ;

M. Gabriel Chardin, président du comité Très grandes infrastructures de recherche au CNRS ;

Mme Anne-Isabelle Etienvre, directrice de l’Institut de recherche sur les lois fondamentales de l’Univers (IRFU) ;

M. Gautier Hamel de Montchenault, chef du Département de physique des particules (DPHP) du CEA ;

M. François Le Diberder, enseignant-chercheur à l’IN2P3 (Institut national de physique nucléaire et de physique des particules) et membre de l’expérience ATLAS au LHC.

M. Pierre Manil, ingénieur-chercheur à l’IRFU/CEA ;

M. Maxim Titov, directeur de recherche à l’IRFU/CEA ;

M. Patrice Verdier, directeur adjoint scientifique pour la physique des particules à l’IN2P3 ;

M. Marc Winter, directeur de recherche à l’Institut Pluridisciplinaire Hubert Curien de Strasbourg.

Coordination scientifique de Mme Sarah Tigrine, conseillère scientifique.

 


 

—  1  —

   EXAMEN DU RAPPORT PAR L’OFFICE

Examen du rapport présentant le bilan
des douze premières notes scientifiques de l’Office
 

M. Gérard Longuet, sénateur, président de l’Office. – Je vous prie d’excuser le retard de Cédric Villani qui va nous rejoindre dans quelques instants.

Je vais d’abord vous rappeler le contexte de la mise en place des notes scientifiques qui commencent à être connues.

Il est apparu qu’il fallait renouveler un peu les modes d’intervention de l’Office, après trente-cinq ans d’existence. Jusqu’à récemment, l’Office intervenait principalement sous deux formes : d’une part, de classiques rapports d’étude très approfondis portant sur des sujets larges, sur saisine des commissions permanentes ou du Bureau des assemblées ; d’autre part, des auditions publiques d’actualité introduites dans les années 2000.

En s’inspirant des meilleures pratiques des homologues européens chargés de l’évaluation technologique parlementaire et après une analyse comparée des travaux des autres membres du réseau de l’EPTA (European Parliamentary Technology Assessment), Cédric Villani a proposé de réaliser des notes scientifiques synthétiques sur des sujets d’actualité plus restreints, établies dans un délai court, d’un à trois mois, délai qui a été tenu et pour lequel je remercie les membres de l’Office qui l’ont assumé.

Ces notes ont un format standard de quatre pages, accompagnées d’annexes qui précisent les renvois à des références scientifiques et la liste des experts consultés, au premier rang desquels les membres du conseil scientifique de l’Office.

Nous suivons pour ces notes une méthodologie fondée sur la consultation de tous les acteurs, d’une manière comparable à celle d’une mission d’information parlementaire, mais enrichie d’une démarche contradictoire avec la soumission du projet de texte à l’ensemble des experts consultés (entre dix et vingt selon les sujets), et en recherchant systématiquement l’appui des Académies et des grands organismes de recherche.

Pour chaque sujet, nous avons désigné un ou plusieurs rapporteurs membres de l’Office. Ce choix diffère structurellement de la pratique des notes scientifiques du POST britannique (Parliamentary Office of Science and Technology), commun à la Chambre des Communes et à la Chambre des Lords, qui publie de telles notes depuis longtemps mais sans associer directement des parlementaires, ce qui est dommage. En tenant la plume, les parlementaires donnent une vision politique et surtout une crédibilité à ces notes auprès de leurs collègues que n’auraient pas les scientifiques seuls qui seraient facilement jugés trop technos ou compliqués. C’est un assez bon équilibre.

Nous avons commencé l’élaboration des premières notes à la fin 2017, et les premières notes scientifiques ont été publiées en mars 2018. Depuis un an, douze notes ont été produites et publiées.

Avec celle sur les technologies quantiques, cela fait même 13, mais restons-en à la publication d’ensemble des 12 premières, qui correspondent pour faire simple à une par mois en moyenne.

Sur le fond, ces notes ont concerné les thèmes principaux d’intervention de l’Office, seul le thème des sciences de la vie apparaissant un peu moins représenté : le numérique, avec les notes objets connectés, impression 3D, et blockchains ; la physique et l’énergie, avec les notes rénovation énergétique des bâtiments, stockage de l’électricité, et grands accélérateurs de particules ; l’environnement, avec les notes stockage du carbone dans les sols, enjeux sanitaires et environnementaux de l’huile de palme, et biodiversité : extinction ou effondrement ; l’espace, avec les notes sur Mars : nouvelle frontière de l’exploration spatiale, et les lanceurs spatiaux réutilisables ; les technologies des transports, avec une note sur le transport à hyper grande vitesse sous vide ; les sciences de la vie, avec une note sur les enjeux sanitaires et environnementaux de l’huile de palme.

Ces douze notes ont mobilisé plus de députés, 8 dont deux ont présenté deux notes chacun, et 5 sénateurs, soit 13 des 36 membres de l’Office.

M. Cédric Villani, député, premier vice-président de l’Office. – Les sénateurs n’ont pas été en reste pour l’énergie déployée dans la réalisation de ces notes !

M. Gérard Longuet, sénateur, président de l’Office. – La majorité des notes a été présentée par un seul membre de l’Office, une note l’a été par deux députés, une par trois membres (deux députés et un sénateur).

L’objectif est que ces documents soient aussi lisibles et pédagogiques que possible. En particulier, dans l’esprit des publications scientifiques, chaque note commence par un résumé synthétique soulignant les principaux enseignements sur le sujet. De même, les notes s’efforcent à chaque fois de préciser le contexte dans lequel elles s’inscrivent, et sont complétées par des notes de fin aussi détaillées que nécessaire.

Les notes font l’objet d’un examen collégial par l’Office, qui décide formellement d’autoriser leur publication. Cet examen a donné lieu à des débats approfondis au sein de l’Office. Nous n’avons jamais eu de vrai différend ; le caractère scientifique objectif l’emporte sur les convictions personnelles. Ensuite les notes sont publiées sur le site de chacune des deux assemblées et diffusées à tous les parlementaires, transmises aux présidents et secrétariats des commissions permanentes compétentes, aux ministres concernés, aux membres du conseil scientifique, aux organismes impliqués, aux médias, et leur publication est mentionnée sur les réseaux sociaux.

Par ailleurs, chaque note est accompagnée d’une courte vidéo de présentation par son rapporteur, réalisée par les services de l’assemblée de ce dernier, et diffusée sur le site de chaque assemblée.

Enfin, les notes sont traduites en anglais pour une diffusion élargie, les sujets traités dépassant en règle générale le seul monde francophone.

M. Cédric Villani, député, premier vice-président de l’Office. – Après un an, quelles sont les perspectives ?

Nous avons un beau travail derrière nous et un beau travail devant nous. Plusieurs notes sont en cours, sur les technologies quantiques, qui viendront en appui d’une mission d’information, et une note sur les vaccinations où l’enjeu est de présenter la bonne information de façon synthétique. D’autres notes sont demandées, sur les smart cities, sur la reconnaissance faciale, les services des satellites, les enjeux thérapeutiques du cannabis, les microplastiques ou encore sur neurosciences et psychiatrie. Les sujets ne manquent pas.

La diffusion de ces notes doit être aussi large que possible. J’ai évoqué tout à l’heure à la radio l’existence de ces notes, les journalistes présents m’ont fait part de leur intérêt pour ce type de travaux, ignorant que le Parlement avait une activité sur les questions scientifiques. Nous devons aussi travailler sur la diffusion auprès de nos collègues.

La publication de la « collection » de ces 12 notes dans un document prenant la forme d’un rapport parlementaire classique va dans ce sens ; c’est pourquoi nous proposons que les noms de tous les auteurs de l’une des notes apparaissent comme co-rapporteurs de ce rapport annuel, ce qui permettra de les indexer sur les sites internet des deux assemblées.

Au-delà, ces premières notes scientifiques posent la question de la nature et de la diversité du conseil scientifique et de l’évaluation technologique que les organes institutionnels d’une démocratie moderne peuvent légitimement attendre aujourd’hui, à l’heure où les technologies sont partout présentes, y compris dans la vie quotidienne.

L’organisation du conseil scientifique aux responsables politiques est un sujet qui mériterait une réflexion approfondie, incluant des comparaisons internationales avec des pays comparables.

Nous sommes en train d’organiser un colloque parlementaire sur le thème du conseil scientifique dans les démocraties modernes, mobilisant quelques scientifiques en chef de différents pays et organisations, comme Peter Gluckman de Nouvelle-Zélande ou Rémi Quirion du Québec. Peter Gluckman, grand spécialiste de cette question, a des anecdotes fantastiques à raconter, comme sa soudaine célébrité nationale pour avoir permis, par une simple mesure, d’économiser des centaines de millions à son pays. La date actuellement envisagée est celle du jeudi 19 septembre ; pour cette manifestation qui doit être bien visible et faire parler de l’Office, je souhaiterais y inviter, outre nos membres, tous les députés et sénateurs intéressés.

M. Gérard Longuet, sénateur, président de l’Office. – La période semble bonne pour un sujet important, la rentrée politique sera déjà bien engagée.

Mme Catherine Procaccia, sénateur, vice-présidente de l’Office. – Je reviens sur la question du cannabis. Je ne suis pas sûre que ce soit un sujet pour l’Office. Les commissions des affaires sociales sont compétentes pour l’aspect santé et, au Sénat, une mission sur l’herboristerie en a récemment parlé et poursuit son travail sur ce sujet.

M. Cédric Villani, député, premier vice-président de l’Office. – Les choses évoluent à l’international. J’ai eu la surprise d’entendre il y a quelques jours mon collègue Jean-Michel Fauvergue, ancien patron du Raid, évoquer la question de la légalisation du cannabis, au regard des expériences étrangères, avec toutefois un renforcement des peines pour les mineurs.

M. Gérard Longuet, sénateur, président de l’Office. – J’ai une vraie inquiétude pour le cannabis car il me semble qu’il conforte l’endormissement intellectuel des jeunes générations. Mais l’aspect médical est intéressant pour l’Office.

M. Cédric Villani, député, premier vice-président de l’Office. – La dépénalisation et la légalisation relèvent bien sûr des commissions des lois mais l’impact médical c’est l’Office.

M. Bernard Jomier, sénateur. – La question des addictions dans notre société est importante. On assiste probablement à une hausse des comportements addictifs dans nos sociétés, même si on n’en est pas complètement sûr et qu’il n’y a pas d’accord sur le sujet. Se concentrer sur un produit entraîne certes une réduction sur ce produit, comme sur le tabac avec des politiques actives en ce sens, mais il y a des effets de basculement vers les autres produits. Au-delà des ressorts scientifiques biochimiques dans le cerveau, quels sont les ressorts scientifiques des comportements ? L’Office peut sans doute se pencher sur cette question.

M. Gérard Longuet, sénateur, président de l’Office. – Cette observation permet d’aborder la question de l’ouverture de l’Office sur les sciences sociales, en particulier la sociologie et la psychologie. Ce sont des sujets qui me passionnent. Ils éclairent la politique mais ne la remplacent pas. La politique repose sur des valeurs, des convictions, des préférences. Mais par exemple on n’a jamais fait d’étude sociologique sur les conséquences de la loi Neuwirth, non pas sur un plan moral mais sur la société. Au-delà de tout jugement, la maîtrise facile de la contraception explique que nous sommes dans une société différente.

M. Jérôme Bignon, sénateur. – Dans la note que j’ai établie sur les pertes de biodiversité, il y a un éclairage sur les sciences sociales, avec des références à la psychologie sociale et comportementale. Il est mieux de ne pas avoir d’approche punitive. Il y a quelques jours, j’ai participé à un colloque très intéressant sur le lifestyle, les modes de vie, à l’IDDRI. La connaissance des modes de vie est importante pour aider les politiques à réfléchir, par exemple par rapport à l’obésité ou d’autres comportements, c’est le cœur des sciences humaines.

M. Gérard Longuet, sénateur, président de l’Office. – L’impact des connaissances scientifiques, des découvertes, est en effet très important. La médecine accompagnait, elle ne soigne que depuis quelques dizaines d’années. L’attitude vis-à-vis de la vie et de la mort a donc beaucoup changé.

M. Bernard Jomier, sénateur. – J’en profite pour indiquer que je parraine l’organisation des Assises du deuil au Sénat. Beaucoup d’études scientifiques parlent de la mort mais elles sont méconnues. On parle de la fin de vie mais comment la société interagit avec la mort, on ne l’évoque presque pas et cela n’a pas de traduction politique.

Mme Émilie Cariou, députée. – Adepte des travaux de Michel Crozier, je milite activement pour une plus grande prise en compte de la sociologie, notamment dans les travaux de la Cour des comptes. Pour étudier pourquoi un dispositif ne fonctionne pas, il faut absolument analyser ce qui se passe sur le terrain et connecter les lois à la réalité. Par exemple pour comprendre l’échec du plan de formation professionnelle de François Hollande, toutes sortes d’aspects personnels et locaux doivent être analysés. Je suis tout à fait favorable à ce que l’on ait des études sociologiques beaucoup plus poussées.

M. Cédric Villani, député, premier vice-président de l’Office. – Cette intervention est tout à fait cohérente avec le souhait actuel de recruter un scientifique en sciences sociales pour accompagner les travaux de l’Office. Il y a d’ailleurs un mouvement actuel, peut-être plus à l’étranger qu’en France, pour ouvrir ces sciences à des sciences plus dures. Par exemple, le prix Nobel d’économie Daniel Kahneman a, dans un ouvrage devenu un bestseller, mélangé des considérations économiques assez dures avec des aspects psychologiques et montré l’impossibilité de comprendre certaines politiques économiques sans prendre en compte des considérations psychologiques.

Mme Émilie Cariou, députée. – Trente ans plus tard, les livres de Michel Crozier sont toujours d’actualité. Ces analyses pourraient aider à mieux comprendre les conflits sociaux.

M. Gérard Longuet, sénateur, président de l’Office. – Il est important de mesurer les facteurs de stabilité et de mouvement. On paye très longtemps les choix. Par exemple, le passionné du franco-allemand que je suis observe que la primogéniture mâle des capétiens aboutit à un système centralisé alors que le système impérial est décentralisé, les familles se partageant les territoires avec un système politique éclaté. Inversement, l’État nation adossé au chemin de fer a des systèmes de communication assez simples. Avec le numérique, l’aéronautique et le container, c’est un système mondial remettant en cause l’État nation qui reste néanmoins un espace de liberté. L’État est mondial même si on ne peut choisir ce que font les Chinois et que malgré tout on le subit. Donc la technique et la société sont intimement liées.

Mme Laure Darcos, sénatrice. – Je trouverai que ce serait intéressant de travailler sur le génome humain mais je ne sais pas ce que l’Office a déjà fait dans ce domaine.

M. Gérard Longuet, sénateur, président de l’Office. – C’est un thème passionnant que nous avons abordé récemment avec les Académies des sciences et de médecine.

Mme Catherine Procaccia, sénateur. – Nous avons rédigé il y a deux ans avec Jean-Yves Le Déaut, un rapport approfondi sur les nouvelles modifications du génome mais pas seulement le génome humain, également le génome végétal et le génome animal.

Mme Laure Darcos, sénatrice. – Dans le séquençage génétique, des progrès extraordinaires ont été accomplis. Une audition de Pierre Tambourin qui a créé le génopole serait intéressante. Une visite du génopole est même possible où l’industrialisation de quelques médicaments commence enfin.

Mme Catherine Procaccia, sénateur. – Sur les notes courtes, au-delà du plaisir de l’acquisition de connaissances pour les membres de l’Office, je trouve qu’on ne voit pas vraiment quel est leur impact. Les collègues parlementaires passent à côté et, pour les scientifiques, il s’agit d’une vulgarisation qui ne peut pas les intéresser. Les rapports longs ont au moins une incidence sur le monde scientifique. Il me paraît important de se poser la question de l’impact de ces notes.

M. Gérard Longuet, sénateur, président de l’Office. – Il faudrait en effet faire plus d’efforts pour que les commissions et les groupes politiques les connaissent et le président doit sans doute jouer un rôle plus actif. Par exemple, sur l’huile de palme, sujet politique et polémique, le travail d’Anne Genetet n’est pas contestable et aurait mérité d’être présenté devant plusieurs commissions.

Mme Angèle Préville, sénatrice. – La vidéo faite sur la note sur le stockage de l’électricité a été mise sur twitter et a eu un certain impact. J’ai également largement distribué cette note dans mon groupe et elle devrait y donner lieu à un débat autour des questions d’énergie.

M. Bruno Sido, sénateur. – Ces notes scientifiques sont une très bonne chose car elles multiplient le travail de l’Office mais il faudrait en parler dans les groupes et en séance où cela peut intéresser certains de nos collègues.

Mme Laure Darcos, sénatrice. – Y a-t-il des amendements qui pourraient être portés en séance au nom de l’Office ?

M. Gérard Longuet, sénateur, président de l’Office. – Les amendements doivent passer par les commissions, plutôt que par l’Office, sinon nous perdons notre indépendance.

Mme Catherine Procaccia, sénateur. – Il est important de parler des sujets de l’Office en séance publique. C’est aux membres de l’Office de faire leur promotion. Par exemple j’ai envoyé la note sur Mars à tous les membres des groupes aéronautique et espace à l’AN et au Sénat, en y associant la note de Jean-Luc Fugit sur les lanceurs spatiaux.

M. Cédric Villani, député, premier vice-président de l’Office. – Il faut certainement travailler sur l’impact, la communication, la promotion de ces notes.

L’Office autorise la publication du rapport présentant le bilan de ses douze premières notes scientifiques.

 

 

 


([1]) Quatre notes ont donné lieu à un avis de l’Académie des technologies, préparé dans un délai très court, à la demande de l’Office.

([2]) Jusqu’à 83 notes de fin et références pour une même note.

([3]) Si le texte intégral de ces notes et des références et listes de consultations qui les accompagnent est bien reproduit dans le présent document, il n’a pas pu toutefois respecter le format habituel de « 4 pages » en raison des contraintes liées à la présentation des rapports d’information parlementaires.

([4]) « Le marché des objets connectés (quelques chiffres) », Correspondant informatique et libertés du CNRS, 7 septembre 2015 : http://www.cil.cnrs.fr/CIL/spip.php?article2760

([5]) The Internet of Things: A New Path to European Prosperity, AT Kearney, janvier 2016 :  http://www.atkearney.fr/paper/-/asset_publisher/dVxv4Hz2h8bS/content/the-internet-of-things-a-new-path-to-european-prosperity/10192

([6]) Voir la note scientifique n° 6 de l’OPECST sur La rénovation énergétique des bâtiments.

([7]) Sigfox : https://www.sigfox.com/en

([8]) La Consult Station de la société française Health for Development (H4D).

([9]) Voir les tables rondes sur Les enjeux des compteurs communicants conjointement organisées, le 14 décembre 2017, par l’OPECST et la commission des affaires économiques de l’Assemblée nationale.

([10]) Ce développement reprend l’argumentaire du point II.B de la première partie du rapport d’information n° 4362 du 10 janvier 2017 sur les objets connectés présenté par Mmes Corinne Erhel et Laure de La Raudière pour la commission des affaires économiques de l’Assemblée nationale.

([11]) Les Français et les objets connectés, OpinionWay pour DistreeConnect, mars 2017 :

https://www.opinion-way.com/fr/sondage-d-opinion/sondages-publies/marketing/opinionway-pour-distreeconnect-2017-les-francais-et-les-objets-econnectes-mars-2017.html

([12]) Conférence « Les fréquences au service de l’individu », ANFR, 27 novembre 2014 :  https://www.anfr.fr/fileadmin/mediatheque/documents/Actualites/Les_actes_-_Conference_2014.pdf

([13]) « Highlights of a Forum: 3D Printing: Opportunities, Challenges and Policy Implications of Additive Manufacturing », GAO, juin 2015 : https://www.gao.gov/products/GAO-15-505SP

([14]) American Semiconductor et Air Force Research Laboratory.

([15]) New Flexible Silicon-on-Polymer Super Memory Chip Created with 3D Printing, Andrea Hunt, janvier 2018 :
https://all3dp.com/new-flexible-silicon-on-polymer-memory-chip-created-with-3d-printing/

([16]) GE is Using 3D Printing and Their New Smart Factory to Revolutionize Large-Scale Manufacturing, Scott J Grunewald, avril 2016 : https://3dprint.com/127906/ge-smart-factory/

([17]) EY’s Global 3D printing Report 2016. EY, 2016.

([18]) Local Motors et Cincinnati.

([19]) « La première voiture imprimée en 3D dévoilée au salon SEMA de Las Vegas », 3dnatives.com, novembre 2015 : https: ://www.3dnatives.com/local-motors-imprime-3d-sema-05112015/

([20]) « À Nantes, une maison construite par impression 3D », CNRS le journal, novembre 2017 :  https://lejournal.cnrs.fr/videos/a-nantes-une-maison-construite-par-impression-3d

([21]) L’Oréal et Poietis.

([22]) « L’impression 3D est-elle dangereuse pour la santé ? », Lise Loumé, février 2016 :  https://www.sciencesetavenir.fr/sante/l-impression-3d-est-elle-dangereuse-pour-la-sante_29920

([23]) Made Smarter Review, étude indépendante commandée par le gouvernement britannique, novembre 2017 : https://www.gov.uk/government/publications/made-smarter-review

([24]) « 3D Printing and the Future of the US Economy », AT Kearney, 2017:

https: ://www.atkearney.com/operations-performance-transformation/article?/a/3d-printing-and-the-future-of-the-us-economy-article

([25]) Cf. https://www.senat.fr/notice-rapport/2015/r15-380-notice.html

([26]) Ouvrages pouvant être mentionnés : A.Bispo, C.Guellier, E.Martin, J.Sapijanskas, H.Soubelet et C.Chenu, Les sols : Intégrer leur multifonctionnalité pour une gestion durable, éditions Quae, 2016, M.-C.Girard, C.Schvartz et B.Jabiol Étude des sols. Description, cartographie, utilisation, éditions Dunod, 2017, la brochure de l’ADEME Carbone organique des sols, 2016, le rapport INRA-ADEME Quelle contribution de l’agriculture française à la réduction des émissions de gaz à effet de serre ?, 2013, les rapports du GIEC, du GISSol et de l’IPCC (Cf. Climate Change: The Physical Science Basis, 2013), R.Calvet, C. Chenu S.Houot Les matières organiques des sols : rôles agronomiques et environnementaux, éditions France Agricole, 2011, M.-C.Girard, C.Walter, J.-C.Rémy, J.Berthelin et J.-L.Morel, Sols et environnement, éditions Dunod, 2011, N.Thybaud Capter et stocker le CO2 dans le sous-sol, 2007 éditions BRGM, R.Calvet, Le sol, propriétés et fonctions, 2003, éditions France Agricole et le rapport d’expertise de l’INRA Stocker du carbone dans les sols ?, 2002. Articles pouvant être cités : B.Minasny et al. « Soil carbon 4 per mille » Geoderma, n° 292, 2017, J.W. van Groenigen et al. « Sequestering Soil Organic Carbon: A Nitrogen Dilemma », Environmental Science & Technology, n° 51 (9), 2017, M.-F.Dignac, D.Derrien, P.Barré, S.Barot, L.Cécillon, C.Chenu, T.Chevallier, G.T.Freschet, P.Garnier, B.Guenet, M.Hedde « Increasing soil carbon storage: mechanisms, effects of agricultural practices and proxies. A review », Agronomic Sustainable Development, n° 37-14, 2017, A.Chabbi et al. « Aligning agriculture and climate policy », Nature Climate Change, 2017, R.Lal, « Beyond COP 21: potential and challenges of the “4 per Thousand” initiative », Journal of Soil and Water Conservation, n° 71(1), 2016, D.Derrien, M.-F.Dignac, I.Basile-Doelsch, S.Barot, L.Cécillon, C.Chenu, M.Hedde « Stocker du C dans les sols. Quels mécanismes, quelles pratiques agricoles, quels indicateurs ? » Étude et Gestion des Sols, n° 23, 2016, U.Stockmann et al. « The knowns, known unknowns and unknowns of sequestration of soil organic carbon », Agriculture, Ecosystems & Environment, n° 164, 2013, D.S.Powlson, A.P.Whitmore, K.Goulding, « Soil carbon sequestration to mitigate climate change: a critical reexamination to identify the true and the false », European Journal of Soil Science, n° 62 (1), 2011, R.Lal « Soil carbon sequestration impacts on global climate change and food security », Science, n° 304 (5677), 2004, J.Six, R. T.Conant, E.A.Paul, K.Paustian « Stabilization mechanisms of soil organic matter: implications for C-saturation of soils », Plant and soil, n° 241(2), 2002, W.H.Schlesinger, « Carbon sequestration in soils: some cautions amidst optimism », Agriculture, Ecosystems & Environment, 82(1), 2000.

([27]) Antoine-César Becquerel, Des climats et de l’influence qu’exercent les sols boisés et non boisés, éditions Firmin Didot Frères, 1853.

([28]) Les tourbières ne couvrent que 3 à 5 % des terres émergées mais contiendraient ainsi 30 % du carbone organique total de tous les sols. Leur potentiel de stockage supplémentaire est très faible. À l’inverse, le potentiel de séquestration du carbone est estimé à 1,4 Gt C/an pour les sols agricoles et à plus de 2 Gt C par an pour les autres sols, dont la forêt et l’agroforesterie pour lesquelles un tiers du carbone additionnel serait stocké dans les sols.

([29]) Parmi ces facteurs peuvent être mentionnées la composition de la matière organique et diverses conditions locales (température, humidité, aération, érosion...).

([30]) La capacité des minéraux à protéger la matière organique de la minéralisation, grâce aux liaisons organominérales, est une variable déterminante car elle affecte fortement les vitesses de minéralisation (une partie des matières organiques n’est pas biodégradée à la vitesse à laquelle sa nature chimique le permettrait).

([31]) Ces évaluations sont démontrées par les reconstitutions paléoclimatiques et l’étude des sédiments lacustres.

([32]) L’INRA et l’Ifsttar ont conduit une expertise scientifique sur l’artificialisation des sols, publiée en décembre 2017 : https://inra-dam-front-resources-cdn.brainsonic.com/ressources/afile/420284-12ef6-resource-artificialisation-des-sols-rapport-en-francais.pdf

([33]) Comme les arbres, les légumineuses présentent l’intérêt de fixer davantage l’azote atmosphérique dans les sols.

([34]) L’agriculture devra d’autant plus veiller à maîtriser ses émissions d’autres GES que les pratiques tendant à augmenter le stockage du carbone dans les sols pourraient avoir des effets indésirables au niveau des exploitations, comme des émissions de méthane et d’oxydes d’azote ou, encore, la diffusion de nitrates. Pour mémoire, l’agriculture et la forêt représentent d’ores et déjà 20 % des émissions nationales de GES : 10 % pour le protoxyde d’azote (N2O), sous l’effet des engrais azotés ; 8 % pour le méthane (CH4), lié à l’élevage, et 2 % pour le dioxyde de carbone (CO2), en raison de l’usage d’énergie fossile.

([35]) Le protocole de Kyoto prévoit de limiter les émissions de GES et, notamment, d’augmenter les puits de carbone. Les conférences des parties de Bonn, de Marrakech et de Durban ont inclus la possibilité de comptabiliser les stocks de carbone des sols. Cf. http://unfccc.int/portal_francophone/essential_background/kyoto_protocol/items/3274.php

([36]) Rapport du GIEC : Special Report on impacts of global warming of 1.5°C ou SR 1.5.

([37]) Rapport du GIEC : Special Report on climate change and oceans and the cryosphere ou SROCC.

([38]) Rapport du GIEC : Special Report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems ou SR Land.

([39]) Cf. le rapport de la FAO Unlocking the Potential of Soil Organic Carbon à la suite de la Conférence internationale sur le carbone organique du sol (21-23 Mars 2017) : http://www.fao.org/documents/card/en/c/25eaf720-94e4-4f53-8f50-cdfc2487e1f8/

([40]) Cf. le projet de règlement « LULUCF »: https://ec.europa.eu/clima/lulucf_en

([41]) Cf. le projet de directive sur la protection des sols : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=
LEGISSUM%3Al28181

([42]) Cette MAEC est facultative : seules les régions qui le souhaitent la mettront en place.

([43]) « Stratégie nationale bas carbone » 2015. Pour mémoire, l’objectif inscrit dans la loi TECV est la diminution des émissions de gaz à effet de serre à hauteur de 40 % en 2030 et de 75 % en 2050, par rapport à 1990.

([44]) Cf. l’arrêté du 26 février 2018 portant publication de la stratégie nationale de mobilisation de la biomasse https://www.ecologique-solidaire.gouv.fr/biomasse-energie

([45]) Un effort de coordination de la recherche internationale et européenne sur le stockage du carbone dans les sols est en cours autour de l’initiative CIRCASA (« Coordination of International Research Cooperation on soil CArbon Sequestration in Agriculture »). Ce projet est notamment financé par le programme « Horizon 2020 » de l’UE, avec le groupe consultatif pour la recherche agricole internationale (GCRAI ou CGIAR en anglais). De plus, la France et l’Europe ont investi dans de grandes infrastructures de recherche sur l’étude et la surveillance des sols et les échanges de gaz et d’énergie entre les sols et l’atmosphère ou les eaux dans le cadre des changements environnementaux : ICOS (Integrated Carbon Observation System https://icos-france.fr/), AnaEE (Analysis And Experimentation On Ecosystems https://www.anaee-france.fr/) et OZCAR (Observatoires de la Zone Critique, application et recherche https://icos-france.fr/), coordonnées par l’Alliance nationale de recherche pour l’environnement (AllEnvi). L’initiative « 4 pour 1 000 » devrait aussi contribuer à ces recherches : https://www.4p1000.org/fr.

([46]) Rapport CAPRESE-SOIL (CArbon PREservation and SEquestration in agricultural soils) du JRC (Joint
Research Centre) de la Commission européenne, 2013 : http://publications.jrc.ec.europa.eu/repository/
bitstream/JRC88295/caprese_final%20report-v2.pdf
.

([47]) Les monnaies virtuelles n’ont pas de cours légal, ne sont pas régulées par une banque centrale et ne sont pas délivrées par des établissements financiers. La Banque centrale européenne en distingue trois : celle des jeux vidéo (existence limitée au cadre du jeu), celle utilisant un flux unidirectionnel (elle peut être achetée avec une devise légale mais ne peut être reconvertie en monnaie légale) et, enfin, celle bénéficiant d’un flux bidirectionnel, comme les cryptomonnaies à l’instar du bitcoin (possibilité de conversion dans les deux sens).

([48]) La compréhension de l’histoire et du fonctionnement de ces technologies peut s’appuyer sur les ouvrages suivants : Don et Alex Tapscott Blockchain Revolution éditions Penguin Random House ; collectif La Blockchain décryptée – les clefs d’une révolution Blockchain France ; Jacques Favier et Adli Takkal-Bataille Bitcoin CNRS édition ; Laurent Leloup Blockchain : La révolution de la confiance éditions Eyrolles ; Stéphane Loignon Big Bang Blockchain éditions Tallandier ; collectif « Bitcoin et Blockchain : vers un nouveau paradigme de la confiance numérique ? » Revue Banque édition ; IEEE Spectrum Blockchain World, éditions IEEE ; collectif U Comprendre la blockchain éditions Uchange ; National Institute of Standards and Technology Blockchain Technology Overview U.S Department of Commerce ; Andreas Antonopoulos Mastering Bitcoin : programming the open blockchain éditions O’Reilly, disponible en français https://bitcoin.fr/wp-content/uploads/2016/01/Mastering-Bitcoin.pdf. Les sites suivants peuvent aussi être cités : www.bitcoin.orghttps://bitcoin.info www.coindesk.com https://cointelegraph.com https://blockchainfrance.net https://blockchainpartner.fr et https://journalducoin.com. TA-SWISS, fondation suisse pour l’évaluation des choix technologiques, membre du réseau EPTA, rendra prochainement une étude sur la blockchain.

([49]) Le mot-valise « cypherpunk », inventé par Jude Milhon, est formé à partir de l’anglais « cipher » ou chiffrement et « cyberpunk », lui-même issu des mots cybernétique et punk et renvoyant à des œuvres de fiction dystopiques basées sur les technologies. Tim May publie un Manifeste crypto-anarchiste en 1992 et Eric Hughes le suit en 1993 avec son Manifeste d’un Cypherpunk.

([50]) Les premières preuves de travail sont apparues dès 1992 avec les travaux de Cynthia Dwork et Moni Naor.

([51]) La réponse informatique à ces pannes revient à résoudre le problème des généraux byzantins, cf. Leslie Lamport, Robert Shostak et Marshall Pease « The Byzantine Generals Problem », ACM transactions on programming languages and systems, vol.4, n° 3,‎ juillet 1982.

([52]) Satoshi Nakamoto est le pseudonyme du collectif des fondateurs du bitcoin et de la première blockchain. Il a désigné Gavin Andresen, CTO de la Fondation Bitcoin, comme étant son successeur. Le fonctionnement de cette crypto-monnaie et de la blockchain est décrit dans un article fondateur publié sur internet en 2008 : « Bitcoin: A Peer-to-Peer Electronic Cash System » (traduction en langue française : https://docs.google.com/document/d/1tEJ4Mtc4o1gGziF37eqHG9OY4OiRyXol5GXSM3pUKy4/edit)

([53]) En 1991, Stuart Haber et W. Scott Stornetta furent les premiers à proposer une chaine de blocs permettant l’horodatage : https://link.springer.com/article/10.1007%2FBF00196791

([54]) Les arbres de hachage ont été inventés par Ralph Merkle en 1979, d’où l’expression « arbre de Merkle ». Dans le cas du bitcoin ils permettent de réaliser un hash de l’ensemble des transactions d’un bloc, qui est appelé « racine de Merkle » (Merkle Root). L’empreinte de ce bloc résulte alors du hash de cette racine combinée à l’empreinte du bloc précédent.

([55]) Alors qu’il est simple de produire un hash à partir d’un ensemble de données, il est quasi impossible de remonter à un ensemble de données à partir d’un hash connu avec les puissances de calcul disponibles aujourd’hui. Cette fonction est « à sens unique » car l’image d’une donnée se calcule facilement mais le calcul inverse est impossible en pratique. En effet, il existe 2256 hashs différents.

([56]) Les attaques « Sybil » reposent sur la multiplication de fausses identités, ce qui peut conduire certains acteurs à exercer une influence disproportionnée sur un réseau. Se prémunir de ces attaques suppose de contrôler la création de profils (validation d’une identité par courriel par exemple) ou, en l’absence d’autorité de contrôle, de produire des calculs informatiques complexes, comme c’est le cas pour le bitcoin.

([57]) On parle à son sujet d’un mécanisme de confiance, « trust machine » comme titrait la revue The Economist en octobre 2015. Ce numéro spécial blockchain permit à cette dernière de « sortir » du milieu des spécialistes, grâce à la réputation de cette revue, et de se voir conférer une crédibilité dans le grand public, notamment auprès des acteurs économiques. Le sous-titre du même numéro de cette revue, « comment la technologie derrière le Bitcoin pourrait changer le monde », évoque quant à lui la révolution potentielle induite par la blockchain.

([58]) La « preuve de travail » consiste en un calcul itératif et aléatoire, sa résolution peut donc être plus ou moins longue, mais sa difficulté peut être ajustée de telle sorte que le temps moyen de résolution soit proche d’une durée donnée. Pour le bitcoin, elle est de 10 minutes, sa difficulté étant ajustée tous les 2016 blocs, c’est-à-dire environ tous les 14 jours. La difficulté des fonctions de hachage doit progresser au même rythme que l’évolution des puissances de calcul informatique.

([59]) L’appartenance à un pool assure des revenus plus constants aux mineurs. On peut relever l’existence de trois pools d’envergure modérée en France : Big Block Data, Wizard Mining et Just Mining.

([60]) La crypto-monnaie peercoin mélange la preuve de travail et la preuve de participation, c’est-à-dire qu’elle adapte la difficulté du travail de minage en fonction de la « part » de crypto-monnaie possédée par chacun des mineurs. La crypto-monnaie nem utilise la preuve d’importance et l’ether a vocation à reposer sur une preuve d’enjeu mais la transition depuis la preuve de travail a du mal à se confirmer depuis deux ans : sa blockchain reste fondée sur la preuve de travail. Tezos est un autre projet qui vise aussi l’utilisation de la preuve d’enjeu.

([61]) Des solutions plus résistantes sont en cours de développement. Silvio Micali, titulaire du prix Turing 2012, propose ainsi le système Algorand dont le fonctionnement correct malgré la présence d’un tiers de nœuds malveillants est prouvé mathématiquement.

([62]) Les applications décentralisées, qui sont en réalité distribuées, fonctionnent grâce à des programmes inscrits sur la blockchain. Leur utilisation nécessite toutefois l’intervention d’un tiers.

([63]) Les DAO sont des organisations collectives dont les règles de fonctionnement et les procédures sont inscrites sur la blockchain.

([64]) Parmi les estimations proposées en avril 2018 pour le minage du bitcoin seul, Bloomberg indique 20 TWh/an, Digiconomist, 60 TWh/an et Morgan Stanley, 140 TWh/an. Une estimation minimale peut être réalisée à partir des performances de la machine la plus efficace du marché, Antminer S9 (13,5*1012 hashs/s pour une consommation de 1 323 W) et du nombre global de calculs de hashs (28*1018 hashs/s) pour le bitcoin le 4 avril 2018. Cela représente 2 millions d’appareils, soit une consommation de 2,7 GW, c’est-à-dire 24 TWh par an.

([65]) Le Bitcoin Energy Consumption Index indique ainsi une augmentation de 30 % de la consommation énergétique au cours du mois de mars 2018. Pour suivre l’estimation du Digiconomist au jour le jour : https://digiconomist.net/bitcoin-energy-consumption. Karl J. O’Dwyer et David Malone ont montré, dans une étude publiée en 2014 : http://karlodwyer.com/publications/pdf/bitcoin_KJOD_2014.pdf, que la consommation du réseau destiné au bitcoin se situait alors dans une fourchette entre 0,1 et 10 GW de puissance électrique et qu’elle serait probablement de l’ordre de grandeur de la consommation d’un pays comme l’Irlande, soit environ 3 GW.

([66]) Le protocole de Nakamoto prévoit en effet que la récompense en bitcoin attribuée à chaque mineur validant un bloc soit divisée par deux tous les 210 000 blocs, c’est-à-dire tous les 4 ans. Elle était ainsi de 50 bitcoins jusqu’en 2012, puis de 25 jusqu’en 2016, elle est aujourd’hui de 12,5 et passera à 6,25 en 2020. Elle est versée 100 blocs après validation.

([67]) La Chine présente, selon les calculs du GIEC, l’intensité carbone la plus élevée du monde, avec 1 050 grammes de CO2 par kWh d’électricité produite.

([68]) Cette initiative commune de recherche réunit l’INRIA, Télécom ParisSud, Télécom ParisTech et SystemX.

([69]) Livre blanc Hyperloop Alpha : http://www.spacex.com/sites/spacex/files/hyperloop_alpha-20130812.pdf

([70]) En anglais, « hyper-loop » signifie « super-boucle ». Depuis, le nom « Hyperloop » a été déposé comme marque commerciale par plusieurs entreprises. Dans cette note, il est proposé de dénommer génériquement cette technologie « transport à hyper-grande vitesse sous vide », avec l’acronyme « THV ». Ce dernier acronyme est également une marque déposée en France et en Europe, pour des produits pharmaceutiques et médicaux (cf. base de données des marques de l’INPI), mais cela n’interdit pas de l’utiliser dans un autre contexte.

([71]) Environ 1 200 km/h aux conditions environnementales habituelles.

([72]) Sachant que les « TGV du futur » ne prévoient pas d’augmentation de la vitesse (320 km/h en moyenne commerciale), mais seulement une baisse de 30 % des coûts d’exploitation, l’utilisation d’une énergie verte (pile à combustible, hydrogène), une meilleure qualité de service, une autonomie et une numérisation.

([73]) En 1860, dans Paris au XXIe siècle, avec un « Railway » (sic) circulant sur un viaduc au-dessus des rues parisiennes avec tube, air comprimé et force électromagnétique, ou en 1889 dans Au XXIXe siècle ou La journée d’un journaliste américain en 2889, avec des « aérotrain » (sic) circulant à 1 500 km/h dans des tubes pneumatiques : « S’ils se souvenaient du défectueux fonctionnement des paquebots et des chemins de fer, […], quel prix les voyageurs n’attacheraient-ils pas aux aérotrains, et surtout à ces tubes pneumatiques, jetés à travers les océans, et dans lesquels on les transporte avec une vitesse de 1 500 km/h ? »

([74]) Hyperloop Pod Competition : http://www.spacex.com/hyperloop

([75]) Virgin Hyperloop One : https://hyperloop-one.com/

([76]) Hyperloop Transportation Technology : http://www.hyperloop.global/

([77]) TransPod : https://transpod.com/fr/

([78]) Coût d’infrastructure d’environ 100 millions de dollars le kilomètre.

([79]) Avec projection d’une réalité reconstituée dans des fenêtres-écrans.

([80]) Le meilleur moyen de dissiper l’énergie est… d’en produire le moins possible.

([81]) L’acceptation de rayons de courbure horizontaux (tournants) et verticaux (montée et descentes) plus petits diminuerait simultanément le coût de construction et la vitesse de circulation, ce qui entraînerait alors sur l’ensemble du parcours une vitesse moyenne inférieure à 1 200 km/h.

([82]) Compatibles avec un passager « debout avec un café à la main ». Des scénarios de secours prévoient une décélération d’urgence de 1 g, voire plusieurs g dans les cas les plus extrêmes. Pour mémoire, une accélération de 1 g correspond à l’accélération de la pesanteur à la surface de la terre, hors frottements de l’air, et vaut 9,81 m/s2.

([83]) Exposition universelle de Dubaï prévue en 2020.

([84]) Cité par l’économiste des transports Yves Crozet : « Appraisal methodologies and the limits to speed gains », Science Direct, World Conference on Transport Research, Shanghai, 10-15 juillet 2016.

([85]) Pour lui : « Aujourd’hui, les gens travaillent une bonne partie de la journée seulement pour
gagner l’argent nécessaire pour aller travailler » (Énergie et équité, Ivan Illich, 1973 : http://www.worldcarfree.net/resources/freesources/EnergyandEquityFrench.rtf.

([86]) En avril 2018, Virgin Hyperloop One et Dubai Ports World, le 3e exploitant portuaire mondial, ont lancé DP World Cargospeed, une marque internationale de systèmes de chargement optimisés pour l’Hyperloop, afin de faciliter la livraison de marchandises palettisées (https://hyperloop-one.com/dp-world-and-virgin-hyperloop-one-introduce-dp-world-cargospeed ; https://www.dropbox.com/s/7e15ph4xl36prrb/3.jpg?dl=0).

([87]) Audition de M. Yves Crozet, professeur à l’université de Lyon.

 

([88]) Ministère de la transition écologique et solidaire, Suivi de la Stratégie nationale bas-carbone (2018)

https://www.ecologique-solidaire.gouv.fr/energie-dans-batiments

([89]) Ministère de l’écologie, du développement durable et de l’énergie, Stratégie nationale bas-carbone (2015).

([90]) Cour des comptes, L’efficience des dépenses fiscales relatives au développement durable (2016).

([91]) ADEME, Étude de l’Observatoire permanent de l’amélioration énergétique du logement, campagne 2015-2016.

([92]) Ministère de l’action et des comptes publics, PLF 2017, Bleu budgétaire de la mission Égalité des territoires et logement.

([93]) E. Mangematin, G. Pandraud, D. Roux, Mesures rapides de l’efficacité énergétique des bâtiments, Comptes rendus de physique, Académie des sciences, volume 13, numéro 4 (2012).

([94]) F. Alzetto, D. Farmer, R. Fitton et al., Comparison of whole house heat loss test methods under controlled conditions in six distinct retrofit scenarios, Energy and Buildings”, vol. 168 (2018), pages 35-41.

([95]) Article n° 21 bis A, adopté en première lecture du projet de loi ELAN (portant évolution du logement, de l’aménagement et du numérique).

([96]) C. Liddell pour l’OMS, Séminaire Epée 2009, citant Healy, 2003 & Howden-Chapman, 2008.

([97]) J.-Y. Le Déaut, député, et M. Deneux, sénateur, Les freins réglementaires à l’innovation en matière d’économies d’énergie dans le bâtiment : le besoin d’une thérapie de choc, OPECST (2014), pages 74-76 http://www.assemblee-nationale.fr/14/pdf/rap-off/i2113.pdf

([98]) Voir la note scientifique n° 1 de l’OPECST sur Les objets connectés.

([99]) M. Molina-Solana, M. Ros, M. D. Ruiz et al., Data science for building energy management: A review, Renewable and Sustainable Energy Reviews, vol. 70 (2017), pages 598-609.

([100]) N. Koseleva, G. Ropaite, Big Data in Building Energy Efficiency: Understanding of Big
Data and Main Challenges, Procedia Engineering, vol. 172 (2017), pages 544-549

https://reader.elsevier.com/reader/sd/6503B285120955E15ED236
C222FC838CEC1B2F39961C7F512DBD862C6C53F7710F8D81C4875195AB46AC0DA5531FC3F3

([101]) Y. Fan, X. Xia, « A multi-objective optimization model for energy-efficiency building envelope retrofitting plan with rooftop PV system installation and maintenance », Applied Energy, vol. 189 (2017), Pages 327‑335.

([102]) M. Khaddaj, I. Srour, « Using BIM to Retrofit Existing Buildings », Procedia Engineering, vol. 145 (2016), pages 1526-1533

https://ac.els-cdn.com/S1877705816301990/1-s2.0-S1877705816301990-main.pdf?_tid=a162db20-5103-4950-a0f8-17293669385a&acdnat=1530285319_81f2c38b3c3cc9e0efbe8a0e3c70c254

([103]) U. Berardi, « The benefits of using aerogel-enhanced systems in building retrofits »,
Energy Procedia, volume 134 (2017), pages 626-635 https://reader.elsevier.com/reader/sd/
A46149276A8C82890A572BFD3B1F1FE2308C86FBDC4BC5ABBDA6898E7673FC8FDCCEBCEA9B5879B6954BB1C0C284A5BE

([104]) K. Ghazi Wakilia, Th. Stahl, E. Heiduk et al., « High Performance Aerogel Containing Plaster for Historic Buildings with Structured Façades », Energy Procedia Volume 78 (2015), Pages 949-954 https://ac.els-cdn.com/S1876610215017592/1-s2.0-S1876610215017592-main.pdf?_tid=bd3c0248-da65-47e3-afb1-ffe6a1d8be51&acdnat=1530282762_ea95428b27a5500f30c77452e8c869ad

([105]) C. Mandin, A. Boerstra, E. Le Ponner, « Qualité de l’air intérieur et confort dans les espaces de bureaux, et relations avec la performance au travail », Environnement risques & santé, vol. 16 (2017), pages 565-574.

([106]) ADEME, GrDF, GRTgaz, Mix de gaz 100 % renouvelable en 2050 ?, janvier 2018 http://www.ademe.fr/mix-gaz-100-renouvelable-2050

([107]) B. Shen, V. Baxter et K. Rice et al., « High Performance Cold Climate Heat Pump (CCHP) – Final Report », The Oak Ridge National Laboratory (ORNL) Report (2016).

 

([108])  S. D’Oca, T. Hong, J. Langevin, The human dimensions of energy use in buildings: A review, Renewable and Sustainable Energy Reviews, vol. 81, Part 1 (2018), pages 731-742.

([109]) À plusieurs reprises (2012, 2014 et 2016), des parlementaires français ont proposé l’instauration d’une taxe spécifique à l’huile de palme. Ainsi l’amendement n° 367 au projet de loi « Reconquête de la biodiversité, de la nature et des paysages », déposé au Sénat le 14 janvier 2016 par Mme Archimbaud, M. Gattolin, Mme Blandin, MM. Dantec, Labbé et les membres du groupe écologiste.  https://www.senat.fr/enseance/2014-2015/608/Amdt_367.html Très récemment, le 16 novembre dernier, l’Assemblée nationale a adopté, en première lecture du projet de loi de finances pour 2019, un amendement II-2267 à son article 60, tendant, à compter de 2021, à exclure les carburants incorporant
de l’huile de palme de la catégorie des biocarburants et donc de l’avantage fiscal dont ces derniers bénéficient pour la taxe générale sur les activités polluantes (TGAP). http://www.assemblee-nationale.fr/15/amendements/1255C/AN/2267.asp

([110]) https://www.wwf.fr/sites/default/files/doc-2018-11/20181107_Rapport_Synthe%CC%80se_De%CC%81forestation
Importe%CC%81e_France_WWF-min.pdf

Ce récent rapport de WWF (World wide fund for nature) sur l’utilisation du soja, de l’huile de palme, du cacao, du bœuf et cuir, du bois, de la pâte à papier et de l’hévéa conclut que, sur une empreinte de la France liée aux importations des sept matières premières agricoles et forestières importées identifiées de 14,8 millions d’hectares (soit plus d’un quart de la superficie de la France métropolitaine et la moitié de la surface agricole française), l’huile de palme représente 2,8 %, soit 12 fois moins que le soja qui en représente le tiers. Ce rapport recommande aux pouvoirs publics : d’interdire les biocarburants de première génération entraînant d’importants changements d’affectation des sols indirects (CASI) ; d’encourager les achats publics zéro déforestation ; de cesser la stigmatisation de l’huile de palme tout en étant exigeant sur les modes de production. Pour cela, il conviendrait de nouer des partenariats techniques et diplomatiques forts avec les pays producteurs.

([111]) https://www.ecologique-solidaire.gouv.fr/france-veut-mettre-fin-dici-2030-deforestation-causee-limportation-produits-non-durables-0

([112]) Elaeis guineensis : élais de Guinée. Le palmier à huile est originaire de l’Afrique tropicale. Cf. Maley J., Bahuchet S. & al, (1999), L’expansion du palmier à huile (Elaeis guineensis) en Afrique centrale au cours des trois derniers millénaires : nouvelles données et interprétations [archive]- ecologie-humaine.eu ; PDF, 20pp 

([113]) Meijaard E., Garcia-Ulloa J., Sheil D., Carlson K.M., Wich S.A., Juffe-Bignoli D. et Brooks T.M. (2018). Palmiers à huile et biodiversité. Analyse de la situation par le Groupe de travail de l’UICN sur les palmiers à huile Gland, Suisse : UICN. p.9.

([114]) Fonds français alimentation et santé, L’huile de palme : aspects nutritionnels, sociaux et environnementaux http://alimentation-sante.org/wp-content/uploads/2012/11/Presentation_Hd-P_1112.pdf  

([115]) Palm oil report Germany, Searching for alternatives, wwf, 2016. https://mobil.wwf.de/fileadmin/fm-wwf/Publikationen-PDF/WWF_Report_Palm_Oil_-_Searching_for_Alternatives.pdf

([116]) Données de l’Agence internationale de l’énergie https://www.iea.org/tcep/transport/biofuels/

([117]) MTep : million de tonnes équivalent pétrole.

([118]) Rapport pour la Commission européenne : Impact environnemental de la consommation d’huile de palme 2018.

([119]) Ciqual, Table de composition nutritionnelle de l’Anses :

     https://ciqual.anses.fr/#/aliments/16150/huile-de-palme-raffinee

([120]) Certaines méta-analyses tendent toutefois à nuancer ce risque, par ex. Meta-analysis of prospective cohort studies evaluating the association of saturated fat with cardiovascular disease, Siri-Tarino P.W., Sun Q., Hu F.B., Krauss R.M. , The American journal of clinical nutrition 91 (3), 535-546, 2010.

([121]) Anses, rapport d’expertise collective Actualisation des apports nutritionnels conseillés pour les acides gras, mai 2011. p. 252. https://www.anses.fr/fr/system/files/NUT2006sa0359Ra.pdf

([122]) Un acide gras essentiel est un acide gras dont le corps a besoin mais qu’il ne sait pas synthétiser.

([123]) L’ANSES estime que le besoin physiologique en acides gras est de 30 % de l’apport énergétique total avec un maximum de 12 % d’acides gras saturés mais seulement de 8 % pour trois acides gras saturés, en l’espèce : acides palmitique, myristique et laurique, qui sont athérogènes en cas d’excès.

ANSES - rapport d’expertise collective Actualisation des apports nutritionnels conseillés pour les acides gras, mai 2011. p. 252. https://www.anses.fr/fr/system/files/NUT2006sa0359Ra.pdf

([124]) Les comédons sont des accumulations d’un excès de sébum qui bouche les pores de la peau, l’empêchant de respirer.

([125]) Sont redevables de la taxe prévue à l’article 266 quindecies du code des douanes, i.e. le supplément de taxe générale sur les activités polluantes relatif aux carburants (TGAP-b), les personnes qui mettent à la consommation, en France, des essences qui n’atteignent pas un taux d’incorporation cible en biocarburants actuellement de 7,5 % pour la filière essence et de 7,7 % dans la filière gazole. La différenciation des droits d’accise pour tenir compte de l’incorporation de biocarburants est autorisée par les textes européens depuis 2002. Des mécanismes analogues existent dans de nombreux autres pays de l’Union, mais sans harmonisation. http://www.douane.gouv.fr/informations/bulletins-officiels-des-douanes?da=17-036

Ce dispositif a été contesté, s’agissant de l’utilisation de l’huile de palme dans les biocarburants, lors de la discussion de la première partie du projet de loi de finances pour 2019 à l’Assemblée nationale, le 16 octobre 2018. Puis, le 16 novembre dernier, l’Assemblée nationale a adopté, en première lecture du projet de loi de finances pour 2019, un amendement tendant, à compter de 2021, à exclure les carburants incorporant de l’huile de palme de la catégorie des biocarburants et donc de l’avantage fiscal dont ces derniers bénéficient pour la taxe générale sur les activités polluantes (TGAP) (cf. note (1) page 59).

Par ailleurs, les EMAG sont utilisés en mélange dans le gazole commercial de manière banalisée à hauteur maximale de 8 % en volume. Les EMAG peuvent également être incorporés à hauteur de 30 % en volume pour une utilisation hors commerce en « flotte captive ». Source Ministère de la Transition écologique et solidaire https://www.ecologique-solidaire.gouv.fr/biocarburants .

([126]) Voir la thèse de Berna Hamad, qui expose l’ensemble du procédé : Transestérification des huiles végétales par l’éthanol en conditions douces par catalyses hétérogènes acide et basique Université Claude Bernard - Lyon I, 2009 https://tel.archives-ouvertes.fr/tel-00675661/document

([127]) Données Ministère de la Transition écologique et solidaire ; https://www.ecologique-solidaire.gouv.fr/biocarburants#e1

([128]) Annexe V de la directive 2009/28/CE du Parlement européen et du conseil du 23 avril 2009 https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=OJ:L:2009:140:FULL&from=FR

([129]) Rapport pour la Commission européenne. Impact environnemental de la consommation d’huile de palme 2018.

([130]) Basri Wahid M., Abdullah S., Henson I.E., « Oil palm – Achievements and potential » Plant Production Science 8, 288-297 (2005).

([131]) Ong Ch et al, « Comparison of palm oil, jatropha curcas and callophylum inophyllum for biodiesel : a review ». Renewable and sustainable energies review, 2011.

([132]) Meijaard E. et al. TM Editeurs (2018) Palmiers à huile et biodiversité. Analyse de la situation par le groupe de travail de l’UICN sur les palmiers à huile. Gland, Suisse : UICN.xv + 128p.

([133]) A. Ismail, M. Noor Mamat « The Optimal Age of Oil Palm Replanting », Oil palm industry economic journal (vol 2(1)/2002). http://palmoilis.mpob.gov.my/publications/OPIEJ/opiejv2n1-2.pdf

([134]) Basri Wahid M., Abdullah S., Henson I.E., « Oil palm – Achievements and potential ». Plant Production Science 8, 288-297 (2005).

([135]) Alain Rival, « Palmier à huile : défis et questions pour la recherche ». OCL (20) n° 83 mai-juin 2013, p. 136 https://www.ocl-journal.org/articles/ocl/full_html/2013/03/ocl2013203p133/ocl2013203p133.html

([136]) Oil World Database et rapport CGEDD/CGAAER (7 % vs 39 % en 2011) – cf. liste des personnes consultées.

([137]) Durand-Gasselin T., Cochard B., Amblard P., De Franqueville H. « Un regard sur quarante ans d’amélioration génétique du palmier à huile (Elaeis guineensis) et son impact sur la filière ». Le sélectionneur français 2002 ; 53 : 133-47. Cité par Alain Rival, Ibid. p. 10.

([138]) Données USDA https://apps.fas.usda.gov/psdonline/circulars/oilseeds.pdf

([139]) Source Theoilpalm.org

([140]) Ibidem - Meijaard E. et al. TM Editeurs (2018) Palmiers à huile et biodiversité. Analyse de la situation par le groupe de travail de l’UICN sur les palmiers à huile. Gland, Suisse : UICN.xv + 128p.

([141]) Les données les plus fiables et reconnues par tous les acteurs concernant les volumes de
production d’huile de palme sont ceux de Oil World, repris ici par l’European Palm Oil Alliance https://www.palmoilandfood.eu/fr/la-production-d%E2%80%99huile-de-palme

([142]) Données Palm Oil analytics http://www.palmoilanalytics.com/files/epos-final-59.pdf

([143]) Wudan Y. « A makeover for the world’s most hated crop ». Nature 2017, 543 : 306-308.

([144]) Meijaard E. et al. TM Editeurs (2018) Palmiers à huile et biodiversité. Analyse de la situation par le groupe de travail de l’UICN sur les palmiers à huile. Gland, Suisse : UICN.xv + 128p.

([145]) Remarque générale n°6 de la proposition de résolution du Parlement européen - 20 mars 2017 sur l’huile de palme et la déforestation des forêts tropicales humides (2016/2222(INI) - Commission de l’environnement, de la santé publique et de la sécurité alimentaire Rapporteure : Kateřina Konečná

http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-%2f%2fEP%2f%2fTEXT%2bREPORT%2bA8-2017-0066%2b0%2bDOC%2bXML%2bV0%2f%2fFR&language=FR

([146]) Rival A., Levang P. La palme des controverses, Quae Editions, 2013, 38-49.

([147]) Basri Wahid M., Abdullah S., Henson I.E., « Oil palm – Achievements and potential ». Plant Production Science 8, 288-297 (2005).

([148]) Petit-paitel A, Toxicité de l’herbicide paraquat : mécanismes moléculaires impliqués dans la dégénérescence neuronale parkinsonienne et potentiel thérapeutique d’une molécule anti-inflammatoire https://bvs.anses.fr/sites/default/files/BVS-mg-025-Petit-Paitel.pdf

([149]) A Rival, P Levang. La palme des controverses, Quae Editions, 2013, 38-49.

([150]) Meijaard E. et al. TM Editeurs (2018) Palmiers à huile et biodiversité. Analyse de la situation par le groupe de travail de l’UICN sur les palmiers à huile. Gland, Suisse : UICN.xv + 128p.

([151]) Malins C., 2012. « Comments of the ICCT on EPA Palm Oil Pathway » NODA. Washington, D.C. L’auteur s’appuie dans cette étude sur les données de l’USDA sur la période 1970-2010 https://www.theicct.org/sites/default/files/ICCT_EPA-palm-NODA-comments_Apr2012.pdf

([152]) Malins C. (2017). Driving deforestation : the impact of expanding palm oil demand through biofuel policy. Cerulogu, London.

([153]) Les terrains boisés sont classiquement classifiés selon leur état : forêts primaires (qui n’ont jamais été modifiées par l’homme); forêts secondaires (forêts primaires modifiées mais qui se sont reconstituées plus ou moins partiellement) ; sols tourbeux (zone d’accumulation de biomasse en milieu anaérobie) ou forêts dégradées (dont une partie de la masse arborée a disparu, sans que cela affecte la surface totale). Chaque institution (gouvernements, FAO, ONG…) qui se donne pour projet d’évaluer l’utilisation des surfaces tend à se doter de ses propres critères de classification.

([154]) Liste des Forest resources assessment (FRA) par pays : http://www.fao.org/forest-resources-assessment/current-assessment/country-reports/en

([155]) Ces limites tiennent notamment à l’incomplétude des données produites par certains États, qui affecte la crédibilité des estimations globales. De plus, les phénomènes naturels (incendies, ouragans) ne sont pas pris en compte car les données requises par la FAO ne concernent que les changements délibérés d’affectation des sols.

([156]) Site de GFW : https://www.globalforestwatch.org/map 

([157]) Cette méthode distingue difficilement la nature des forêts du fait de l’aspect aérien analogue. De plus, l’observation par satellite ne peut rendre compte du caractère temporaire ou permanent du déboisement d’une surface. En outre, une photographie sans information historique du changement d’utilisation des terres peut conduire à des relations de cause à effet non prouvées. Le remplacement d’une forêt par une plantation de palmiers ou d’hévéa ne signifie pas nécessairement que cette forêt a été coupée pour permettre l’installation d’une plantation. Les forêts sont le plus souvent coupées pour l’exploitation du bois, puis remplacées (ou non) par des exploitations agricoles.

([158]) Voir, par exemple, l’observation de données sur l’île de Kalimantan et la modélisation de l’évolution de la couverture forestière selon différents scenarii : Sharma SK, Baral H, Pacheco P et Laumonier Y, « Assessing impacts on ecosystem services under various plausible palm oil expansion scenarios in Central Kalimantan, Indonesia », Cifor brief info n°176, Mai 2017 ou une étude portant sur l’île de Bornéo : D. L. A. Gaveau DLA et al., « Rapid conversions and avoided deforestation: examining four decades of industrial plantation expansion in Borneo ». Scientific Reports 6, 32017 (2016)https://doi.org/10.1038/srep32017.

([159]) Rival A., Levang P. La palme des controverses. Palmier à huile et enjeux de développement. Quae Editions. 2013.

([160]) Rival A. op. cit.

([161]) Austin K.G., Mosnier A., Pirker J., McCallum I., Fritz S., & Kasibhatla P.S. (2017). « Shifting patterns of oil palm driven deforestation in Indonesia and implications for zero-deforestation commitments ». Land Use Policy, 41-48.

([162]) Fitzherbert E.B. et al. « How will oil palm expansion affect biodiversity » Trends Ecol Evol, 2008, 10 : 538-45.

([163]) VijayV., Pimm S.L., Jenkiins C.N., Smith S.J. « The impacts of oil palm on recent deforestation and biodiversity loss ». PloS One 11/7 (2017), 1-19.

([164]) Ces deux approches s’appuient également sur des valeurs différentes du taux de boisement forestier d’une unité d’observation (0,5 hectare) requis pour qualifier l’aire d’espace forestier : respectivement 10 % et 30 %. De plus, elles se heurtent toutes deux au fait que les causes de la déforestation varient significativement d’une région à l’autre.

([165]) Soit 0,04 % par an en moyenne.

([166]) UICN, Ibid. p. 20.

([167]) Carlson KM, et al. « Committed carbon emissions, deforestation, and community land conversion from oil palm plantation expansion in West Kalimantan », Indonesia. PNAS 2012; 109 : 7559–7564.

([168]) Chiffres issus du rapport de l’ONG Transport & Environment, fondé sur les statistiques de Fediol (organisation professionnelle européenne des producteurs d’huile végétale) « Cars and trucks burn almost half of palm oil used in Europe », mai 2016. p. 2. https://urlz.fr/865W Chiffres Fediol : https://www.fediol.eu/data/1521206152Stat%20oils%202016%20total%20only.pdf

([169]) Aubert M.H., Bénézit J.J., Champanhet F., Talon M.R. Durabilité de l’huile de palme et des autres huiles végétales. Rapport CGEDD et CGAAER, décembre 2016. http://agriculture.gouv.fr/durabilite-de-lhuile-de-palme-et-des-autres-huiles-vegetales

([170]) Laborde D. (IFPRI), « Assessing the land use change consequences of the European biofuel policy », octobre 2011. http://www.ifpri.org/publication/assessing-land-use-change-consequences-european-biofuel-policies

([171])  Cf. note (4) page 65.

([172]) La définition de la notion de « fort impact CASI » incombe à la Commission européenne, dont les recommandations en la matière sont attendues le 1er février 2019 après la publication d’un rapport en janvier 2019.

(6) Voir le texte n° 2016/0382(COD) adopté en première lecture par le Parlement européen en janvier 2018 pour modifier la directive 2009/28/CE du Parlement européen et du Conseil du 23 avril 2009 relative à la promotion de l’utilisation de l’énergie produite à partir de sources renouvelables https://oeilm.secure.europarl.europa.eu/oeil-mobile/summary/1519347?t=d&l=en, et surtout l’accord enregistré par le Conseil le 27 juin 2018 http://www.europarl.europa.eu/RegData/commissions/itre/lcag/2018/06-27/ITRE_LA(2018)005598_EN.pdf, non traduit en français, qui a donné lieu à un vote en session plénière au Parlement européen le 13 novembre 2018, avec adoption d’une proposition de
résolution législative sur la proposition de directive du Parlement européen et du Conseil
relative à la promotion de l’utilisation de l’énergie produite à partir de
sources renouvelables (refonte) (COM(2016)0767 – C8-0500/2016 – 2016/0382(COD)) :

http://www.europarl.europa.eu/sides/getDoc.do?type=TA&reference=P8-TA-2018-0444&format=XML&language=FR.

([174]) Cour des Comptes. Rapport public annuel 2016. Les biocarburants : des résultats en progrès, des adaptations nécessaires, février 2016.

([175]) Manik Y. et Halog A. « A meta-analytic review of life cycle assessment and flow analyses of palm biodiesel ». Integr Environ Assess Manag. 2012. 9(1), 134-41.

([176]) UICN, Ibid. p. 34.

([177]) Noël J.M., « Résidus d’huilerie de palme : déchets par le passé... ressource d’aujourd’hui ? » 2006. Palmier à huile, cocotier. CIRAD-BIOS. Montpellier : CIRAD, 2 p.

([178]) Rapport dit “Globiom”, réalisé à la demande de la Commission européenne - Valin H et al, « The land use change impact of biofuels consumed in the EU. Quantification of area and greenhouse gas impacts ». 27 août 2015 https://ec.europa.eu/energy/sites/ener/files/documents/Final%20Report_GLOBIOM_publication.pdf

([179]) Whitmore TC. Introduction to tropical rain forests Oxford, 2003.

([180]) Brook B.W., Sodhi N.S., Ng PKL. « Catastrophic extinctions follow deforestation in Singapore » Nature, 424 (2003), 420-23.

([181]) Wearn O.R., Carbone C., Rowcliffe J.M., Bernard H., Ewers R.M., « Grain-dependent responses of mammalian diversity to land use and the implications for conservation set-aside » Ecological Applications 26, 1409-1420 (2016). https://doi.org/10.1890/15-1363.

([182]) Rapport de la commission européenne sur l’impact environnemental de l’huile de palme. 2018, p. 55.

([183]) Oil palm and biodiversity. A situation analysis of the IUCN Oil Palm Task Force. 2018 Gland, Switzerland.

([184]) Rival A., Levang P., La palme des controverses, Palmier à huile et enjeux de développement, Quae Editions 2013, 38-39.

([185]) Robinson B.E., Holland M.B., Naughton-Treves L., Does secure land tenure save forests? A meta-analysis of the relationship between land tenure and tropical deforestation https://doi.org/10.1016/j.gloenvcha.2013.05.012

([186]) Sept catégories d’acteurs y participent : fabricants de produits de consommation (802 membres, 46 %), usiniers et commerçants d’huile (586 membres, 34 %), planteurs (186 membres, 10 %), détaillants (83 membres, 5 %), ONG environnementales et de conservation de la nature (38 membres, 2 %) banques (14 membres, 1 %), ONG sociales et de développement (12 membres, 1 %), sur 1721 acteurs au total (calculs OPECST à partir des données du site internet de RSPO).

([187]) D’après le site www.rspo.org.

([188]) Le label RSPO-next constitue le niveau d’exigence le plus élevé : traçabilité complète, absence de déforestation, exclusion de l’exploitation de palmeraie sur des tourbières, de culture sur brûlis, etc., avec une vérification de ces engagements par un acteur tiers, indépendant. https://www.rspo.org/certification/rspo-next

([189]) https://www.greenpeace.org/international/story/18478/forest-destroying-products-and-producers-times-up/

([190]) En 2015, le WWF a publié un outil d’évaluation des certifications (CAT – Certification Assessment Tool) destiné à aider à analyser les forces et faiblesses des systèmes de certification.

([191]) Des certifications gouvernementales existent en Indonésie (ISPO) et en Malaisie (MSPO), qui visent à faire appliquer pas à pas les règlementations nationales pour tous les producteurs. Elles présentent des critères moins stricts que RSPO mais ont un caractère obligatoire. ISPO, élaboré par la direction générale des plantations du ministère indonésien de l’agriculture et mis en œuvre au niveau interministériel, est obligatoire pour les producteurs principaux depuis 2014, et le sera progressivement pour les exploitations de surfaces moyennes et plus petites. Le schéma de certification MSPO est pour sa part conduit par une instance spécifique, le comité malaisien de l’huile de palme, depuis 2015 et ne revêt pas de caractère obligatoire.

Voir à ce titre le rapport de Marie-Hélène Aubert, Jean-Jacques Bénézit, François Champanhet et Michel‑Régis Talon, « Rapport du CGEDD et du CGAAER relatif à la durabilité de l’huile de palme et des autres huiles végétales », décembre 2016. http://agriculture.gouv.fr/durabilite-de-lhuile-de-palme-et-des-autres-huiles-vegetales

([192]) Qui doit répondre à des niveaux de certification reconnus par l’Union européenne, notamment l’ISCC - International Sustainability & Carbon Certification. Première norme pluripartite, établie en réponse à la directive « RED « créée en Allemagne, elle certifie 300 producteurs d’huile de palme. Son niveau d’exigence est équivalent à « Mass Balance » de RSPO.

([193]) D’autres dispositifs se rapprochent de tels labels : POIG (Palm Oil Innovation Group) est un label promouvant l’innovation, constitué d’un réseau de firmes et d’ONG, et exigeant de ses membres qu’ils soient certifiés à 50 % RSPO. Ecocert, pour sa part, certifie des produits à base d’huile de palme depuis 2010. Organisme indépendant français, reconnu par l’État pour la certification, il n’inclut pas les parties prenantes et concerne essentiellement le « bio ».

([194]) Sept ouvrages en français sur Mars peuvent être mentionnés : François Forget, François Costard
et Philippe Lognonné, La planète Mars : histoire d’un autre monde, 2014 ; Gilles Sparrow,
Mars, planète rouge, 2016 ; Francis Rocard, Planète rouge : dernières nouvelles de Mars, 2006 ; Charles Frankel, L’homme sur Mars, science ou fiction, 2007 ; Jacques Villain,
Irons-nous vraiment un jour sur Mars ?, 2011 ; et du même auteur, À la conquête de l’Espace :
de Spoutnik à l’homme sur Mars, 2007. En anglais peuvent être mentionnés : les rapports de la NASA, National Space Exploration Campaign, 2018 et Journey to Mars, Pioneering Next Steps in Space Exploration, 2015 (consultables aux liens suivants : https://www.nasa.gov/sites/default/files/atoms/
files/nationalspaceexplorationcampaign.pdf
et https://www.nasa.gov/press-release/nasa-releases-plan-outlining-next-steps-in-the-journey-to-mars) ; le plan spatial stratégique et le rapport conjoint du Conseil américain de la recherche et des académies des sciences, de la médecine et de l’ingénierie, Visions and Voyages for Planetary Science 2013-2022, 2011 et Pathways to Exploration : Rationales and Approaches for a U.S. Program of Human Space Exploration, 2014 (consultables aux liens suivants : https://solarsystem.nasa.gov/science-goals/about/ et https://www.nap.edu/catalog/18801/pathways-to-exploration-rationales-and-approaches-for-a-us-program) ; Buzz Aldrin, Mission to Mars : My Vision for Space Exploration, 2013 ; Frédéric Taylor, The Scientific Exploration of Mars, 2010 ; et Edik Seedhouse, Martian Outpost, 2009.

([195]) Giovanni Schiaparelli, La Vie sur la planète Mars, 1877, consultable ici : http://www.gutenberg.
org/ebooks/7781

([196]) Cf. l’ouvrage de George Basalla, Civilized life in the Universe : scientists on intelligent extraterrestrials, 2006.

([197]) Camille Flammarion, La Planète Mars et ses conditions d’habitabilité, 1892, repris dans le recueil en deux tomes Centralisation et discussion de toutes les observations faites sur Mars. Dès 1862, il développait une théorie de la vie martienne dans son ouvrage, La Pluralité des mondes habités.

([198]) Percival Lowell dénombre jusqu’à 400 canaux, creusés selon lui pour irriguer les zones situées de part et d’autre de l’équateur, avec l’eau contenue dans les calottes polaires, dans un contexte de changement climatique entraînant la désertification, cf. Mars, 1895, Mars and its Canals, 1906 et Mars as the abode of life, 1908.

([199]) La littérature est particulièrement riche : Herbert George Wells, La Guerre des mondes, Ray Bradbury, Chroniques martiennes, Leigh Brackett, Le Livre de Mars, Kim Stanley Robinson, La Trilogie de Mars, ou encore Andy Weir, Seul sur Mars. Jacques Garin en a dressé un bilan partiel dans Mars et la science-fiction et dans La littérature française martienne de 1865 à 1958 (consultables ici : http://gotomars.free.fr/). Pour le cinéma, les films suivants peuvent être rappelés : Seul sur Mars, Mission to Mars, The Last Days on Mars, Planète rouge, Destination Mars, Stranded, Ghosts of Mars, Les Chroniques de Mars, John Carter, Mars Attacks! ou encore Total recall. Mars a même inspiré le premier mouvement de l’œuvre musicale de Gustav Holst Les Planètes, intitulé Mars, celui qui apporte la guerre.

([200]) Le biologiste Alfred Russel Wallace, dans Is Mars habitable? A Critical Examination of Professor Lowell’s Book « Mars and Its Canals » with an Alternative Explanation, 1907, a conclu que Mars n’était ni habitée, ni habitable, après avoir estimé les températures et la pression sur Mars et démontré l’absence de vapeur d’eau, en utilisant des analyses spectroscopiques.

([201]) Comme l’explique Jacques Villain dans Irons-nous vraiment un jour sur Mars ? « toutes les planètes du système solaire ne sont pas accessibles à l’homme. Et tout d’abord les grosses planètes Jupiter, Saturne, Uranus et Neptune. Elles sont gazeuses. Il est donc impossible de s’y poser, et la gravité à leur surface empêcherait tout homme de s’y mouvoir et même d’y survivre. Restent alors les planètes telluriques telles que Mercure, Vénus et Mars. Les deux premières sont également interdites : il y fait trop chaud (plusieurs centaines de degrés), et pour Vénus qui possède une atmosphère, la pression au sol est quatre-vingt-dix fois supérieure à celle régnant sur Terre. Demeurent donc Mars mais aussi certains satellites de planètes tels que la Lune, Deimos et Phobos, satellites de Mars, Europe, satellite de Jupiter, Encelade et Titan, satellites de Saturne ».

([202]) Les autres gaz sont l’argon (2 %), l’azote (1,9 %), puis l’oxygène (0,14 %), le monoxyde de carbone (0,06 %), la vapeur d’eau (0,03 %) et le monoxyde d’azote (0,013 %), d’autres gaz étant présents sous la forme de traces. De très faibles quantités de méthane y auraient été décelées, or ce gaz ayant une durée de vie de 340 ans avant sa destruction par les photons ultraviolets, une source interne encore incertaine expliquerait sa présence.

([203]) Ces trois époques géologiques résultent de deux méthodes différentes : une comparaison de la cratérisation (conduisant à distinguer Noachien, Hespérien et Amazonien) ou la minéralogie couplée à la stratigraphie (identifiant un âge des argiles ou Phyllosien, un âge sulfurique dit Theiikien et un âge ferrique ou Sidérikien).

([204]) La sonde européenne Mars Express a, par exemple, identifié en juillet 2018 un lac sous-terrain d’eau liquide de 20 km de large, à 1,5 km sous la surface de Mars, près du pôle sud, cf. https://www.futura-sciences.com/sciences/actualites/astronomie-mars-lac-eau-liquide-decouvert-sous-surface-19652/

([205]) Cf. l’article paru dans Science, en juin 2018 : « Organic matter preserved in 3-billion-year-old mudstones at Gale crater, Mars » (Vol. 360, Issue 6393), http://science.sciencemag.org/content/360/6393/1096.full

([206]) Cf. l’article paru dans Nature, en juillet 2017 : « Perchlorates on Mars enhance the bacteriocidal effects of UV light » (article n° 4662), https://www.nature.com/articles/s41598-017-04910-3

([207]) Cf. l’article paru dans le n° 34 de Geophysical Research Letters : « Modelling the surface and subsurface Martian radiation environment : Implications for astrobiology » ainsi que le communiqué de la NASA, (http://marsrovers.jpl.nasa.gov/newsroom/pressreleases/20080215a.html) montrent que la vie sur Mars ne pourrait résider que dans le sous-sol.

([208]) Cf. Irons-nous vraiment un jour sur Mars ?, op.cit.

([209]) Le président Trump a annoncé le retour des États-Unis sur la lune et l’exploration habitée de Mars et signé le 11 décembre 2017, la Space Policy Directive 1, qui modifie le document U.S. National Space Policy, publié en 2010, en remplaçant le paragraphe « By 2025, begin crewed missions beyond the moon, including sending humans to an asteroid. by the mid-2030s, send humans to orbit Mars and return them safely to Earth » par les mots suivants : « Beginning with missions beyond low-Earth orbit, the United States will lead the return of humans to the Moon for long-term exploration and utilization, followed by human missions to Mars and other destinations ». Après avoir interrompu le programme spatial de son prédécesseur, l’ancien président Obama avait declaré vouloir envoyer des humains sur Mars dans la décennie 2030. « By the mid-2030, I believe we can send humans to orbit Mars and return them safely to Earth. And a landing on Mars will follow. And I expect to be around to see it. », cf. sa tribune publiée en octobre 2016 https://edition.cnn.com/2016/10/11/opinions/america-will-take-giant-leap-to-mars-barack-obama/index.html

([210]) Le rover recherchera des indices de vie passée ou présente avec une carotte de 2 mètres maximum de profondeur, étudiera le sous-sol martien, la présence d’eau et les gaz présents à l’état de trace dans l’atmosphère martienne, et caractérisera l’environnement à la surface, en vue de préparer des explorations humaines. Cfhttp://exploration.esa.int/mars/45082-rover-scientific-objectives/

([211]) Avec un budget spatial d’un milliard de dollars par an, l’Inde a réussi en 2014 à placer une sonde en orbite autour de Mars, pour un coût de 74 millions de dollars environ.

([212]) Cf. pour les vols suborbitaux New Shepard de Blue Origin et Spaceships 1 et 2 de Virgin Galactic. Seuls sept touristes de l’espace ont effectué, à l’aide du vaisseau spatial Soyouz, des vols orbitaux vers la Station spatiale internationale, organisés par Space Adventures, pour un prix de 20 à 35 millions de dollars.

([213]) Depuis 2013, Elon Musk envisage un transporteur pour la colonisation martienne (Mars Colonial Transporter) et a évoqué à l’automne 2017, une première mission habitée en 2024, ce qui est peu réaliste.

([214]) Avec ses 4 000 membres et 6 000 soutiens, elle agit comme un lobby tout en poursuivant depuis les années 1990, un projet de mission humaine à bas coût, appelé Mars Direct.

([215]CfTechnological Requirements for Terraforming Mars http://www.users.globalnet.co.uk/~mfogg
/zubrin.htm

([216]) Cette durée varie selon le choix du scénario d’opposition ou de celui de conjonction. Les fenêtres de lancement se reproduisent tous les 26 mois, sur des périodes courtes. La trajectoire permettant de limiter le transport, le stockage de matériel et la consommation de carburant consiste à lancer le vaisseau sur une orbite elliptique dite de Hohmann qui tangente l’orbite terrienne au départ et l’orbite martienne à son arrivée. Le scénario de conjonction conduit à une durée de 910 jours (180 jours de trajet aller, 550 jours sur le sol martien et 180 jours de voyage retour) tandis que le scénario d’opposition réduit la mission à 640 jours (180 jours de trajet aller, 30 jours sur place et 430 jours de voyage retour). Cfhttp://tpeexplorationmars.wixsite.com/mars/blank-kgjgk

([217]) À l’image de l’expérience Mars500 conduite en 2011 avec trois Russes, un Italien, un Chinois et un Français. Cfhttp://mars500.imbp.ru/en/about.html

([218]) Cf. le rapport n° 114 (2012-2013) de Mme Catherine Procaccia et M. Bruno Sido sur Les enjeux et perspectives de la politique spatiale européenne, https://www.senat.fr/rap/r12-114/r12-114_mono.html

([219]) ArianeGroup (ex Airbus Safran Launchers) : https://www.ariane.group/fr/lancement-spatial/heritage-ariane/

([220]) Le président Donald Trump a annoncé en juin 2018 que le DoD mettrait en place une sixième branche des forces armées (« US Department of the Space Force ») d’ici 2020 :               https://dod.defense.gov/News/Article/Article/1598071/space-force-to-become-sixth-branch-of-armed-forces/ 

([221]) Voir le discours de Mme Florence Parly, ministre des armées, CNES, 7 septembre 2018 :  https://www.defense.gouv.fr/english/salle-de-presse/discours/discours-de-florence-parly/discours-de-florence-parly-ministre-des-armees-au-au-cnes-le-vendredi-07-septembre-2018

([222]) Cependant, le pays participe au financement du centre spatial guyanais et commence aujourd’hui à investir dans un « spatioport » et dans des projets de microlanceurs lancés depuis l’Écosse.

([223]) The « next trillion dollar economy ».

([224]) Morgan Stanley, Research, 7 novembre 2018, « Space : investing in the final frontier »: https://www.morganstanley.com/ideas/investing-in-space Bank of America – Merrill Lynch évoque même un marché qui pourrait atteindre 2 700 milliards à l’horizon 2045 !   Bank of America Merrill Lynch, Equity, 30 octobre 2017, « To infinity and beyond – Global space Primer », 101 pages : https://go.
guidants.com/q/db/a2/1e1ffc185c1d44bd.pdf

([225]) Space Transportation System (STS), communément dénommée US space shuttle.

([226]) En outre, les deux accidents de Challenger (1986) et Columbia (2003), avec perte d’équipage, ont fait douter de sa fiabilité.

([227]) Space Exploration Technologies Corp. : https://www.spacex.com/

([228]) En 2018, au 30 octobre, 9 des 17 missions exécutées par SpaceX utilisaient des lanceurs Falcon 9 ayant déjà volé, ce qui représente 53 % des lancements. Il s’agit d’une augmentation significative par rapport à 2017 où 5 missions seulement avaient utilisé des fusées Falcon 9 ayant déjà volé. (Source : SpaceX).

([229]) Il s’agit encore d’un objectif, toujours selon SpaceX, le reconditionnement du dernier Falcon 9 lancé le 8 octobre 2018 a été réalisé en deux mois. Pour la première fois le 3 décembre 2018, SpaceX a réussi une troisième utilisation d’un premier étage de lanceur. Il est à noter que, lors de ce lancement, SpaceX a tenté sans succès de récupérer la coiffe du lanceur sur un bateau équipé de grands filets. Les coûts de remise en état ne sont pas révélés par SpaceX.

([230]) Voir les rapports de l’Office :

– L’Europe spatiale : quels changements de paradigme ? (n° 32053), présenté le 25 novembre 2015 par M. Jean-Yves Le Déaut, Mme Catherine Procaccia et M. Bruno Sido ;

– « Europe spatiale : l’heure des choix » (n° 348), présenté le 7 novembre 2012 par Mme Catherine Procaccia et M. Bruno Sido.

([231]) Les différents types de moteurs spatiaux :

 

Propulsion
solide

Propulsion
liquide

Type
d’ergol

Solide

Deux types
d’ergols

Un type d’ergol

Propriété

Stockable à température ambiante

Cryogénique

Semi-cryogénique

Stockable à température ambiante

Stockable à température ambiante

Composition

Ammonium Perchlorate + Poudre d’alu.
+ Liant

Hydrogène liquide (– 250°C)
+ Oxygène liquide (– 180°C)

Kérosène
(temp. ambiante) + Oxygène liquide
(– 180°C)

Méthane
(– 160°C)
+ Oxygène liquide
(– 180°C)

Dérivés de l’hydrazine avec du peroxyde d’azote liquide

Hydrazine

Compatible
/ réutilisation

non

oui

oui

oui

oui

oui

(Source : ArianeGroup)

([232]) Algorithmes de vol, aérodynamisme, précision d’atterrissage…

([233]) Ainsi, en 2018, Falcon 9 de SpaceX a-t-il mis en orbite le satellite luxembourgeois Govsat-1, dédié aux communications duales ultrasécurisées (OPEX, échanges entre sites institutionnels et de défense, renseignement, surveillance et reconnaissance), et le satellite militaire espagnol Paz d’observation de la Terre. À la suite d’un contrat signé en 2013 avec SpaceX, c’est le même Falcon 9 qui devrait lancer cette année et l’année prochaine les trois satellites SARah de reconnaissance radar utilisés par l’armée allemande, en remplacement de la constellation des cinq satellites SAR-Lupe.

([234]) SpaceX fait valoir que les lancements gouvernementaux américains ont des exigences de mission et des complexités propres aux contrats gouvernementaux, ce qui rend difficile la comparaison des coûts de lancement entre le gouvernement américain et les utilisateurs finaux commerciaux.

([235]) Voir le document d’Eurospace The growing US ambition for space dominance, a new challenge for European independence in space, octobre 2018 : https://eurospace.org/eurospace-position-paper-the-growing-us-ambition-for-space-dominance-a-new-challenge-for-european-independence-in-space/

Le président Donald Trump a fait de l’hégémonie américaine dans l’espace une stratégie militaire, civile et commerciale contre tout concurrent, au premier rang desquels la Chine. L’armée américaine entend conserver son avancée technologique en concentrant ses moyens (DARPA, Strategic Capabilities Office, etc.) sur les capacités de rupture (« disruptive »). Est inclus dans cette stratégie un soutien public massif et multiforme aux entreprises spatiales privées américaines, la baisse des coûts induite devant bénéficier aux lancements institutionnels américains et mettre en difficulté les concurrents non américains.

Le Conseil national de l’espace (National Space Council), restauré en juin 2017 et présidé par le vice-président Mike Pence, joue aujourd’hui un rôle clé dans cette nouvelle dynamique visant en particulier à « réformer des politiques spatiales dépassées ». Trois directives de politique spatiale (Space Policy Directives) ont depuis été promulguées, avec notamment en mai 2018 la SPD-2, portant sur l’allégement des réglementations et le soutien du développement du secteur privé.

([236]) Centre national d’études spatiales.

([237]) Boeing et Lockheed Martin : https://www.ulalaunch.com/

([238]) Sur les 85 lancements orbitaux réussis en 2017, les États-Unis en ont réalisés 29 (34 %), la Russie 20 (24 %), la Chine 17 (20 %), l’Europe 9 (11 %), le Japon 6 (7 %) et l’Inde 4 (5 %). Avec Falcon 9, SpaceX a réalisé 18 des 29 lancements américains. Les autres lancements américains l’ont été par United Launchers alliance (Atlas et Delta) et Orbital (Minotaur et Antares). En Europe, ArianeGroup a réalisé 6 lancements avec Ariane 5 (dont cinq doubles avec deux satellites lancés) et 3 lancements avec Vega (dont un double). Sur les dix premiers mois de 2018, la Chine a réalisé 30 lancements orbitaux (35,7 %), les États-Unis 26 (30,9 %), la Russie 11 (13 %), l’Europe 6 (7,1 %), le Japon 6 (7,1 %), l’Inde 4 (4,8 %) et la Nouvelle-Zélande 1 (1,2 %). Source : Air & Cosmos n° 2618, 23 novembre 2018.

([239]) Un ensemble de politiques et de lois américaines exigent que les satellites gouvernementaux soient lancés par les fournisseurs de lancement américains. Plusieurs lois et déclarations de politique américaine exigent que les véhicules de lancement des satellites du gouvernement américain soient fabriqués aux États-Unis. Le titre 51 du code sur les programmes spatiaux nationaux et commerciaux exige que « le gouvernement fédéral [achète] des services de transport spatial auprès de fournisseurs commerciaux américains ». Il définit ensuite un fournisseur commercial américain comme étant celui qui « appartient à plus de 50 % à des ressortissants américains ». En outre, le titre 41 de ce code, sections 8301 à 8305 (Buy American Act) prévoit que, pour qu’un article soit considéré comme fabriqué aux États-Unis, au moins 50 % de tous ses composants, en coûts, doivent être fabriqués aux États-Unis.

En outre, de nombreuses règles déterminent quels lanceurs peuvent être utilisés par les programmes gouvernementaux américains. La Politique nationale des transports spatiaux (NSTP) énonce comme objectif : « Les charges utiles du gouvernement des États-Unis doivent être lancées sur des véhicules fabriqués aux États-Unis, à moins qu’une exemption ne soit coordonnée. » L’instruction du DoD 3100.12, « Soutien spatial » (space support), dispose que « les charges utiles du DoD doivent être lancées sur des lanceurs fabriqués aux États-Unis » et que « les services de lancement spatiaux commerciaux américains doivent être utilisés dans toute la mesure possible... conformément à la [NSPT] et à [la loi de 1988 sur l’espace commercial]. »

« La plupart des accords de lancement conclus par le gouvernement sont également soumis au règlement fédéral sur les acquisitions. Celui-ci dispose que le lieu de fabrication d’un article est « principalement aux États-Unis… si le prix total anticipé des produits finis offerts fabriqués aux États-Unis dépasse le prix total prévu des produits finis offerts fabriqués en dehors des États-Unis ». La partie 52.225-18 de ce règlement sur les acquisitions définit également le « lieu de fabrication » comme « le lieu où un produit fini est assemblé à partir de ses composants ».

« Launching U.S. government payloads on foreign soil: regulatory and policy analysis », Barbara M. Braun et Eleni M. Sims, Aerospace, Center for space policy and strategy, juillet 2018. https://aerospace.org/
sites/default/files/2018-08/Braun-Sims_ForeignLaunch_08062018.pdf

Il faut rappeler que les commandes publiques spatiales s’élèvent à environ 50 milliards de dollars par an aux États-Unis : agence spatiale américaine (NASA) 20 milliards, ministère de la défense (DoD) 20 milliards connus publiquement et environ 10 autres milliards pour les programmes secret-défense (selon les données comparées publiées tous les ans par la Federal Aviation Administration – FAA). En plus des subventions, les soutiens américains peuvent prendre la forme de prix de lancement supérieurs au prix du marché, de contrats de service, de mise à disposition de la base de lancement fédérale ou de transfert de compétences techniques par transfert de personnels.

([240]) Selon l’ESA, le poids relatif des lancements institutionnels intérieurs par rapport aux lancements commerciaux ou extérieurs des différents pays ou ensemble de pays est le suivant :

Europe

Russie, Ukraine, Belarus

États-Unis

Chine

Japon

Inde

34

62

73

59

15

17

 

([241]) Audition de M. Jean-Yves Le Gall, président du CNES.

([242]) Notamment l’Académie des technologies, M. Jean-Jacques Dordain, conseiller auprès du président du CNES, ancien directeur général de l’ESA, M. Alain Charmeau, PDG d’ArianeGroup, ou M. Stéphane Israël, PDG d’Arianespace.

([243]) La nouvelle industrie spatiale.

([244]) Jeff Bezos injecterait en effet 1 milliard de dollars par an de sa fortune personnelle dans la société.

([245]) En ayant réalisé pour la première fois en 2018 plus de lancements orbitaux annuels que les États-Unis, la Chine pourrait à terme devenir la principale puissance spatiale, avec le plus grand marché au monde, les plus grandes capacités de financement et de technologie.

([246]) En précisant qu’ils n’ont pas encore de capacité de lancement.

([247]) Source : audition de M. Jean-Yves Le Gall, président du CNES.

([248]) Selon la Satellite Industry Association (SIA), à partir des statistiques produites par Bryce Space and Technology, l’activité économique spatiale mondiale représentait en 2017 348 milliards d’euros, dont 37 % pour les services sur satellites (télécommunications, observation de la Terre, sciences et sécurité nationale), 34 % pour les équipements au sol, 23 % pour les services non satellitaires (essentiellement les budgets spatiaux publics), 4,5 % pour la construction de satellites et seulement 1,3 % pour les lanceurs : https://brycetech.com/downloads/SIA_SSIR_2018.pdf

([249]) Selon l’Académie des technologies (contribution à l’Office), « Si l’activité industrielle concernant les lanceurs reste limitée, elle protège une autre activité à caractère industriel, celle de la conception, de la fabrication et de la commercialisation des satellites commerciaux, mais aussi d’autres activités de service […], qui représentent vingt à trente fois celle du service des lancements. »

([250]) Airbus Defence and Space avait révélé, en juin 2015, travailler sur le projet ADELINE (ADvanced Expendable Launcher with INnovative engine Economy). Le bas du premier étage de la fusée, une fois détaché de son réservoir et de l’étage supérieur, aurait été équipé d’ailettes et d’hélices qui lui permettaient, moteur de la fusée éteint, de revenir sur Terre en volant comme un drone. Reviendraient ainsi 80 % de la partie du premier étage la plus coûteuse : moteur, baie de propulsion et équipements d’avionique liés. Airbus espérait ainsi pouvoir exploiter le même moteur 10 ou 20 fois. Il voulait également récupérer l’étage supérieur, transformable en remorqueur de l’espace. Prévu pour être opérationnel en 2030, le projet ADELINE n’a jamais été financé par les pays de l’ESA. https://www.agences-spatiales.fr/fusee-reutilisable-adeline-airbus/

([251]) Par rapport au moteur actuel Vulcain.

([252]) L’Agence spatiale européenne (ESA), qui regroupe 22 pays, dont 20 États membres de l’Union européenne, mais avec la Norvège et la Suisse, est une organisation intergouvernementale.

([253]) L’Agence spatiale allemande (Deutsche Zentrum für Luft- und Raumfahrt).

([254]) L’Agence spatiale japonaise (Japan Aerospace eXploration Agency).

([255]) Financement supérieur à 200 millions d’euros selon le CNES.

([256]) Hors contribution de ces deux agences à l’ESA, qui représentent respectivement 963 et 927 millions d’euros.

([257]) Contre 5 milliards et 12 milliards d’euros lors des deux précédentes programmations.

([258]) Ces montants nécessiterait une analyse fine, distinguant entre les budgets alloués par la NASA et les équipements déjà disponibles pour maîtriser cette technologie.

([259]) Estimation du CNES.

([260]https://presse.cnes.fr/sites/default/files/migration/automne/pPressReleases/2014_12/r9488_81_cp171-2014_-_mou_cnes-esa-asl.pdf

([261]) Audition de M. Daniel Neuenschwander, directeur du transport spatial de l’ESA.

([262]) L’ESA fonctionne sur la base d’un « retour géographique », ce qui signifie qu’elle investit dans chaque État membre, sous forme de contrats attribués à son industrie pour la réalisation d’activités spatiales, un montant équivalant à peu près à la contribution de ce pays.

([263]) La signature, le 25 octobre 2018, par les institutions européennes d’une déclaration commune sur l’exploitation institutionnelle d’Ariane 6 et Vega C, constitue à cet égard un premier pas :               https://www.esa.int/Our_Activities/Space_Transportation/European_institutions_sign_Joint_Statement_on_European_Institutional_Exploitation_of_Ariane_6_and_Vega-C

Les signataires en sont l’ESA, le CNES français, le Centre allemand pour l’aéronautique et l’astronautique (DLR), l’Agence spatiale italienne (ASI), le Centre pour le développement technologique industriel espagnol (CDTI) et la Confédération suisse. À travers cette déclaration, cinq pays signataires et l’ESA expriment leur soutien total à l’industrie européenne des lanceurs et à Ariane 6 et Vega C. Ils reconnaissent l’avantage de regrouper leur demande institutionnelle de services de lancement afin de garantir à l’Europe un accès à l’espace indépendant, rentable, abordable et fiable. Pour les signataires, les capacités spatiales revêtent une importance stratégique pour la réalisation d’objectifs politiques civils, commerciaux, de sécurité et de défense. L’espace est un moyen de relever les défis de la société et de stimuler la création d’emplois et la croissance. L’autonomie d’action de l’Europe dans l’espace dépend de son autonomie dans l’accès à l’espace. L’Europe doit donc conserver une position de leader dans ce secteur.

([264]) L’hypothèse d’une extinction.

(2) Kolbert E., La sixième extinction. Comment l’homme détruit la vie. Paris : Vuibert, 2015, 349 pages.

(3) Hallam R et Wignall R., Mass extinctions and their Aftermath, Oxford : Oxford University Press, 1997, 320 pages.

(4) Au sein de la biodiversité, on trouve de façon non exhaustive, les champignons, les bactéries, les vertébrés, les invertébrés, mais aussi les humains et les protistes, organismes vivants unicellulaires. Concernant les protistes voir Carradec Q., Pelletier E., Da Silva C., Alberti A., Seeleuthner Y., Blanc-Mathieu R., Lima-Mendez G., Rocha F., Tirichine L., Labadie K., Kirilovsky A., Bertrand A., Engelen S., Madoui M.-A., Méheust R., Poulain J., Romac S., Richter D.J., Yoshikawa G., Dimier C., Kandels-Lewis S., Picheral M., Searson S., « A global ocean atlas of eukaryotic genes », Nature communication, 9 (373), 25 janvier 2018.

(1) Vocabulaire de l’environnement, « Résilience », JORF n° 0087 du 12 avril 2009 page 6438 : « capacité […] à résister et à survivre à des altérations ou à des perturbations affectant sa structure ou son fonctionnement, et à trouver à terme, un nouvel équilibre ».

(2) Dumas Ch. « La biodiversité végétale : une richesse à connaître et à protéger » La biodiversité, Lettre de l’Académie des Sciences, n° 31, p. 10.

(3) Carey J., Are we in the « Anthropocene » ?, Proceedings of the National Academy of Sciences of the United States of America, vol. 113, n° 15, 12 avril 2016, p. 3908–3909.

(4) Bœuf G. (Préface), #Sobériser. Innover pour un monde durable, Paris : Presses des Mines, FNEP, 2018, p. 15 à 17.

Bœuf G. et Le Bras H., « 10 milliards d’humains et alors ? », Idées Le Monde, 9 décembre 2017, p. 2-3.

Bœuf G. (dir), L’homme peut-il accepter ses limites ?, Versailles : éditions Quae, 2017, 198 pages.

(1) Ceballos G., Ehrlich P. R. et Dirzo R., « Biological annihilation via the ongoing sixth mass extinction signaled by vertebrate population losses and declines », Proceedings of the National Academy of Sciences of the United States of America, vol 114, n° 30, 10 juillet 2017, p. 6089 à 6096.

(2) Sartori A. F., Fontaine B. et Olivier G., Anthropogenic Extinction of Pacific Land snails : A case Study of Rurutu, French Polynesia, with description of eight new species of Endodontids, April 2013.

(3) Les écosystèmes ont notamment fait l’objet, par région, d’évaluations menées par des experts au sein de l’IPBES. L’IPBES, plateforme intergouvernementale sur la biodiversité et les services éco-systémiques, instituée en avril 2012, est un organisme ouvert à tout membre des Nations-Unies dont la fonction première est dédiée à l’amélioration des liens entre connaissances et prise de décision, notamment par l’élaboration d’outils et de méthodes d’appui aux décisions qui prennent en considération toutes les connaissances scientifiques. Pour cela, l’IPBES s’appuie tant sur la recherche scientifique, la société civile et les gouvernements, que sur les acteurs locaux et autochtones.

Un programme de travail 2014 – 2018 a été élaboré avec quatre objectifs : Renforcer les capacités et les connaissances ; Faire des évaluations régionales et mondiales des zones Afrique, Amérique et Caraïbes, Asie-Pacifique et Europe et Asie centrale ; Élaborer des évaluations thématiques et méthodologiques ; Faire connaître et évaluer les activités.

(4) Van der Plas et al., « Biotic homogenization can decrease landscape-scale forest multifunctionality », Proceedings of the National Academy of Sciences of the United States of America, 16 mars 2016.

Bœuf G., « La biodiversité, marine et continentale », L’adaptation au changement climatique, une question de société, Paris : CNRS éditions, 2017, p. 141-148.

(5) Le corail est un animal qui appartient au même embranchement que les méduses et les anémones. Il vit en symbiose avec des micro-algues unicellulaires appelées zooxanthelles. Grâce à ces dernières, les coraux sont dotés d’une couleur vive et y trouvent 90 à 95 % de l’énergie, sous forme de sucres lents, nécessaire à leur survie. En échange, les coraux apportent à ces micro-algues des nutriments et un abri. Sous l’effet d’un stress, tel que l’augmentation durable de la température de l’eau au-dessus de 31°C, les zooxanthelles sont expulsées, faisant perdre aux coraux cette couleur vive. Sans cette micro-algue, ils peuvent survivre deux à trois semaines, et si le réchauffement s’arrête, alors leur mortalité sera mineure. Ce blanchissement n’entraîne pas immédiatement leur mort car une régénérescence peut être constatée après une période de stress. Toutefois, ces changements thermiques modifient profondément la résilience du milieu et l’équilibre des récifs coralliens. Voir Adjeroud M., Chancerelle Y. et Lison de Loma T. « Vulnérabilité et résilience des récifs face aux perturbations » Le courrier de la nature, 2010 vol. 252, p. 20–25.

(1) http://www.iucnredlist.org/ page donnant accès à la liste rouge élaborée par l’UICN.

(2) Avec le système de la Liste rouge de l’UICN, chaque espèce ou sous-espèce est classée dans l’une des onze catégories suivantes :

• Éteinte au niveau mondial (EX), Éteinte à l’état sauvage (EW) ou Disparue au niveau régional (RE),

• En danger critique (CR), En danger (EN) ou Vulnérable (VU) : regroupant les espèces menacées de disparition,

• Quasi menacée (NT): espèce proche du seuil des espèces menacées ou qui pourrait être menacée si des mesures de conservation spécifiques n’étaient pas prises,

• Préoccupation mineure (LC): espèce pour laquelle le risque de disparition est faible,

• Données insuffisantes (DD) : espèce pour laquelle l’évaluation n’a pas pu être réalisée faute de données suffisantes,

• Non applicable (NA) : espèce non soumise à évaluation car introduite dans la période récente (en général après 1500) ou présente dans la région considérée uniquement de manière occasionnelle ou marginale,

• Non évaluée (NE) : espèce n’ayant pas encore été confrontée aux critères de l’UICN.

(3) Commission de sauvegarde des espèces de l’UICN, Catégories et critères de la liste rouge de l’UICN, Version 3.1, deuxième édition, 2012, 40 pages.

(1) http://uicn.fr/wp-content/uploads/2018/07/resultats-synthetiques-liste-rouge-france.pdf Tableau de synthèse des listes rouges élaborées au niveau national, en France, par le Comité français et le Muséum national d’histoire naturelle.

(2) Regnier C., Achaz G., Lambert A., Cowie R. H., Bouchet P. et Fontaine B., « Mass extinction in poorly known taxa », Proceedings of the National Academy of Sciences of the United States of America, vol. 12, n° 25, 23 juin 2015, p. 7761–7766.

(3) Cowlishaw G., « Predicting the Pattern of Decline of African Primate Diversity : an Extinction Debt from Historical Deforestation », Conservation Biology, 24 septembre 2008.

(4) Il faut prendre en compte trois critères : la variation de la pente et de l’origine de la courbe, la variation de la définition et de l’évaluation de la déforestation ainsi que la variation de l’évaluation du nombre d’espèces sur Terre et dans les forêts tropicales. Bien que cet instrument repose sur une méthode probabiliste, les taux d’extinction calculés sont toujours 1 000 à 10 000 fois supérieurs au taux d’extinction naturel.

(5) Regnier C., Achaz G., Lambert A., Cowie R. H., Bouchet P. et Fontaine B., « Mass extinction in poorly known taxa », Proceedings of the National Academy of Sciences of the United States of America, vol. 12, n° 25, 23 juin 2015, p. 7761–7766.

(1) Villani C. Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, Mission parlementaire confiée par le Premier ministre E. Philippe à Monsieur le Député C. Villani, mathématicien et député de l’Essonne, mars 2018, Paris : La Documentation Française, p. 126-127.

(1) Deux causes notamment font l’objet d’une évaluation par un groupe d’experts de l’IPBES ; le premier groupe travaille sur le cadrage de l’évaluation de la dégradation et de la restauration des terres, le second sur l’évaluation des espèces exotiques envahissantes ; leurs conclusions sont attendues en 2019.

(2) Stanton R. L., Morrissey C. A. et Clark R. G., « Analysis of trends and agricultural drivers of farmland bird declines in North America: A review », Agriculture, Ecosystems and Environnement, 254 (2018), p. 244 à 254.

(3) Administration Centrale des Terres australes et antarctiques françaises, « La stratégie globale de conservation du patrimoine naturel des TAAF ». Au sein des milieux océaniques, c’est généralement l’individu le plus résistant de l’espèce invasive qui survit aux trajets difficiles. Au sein des Terres australes et antarctiques françaises, les espèces invasives telles que le chat, les lapins ou encore les pissenlits provoquent une augmentation de l’érosion de la biodiversité et un déséquilibre des écosystèmes.

(4) Steffen W., Rockström J., Richardson K., Lenton T. M., Folke C., Liverman D., Summerhayes C. P., Barnosky A. D., Cornell S. E., Crucifix M., Donges J. F., Fetzer I., Lade S. J., Scheffer M., Winkelmann M., and Schellnhuber H. J., « Trajectories of the Earth system in the Anthropocène », Proceedings of the National Academy of Sciences of the United States of America, 0027-8424, 1er août 2018.

Les zones minimum d’oxygène – ZOM – sont caractérisées par une faible teneur en oxygène et sont situées dans les régions tropicales, dans le Pacifique-Est et dans le Nord de l’Océan Indien. Au sein de l’océan, l’oxygène est contenu dans les eaux les plus froides et non les plus chaudes. Or, le réchauffement climatique modifie la pénétration de l’oxygène dans les eaux profondes océaniques. En effet, la pénétration est ralentie et la superficie de la zone de mélange entre les eaux profondes et les eaux de surface est réduite. Il y a alors un appauvrissement des zones intermédiaires car les zones de mélange et de brassage voient leur superficie diminuée, créant des zones minimum d’oxygène. Le réchauffement des eaux de surface a donc pour conséquence immédiate d’empêcher l’oxygène d’atteindre les profondeurs de l’océan. Par ailleurs, en profondeur, la consommation d’oxygène par la respiration des organismes et la décomposition de la matière organique n’est pas compensée par la photosynthèse, ce qui aggrave l’appauvrissement en oxygène des eaux intermédiaires et profondes. La photosynthèse est la capacité qu’ont les végétaux de consommer le gaz carbonique de l’air et d’en assimiler les composés carbonés en libérant de l’oxygène. Or, la photosynthèse demande de l’énergie lumineuse, et donc ne peut s’effectuer que dans les eaux de surface.

(5) O’Neil B. C., Dalton M., Fuchs R., Jiang L., Pachauri S., and Zigova K., « Global demographic trends and future carbon emissions », Proceedings of the National Academy of Sciences of the United States of America, Vol 107, n° 41, 12 octobre 2010, p. 17521–17526.

Bœuf G. et Le Bras H., « 10 milliards d’humains et alors ? », Idées Le Monde, 9 décembre 2017, p. 2-3.

Guillou M. et Matheron G., Neuf milliards d’hommes à nourrir. Un défi pour demain, Paris : François Bourin, 2011, 420 pages.

(1) Kahn, P.H. 2002. Children’s affiliations with nature: structure, development, and the problem of environmental generational amnesia. In P. H. Kahn & S. R. Kellert (Eds.), Children and nature: psychological, sociocultural, and evolutionary investigations, pp. 93–116. MIT Press.

(2) La théorie de la dissonance cognitive conçue par Léon Festinger en 1957 permet d’analyser les relations que peuvent entretenir entre elles les cognitions, « tout élément de connaissance, opinion ou croyance sur l’environnement, sur soi-même ou sur son propre comportement ». Ces éléments peuvent entretenir trois relations : être en dissonance, en consonance ou être sans impact, c’est-à-dire neutre. La théorie de la dissonance cognitive s’appuie sur le fait que chaque individu est à la recherche d’un équilibre cognitif. Ainsi à chaque réception d’une cognition, l’individu tente de réajuster son équilibre cognitif pour réduire la dissonance, le plus souvent par un changement d’attitude post-comportemental.

(3) Prévot A.-C et Fleury C., L’exigence de la réconciliation : biodiversité et société, Paris, Fayard : Muséum National d’Histoire Naturelle, 2012, 471 pages.

Prévot A.-C et Fleury C., Le souci de la nature : apprendre, inventer, gouverner, Paris, CNRS éditions, 2017, 377 pages.

(4) Latour B., Où atterrir ? : Comment s’orienter en politique, Paris : La Découverte, 2017, 155 pages.

([295]) Un stockage direct de l’électricité est possible en utilisant des supercondensateurs ou en exploitant le principe du stockage inductif supraconducteur, souvent désigné par son acronyme anglais « SMES » (Superconducting Magnetic Energy Storage). Le SMES consiste à faire circuler un courant électrique dans une bobine de fil rendue supraconductrice après avoir été abaissée jusqu’à sa température critique. Si cette bobine est court-circuitée sur elle-même, le courant peut alors circuler indéfiniment dans la boucle ainsi formée, sans résistance et donc sans dissipation d’énergie par effet Joule. L’énergie stockée est restituée quand on ouvre le court-circuit de la bobine sur une charge. Il s’agit d’un stockage de l’énergie sous forme électromagnétique. Combinant une forte densité de puissance, un temps de réaction très bref, mais aussi une faible densité en énergie, ces deux modes de stockage direct possèdent quelques applications utiles, mais ne peuvent cependant pas répondre aux besoins d’un stockage stationnaire de masse ni jouer un rôle central dans le domaine de la mobilité.

([296]) On peut classer les modes de stockage en fonction du vecteur énergétique utilisé et les caractériser à partir de paramètres tels que l’énergie, la puissance, le temps de réponse, le rendement énergétique ou encore la durée de vie.

([297]) Parmi les modes de stockage de l’électricité qui ne font pas l’objet de développement dans la note, on peut citer les volants d’inertie, les batteries à circulation redox et le CAES (Compressed Air Energy Storage). Ce dernier utilise comme vecteur l’énergie mécanique de l’air comprimé mais aussi, pour les nouvelles générations de CAES, la chaleur produite lors de la compression. Lors d’un excès de production d’électricité, de l’air est comprimé à très haute pression (100 à 300 bars) pour être stocké dans un réservoir. Les CAES existants et la plupart de ceux en projet utilisent des cavités souterraines (cavernes, mines), mais pour des stockages de moindre volume on peut envisager des réservoirs artificiels, enterrés ou non. L’air est ensuite relâché au moment des pics de demande d’électricité pour être injecté dans une chambre de combustion au gaz et produire de l’électricité par turbinage. Si quelques CAES dits conventionnels sont déjà en exploitation commerciale, leur bilan économique est décevant en raison de leur faible rendement énergétique (environ 50 %), inférieur à celui des STEP et des batteries de grande capacité. On cite fréquemment les sites de Huntorf en Allemagne (en service depuis 1979, il est doté d’une puissance de 290 MW et d’une capacité de 3h de stockage), ainsi que celui de McIntosh aux États-Unis (ouvert en 1991, il possède 110 MW de puissance et représente 26h de stockage). Les recherches portent sur la mise au point de CAES adiabatiques ou isothermes permettant la récupération de la chaleur produite par la compression de l’air - ce qui pourrait faire monter le rendement énergétique à 70 %. Les CAES adiabatiques comportent un système de stockage thermique récupérant la chaleur de l’air comprimé en sortie de compresseur. La chaleur est restituée à l’air comprimé avant son passage dans la turbine à gaz. Les CAES isothermes sont très proches, mais ils récupèrent la chaleur en cours de compression. Ces techniques sont encore en phase de démonstration mais pourraient trouver une place sur le segment d’application des stockages stationnaires de capacité intermédiaire (gamme de 100 kW à 10 MW de puissance pour un temps de décharge de l’ordre de 4 heures. La réflexion stratégique conduite par l’IFPEN en 2014 pour déterminer son positionnement dans le domaine du stockage a mis en avant des opportunités technologiques pour les batteries Redox à circulation et les systèmes CAES sur ce segment du stockage intermédiaire).

([298]) Stations de transfert d’énergie par pompage. Les STEP font partie de la famille des modes de stockage hydrauliques de l’énergie, qui comprend également les barrages de lac ou d’éclusées. Le stockage hydraulique utilise l’énergie mécanique potentielle de l’eau comme vecteur énergétique, cette énergie pouvant ensuite produire de l’électricité à la demande par turbinage.

([299]) Le rendement d’une STEP atteint 70 à 85 %.

([300]) Avec plus de 164 GW, les réservoirs hydrauliques et les STEP représentent près de 97 % de la puissance électrique mondiale stockée (Source : données fournies par Équilibre des énergies à partir de la Global Energy Storage Database de l’US Department of Energy, novembre 2016). Les STEP en France représentent 5 GW en production (et 4,2 GW en pompage). On en dénombre six de forte puissance : Grand’Maison en Isère (puissance en turbine de 1 790 MW), Montézic dans l’Aveyron (910 MW), Super-Bissorte en Savoie (730 MW), Revin dans les Ardennes (720 MW), Le Cheylas en Isère (460 MW) et La Coche en Savoie (330 MW).

([301]) En France, la programmation pluriannuelle de l’énergie (PPE) du 27 octobre 2016 fixait comme objectif d’engager d’ici à 2023 des projets de stockage sous forme de STEP, en vue d’un développement de 1 à 2 GW de capacité entre 2025 et 2030. La nouvelle PPE 2019-2023 / 2024-2028 confirme le besoin de développer cette capacité de STEP additionnelle. Il existe peut-être aussi des gisements de stockage hydraulique reposant sur la surélévation des barrages existants, mais aucun chiffrage du potentiel que cela représente n’est disponible. Dans le cadre d’une réflexion de long terme, une estimation du potentiel hydraulique inexploité devrait intégrer les impacts futurs éventuels du réchauffement climatique sur la disponibilité de la ressource en eau. On sait en effet que la production hydroélectrique est sensible aux conditions climatiques. Le productible moyen annuel est de 67 TWh, mais on observe des écarts importants entre années sèches et humides : 50,3 TWh par exemple en 2011contre 75,7 TWh en 2013.

([302]) Certains acteurs, comme le Syndicat des énergies renouvelables, appellent ainsi à ce que les pouvoirs publics définissent une feuille de route de la rémunération des moyens de flexibilité du système électrique, notamment pour mieux prendre en compte les STEP.

([303]) Lithium-ion est un nom générique qui rassemble un ensemble de technologies de batteries ayant pour trait commun de reposer sur la circulation réversible d’ions Li+ dans un électrolyte non aqueux entre une anode typiquement en graphite et des cathodes généralement en oxyde métallique lithié. On distingue les batteries LCO (dont la cathode est formée de LiCoO2), NCA (LiNiCoAl O2), LMO (LiMn2O4), NMC (LiNiMn CoO2) et LFP (LiFePO4). À noter que la technologie LMP (Lithium Métal Polymère) du groupe Bolloré ne se rattache pas aux technologies Lithium-ion, car elle utilise une anode en lithium métallique et un électrolyte solide.

([304]) Ces performances ont doublé depuis deux décennies et vont continuer à progresser. Les actuelles batteries Lithium-ion présentent désormais des densités énergétiques de l’ordre de 250 Wh/kg et de 600Wh/l. Par comparaison, la densité énergétique d’une batterie au plomb est de l’ordre de 30 Wh/kg et celle d’une batterie Nickel-Cadmium de 50 Wh/kg.

([305]) La baisse des coûts a pour moteur des progrès techniques dans la fabrication des cellules de batteries (qui consomment moins de matériaux onéreux que par le passé), mais surtout des économies d’échelle liées à la massification de la production. On est passé d’un prix de 1000 $ par kWh en 2010 à 209 $ par kWh en 2017, et on attend un prix sensiblement inférieur à 100 $ du kWh avant 2030 (source : chiffres fournis pour des packs batteries par EDF sur la base d’une étude de Bloomberg New Energy Finance).

([306]) L’utilisation des batteries Lithium-ion n’est pas exempte de tout risque. Des incidents très médiatisés sont déjà survenus sur des batteries équipant des Boeing 787, des modèles Tesla ou encore des batteries de téléphones ou d’ordinateurs portables (notamment le Galaxy Note 7 de Samsung). Est en cause, entre autres, la formation de dendrites sur l’électrode négative qui peut entraîner le court-circuit de la batterie et un emballement thermique. L’arrivée des batteries Lithium « tout solide  « à partir de 2022 devrait à cet égard apporter un gain de sécurité significatif.

([307]) Les recherches sont notamment actives dans le domaine des batteries Lithium-Soufre qui présentent une forte densité énergétique (en théorie 2 600 Wh/kg et en pratique environ 500 Wh/kg, soit deux fois celle des batteries Li-ion), mais qui se dégradent rapidement (quelques centaines de cycles) par dissolution de la cathode en soufre dans l’électrolyte. EDF travaille également au développement de batteries Zinc-Air.

([308]) Le marché mondial des batteries représentait 63 Md$ en 2015, contre seulement 25 Md$ en 2000. Il pourrait atteindre 115 Md$ en 2025 (source : contribution écrite d’Equilibre des énergies, citant une étude d’Avicenne Energy de 2017). À noter que ce marché est, encore aujourd’hui, dominé par le segment des accumulateurs au plomb, mais les batteries Lithium‑ion seront le segment dominant dès 2020. Le marché des batteries est désormais très largement porté par les besoins de la mobilité, les batteries destinées au stockage stationnaire en lien avec l’introduction des EnR ne représentant que 5 % du marché mobile à l’horizon 2023. Le marché des batteries lithium pour la mobilité représente aujourd’hui 120 GWh au niveau mondial. On estime qu’il atteindra 500 GWh en 2025 (Source : Avicenne Energy 2018). L’Europe représenterait à elle seule environ 20 % de cette capacité mondiale de stockage.

([309]) La cyclabilité caractérise la durée de vie d’une batterie. Elle se définit comme le nombre de fois (de cycles) où elle peut restituer le même niveau d’énergie après chaque nouvelle recharge.

([310]) La feuille de route du CEA Liten indique notamment les objectifs suivants à horizon 2030 : développement de cathodes haute capacité sans cobalt (> 1000 Wh/kg), développement des batteries Li-S (500-600 Wh/kg), charge rapide (< 6 mn).

([311]) Le principe d’une batterie tout solide est de remplacer l’électrolyte liquide organique par un composé inorganique solide qui permet la diffusion des ions lithium. Les électrolytes solides inorganiques sont plus sûrs (ils sont ininflammables et ne permettent pas la formation de dendrites de lithium). Ce type de batteries possède aussi une densité énergétique plus élevée.

([312]) Sont visées des densités de 350 Wh/kg et 800 Wh/l dans un premier temps, puis de 400 Wh/kg et 1200 Wh/l à partir de 2025. À plus long terme (au-delà de 2030) pourraient se généraliser les batteries Lithium-Air, d’une densité supérieure à 1500 Wh/kg.

([313]) Une pile à combustible convertit de l’énergie chimique de combustion en énergie électrique, en chaleur et en eau. Le combustible qui alimente l’anode d’une PAC est généralement de l’hydrogène, tandis que la réaction de réduction sur la cathode est généralement alimentée par injection de dioxygène. Il existe plusieurs familles de PAC en fonction des électrolytes utilisés. Les PAC les plus couramment utilisées sont celles de la famille PEM (Proton Exchange Membrane Fuel Cell), dont l’électrolyte est constitué d’une membrane solide polymère fonctionnant à basse température.

([314]) Le reformage du méthane est la technique traditionnelle pour fabriquer de l’hydrogène, qui n’est pas présent à l’état pur dans la nature (selon les réactions chimiques : CH4 + H2O CO + 3H2 puis CO + H2O CO2 + H2). Cette technique permet de produire du H2 à faible coût, mais avec un mauvais bilan carbone (1 kg de H2 produit par ce procédé s’accompagne de la production de10 kg de CO2, selon les données fournies par Équilibre des énergies). 95 % de la production mondiale annuelle d’H2 (600 milliards de m3) est obtenu par vapo reformage ou d’autres procédés à base de ressources fossiles (craquage catalytique des hydrocarbures ou gazéification du charbon), le reste par électrolyse de l’eau. Cet hydrogène est pour l’essentiel utilisé dans l’industrie, pour le raffinage du pétrole, la production d’ammoniac et la fabrication de divers produits chimiques (méthanol, amines, l’eau oxygénée, etc.), mais il est également utilisé en moindres volumes dans les industries de la microélectronique, de la verrerie ou de l’agroalimentaire par exemple. (Source : Étienne Beeker, « Y a-t-il une place pour l’hydrogène dans la transition énergétique ? », Note d’analyse, France Stratégie, 2014 https://www.strategie.gouv.fr/sites/
strategie.gouv.fr/files/atoms/files/201-08-06na-fs-hydrogene-hd.pdf
).

([315]) Jusqu’à une proportion de 6 % par contrainte réglementaire actuellement en France.

([316]) Selon la formule : CO2 + 4 H2 CH4 + 2 H2O. À noter que le CO2 servant à la méthanation pourrait être issu de la méthanisation, avec une complémentarité écologique et économique entre les deux procédés.

([317]) Il existe trois familles d’électrolyseurs, situés à des degrés de maturité différents : les électrolyseurs alcalins (AEL) et ceux à membrane PEM (PEMEL), qui sont en exploitation commerciale, et les électrolyseurs à haute température (SOEL). Ces derniers sont encore à un stade développement.

([318]) Le CEA Liten travaille notamment sur la technologie SOEC (électrolyse haute température haut rendement), qui permet des gains de rendements importants (+ 30 % par rapport aux électrolyseurs alcalins). Les enjeux technologiques portent sur l’industrialisation de la technologie. En 2030, après passage à l’échelle industrielle prévu pour 2026, on estime un coût de production hydrogène par SOEC entrant dans la fourchette [1,5-2€/kg]. La technologie sera alors techniquement mature pour les applications d’usage de l’hydrogène dans la chimie et dans le transport. Par la suite, la montée en puissance de la filière hydrogène dans ces deux domaines pourrait permettre une baisse des coûts qui la rendra compétitive pour les applications de stockage saisonnier de l’électricité attendues sur la période 2035-2050 du fait de l’augmentation de la pénétration des EnR.

([319]) Selon la loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte, les énergies renouvelables devront représenter 40 % de la production d’électricité en 2030. Selon le bilan électrique de RTE pour 2017, les productions hydraulique, éolienne, photovoltaïque et bioénergies ont représenté une production de 96 TWh, soit 18 % de l’électricité produite cette année-là. L’éolien et le photovoltaïque à eux seuls ont représenté 6,3 % de la production totale.

([320]) La flexibilité du système électrique est sa capacité à réaliser l’équilibre entre la production et la consommation d’électricité malgré les variations en partie aléatoires qui affectent à la fois le niveau de l’offre et celui de la demande. Cet équilibre est celui entre la puissance injectée à chaque instant dans le réseau et la puissance soutirée (équilibre instantané). Il s’agit aussi de l’équilibre, sur une période de temps déterminée, entre l’énergie produite et l’énergie consommée. Les besoins de flexibilité à ces différents horizons de temps (instantanés, quotidiens, hebdomadaires ou saisonniers) peuvent être mesurés à partir de la notion de demande résiduelle – qui correspond à la demande d’électricité restant à satisfaire une fois prise en compte la production des sources variables. Avant l’arrivée des EnR variables, le système électrique devait disposer de la flexibilité lui permettant de répondre à des variations de demande suivant des profils journaliers, hebdomadaires et saisonniers très marqués, mais aussi de faire face à deux aléas principaux : d’une part, un aléa sur la demande lié à l’aléa climatique (en France, une baisse de 1° de la température en hiver par rapport à la normale des températures entraîne un besoin de puissance supplémentaire de 2,4 GW, selon les données fournies par Équilibre des énergies) ; d’autre part, un aléa sur l’offre, comme la perte accidentelle de centres de production. L’arrivée des EnR variables introduit un nouvel aléa sur l’offre d’électricité lié à l’aléa climatique. Liée aux conditions de vent et d’ensoleillement, la production éolienne ou photovoltaïque n’a en effet aucune raison de s’établir spontanément au niveau requis pour satisfaire la demande. De fait, on observe que le profil quotidien, hebdomadaire et saisonnier de la production des EnR variables est faiblement corrélé au profil de la demande d’électricité à ces mêmes pas de temps. Plus précisément, le photovoltaïque génère un besoin supplémentaire de flexibilité de quelques heures (flexibilité infra journalière), tandis que l’éolien, dont les cycles de variation s’étalent habituellement sur plusieurs jours après foisonnement de la production, génère plutôt un besoin de stockage de quelques dizaines d’heures (flexibilité journalière ou hebdomadaire).

([321]) L’expression « énergies renouvelables intermittentes » est couramment utilisée. L’expression « énergies renouvelables variables » semble cependant plus adaptée, car plus conforme à l’idée d’une variation continue, et largement prévisible, entre puissance nulle et pleine puissance.

([322]) Les développements qui suivent concernent essentiellement le système électrique métropolitain, qui est interconnecté. Les liens entre EnR et stockage se présentent de manière sensiblement différente dans les ZNI (zones non interconnectées) des territoires insulaires, notamment ultramarins. Les possibilités de foisonnement y sont en effet par définition extrêmement réduites. La faible inertie des systèmes électriques insulaires fait par ailleurs que s’y posent des problèmes de stabilité dès que la part des EnR variables dépasse un seuil de l’ordre de 30 %. Enfin, le coût des moyens thermiques conventionnels y étant extrêmement élevé, des solutions de stockage, notamment par batteries, peuvent y trouver plus aisément un intérêt économique.

([323]) Notamment du nucléaire, dont le facteur de charge varie de 92 % en hiver à 64 % en été, permettant ainsi de couvrir l’essentiel des variations inter-saisonnières de consommation à l’heure actuelle. Les ajustements de la production nucléaire sont complétés par le recours aux centrales thermiques au charbon, au fuel ou au gaz.

([324]) Sans le réseau, l’équilibre entre la demande et l’offre devrait être réalisé sur un périmètre géographique plus restreint, ce qui obligerait lors des pics de consommation soit à rationner la demande soit à faire fonctionner localement des moyens de production présentant un coût marginal élevé. Dans le cas particulier des EnR variables, le réseau permet également de trouver un débouché lors des pics de production pour une électricité fatale. C’est donc un outil de solidarité énergétique entre les zones de production et de consommation, mais c’est aussi un outil de sobriété de la production. Par ailleurs, le réseau permet aussi de mutualiser les services système indispensables à la stabilité du système électrique et à la qualité du courant fourni. Dans tous les scénarios de diversification du mix énergétique, le développement du réseau joue un rôle central.

([325]) Par rapport à ce que serait la somme des demandes résiduelles nationales dans l’hypothèse où les pays européens ne seraient pas interconnectés. Cela représente -30 % en valeur relative.

([326]) Source : contribution écrite de RTE aux travaux de l’Office.

([327]) D’ici à 2035, la capacité d’effacement pourrait varier entre son niveau actuel et 6 GW en fonction du scénario d’évolution du système électrique (RTE, Bilan prévisionnel de l’équilibre offre-demande d’électricité en France, 2017 https://www.rte-france.com/sites/default/files/bp2017_complet_vf.pdf).

([328]) Les ballons d’eau chaude domestique sont actuellement pilotés par un signal tarifaire de type heures creuses/heures pleines relativement sommaire. S’ils bénéficiaient du pilotage par des grilles tarifaires plus sophistiquées ou par des compteurs de consommation de nouvelle génération, ils permettraient un réglage plus fin et massif du lissage de la consommation électrique.

([329]) Dans le cas de référence du scénario Ampère de RTE, un volume significatif de production ne trouvant pas de débouchés apparait (9 TWh). On peut donc envisager une conversion de cette énergie en chaleur pour une utilisation domestique (eau chaude sanitaire). Source : Bilan prévisionnel RTE 2017, p. 205.

([330]) Le résultat des simulations est assez sensible aux hypothèses faites sur le niveau futur de la consommation. Selon qu’elle baisse fortement ou se maintient à un niveau élevé, les besoins de flexibilité ne sont pas du même niveau, avec des conséquences sur le niveau d’émission de CO2, les besoins de stockage, etc.

([331]) Une des questions centrales est de savoir jusqu’où et à quel rythme on va réduire la part du nucléaire et des centrales thermiques au profit des EnR.

([332]) Scénarios Ampere, Hertz, Volt et Watt. Cf. Bilan prévisionnel de l’équilibre offre- demande d’électricité en France, RTE, 2017 https://www.rte-france.com/sites/default/files/bp2017_complet_vf.pdf.

([333]) Plus de 50 000 simulations ont été restituées pour chaque heure de l’année dans cet exercice prospectif hors norme !

([334]) Dans ce scénario, les EnR représentent 50 % du mix électrique en 2050 avec une puissance de 149 GW et une production annuelle de 314 TWh (contre 294 TWh pour le nucléaire).

([335]) Cf. Bilan prévisionnel RTE, pp. 201-205. Cette conclusion est cependant directement liée aux hypothèses adoptées sur l’évolution du coût des batteries.

([336]) L’exploitation de batteries en usage stationnaire pour répondre aux besoins du système électrique peut alors devenir rentable.

([337]) Dans ce scénario, RTE souligne qu’en l’état actuel des technologies, le scénario ne pourrait pas être conduit sans l’installation de nouveaux moyens thermiques générateurs d’une hausse des émissions de CO2 du système électrique. La production d’origine thermique devrait en effet doubler en proportion, passant à 20 % du mix électrique en 2035 contre moins de 10 % aujourd’hui. Pour autant, les simulations réalisées ne valident pas la proposition parfois avancée selon laquelle un système reposant à 70 % sur des EnR obligerait à « doubler » la capacité renouvelable par des moyens thermiques.

([338]) Invité à proposer un chiffrage des besoins de stockage, RTE a souligné que la réponse à cette question relève encore, à ce stade, du champ de la recherche. « Ce sujet fait l’objet de travaux d’approfondissements en R&D : nous avons développé une méthodologie de quantification systématique des besoins de flexibilité du système électrique sous différentes hypothèses de pénétration des ENR. Nous ne sommes pas encore en mesure de traduire ces besoins de flexibilité en mix optimal de solutions de flexibilité » réponse de RTE au questionnaire transmis pour préparer la présente note). Afin de progresser sur la question de la détermination de la combinaison optimale des leviers, RTE a lancé en 2018 le projet européen OSMOSE (Optimal System-Mix Of flexibility Solutions for European electricity), pour une durée de 4 ans. Le projet regroupe 33 partenaires et vise à répondre aux questions « Quel mix optimal de flexibilité ? » et « Quelles règles de marchés pour tendre vers ce mix ? ». L’approche adoptée est systémique, au niveau européen, et se projette à l’horizon 2050.

([339]) Bilan prévisionnel de l’équilibre offre-demande d’électricité en France, Synthèse, RTE 2017, p. 32.

([340]) Même dans le scénario Watt de RTE, les moyens pilotables représentent plus de 40 % du mix : 11 % pour le nucléaire, 18 % pour le thermique, à quoi s’ajoutent les moyens hydrauliques qui sont pour l’essentiel des moyens pilotables.

([341]) Pour plus de précisions, on peut se référer au dossier de présentation de RTE intitulé :
« Voyage au cœur du réseau de demain » https://www.rte-france.com/sites/default/files/files/
au_coeur_du_reseau_dossier.pdf
 (mars 2017). RTE travaille à plusieurs solutions permettant d’optimiser les performances du réseau de transport. Outre l’expérimentation de « lignes virtuelles » avec le projet Ringo, RTE expérimente aussi de nouveaux postes électriques « intelligents » permettant d’absorber jusqu’à 30 % d’électricité en plus. Les postes électriques actuels fonctionnent souvent en effet en-deçà de leur capacité maximum car, pour éviter la surchauffe des lignes, on sous-dimensionne la quantité de courant transportée. Or, quand il fait froid ou qu’il y a du vent, les lignes sont refroidies et pourraient accepter davantage d’électricité que ce que prévoient les normes de sécurité actuelles. L’idée est donc d’installer des capteurs de température sur les lignes afin d’ajuster en temps réel la capacité des postes électriques sans risque de surchauffe. C’est un exemple des futurs smart grids.

([342]) Cf Ademe, « Un mix électrique 100 % renouvelable ? Analyses et optimisations Un travail d’exploration des limites du développement des énergies renouvelables dans le mix électrique métropolitain à un horizon 2050 » https://www.ademe.fr/mix-electrique-100-renouvelable-analyses-optimisations, octobre 2015 ; Ademe, « Actualisation du scénario énergie-climat 2035-2050 », https://www.ademe.fr/sites/
default/files/assets/documents/ademe_visions2035-50_010305.pdf
, octobre 2017 ; Ademe, « Trajectoire d’évolution du mix électrique 2020-2060 », https://www.ademe.fr/trajectoires-devolution-mix-electrique-a-horizon-2020-2060, octobre 2018.

([343]) Les actualisations récentes des études de l’Ademe (oct. 2017 ou oct. 2018) ne modifient les estimations de 2015 qu’à la marge concernant l’estimation des besoins de stockage.

([344]) Ce qui n’est pas le cas des simulations réalisées par RTE.

([345]) L’inertie est la capacité du réseau à limiter les variations de fréquence de 0 s à 10 s après l’aléa d’équilibre offre-demande. L’inertie est liée à la capacité des rotors des machines tournantes connectées au réseau (centrales thermiques, nucléaires, hydrauliques) à stocker de l’énergie.

([346]) Ces masses sont, pour l’essentiel, celles des turbines des centrales de production thermiques, nucléaires ou hydrauliques. Il n’y pas de masse tournante dans les panneaux photovoltaïques, tandis que celle des éoliennes, quoique significative, n’est pas reliée de façon synchrone à la fréquence du courant du réseau et n’est donc pas directement utilisable pour le stabiliser.

([347]) En raison du couplage synchrone entre leur vitesse de rotation et la fréquence du courant électrique, toute baisse de fréquence se heurte à l’inertie qu’opposent les masses en rotation.

([348]) RTE indique dans son scénario Watt que des incertitudes sur la stabilité du système électrique apparaissent pour un taux de pénétration des EnR supérieur à 70 %.

([349]) La technique consiste à démanteler partiellement des centrales classiques pour ne garder que la partie alternateur (on démantèle en effet seulement la turbine de production).

([350]) Dans cette solution, les ENR variables se voient imposer d’avoir une réserve d’énergie, qui peut provenir de l’inertie des pâles d’éolienne ou d’un stockage (batterie, condensateurs, volant d’inertie) afin de limiter les variations de fréquences dans les premiers instants d’un déséquilibre offre-demande. Cette solution comporte cependant deux limitations techniques qui font qu’elle ne serait adaptée qu’à un taux limité de pénétration des EnR. D’une part, l’inertie synthétique intervient avec un certain retard par rapport à la perturbation sur le réseau (retard d’environ 100 ms à partir de la perte d’une centrale de production ou chute de consommation brusque). Pour un taux d’ENR conséquent, ce temps de réaction est très pénalisant, l’inertie synthétique ne permet alors plus d’assurer la stabilité (variation de fréquence trop importante dans les premiers instants à cause du retard). D’autre part, dans le cas où les éoliennes utilisent l’énergie stockée dans leur rotor pour stabiliser la fréquence du courant, leur vitesse diminue. Si l’éolienne décélère trop, la phase de récupération peut ensuite être très longue et avoir alors un effet néfaste sur la fréquence. Enfin, on ne connaît pas bien l’impact sur le vieillissement de l’installation de ce type de procédé (source : contribution écrite de RTE aux travaux de l’Office).

([351]) Cette solution, qui n’en est encore qu’au stade de la recherche, est l’objet des projets européens MIGRATE et OSMOSE. L’idée directrice est de donner à certaines centrales de production photovoltaïques ou éoliennes (associées à des batteries) le rôle de « chef d’orchestre du réseau ». Des batteries permettraient d’apporter une injection rapide d’énergie ou d’absorber l’énergie en excès pour assurer la stabilité aux premiers instants de l’aléa. Les ENR en grid forming pourraient alors donner le rythme au réseau en jouant sur la fréquence pour coordonner l’appel aux réserves primaires disponibles au niveau des autres centrales de production raccordées au réseau. Cette stratégie de grid forming répondrait à la fois à la problématique de stabilité du réseau (perte d’inertie du réseau) mais aussi à la problématique de synchronisation du réseau lorsqu’il n’y a plus de machines tournantes pour imposer la fréquence du réseau. Par ailleurs, le grid forming fonctionnerait quel que soit le taux de pénétration ENR. Tout cela n’en est encore qu’à un stade théorique.

([352]) Comme on l’a dit précédemment, la flexibilité inter-saisonnière est aujourd’hui principalement assurée par la montée en charge des groupes nucléaires en hiver, complétés par des centrales thermiques. S’il y a un point éventuellement problématique pour les scénarios « 100 % renouvelables » (ce qui n’est pas absolument certain à ce stade), c’est bien l’absence de moyens de stockage inter-saisonnier économiquement et technologiquement mûrs. En effet, pour la flexibilité journalière et hebdomadaire, les batteries Lithium et les STEP constituent des moyens techniquement et économiquement pertinents pour répondre en puissance et en énergie aux besoins des consommateurs malgré l’aléa qui affecte la production des EnR variables.

([353]) On peut citer le projet de démonstrateur industriel de Power-to-Gas, Jupiter 1000, qui fonctionnera à partir de 2019 à Fos-sur-Mer. L’installation a pour but de transformer l’électricité renouvelable en gaz pour pouvoir la stocker. Le dispositif comporte deux électrolyseurs (alcalin et PEM) mais aussi un réacteur de méthanation et une structure de capture de CO2 à partir de fumées industrielles voisines. Elle permettra d’évaluer l’injection directe d’hydrogène à des taux variables dans le réseau de transport de gaz naturel, mais également l’injection de méthane de synthèse obtenu par recombinaison d’hydrogène renouvelable et de CO2.

([354]) Fabriquer une batterie, puis la faire fonctionner nécessite d’importantes quantités d’énergie électrique, de sorte que son bilan carbone est plus ou moins bon selon le mix électrique utilisé pour la fabriquer puis la recharger. Toutefois, au niveau européen du moins, même dans les pays où l’électricité est fortement carbonée, comme en Allemagne, le bilan carbone d’une voiture électrique reste toujours meilleur que celui des véhicules thermiques. Dans des pays comme la France ou la Norvège, où l’électricité est fortement décarbonée, ce bilan est même très sensiblement meilleur. Pour des données chiffrées précises se reporter notamment à : Dale Hall and Nic Lutsey, « Effects of battery manufacturing on electric vehicle life-cycle greenhouse gas emissions », The international Council of Clean Transportation, https://www.theicct.org/
sites/default/files/publications/EV-life-cycle-GHG_ICCT-Briefing_09022018_vF.pdf
, février 2018.

([355]) Responsabilité sociétale des entreprises.

([356]) La production de certains matériaux critiques est très fortement concentrée sur le plan géographique (cf : Gilles Lepesant, La transition énergétique face au défi des métaux critiques, Etudes de l’IFRI, https://www.ifri.org/sites/default/files/atoms/files/etude_lepesant_transition_2018_complet.pdf, janvier 2018).

([357]) Comme on l’a vu précédemment toutefois, l’ampleur des besoins de stockage stationnaire par batteries paraît insuffisante pour offrir une seconde vie à la totalité des batteries destinées à la mobilité qui vont être mises sur le marché dans les quinze prochaines années. C’est seulement si le taux de pénétration des EnR variables atteint un niveau très élevé que des besoins de stockage stationnaire massifs émergeront.

([358]) Cette filière n’existe pour l’instant pas parce que la quantité de batteries à recycler est insuffisante pour qu’une filière de recyclage soit économiquement viable. Mais le développement massif attendu de la mobilité électrique va créer les conditions de son émergence. On peut souligner toutefois que cette question ne présente pas un caractère d’urgence puisque le boom du marché de la batterie mobile commence à peine alors que la durée de vie de ces batteries est de l’ordre de huit à dix ans dans un véhicule électrique. Il faut exploiter ce temps pour investir dans la recherche sur des technologies de recyclage adaptées et pour réfléchir aux adaptations règlementaires souhaitables.

([359]) 7 de ces 10 fabricants sont chinois, notamment CATL qui, avec près du quart de la production mondiale, devance le japonais Panasonic. Les deux autres fabricants non chinois sont sud-coréens.

([360]) Le fabricant français de batteries SAFT est au centre d’une alliance avec Siemens, Manz et Solvay en vue de créer deux ruptures technologiques dans le domaine des cellules pour batteries. La première interviendra dès 2020 avec l’introduction d’une nouvelle génération de cellules incorporant des matières actives à faible teneur en cobalt, ainsi qu’un composé graphite/silicium. La deuxième aura lieu vers 2025 avec l’arrivée des cellules « tout solide ». Il convient que les décisions d’investissement industriel soient prises très rapidement pour pouvoir équiper les nouveaux véhicules électriques annoncées par les constructeurs pour 2022. C’est dans cette perspective qu’il convient de soutenir l’alliance entre SAFT, Siemens, Manz et Solvay. On peut souligner à cet égard que les critères environnementaux sont un moyen légal de justifier un soutien à l’industrie des batteries européennes. La fabrication des batteries étant très énergivore, elle induit plus d’émissions de CO2 en Asie qu’en Europe (et plus en Europe qu’en France), car le mix électrique asiatique est beaucoup plus carboné. Le bilan CO2 de l’électrification de la mobilité est donc bien meilleur avec des batteries européennes.

([361]) Il faut piloter les périodes de recharge pour éviter que des appels de puissance trop importants ne déstabilisent le réseau (ce qui est possible avec des offres tarifaires adaptées). On peut également envisager d’utiliser le gisement de batteries des véhicules électriques comme un moyen de flexibilité du système électrique, les besoins de charge s’activant ou s’effaçant au gré des besoins du système électrique ou des ressources disponibles (recharge solaire par exemple) voire grâce à l’injection d’énergie depuis les batteries sur le réseau électrique pour répondre à la consommation d’électricité ou pour assurer certains services système (application Vehicle-To-Grid).

([362]) La combustion de l’hydrogène dans une pile à combustible (PAC) ne se traduit pas par l’émission de CO2 mais par la production d’eau. La mobilité hydrogène stricto sensu est donc très écologique.

([363]) C’est envisageable dans des mix électriques où les EnR dépasseraient 80 %.

([364]) Dans le tableau périodique des éléments, établi par Mendeleïev en 1869, le nombre de protons (égal à celui des électrons) définit l’espèce chimique de l’atome.

([365]) Un proton est constitué de 2 quarks up et d’1 quark down et un neutron d’1 quark up et de 2 quarks down.

([366]) Pour donner un ordre de grandeur, chaque centimètre carré de notre peau est traversé, à chaque seconde, par environ mille milliards (1012) de neutrinos, sans la moindre interaction. À l’heure actuelle, on sait peu de choses sur les trois types de neutrinos (électronique, muonique et tau). Une des principales découvertes à leur sujet est leur « oscillation » c’est-à-dire leur capacité à changer de type lors de leur durée de vie. Ce résultat a permis d’établir que la masse de deux d’entre eux au moins est non nulle.

([367]) On compte en tout 6 quarks appelés respectivement up (haut), down (bas), top (dessus), bottom (dessous), strange (étrange) et charm (charme). Seuls les deux premiers entrent dans la constitution de la matière ordinaire et plus précisément des protons et neutrons.

([368]) Les bosons :

Force fondamentale

Boson associé

Caractéristiques

Interaction forte

Gluon

Agit sur les quarks pour lier les protons et neutrons

Électromagnétisme

Photon

Entre 2 particules chargées

Interaction faible

Bosons W et Z

Médiateurs de l’interaction électrofaible

Gravité

Graviton

Pas encore découvert

 

([369])

([370]) On parle de régime relativiste lorsque la vitesse devient proche de la vitesse de la lumière.

([371]) À l’exception de la gravitation, qui est traitée par la théorie d’Einstein de la relativité générale. Regrouper dans une même théorie la physique fondamentale des particules et la théorie de la gravitation reste un problème ouvert majeur de la science.

([372]) Cette théorie repose sur un principe de symétrie, appelé « principe de jauge », qui classe les particules en trois familles de quatre (deux quarks, un lepton et un neutrino) et classe également les bosons. Les principes de symétrie, cruciaux en physique fondamentale, visent tout à la fois à ordonner les particules déjà connues, et le cas échéant à en prédire de nouvelles.

([373]) Les cyclotrons utilisent un champ magnétique d’intensité constante associé à un champ électrique variable qui contraint les particules à dessiner une trajectoire en spirale.

([374]) Environ 30 000 accélérateurs sont utilisés dans le monde, dont presque 15 000 dans le milieu médical (radiothérapie, recherche, production de radio-isotopes), 12 000 pour le traitement des matériaux et 3 000 dans les processus industriels.

Les accélérateurs de recherche en physique des particules dans le monde sont en beaucoup lus petit nombre :

Source : IN2P3 (CNRS)

En plus du CERN/LHC, on compte : Le Fermilab (ou Fermi National Accelerator Laboratory) aux États‑Unis (aux alentours de Chicago et ancien plus grand accélérateur du monde avant le LHC) ; en Chine, l’Institute of High Energy Physics (IHEP) et le Beijing Electron Positron Collider (BEPC) en service depuis 2005 ; au Japon, le J-Parc (Japan Proton Accelerator Research Complex) et le SuperKEK-B. Enfin à Frascati, en Italie, le synchrotron Dafne est aussi le siège de tests de collisions électrons/positrons.

([375]) Les 12 États membres historiques du CERN : la Belgique, le Danemark, la France, la Grèce, l’Italie, la Norvège, les Pays-Bas, la République fédérale d’Allemagne, le Royaume-Uni, la Suède, la Suisse et la Yougoslavie.

([376]) Le CERN a ensuite accueilli l’Autriche, l’Espagne, puis le Portugal, la Finlande, la Pologne, la République tchécoslovaque, la Hongrie, la Bulgarie, Israël et la Roumanie. La République tchèque et la République slovaque sont devenues deux États membres distincts en 1993, après leur indépendance. La Yougoslavie a quitté le CERN en 1961. En dehors des États membres, de nombreux autres pays participent à ses activités, sous des formes diverses. La Serbie, Chypre et la Slovénie sont États membres associés en phase préalable à l’adhésion. La Turquie, l’Ukraine, le Pakistan, la Lituanie et l’Inde sont États membres associés.

([377]) Les particules accélérées effectuent environ 10 000 tours du LHC par seconde, soit environ 300 000 km de distance parcourue. Plus précisément, les hadrons accélérés atteignent 99,999999 % de la vitesse de la lumière.

([378]) Un matériau supraconducteur n’oppose aucune résistance au passage d’un courant électrique et ne dissipe donc aucune énergie. Il fonctionne cependant à froid : au LHC par exemple, les aimants supraconducteurs opèrent à –271,3 °C (environ 1,8 degré au-dessus du zéro absolu).

([379]) Au moment de la collision, des « paquets » de 1011 protons sont contenus dans 20 µm (un cheveu humain mesure environ 50 micromètres, soit 50×10–6 mètres, symbolisé par 50 µm) pour un rendement final d’un milliard de collisions de particules par seconde.

([380]) Ces bosons sont responsables de l’interaction faible.

([381]) Si le champ porte le nom de trois scientifiques (Robert Brout et François Englert, d’une part, Peter Higgs, d’autre part), la dénomination actuelle est restée celle de boson de Higgs (et est considérée comme injuste dans la communauté de physique des particules).

([382]) 1 eV, ou électronvolt, correspond à l’énergie cinétique acquise par un électron au repos et soumis à une différence de potentiel de 1 V. On retiendra : 1 eV = 1,6×10-19 J. Dans l’absolu, cette valeur est très petite, et c’est pourquoi elle est souvent exprimée en MeV (106 eV), GeV (109 eV) ou TeV (1012 eV). 1 TeV correspond à l’énergie cinétique d’un moustique en vol. Si cette énergie est considérée comme « colossale » au LHC, c’est qu’elle est concentrée sur des particules 1012 fois plus petites qu’un moustique.

([383]) Ces outils étaient nécessaires car les collisions de protons, eux-mêmes constitués de quarks, produisent énormément de particules diverses, qui créent un « bruit de fond » dans lequel il faut trouver l’information recherchée.

([384]) Il ne faut pas confondre l’internet et le Web (toile), ce dernier n’étant qu’une application du premier, au même titre que la messagerie ou l’échange de fichiers. Internet est le réseau informatique mondial et le Web est le système qui permet de consulter des pages hébergées sur internet via un navigateur et de les relier entre elles via des liens hypertextes.

([385]) https://council.web.cern.ch/en/content/convention-establishment-european-organization-nuclear-research

([386]) On appelle Univers observable la partie de l’Univers qui peut interagir avec nous par rayonnement électromagnétique.

([387]) L’énergie noire, représentant environ 70 % de l’énergie de l’Univers, serait responsable de l’accélération de l’expansion de l’Univers. La matière noire, majoritaire dans les 30 % environ de matière, semble requise en raison des anomalies de gravité observées dans les grandes structures telles que les galaxies ou les amas de galaxies. Les chercheurs ne savent pas comment les mettre en évidence directement, mais supposent leur existence en décelant leurs effets indirects sur les structures (pour la matière noire) et sur la cosmologie (pour matière noire et énergie noire).

([388]) Ainsi, par exemple, puisqu’elles réagissent à la gravité, les particules responsables de la matière noire seraient dotées d’une masse.

([389]) Par exemple, la supersymétrie est une théorie apparue dès les années 1970 pour tenter de dépasser le cadre du modèle standard. Elle postule que des particules supersymétriques sont associées à chaque particule du modèle, et plus particulièrement, établissent une « symétrie » entre les fermions (constituants de matière) et les bosons (vecteurs de force). De plus, la supersymétrie suppose l’existence de particules stables aux propriétés proches de ce qui serait nécessaire pour constituer la matière noire. Cependant, aucune particule supersymétrique n’a été trouvée à ce jour.

([390]) L’utilisation du rayonnement de freinage constitue le principe de fonctionnement des synchrotrons émetteurs de lumière, tels que le synchrotron national SOLEIL en région parisienne ou l’ESRF (European Synchrotron Radiation Facility) de Grenoble. Après une phase d’accélération par application de champs radiofréquences, les électrons sont stockés dans un anneau de stockage de 354 m de circonférence pour SOLEIL et de 844 m pour l’ESRF, où leur trajectoire circulaire conduit à une émission de rayonnement dans une large gamme du spectre électromagnétique (jusqu’à des énergies supérieures à quelques centaines de keV pour l’ESRF).

([391]) Le positron est l’antiparticule de l’électron : même masse, mais charge électrique opposée. Le positron est donc chargé positivement.

([392]) La quantité d’énergie perdue détermine la longueur d’onde du rayonnement émis (infrarouge, visible, ultraviolet, rayons X…). Ce rayonnement peut avoir des applications dans de nombreux domaines : biologie, astrophysique…

([393]) Il est financé majoritairement par l’Allemagne (plus de 50 %) et la Russie (environ 25 %), avec le concours, à hauteur de 1 % à 3 % chacun, de dix autres pays européens dont la France (participation de 35 millions d’euros en nature, portée principalement par le CEA et le CNRS).

([394]) Depuis que les États-Unis ont choisi de se focaliser sur les neutrinos en physique des particules, le Japon occupe une place de choix dans ce domaine, derrière l’Europe qui s’impose toutefois grâce au CERN et à sa capacité à produire le boson de Higgs.

([395]) http://www.linearcollider.org/ILC/Publications/Technical-Design-Report

([396]) La 83e réunion de l’International committee for future accelerators (ICFA) doit se tenir en 2019 à Tokyo et discutera des décisions qui auront été évoquées par le gouvernement japonais.

([397]) https://europeanstrategy.cern/european-strategy-for-particle-physics

([398]) La quantité de données, qui a déjà atteint 300 pétaoctets (300 millions de gigaoctets) pour la période 2015-2018, devrait augmenter d’un facteur 10 pendant la phase de haute luminosité.

([399]) Référence : https://fcc-cdr.web.cern.ch/

([400]) Récapitulatif des différents projets d’accélérateurs de particules en cours.

Source : IN2P3 (CNRS)

([401]) Audition par l’Office, ouverte à la presse, le 14 février 2019, de M. Gérard Mourou, directeur du Laboratoire d’optique appliquée, professeur à l’École polytechnique, Prix Nobel de physique 2018 et de M. Sydney Galès, directeur de recherche émérite, Institut de physique nucléaire d’Orsay, ancien directeur du GANIL.