Version PDF
Retour vers le dossier législatif

N° 2965

___

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

DouziÈme législature

__________________________________

Enregistré à la Présidence de l'Assemblée nationale

Le 15 mars 2006

 

N° 254

___

SÉNAT

Session ordinaire de 2005 - 2006

________________________________

Annexe au procès-verbal

de la séance du 15 mars 2006

     

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT

sur

Les nouvelles technologies de l'Énergie et la sÉquestration du dioxyde de carbone : aspects scientifiques et techniques

Par M. Christian BATAILLE et M. Claude BIRRAUX,

Députés

_________

Déposé sur le Bureau
de l'Assemblée nationale

par M. Claude BIRRAUX,

Premier Vice-Président de l'Office

 

_________

Déposé sur le Bureau du Sénat

par M. Henri REVOL,

Président de l'Office

     

_______________________________________________________________________

Composition de l'Office parlementaire d'évaluation

des choix scientifiques et technologiques

Président

M. Henri REVOL

Premier Vice-Président

M. Claude BIRRAUX

Vice-Présidents

M. Claude GATIGNOL, député M. Jean-Claude ÉTIENNE, sénateur

M. Pierre LASBORDES, député M. Pierre LAFFITTE, sénateur

M. Jean-Yves LE DÉAUT, député M. Claude SAUNIER, sénateur

Députés

Sénateurs

M. Jean BARDET

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Christian CABAL

M. Alain CLAEYS

M. Pierre COHEN

M. Francis DELATTRE

M. Jean-Marie DEMANGE

M. Jean DIONIS DU SÉJOUR

M. Jean-Pierre DOOR

M. Pierre-Louis FAGNIEZ

M. Claude GATIGNOL

M. Louis GUÉDON

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Pierre-André PÉRISSOL

M. Philippe ARNAUD

M. Paul BLANC

Mme Marie-Christine BLANDIN

Mme Brigitte BOUT

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

M. Jean-Claude ÉTIENNE

M. Christian GAUDIN

M. Pierre LAFFITTE

M. Serge LAGAUCHE

M. Jean-François LE GRAND

Mme Catherine PROCACCIA

M. Daniel RAOUL

M. Ivan RENAR

M. Henri REVOL

M. Claude SAUNIER

M. Bruno SIDO

M. Alain VASSELLE

SOMMAIRE

AVANT-PROPOS 1111

SYNTHÈSE 1515

LEXIQUE DES ÉNERGIES 3131

BIOCARBURANTS 3333

BIOGAZ 4949

BOIS ÉNERGIE 5353

CHANGEMENT CLIMATIQUE 5959

CHARBON 6767

CO2 DIOXYDE DE CARBONE 8585

ÉCONOMIES D'ÉNERGIE, EFFICACITÉ ET INTENSITÉ ÉNERGÉTIQUES 9797

ÉNERGIES RENOUVELABLES : PROBLÉMATIQUES COMMUNES ET SPÉCIFICITÉS 107107

ÉOLIEN 121121

FUSION 137137

GAZ DE SYNTHÈSE : PIVOT DES CARBURANTS DU XXIème SIÈCLE ? 147147

GAZ NATUREL 153153

GÉOTHERMIE 175175

HYDROÉLECTRICITÉ 185185

HYDROGÈNE 195195

KYOTO : UN PROTOCOLE À VALEUR D'EXEMPLE 213213

NUCLÉAIRE 223223

PÉTROLE 263263

PILES À COMBUSTIBLE 291291

RECHERCHE & COMMERCIALISATION : LES ÉTAPES CRITIQUES 303303

SÉCURITÉ D'APPROVISIONNEMENT ET FACTURE ÉNERGÉTIQUE 323323

SÉQUESTRATION DU CO2 329329

SOLAIRE PHOTOVOLTAÏQUE 351351

SOLAIRE THERMIQUE 363363

SOLAIRE THERMODYNAMIQUE 367367

STOCKAGE DE L'ÉNERGIE 373373

THALASSO ÉNERGIES 379379

UNITÉS DE L'ÉNERGIE 385385

RECOMMANDATIONS 387387

EXAMEN DU RAPPORT PAR L'OFFICE 389389

GROUPE DE TRAVAIL 393393

PERSONNALITÉS RENCONTRÉES 394394

SOMMAIRE DÉTAILLÉ

AVANT-PROPOS 1111

SYNTHÈSE 1515

LEXIQUE DES ÉNERGIES 3131

RECOMMANDATIONS 387387

EXAMEN DU RAPPORT PAR L'OFFICE 389389

GROUPE DE TRAVAIL 393393

PERSONNALITÉS RENCONTRÉES 394394

AVANT-PROPOS

La politique énergétique française est marquée par la continuité dans ses orientations stratégiques mais aussi par un renouvellement de ses modes de décision et par un élargissement de ses moyens.

Jamais remise en cause par les gouvernements successifs depuis la fin de la décennie 1960, la sécurité énergétique est l'objectif prioritaire et invariable de la politique française.

La hausse des prix du pétrole, commencée début 2004, qui a installé, semble-t-il durablement le prix du pétrole à plus de 60 $ par baril et fait exploser la facture énergétique extérieure, confirme la pertinence de ce choix.

Les ressources en combustibles fossiles de la France n'ont jamais été aussi faibles. La production nationale de charbon s'est arrêtée le 23 avril 2004 au terme d'un processus programmé de près de 40 ans1. Concentrée en Aquitaine et en majeure partie à Lacq, la production nationale de gaz - 1,12 million de tonnes équivalent pétrole (tep) - devrait s'arrêter vers 2010. Quant à la production nationale de pétrole, tirée du Bassin parisien et de l'Aquitaine, elle représente seulement 1,14 million tep - sans espoir d'augmentation sensible.

La construction d'un parc électronucléaire de réacteurs à eau pressurisée, lancée dès le début des années 1970, accélérée après le premier choc pétrolier, et achevée en 2002 avec la mise en service commercial du réacteur de N4 de Civaux 2, a permis de faire passer le taux d'indépendance énergétique2 d'environ 25% à 50%.

Ni l'ouverture des marchés de l'électricité et du gaz, ni le développement de nouvelles énergies ne remettent en cause cette orientation fondamentale de la politique nationale.

Depuis 1991, d'ailleurs, l'énergie est entrée en politique. La stratégie d'indépendance énergétique nationale est désormais validée par le Parlement qui participe, de plus en plus étroitement, à l'élaboration de la politique énergétique, et en adopte les principes fondamentaux.

La politique énergétique discutée et adoptée dans la transparence

La première intervention marquante du Parlement dans le domaine énergétique est la loi du 30 décembre 1991 relative aux recherches sur la gestion des déchets radioactifs, étroitement inspirée d'un rapport adopté par l'Office parlementaire d'évaluation des choix scientifiques et technologiques en 1990. Le Parlement a ainsi décidé, qu'avant toute décision sur la gestion des déchets de haute activité à vie longue, des recherches devaient être conduites sur une période de 15 ans.

Cette période de 15 années exclusivement dévolue à la recherche prend fin en 2006. Il appartient au Parlement de voter, en 2006, une loi définissant la stratégie nationale de gestion des déchets radioactifs. Rarement une décision publique dans le domaine scientifique n'aura été préparée avant autant de soin.

Le Parlement a également joué un rôle décisif en amendant fortement des projets de loi essentiels dans le domaine de l'énergie.

La loi du 10 février 2000 relative à la modernisation et au développement du service public de l'électricité puis la loi du 9 août 2004 relative au service public de l'électricité et du gaz et aux entreprises électriques et gazières et la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique constituent des étapes fondamentales dans l'organisation du secteur de l'énergie et la définition de ses missions.

L'intérêt du Parlement pour les questions énergétiques va aujourd'hui au-delà du vote de la loi et s'exprime par plusieurs initiatives qui visent à élargir le champ de sa réflexion et, potentiellement, le champ de son intervention à différents domaines où l'énergie joue un rôle important.

Les travaux parlementaires en cours sur l'énergie et le positionnement du présent rapport

Le présent rapport sur « les nouvelles technologies de l'énergie et la séquestration du dioxyde de carbone », qui répond à une saisine, en date du 5 avril 2005, de la Commission des affaires économiques, de l'environnement et du territoire de l'Assemblée nationale, doit être replacé dans son contexte. Plusieurs travaux parlementaires sont en effet en cours, qui comprennent une composante « énergie » importante.

Vos Rapporteurs ont adopté le point de vue de présenter des « briques de base » sur l'énergie à l'attention des parlementaires et du public. D'après la loi de 1983 qui l'a institué, c'est en effet la mission de l'Office parlementaire de recueillir des informations sur les conséquences des choix de caractère scientifique et technologique.

Aussi, le présent rapport se présente-t-il sous la forme d'un abécédaire des nouvelles technologies de l'énergie et de la séquestration du CO2, les différentes rubriques ayant pour objet de répondre aux interrogations de base sur telle ou telle technologie.

L'objectif de vos Rapporteurs sera atteint si les informations et les analyses qu'ils présentent sous une forme simple et ramassée sont utiles à l'élaboration des recommandations que les autres travaux parlementaires en cours ne manqueront pas de proposer.

SYNTHÈSE

La réduction des émissions de CO2 est un énorme défi technique et économique. Les combustibles fossiles dans l'approvisionnement du monde en énergie jouent en effet un rôle prédominant, avec 88% de l'énergie primaire consommée. Les volumes de CO2 émis sont massifs, de l'ordre de 25 milliards de tonnes par an. Les sources d'émission sont innombrables et souvent de faible volume unitaire.

La maîtrise des émissions de CO2 ne résultera pas d'une seule technologie mais d'un ensemble de moyens déployés simultanément, non seulement le développement des énergies sans carbone, mais aussi la maîtrise des émissions liées aux énergies fossiles, dont les réserves sont trop importantes pour qu'elles soient délaissées.

Avec le foisonnement et l'imbrication des technologies issues de la recherche et du développement actuels, les opportunités de progrès, dès lors que les ressources de la géologie et les lois de la physique ne sont pas ignorées, sont nombreuses et compatibles avec la croissance économique, c'est-à-dire à un coût acceptable.

· Les différents gaz à effet de serre

Les émissions de CO2 proviennent essentiellement de la combustion des énergies fossiles - charbon, pétrole, gaz naturel - dans les secteurs des transports, du résidentiel-tertiaire (bâtiments) et de l'industrie.

En termes de volumes d'émissions, le CO2 est le plus important des gaz à effet de serre, avec près de 80% des émissions mondiales et 70 à 75% des émissions des pays industrialisés. Le CO2, dioxyde de carbone ou gaz carbonique, a vu sa concentration dans l'atmosphère augmenter de 30% entre 1745 et 1998.

D'autres gaz absorbant les rayonnements infrarouges émis par la Terre sont rejetés par les activités humaines, en particulier dans les pays industrialisés : méthane, oxyde nitreux ou composés fluorés.

Le méthane est émis par les activités agricoles (élevages, cultures) ou industrielles (industries de l'énergie) ainsi que par les décharges d'ordures ménagères ou de déchets industriels. En France, pays industrialisé doté d'une agriculture puissante, le méthane CH4 représente plus de 10% des émissions totales. Les volumes de CH4 émis sont faibles mais son pouvoir de réchauffement global est 21 fois supérieur à celui du CO2. La concentration du méthane dans l'atmosphère a été multipliée par 2,5 depuis le début de la révolution industrielle.

L'oxyde nitreux N2O, dont le pouvoir de réchauffement global est 310 fois supérieur à celui du CO2, provient de l'utilisation d'engrais azotés, de la consommation d'énergie dans les transports et de certains procédés industriels. Le N2O compte pour 13% des émissions globales. Enfin, les composés fluorés correspondent à des émissions faibles en volume, dont l'impact est très élevé en raison de leur nocivité beaucoup plus forte que celle du CO2.

· Les volumes énormes des émissions de dioxyde de carbone et les performances variables des différents pays

Les émissions de CO2 liées à l'énergie se sont élevées à 25 milliards (Md) de tonnes de CO2 en 2003. Responsables de 27% des émissions mondiales, les États-Unis sont le premier émetteur, avec 6,6 Md tCO2, soit 72% de plus que l'Union européenne à 25. Après une baisse de 24% de ses émissions entre 1990 et 2003 en raison de la chute de la croissance économique, la Russie pourrait rencontrer des difficultés pour stabiliser ses émissions au niveau de 1990 comme elle s'y est engagée en ratifiant le Protocole de Kyoto en 2004.

D'ores et déjà, la Chine émet pratiquement autant de CO2 que l'Union européenne à 25, avec 15% des émissions mondiales. L'Inde émet trois fois moins de CO2 que la Chine.

Au sein de l'Union européenne, on doit souligner la remarquable performance de la France, qui, en 2003, a émis 2,2 fois moins de tonnes de CO2 que l'Allemagne et 1,4 fois moins que le Royaume-Uni. Rapportées au PIB, les émissions de la France sont moitié plus faibles que celles de l'Allemagne.

On peut se demander si l'application du Protocole de Kyoto à l'intérieur de la « bulle » européenne tient suffisamment compte de cette disparité. L'objectif de l'Allemagne est en effet une réduction de ses émissions de gaz à effet de serre de 21% seulement, par rapport à ses niveaux de 1990. Au terme de cette évolution, les émissions allemandes resteront très supérieures à celles de la France, même si celle-ci n'a comme contrainte que de stabiliser ses émissions au niveau de 1990.

· Deux secteurs d'importance majeure : la production d'électricité et de chaleur, et les transports

La production d'électricité et l'ensemble de la branche énergie - production de chaleur, raffineries - ont été responsables de 40% des émissions mondiales de CO2 en 2004. Les transports sont à l'origine du quart des émissions mondiales, avec un taux de croissance élevé, en raison de l'accroissement rapide du parc automobile.

L'industrie est à l'origine du cinquième des émissions mondiales de CO2 et le résidentiel tertiaire de 15 à 20% selon les estimations.

Grâce à son parc électronucléaire, la performance de la France est très singulière en matière d'émissions par secteur. La branche énergie ne représente au total que 14% des émissions totales. En conséquence, les émissions des transports s'élèvent à 38% du total et le résidentiel tertiaire à 27%.

En réalité, les performances du secteur des transports français ne sont pas plus mauvaises que dans les autres pays. L'excellence environnementale de la production électrique française a seulement comme conséquence paradoxale de braquer les projecteurs sur ce secteur, plus qu'ailleurs.

· Réduction des émissions de CO2 et sécurité énergétique

Dans la répartition mondiale des réserves en combustibles fossiles, après le Moyen-Orient qui possède plus de 60% des réserves de pétrole et plus de 40% des réserves de gaz naturel, l'Europe et les pays de l'ex URSS sont mieux dotés que les autres continents, si l'on prend en compte le charbon, le pétrole et le gaz.

On voit donc que la tentation peut être grande d'arrimer l'Europe à la Russie pour assurer ses approvisionnements en pétrole et surtout en gaz naturel. Il s'agit là d'un choix politique majeur déjà fait par la Commission européenne. La récente crise du gaz naturel entre l'Ukraine et la Russie montre les dangers d'une telle orientation.

Contribuant au respect par la France de son obligation de stabiliser au niveau de 1990 ses émissions de gaz à effet de serre au niveau de 1990, la réduction des émissions de CO2 a de nombreux bénéfices secondaires. Le premier est d'obliger à réduire les consommations unitaires et d'augmenter l'efficacité énergétique, ce qui peut contribuer à la baisse des coûts de production. Le deuxième est d'inciter au développement des énergies sans carbone, d'où une réduction possible de la dépendance énergétique extérieure.

I.- La réduction des émissions de CO2 liées aux énergies fossiles

88% de l'énergie primaire consommée dans le monde provient des combustibles fossiles. 80% des réserves mondiales de combustibles fossiles sont constituées de charbon.

Telle est la situation de l'énergie mondiale qu'on ne saurait trop rappeler.

« Consommer moins d'énergies fossiles en consommant mieux » est donc une priorité.

Différents moyens peuvent concourir à cet objectif. Le remplacement des centrales thermiques au charbon obsolètes par des installations à haut rendement énergétique permet de diminuer fortement les émissions de CO2, à production constante. L'accroissement du rôle du gaz naturel en remplacement du charbon aboutit au même résultat. La séquestration du CO2, c'est-à-dire sa capture et son stockage géologique, permettent de réduire les émissions des sources concentrées et massives de l'industrie. Des réductions d'émissions dans les transports sont également indispensables.

· Les technologies du charbon propre à haut rendement

Le remplacement d'une centrale thermique d'un rendement inférieur à 30% par une centrale de nouvelle génération d'un rendement supérieur à 40% permet de réduire de 25% les émissions de CO2, à production d'électricité constante.

Après la réduction des émissions de poussières, de SO2 et d'oxydes d'azote, le nouveau défi la production électrique avec le charbon est de généraliser les centrales à vapeur supercritique ou ultrasupercritique qui, fonctionnant à des pressions de 200 à 300 bar et à des températures de plus de 500°C, ont des rendements atteignant 50%.

Les centrales thermiques à gazéification intégrée du charbon et à cycle combiné IGCC (Integrated Gasification coal Combined Cycle) représentent une autre possibilité. Les rendements atteints sont inférieurs à ceux des centrales ultrasupercritiques mais différents types de combustibles peuvent être utilisés.

À terme, l'objectif est de mettre au point la centrale thermique du futur, c'est-à-dire sans émission ni de polluants ni de dioxyde de carbone, ce qui exige inévitablement la séquestration du CO2 produit en même temps que l'électricité.

En tout état de cause, les émissions de CO2 des centrales thermiques pourront être fortement diminuées, d'un facteur de 6 à 8, mais ne seront vraisemblablement pas réduites à zéro, en raison du coût énergétique des procédés et de leurs rendements décroissants.

· Les cycles combinés à gaz

Parmi les applications industrielles du gaz naturel, la production d'électricité connaît un essor rapide qui devrait se poursuivre dans les prochaines années.

Le remplacement des centrales thermiques au charbon par des cycles combinés à gaz permet de diviser par deux les émissions de dioxyde de carbone par kWh produit. Un cycle combiné à gaz de 800 MW n'émet en effet que 365 grammes de CO2 par kWh produit, contre 777 gCO2/kWh pour une centrale thermique à charbon pulvérisé.

La production d'électricité à l'aide de cycles combinés à gaz naturel présente toutefois des inconvénients. En premier lieu, un cycle combiné de 900 MW produisant en base émet 2,6 millions de tonnes de CO2 par an. En second lieu, le coût du combustible représentant 63% du coût hors taxe total, le coût du MWh est très sensible à l'évolution du prix du gaz naturel. Or celui-ci semble durablement orienté à la hausse. Le prix du gaz naturel est en effet passé de 6 $/MBtu en février 2005 à 15 $/MBtu en août 2005 et se trouvait à 9 $/MBtu en janvier 2006.

· La séquestration du CO2

La séquestration du CO2 comprend deux opérations principales : d'une part la capture du dioxyde de carbone CO2 à l'état gazeux, et, d'autre part, son stockage de manière à éviter tout rejet dans l'atmosphère. Une troisième opération peut s'imposer, le transport, dès lors que le stockage s'opère sur un site différent de celui de la capture.

La capture du CO2 issu de l'utilisation de combustibles fossiles est réalisée, dans la pratique, selon trois grands types de technologie.

La capture postcombustion correspond à la récupération du CO2 dans les fumées issues de la combustion.

La capture précombustion correspond à la décarbonatation du combustible en préalable à la combustion. Le dioxyde de carbone est alors récupéré en amont de la combustion. Celle-ci ne porte alors que sur l'hydrogène et ne rejette que de la vapeur d'eau.

La capture par oxycombustion correspond au remplacement du comburant habituel - l'oxygène de l'air - par de l'oxygène pur, ce qui permet d'obtenir en aval un flux de dioxyde de carbone très concentré ou pur.

Aucune des solutions techniques de capture ne permettra de réduire à zéro les émissions d'une même source, en raison de rendements décroissants des procédés et des coûts incompressibles élevés qui en résulteront

S'agissant du transport, les solutions les plus vraisemblables sont le transport par gazoduc, déjà utilisé, ou par bateau.

La méthode de la minéralisation étant éliminée pour son coût et le stockage océanique pour ses conséquences environnementales, les deux solutions préférées pour le stockage du CO2 sont le stockage dans des gisements d'hydrocarbures qui peuvent être stimulés par l'injection de CO2 et le stockage dans des aquifères salins ou basaltiques profonds.

De multiples expériences sont en cours, tant pour la capture que pour le stockage. Le coût de la séquestration est encore très élevé, selon Gaz de France, opérateur qui possède l'expérience de l'ensemble de la chaîne. C'est la capture qui est l'opération la plus coûteuse, d'un montant compris entre 40 et 60 /t CO2. Le coût du transport est compris entre 2 et 20 /t CO2. Le coût du stockage est, pour sa part, compris entre 0,5 et 10 /t CO2.

Au total, dans l'état actuel des techniques, le coût de la séquestration est compris entre 43 et 90 /t CO2.

S'appliquant aux seules sources statiques d'émissions massives, selon des procédés dont l'efficacité n'est pas totale, la capture et le stockage des émissions de CO2 se limitent également aux installations émettrices suffisamment proches des formations géologiques favorables.

Selon des estimations réalisées par l'industrie des hydrocarbures, une réduction de près de 20% des émissions de CO2 des États-Unis, de l'Union européenne et de la Chine pourrait être obtenue grâce à la séquestration, ce qui représente environ 10% des émissions mondiales.

La séquestration du CO2 représente donc une solution intéressante mais partielle, dont la mise en application est de surcroît subordonnée à une baisse sensible de ses coûts.

· La réduction des consommations dans les transports

La prédominance des carburants pétroliers dans les transports a plusieurs raisons. La première est, sans aucun doute, le faible prix relatif, pendant une très longue période, de l'essence et du gazole, par rapport à toutes les autres sources de carburants. La deuxième est l'inertie des systèmes énergétiques - production, distribution, moteurs -, dont la mise en place exige des investissements lourds.

Une autre raison est d'ordre technique, à savoir l'avantage déterminant des carburants liquides, en raison de leur fort contenu énergétique, leur facilité de stockage, de distribution et la rapidité de leur chargement à la pompe.

Par comparaison, le GPL (gaz de pétrole liquéfié) doit être placé sous une pression de 5 bar. Le GNV (gaz naturel véhicule) doit être comprimé à 200 bar dans le réservoir d'une automobile, et il faut une nuit pour le remplir avec un compresseur individuel. Il faut 4,6 litres d'hydrogène comprimé à 700 bar pour avoir l'équivalent énergétique d'un litre d'essence. L'électricité est stockée dans des batteries, longues à recharger, qui ne donnent, actuellement, qu'une autonomie de 100 à 200 km à une automobile particulière, dans le meilleur de cas.

Autre élément important pour la pérennité des carburants automobiles, des carburants liquides pourront être produits à partir des énormes réserves de charbon et de gaz naturel.

Si les carburants liquides s'avéraient irremplaçables pour les transports automobiles et aériens, les filières bien connues Gaz de synthèse et Fischer Tropsch pourraient se développer, en permettant de diversifier leur fabrication à partir du charbon et du gaz naturel. Il conviendrait alors de procéder à la séquestration du CO2 produit du fait de l'énergie consommée lors la conversion du charbon et du gaz naturel.

La production de carburants synthétiques à partir du charbon constitua un domaine prioritaire de l'effort de guerre de l'Allemagne nazie. Au maximum de sa capacité de production, au début 1944, l'Allemagne produisait 124 000 barils par jour de carburants synthétiques à partir du charbon, dans 25 usines, basées à parité sur les deux procédés Bergius ou Fischer-Tropsch. Le procédé Bergius d'hydrogénation fournissait de l'essence de haute qualité pour les moteurs d'avions. La synthèse Fischer-Tropsch fournissait du gazole de haute qualité, des lubrifiants, et de l'essence de moindre qualité.

La synthèse de carburants liquides à partir du charbon est aujourd'hui mise en œuvre en Afrique du Sud. Les carburants CTL « Coal-to-Liquids » sont produits à hauteur de 200 000 barils par jour, ce qui représente près de 40% de la consommation nationale.

Selon un procédé voisin, le Qatar a commencé de valoriser ses énormes réserves de gaz naturel (15% des réserves mondiales) par la production de carburants GTL « Gas-to-Liquids ».

La réduction des consommations de carburants liquides des moteurs à combustion interne apparaît en conséquence d'une importance capitale. Le parc automobile mondial est estimé à près de 700 millions de véhicules en 2004. Il devrait augmenter de 84% d'ici à 2030, selon l'Agence internationale de l'énergie.

La consommation des automobiles particulières en France diminue en moyenne d'un litre aux cent kilomètres tous les quatre ans.

Grâce au progrès technique, la diminution de cylindrée des moteurs à performances égales ou « downsizing » présente le double avantage de réduire la consommation tout en accroissant la puissance et en particulier l'accélération, avec la généralisation des turbos. La diésélisation du parc permet également une réduction de la consommation moyenne.

Les constructeurs français sont en pointe dans l'Union européenne, si l'on utilise la mesure indirecte de la consommation par les émissions de CO2 moyennes des véhicules vendus par Renault et PSA, qui sont de 148 g/km, contre 160 g/km pour la moyenne européenne. Les petits véhicules dont les émissions sont inférieures à 120 g/km constituent le créneau dont les ventes sont en France les plus dynamiques.

Au-delà des progrès techniques sur les moteurs, d'autres évolutions amélioreraient l'efficacité énergétique du transport automobile. La congestion du trafic est en effet une source considérable d'inefficacité énergétique, en particulier pour le transport routier. Par ailleurs, la généralisation des bonnes pratiques de conduite, notamment grâce au respect des limites de vitesses, serait également une source importante d'économies d'énergie.

Le développement des énergies sans carbone est le deuxième axe qui permet de réduire à la fois les émissions de CO2 et la dépendance extérieure.

II.- Le développement des énergies sans carbone

Compte tenu de leur part dans les émissions de CO2, deux secteurs doivent concentrer les efforts de la recherche et de l'investissement dans les énergies sans carbone : la production d'électricité et les transports.

La croissance de la consommation d'électricité est inséparable du développement économique.

Deux stratégies de réduction des émissions sont possibles et complémentaires. La première stratégie est un changement de modèle de production électrique, avec la multiplication des moyens de production d'électricité décentralisés. C'est une stratégie coûteuse en investissements et limitée en volumes de production, dès lors que l'on cherche à produire de l'électricité en masse avec des techniques dédiées à la production décentralisée.

Sans changer de modèle de production électrique, l'énergie nucléaire est en revanche parfaitement adaptée à la production en masse, compétitive et fondée sur un socle de réserves en uranium considérable.

Pour les transports, deux voies sont prometteuses : d'abord les biocarburants de première génération et surtout de 2ème génération, et, ensuite, pour un terme plus éloigné, les piles à combustibles.

· La contribution faible de l'éolien au niveau national mais notable au niveau local

Le fonctionnement des éoliennes est soumis à la météorologie et non pas à la demande d'électricité. En dessous d'une certaine vitesse de vent, en général 5 m/s, soit 18 km/h, une éolienne, ne pouvant fournir de la puissance, est déconnectée du réseau et tourne à vide, ou bien, est arrêtée purement et simplement. Par ailleurs, avec des vents d'une vitesse supérieure à 25 m/s, soit 90 km/h, les éoliennes doivent être stoppées, faute de pouvoir supporter les efforts mécaniques correspondants. Autre variable importante conditionnant la production d'électricité effective d'une éolienne, la vitesse moyenne du vent peut, en variant d'un facteur 1,7, modifier la quantité d'énergie fournie du simple au triple, d'où l'intérêt d'implanter ces machines dans des zones aux régimes de vent régulier et modéré.

En conséquence, l'alimentation en électricité d'utilisateurs, particuliers ou industriels, ne peut en aucun cas reposer exclusivement sur des éoliennes. Des moyens de production complémentaires doivent nécessairement leur être associés.

En réalité, l'éolien ne semble pas en mesure d'assurer une part importante de la production d'électricité nationale. On le voit bien en Allemagne, dont les 16 600 MW de capacité éolienne installée n'ont fourni que 4% de la production totale d'électricité. A l'autre extrémité du spectre, se trouve bien le Danemark avec 17,1% de la production nationale d'électricité mais le montant produit ne dépasse pas 7 TWh. En revanche, l'éolien peut constituer l'un des éléments de production d'un réseau d'importance locale.

Enfin, l'éolien offshore ne semble pas représenter un saut qualitatif pour l'éolien. Le coût de construction de l'éolien offshore est en effet deux fois supérieur à celui de l'éolien terrestre.

· Le solaire photovoltaïque, une vocation exclusive pour la production décentralisée

Le solaire photovoltaïque fournit des solutions de plus en plus efficientes et compétitives pour l'électrification décentralisée. Les opérations à grande échelle d'équipement d'habitations réalisées dans différents pays ne doivent pas pour autant faire croire que le solaire photovoltaïque est adapté à une production de masse d'électricité.

Le coût de l'électricité photovoltaïque est d'environ 500 /MWh pour une installation raccordée au réseau et d'environ 1000 /MWh pour une installation isolée.

Intéressant pour des sites isolés, le solaire photovoltaïque ne pourrait en aucun cas assurer une production de masse d'électricité, pour des raisons techniques et économiques.

La production d'un panneau solaire photovoltaïque est intermittente. En tout état de cause, la production électrique obtenue à l'issue d'un programme comme le programme allemand de 100 000 toits, est négligeable par rapport aux moyens de production classiques.

100 000 toits d'une puissance de 3 kWc chacun assurent l'équivalent annuel de 0,4 TWh, soit 150 fois moins que la production hydroélectrique française, avec un surcoût annuel de 200 millions .

En réalité, le développement du solaire photovoltaïque est recherché par les pays industrialisés, pour stimuler leur industrie nationale, dans la perspective du développement des marchés de l'électrification décentralisée dans les pays en développement.

· Le nucléaire pour réduire les émissions de CO2 et produire une électricité compétitive

6,5% : telle était, en 2003, la part de l'énergie nucléaire civile dans la production d'énergie primaire mondiale, soit un total voisin de celui de l'énergie hydroélectrique mondiale.

Si l'on se focalise sur l'électricité, le nucléaire a assuré, en 2003, 16% de la production mondiale, l'hydraulique 16%, le charbon 40%, et le pétrole et le gaz 26 %.

Les pays qui se sont dotés d'un parc électronucléaire important sont ceux qui présentent les meilleures performances en terme de limitation de leurs rejets de gaz à effet de serre, à niveaux de développement comparables.

Les réacteurs actuellement en fonctionnement sont à 81% des réacteurs à eau légère de 2ème génération, qui utilisent de l'uranium enrichi. Leur approvisionnement en combustible ne pose aucune difficulté, de même que celui des réacteurs de Génération III, comme l'EPR (European Pressurized water Reactor), qui pourraient les remplacer à partir des années 2020. Les réserves classiques connues d'uranium représentent en effet 70 années de consommation actuelle et les réserves probables supplémentaires, 100 années de plus, ce qui permettrait d'engager la croissance du parc électronucléaire mondial avec le même type de réacteurs.

La pérennité de l'approvisionnement en uranium est, en réalité, assurée pour bien plus longtemps.

Le niveau des réserves d'uranium sera en effet porté à plusieurs millénaires avec les réacteurs de 4ème Génération, appelés à prendre, vers 2040, le relais des réacteurs à eau légère. Ces réacteurs utiliseront en effet une proportion du potentiel énergétique de l'uranium beaucoup plus grande que les réacteurs à eau légère.

Sur le plan des coûts de production, le nucléaire est plus compétitif que les autres filières, et ceci dans la durée.

Selon la DGEMP (Direction générale de l'énergie et des matières premières), par rapport au coût de 28,4 du MWh nucléaire, le cycle combiné à gaz est plus cher de 20 % et le charbon pulvérisé de 23 %.

Par ailleurs, la hausse du prix de l'uranium n'a qu'un impact très réduit sur le prix du MWh nucléaire. En effet, le coût de l'uranium ne représente que 5% du coût du MWh.

En conséquence, si le prix de l'uranium était multiplié par dix, le coût de production de l'électricité nucléaire n'augmenterait que de 40%. En revanche, si le prix du gaz était multiplié par dix, le coût du MWh gaz serait multiplié par 6.

Si l'on prend en compte le coût du CO2 émis, l'avantage du nucléaire est alors encore plus déterminant.

Comparé aux 28,4 €/MWh du nucléaire, le MWh gaz ressort en effet à 42,1 € (+48%) et celui du charbon à 48,3 € (+70%).

Enfin, toutes les charges du nucléaire, actuelles et futures, sont couvertes par le prix de l'électricité, et tout particulièrement les charges de gestion des déchets radioactifs et les charges de démantèlement des centrales.

Sur la base d'un coût de production de 30 €/MWh, les provisions pour retraitement et stockage des déchets représentent 4 €/MWh, soit 14,2% du total et les provisions pour démantèlement 2 €/MWh (5,3%).

Après que des solutions ont été mises en place pour les déchets de faible ou très faible activité à vie courte, représentant 90% des volumes de déchets, la loi du 30 décembre 1991, relative aux recherches sur la gestion des déchets radioactifs a permis de préciser les méthodes applicables aux déchets de haute et moyenne activité à vie longue, qui pourront être mises en application dans les 15 années à venir.

· Les biocarburants de 2ème génération et les piles à combustible

Les biocarburants de première génération sont fabriqués à partir des graines de blé, de soja ou de tournesol ou de la racine de betterave, qui constituent les réserves énergétiques de ces végétaux.

La nouvelle frontière des biocarburants consiste à les produire à partir de la plante entière. Les volumes à en attendre sont considérablement plus élevés sans concurrence avec les cultures alimentaires.

Au lieu du charbon et du gaz naturel fournissant le carbone indispensable pour le procédé gaz de synthèse/Fischer-Tropsch, on peut envisager de recourir à la lignocellulose. La lignocellulose est une combinaison de lignine et de cellulose qui renforce les cellules des plantes.

Le premier stade de la transformation de la biomasse est l'obtention de gaz de synthèse. Pour parvenir à des carburants liquides, il suffit ensuite de mettre en œuvre la réaction de Fischer-Tropsch.

Les biocarburants de 2ème génération présenteraient ainsi l'avantage de valoriser des ressources abondantes et de présenter un bilan d'émission de CO2 quasiment parfait, si l'énergie utilisée pour les procédés provenait elle-même de la biomasse.

En outre, la biomasse pourra être une source d'hydrogène pour les piles à combustible.

Depuis 2001, les efforts de recherche semblent conduire à l'émergence de trois technologies principales pour les piles à combustible : les piles SOFC (Solid Oxide Fuel Cell) pour la cogénération de chaleur et d'électricité, la pile DMFC (Direct Methanol Fuel Cell) pour les applications portables et les piles PEMFC (Proton Exchange Membrane Fuel Cell) pour les transports.

Selon le CEA, le coût d'une pile à combustible rapporté à sa puissance est de 6000 à 8000 /kW. Or le coût du kW d'un moteur diesel de bus est de l'ordre de 150 /kW. Pour ce type d'application, le gain à obtenir est d'un facteur 50. Pour une automobile individuelle, le défi semble encore plus difficile à relever. Le coût de l'unité de puissance du moteur à combustion interne étant de 30 à 50 /kW, il faut donc parvenir à diviser le coût de la pile au moins par un facteur 200 pour la rendre compétitive avec une motorisation classique.

Pour l'IFP (Institut Français du Pétrole), la commercialisation des piles à combustible n'apparaît pas possible avant 2020. Renault l'envisage pour 2015-2020.

CONCLUSION : des priorités indispensables à brève échéance

· Des investissements colossaux pour le renouvellement et l'augmentation des capacités

Les pays industrialisés ont opéré une vague d'investissements massifs dans l'énergie, entre 1960 et 1980, pour faire face à la croissance de la consommation d'électricité et de carburants automobiles.

Compte tenu de la durée de vie des équipements dans l'énergie - de 20 à 50 ans, de nombreuses installations seront à renouveler dans les toutes prochaines années : centrales thermiques, centrales nucléaires, raffineries de pétrole.

À ces investissements de renouvellement, s'ajouteront des investissements de capacité, dans les pays industrialisés mais surtout dans les pays émergents ou en développement : nouvelles centrales électriques, exploration-production de pétrole et de gaz naturel, usines de liquéfaction du gaz naturel, gazoducs.

L'Agence internationale de l'énergie évalue à 13 500 Md les investissements à réaliser dans le monde

C'est la production et la distribution d'électricité qui exigeront les investissements les plus importants : 60% du total des investissements totaux dans l'énergie. Les investissements dans le transport et la distribution seront encore plus importants que dans la production.

· La visibilité et la modération indispensables des mécanismes de réduction des émissions

L'Union européenne s'est engagée à réduire ses émissions de gaz à effet de serre de 8% à l'horizon 2008-2012, par rapport au niveau de 1990. Selon la Commission européenne, le coût de cette réduction devrait être de 6,8 milliards par an, soit 0,2% du PIB communautaire chaque année. La mise en place d'un système d'échanges de quotas d'émission est censée diminuer de moitié le coût de la réduction.

En tout état de cause, l'atonie de la croissance économique européenne par rapport à celle de ses grands compétiteurs, exige la plus grande prudence dans les charges que l'Union européenne s'impose unilatéralement.

Au cours de la période 2005-2007, 11428 installations industrielles européennes dont 1172 en France, doivent respecter des quotas d'émissions. Elles seraient contraintes d'en acheter sur le marché, au cas où leur efficacité énergétique diminuerait et leur production augmenterait. Or le marché des quotas est d'ores et déjà actif et le prix des quotas d'émissions semble durablement installé au-dessus de 20 /tCO2.

Pour EDF, la capture du CO2 émis par une centrale thermique au charbon doublerait, avec les technologies actuelles, le coût du MWh produit. Il faudrait y ajouter le coût du transport et du stockage. Le prix du MWh gaz serait accru de 50%.

Grâce à son parc électronucléaire, la France n'est pas directement concernée. Mais c'est toute la croissance économique de l'Union européenne, déjà plus lente que dans les autres zones économiques, qui serait menacée.

Selon la Commission, les dispositions actuelles sont expérimentales et pourront être révisées en 2007. Cette volonté d'expérimentation est en soi louable mais l'insécurité qu'elle crée dans le temps est un frein à l'investissement qui requiert, tout particulièrement dans le secteur de l'énergie, une visibilité à long terme. Par ailleurs, il eût été raisonnable, comme l'ont fait les États-Unis pour le Clean Air Act et les quotas d'émissions de SO2, de plafonner le prix de la tonne de CO2.

Il est possible qu'après la délocalisation des industries de main-d'œuvre, l'Europe assiste à la délocalisation de ses industries fortement consommatrices d'énergie.

· Les grandes dates de l'énergie

Sur le plan technologique, 2020 est une date charnière pour l'énergie. Des investissements de renouvellement du parc électrique devront entrer en service, à cet horizon, dans la plupart des pays industrialisés.

Par ailleurs, de nombreuses avancées technologiques déboucheront sur des réalisations opérationnelles à cette date.

D'ici 2020 et au-delà, une priorité doit être accordée à l'efficacité énergétique qui a deux dimensions : d'une part, la réduction des consommations énergétiques de chacune des filières, et, d'autre part, la sélection des filières dont le rapport bénéfice sur coût est le plus avantageux, en termes d'émissions de CO2 et d'investissements, comme de prix de revient.

Compte tenu de l'ampleur des défis à relever, des priorités sont indispensables. D'ici à 2020, la R&D doit être spécialement active dans le domaine de l'énergie, afin de déterminer le plus rapidement possible des priorités claires et d'y allouer d'importants moyens.

LEXIQUE DES ÉNERGIES

BIOCARBURANTS

L'utilisation de l'éthanol et des huiles végétales comme carburant est une pratique courante pour de nombreux automobilistes. L'éthanol tiré de la canne à sucre représente 85% du carburant ES85 servi au Brésil à près de cinq millions de véhicules. L'huile de coprah, des huiles végétales, voire l'huile de friture pour les automobilistes facétieux, propulsent des moteurs diesel de voiture ou de tracteurs d'ancienne génération, certes en contravention avec la réglementation et à titre anecdotique, mais sans inconvénient mécanique majeur.

Alors que le prix du pétrole semble durablement établi à plus de soixante dollars le baril, soit un niveau deux fois supérieur à celui de janvier 2004, les biocarburants représentent une chance de diminuer dans des proportions non négligeables la dépendance des transports vis-à-vis des carburants classiques. Leur intérêt apparaît d'autant plus fort que leur bilan CO2 est bien plus favorable que celui des carburants d'origine minérale et que leur production compléterait les revenus d'une agriculture française ultra-productive en panne de débouchés.

Le développement des biocarburants exige une démarche dynamique et une lisibilité de l'action des pouvoirs publics.

Les réponses sur le bilan environnemental et énergétique des biocarburants sont désormais incontestables. Mais la compatibilité des biocarburants avec les carburants classiques doit être assurée au niveau technique mais aussi au niveau commercial. Le développement des biocarburants exige une action coordonnée sur tous les maillons de la filière, des cultures énergétiques à la production industrielle d'éthanol, d'ETBE (éthyl tertio butyl éther) ou d'esters d'huiles végétales, jusqu'à la distribution et à la commercialisation à grande échelle des carburants verts.

Après avoir successivement occupé puis perdu un rôle leader en Europe pour les biocarburants, la France est, après les décisions prises fin 2005, engagée dans une stratégie offensive des pouvoirs publics conduite en concertation et en coopération avec tous les acteurs de la filière.

Le bioéthanol et les esters d'huiles végétales : modes de production et d'utilisation

L'éthanol, simple à produire, moins simple à utiliser

Le bioéthanol provient de la fermentation des sucres et de l'amidon d'un grand nombre de plantes. On l'obtient en France à partir du blé et de la betterave principalement, aux États-Unis du maïs, et, au Brésil de la canne à sucre.

Le bioéthanol peut être incorporé à l'essence mais plusieurs précautions doivent être prises.

La première est que l'éthanol augmente la tension de vapeur du mélange, qui est plafonnée par la réglementation pour des raisons sanitaires et environnementales3. Pour compenser cette augmentation, le mélange doit donc se faire avec une essence spéciale dont la tension de vapeur est inférieure à l'essence normale.

Deuxième précaution, l'éthanol a tendance à capter l'humidité et à se mélanger très facilement à l'eau. Dans certains cas, un phénomène de démixtion se produit, où l'éthanol quitte le mélange essence-éthanol pour s'incorporer à l'eau résiduelle qui peut se trouver en fond de cuve par exemple. En conséquence, des précautions particulières doivent être prises pour le stockage de mélanges essence-éthanol.

Troisième précaution, les oléoducs transportent certes différents types de produits. Mais pouvant polluer les canalisations, le mélange essence-éthanol ne peut y transiter. On doit donc livrer ce mélange par camion spécialisé ou bien réaliser le mélange sur place.

Si des solutions pratiques existent, l'incorporation d'éthanol à l'essence complique toutefois la tâche des distributeurs de produits pétroliers.

C'est pour ces raisons, mais aussi pour conserver une part de leur valeur ajoutée que les pétroliers ont mis au point un dérivé de l'éthanol, l'ETBE (éthyl tertio butyl éther), parfaitement compatible avec l'essence. Dans ce schéma, l'éthanol est converti en ETBE par réaction sur l'isobutène, un coproduit de l'industrie pétrolière, avant d'être mélangé à l'essence.

Côté utilisation, le mélange éthanol-essence peut être utilisé à différentes compositions, de quelques pourcent jusqu'à 85% dans le mélange ES85.

Caractéristique technique importante, le contenu énergétique de l'éthanol est, à volume identique, inférieur à celui de l'essence. Il faut en effet 1,5 litre d'éthanol pour produire la même énergie qu'un litre d'essence. Toutes choses égales par ailleurs, un automobiliste qui parcourait 12 km avec un litre d'essence ne parcourt que 8 km avec un litre d'éthanol4.

Les esters d'huiles végétales

Les huiles végétales utilisables dans les moteurs à combustion interne proviennent de différentes plantes, en France d'abord du colza et ensuite du tournesol, mais également du soja et d'huile de palme dans d'autres pays. Les huiles végétales sont extraites de tourteaux utilisés par ailleurs pour l'alimentation animale.

Utilisables directement dans des moteurs diesel frustes, les huiles végétales sont toutefois transformées en esters d'huiles végétales (EHV) incorporés dans le gazole pour former des mélanges parfaitement compatibles avec les moteurs diesels modernes5.

L'addition d'esters dans le gazole peut être plus ou moins importante, allant de quelques pourcent jusqu'à 30% pour les flottes captives, les EHV pouvant même être utilisés purs.

Le contenu énergétique des EHV est légèrement inférieur à celui du gazole. Il faut en effet 1,063 litre d'EHV pour obtenir la même énergie qu'avec un litre de gazole, un automobiliste parcourant 17 km avec un litre de gazole ne pouvant faire que 16 kilomètres avec un litre d'EHV6.

Des biocarburants peuvent également être fabriqués à partir de graisses animales. On parle alors d'esters méthyliques d'huiles animales EMHV. Le potentiel de fabrication serait, en France, d'environ 150 000 tonnes par an.

Les biocarburants de 2ème génération  « Biomass-to-Liquids » (BTL)

Les biocarburants de première génération sont fabriqués à partir des graines de blé, de soja ou de tournesol ou de la racine de betterave, qui constituent les réserves énergétiques de certains végétaux.

La nouvelle frontière des biocarburants consiste à les produire à partir de la plante entière. Les volumes à en attendre sont considérablement plus élevés sans concurrence avec les cultures alimentaires.

Selon l'ADEME, le potentiel de la biomasse encore mobilisable en France représente l'équivalent énergétique de 30 millions de tonnes de pétrole, 80% de cette ressource provenant de la partie lignocellulosique de la biomasse7.

Les carburants qui pourront être obtenus à partir de cette matière première abondante - bois, résidus de bois, pailles, tiges, déchets végétaux - constitueront les biocarburants de 2ème génération.

Soutenues au plan national et s'effectuant aussi en partenariat européen, les recherches sur les biocarburants de 2ème génération portent d'abord sur l'adaptation à la lignocellulose du procédé classique du gaz de synthèse, ensuite sur la réaction de Fischer-Tropsch, procédé utilisé pour les carburants liquides CTL et GTL, voire la conversion eau-gaz pour produire de l'hydrogène [voir les rubriques Gaz de synthèse, CTL et GTL], et, enfin, sur la production biochimique d'éthanol.

La lignocellulose matière première pour le gaz de synthèse et Fischer-Tropsch

Le procédé « production de gaz de synthèse - réaction de Fischer-Tropsch » s'applique d'ores et déjà au charbon en Afrique du Sud ou au gaz naturel en Malaisie et au Qatar. Au lieu de ces deux matières premières énergétiques minérales fournissant le carbone indispensable, on peut envisager de recourir à la lignocellulose. La lignocellulose est une combinaison de lignine et de cellulose qui renforce les cellules des plantes.

Le premier stade de la transformation de la biomasse est l'obtention de gaz de synthèse, selon la réaction C6H9O(biomasse) + 2 H2O → 6 CO + 13/2 H28.

Pour parvenir à des carburants liquides, il suffit ensuite de mettre en œuvre la réaction de Fischer-Tropsch, selon laquelle :

n CO + 2n H2 → (CH2-)n + n H2O.

La France s'est fixé l'objectif de mettre en œuvre en France le procédé classique de transformation de la biomasse - bois, résidus de bois, pailles de céréales - en gaz de synthèse suivi d'une synthèse Fischer-Tropsch de carburants liquides.

Animé principalement par l'IFP et le CEA, le programme national de recherche sur les bioénergies (PNRB) de l'Agence nationale de recherche a, pour première étape, l'importation de technologies étrangères, et, comme deuxième étape, leur amélioration.

La production d'hydrogène à partir de la biomasse

Comme pour les carburants liquides tirés du charbon et du gaz naturel, le gaz de synthèse produit à partir de la biomasse peut conduire à des carburants liquides par la réaction de Fischer-Tropsch ou bien à la synthèse d'hydrogène, selon la réaction de conversion eau-gaz : CO + H2O → CO2 + H2.

À partir du moment où la commercialisation des piles à combustibles embarquées sera possible dans les transports, alors la biomasse pourra servir de matière première pour la synthèse d'hydrogène.

La production biochimique d'éthanol

Première étape de la production d'éthanol à partir de la lignocellulose, la transformation de celle-ci en sucres est réalisée par une opération d'hydrolyse enzymatique. Deuxième étape, une partie des sucres9 est transformée en éthanol par fermentation alcoolique. Pour industrialiser les procédés dont l'échelle actuelle est celle du laboratoire, il faudra réduire le coût du prétraitement de la lignocellulose, le coût des enzymes ou les remplacer éventuellement par des micro-organismes.

La production d'éthanol à partir de lignocelluloses fait l'objet du programme international NILE10, coordonné par l'IFP, qui a pour objectif d'augmenter le rendement et de réduire le coût du procédé. La construction à terme d'un pilote est prévue en Suède.

Bilan environnemental et énergétique des biocarburants

Produits à partir de la biomasse, une énergie renouvelable, les biocarburants présentent un intérêt environnemental certain en terme de réduction des émissions de CO2. Des craintes ont toutefois longtemps existé sur leur bilan énergétique, craintes qui sont aujourd'hui démenties.

Un bilan environnemental très favorable

Le remplacement des carburants classiques par des biocarburants se traduit par une réduction nette des émissions de CO2. La capture du CO2 lors de la croissance de la plante par le phénomène de photosynthèse compense en effet l'émission de CO2 lors de la combustion.

Si la fabrication du biocarburant entraîne des dépenses énergétiques, son bilan global reste néanmoins largement favorable aux biocarburants.

D'après des estimations concordantes, la filière éthanol émet 2,5 fois moins de gaz à effet de serre que la filière essence, et la filière EHV 3,3 fois moins que la filière gazole11.

Compte tenu de la forte croissance de la consommation d'énergie dans les transports et de l'augmentation rapide des émissions de CO2 dans ce secteur, le développement des biocarburants revêt un intérêt particulier vis-à-vis de la lutte contre l'effet de serre.

Dans l'hypothèse d'un taux d'incorporation de 5,75%, fixé comme objectif pour 2008 par le Gouvernement, la réduction d'émissions de gaz à effet de serre est, en France, estimée à 7 millions de tonnes de CO2.

Un bilan énergétique qui pourrait être maximisé

L'intérêt de produire des biocarburants dépend aussi du bilan entre leur contenu énergétique et l'énergie dépensée pour leur culture et leur production industrielle. L'ordre de grandeur des économies de pétrole réalisables est un autre critère d'appréciation.

Sur la base de nombreuses études, il ne fait plus aujourd'hui de doute que les biocarburants, en dépit de la dépense énergétique faite pour les produire, entraînent bien une économie d'énergie fossile : l'énergie de carburants classiques qu'ils permettent de remplacer est supérieure à l'énergie des combustibles classiques consommés lors de leur fabrication.

Une controverse demeure toutefois sur l'importance des économies réalisées. Selon la méthode de prise en compte du contenu énergétique des coproduits, le bilan énergétique des biocarburants varie dans des proportions importantes12.

Représentant le rapport entre l'énergie du biocarburant considéré et la dépense énergétique liée à sa production, le bilan énergétique13 de l'éthanol de blé varie ainsi entre 1,19 et 2,04, celui de l'éthanol de betterave entre 1,28 et 2,04 et celui des EHV entre 2,5 et 2,44. Mais, dans tous les cas, et quelle que soit la méthode, les biocarburants se substituent à davantage de combustibles fossiles que leur fabrication n'en a consommés. Par ailleurs, le bilan énergétique des esters d'huile végétale est nettement supérieur à celui de l'éthanol.

L'intérêt des biocarburants provient aussi de l'économie de pétrole qu'il est possible de réaliser au plan national.

L'incorporation de 5,75% de biocarburants dans l'essence et le gazole permettrait, selon l'INRA14, une économie de pétrole de l'ordre de 1,5 à 2 millions de tep, pour une consommation nationale de 92,8 Mtep en 2004.

S'ils semblent décevants, ces différents résultats - microéconomiques et macroéconomiques - sont évidemment tributaires du contexte technique d'aujourd'hui.

Une efficacité énergétique accrue des procédés dans leur configuration actuelle améliorerait les choses. De même, les bilans énergétiques seraient fortement améliorés si l'on mobilisait le contenu énergétique de la biomasse résiduelle des cultures - paille de blé, tiges de maïs, tourteaux de colza -, soit en les utilisant directement dans la fabrication des biocarburants, soit en les valorisant par ailleurs.

Bilan économique et fiscal

La compétitivité des biocarburants est difficile à évaluer avec les outils économiques existants, qui la minorent systématiquement. Les études récentes dont les résultats sont pessimistes quant au bilan économique des biocarburants, présentent des limites méthodologiques manifestes, en omettant de prendre en compte les externalités des biocarburants qui fondent pourtant leur développement.

Une compétitivité sur le marché conditionnée par des prix du pétrole supérieurs aux niveaux actuels

Selon une étude de l'INRA, sans soutien des pouvoirs publics, les biocarburants ne seraient toujours pas compétitifs pour un prix du pétrole à 65 dollars le baril15. Calculés du champ au produit fini, les coûts des biocarburants comprennent les prix d'achat des matières premières (blé, colza, betteraves) et les coûts logistiques et industriels16. Les évaluations sont faites dans le cadre d'une compétition, au niveau communautaire, entre les usages alimentaires et les usages énergétiques17. Dans le cadre de ces hypothèses, ni l'éthanol de blé ou de betterave, ni l'ETBE de blé ou de betterave ne seraient compétitifs avec l'essence au niveau de 80 $/baril. Les EHV de colza le sont, pour leur part, avec le gazole pour un prix du pétrole de 75 $/baril.

Pour l'IFP18, qui raisonne sur longue période, l'éthanol ne pourrait être compétitif à valeur énergétique égale qu'avec un prix du baril de l'ordre de 150 $/baril. Toutefois les EHV peuvent se révéler compétitifs pour un prix du baril variant entre 35 $ et 85 $, suivant les variations respectives du prix de l'huile, du prix du pétrole et de la parité €/$.

Enfin, selon l'estimation de l'administration datant de septembre 200519, le bioéthanol incorporé directement ne deviendrait compétitif que pour un prix du pétrole supérieur à 90 $/baril20 et les EHV21 pour un prix du pétrole supérieur à 75 $/baril.

Ces estimations sont sans doute intéressantes mais elles souffrent de plusieurs limites, même si l'on s'en tient au cadre trop restrictif des prix de marché.

Il est évidemment difficile de connaître les prix de revient effectifs des producteurs, car il s'agit de données sensibles dans un contexte de concurrence. Les calculs réalisés n'intègrent pas par hypothèse l'abaissement des coûts que pourra apporter le progrès technique. Par ailleurs, une baisse des prix des matières premières agricoles n'est pas exclue, y compris dans le cadre communautaire, en raison de la pression des bas prix sur les marchés mondiaux. Enfin, il est évidemment difficile d'obtenir des conclusions valables dans le temps, du fait de la volatilité des prix du pétrole.

Les estimations dans le cadre des prix de marché sont donc entachées d'une marge d'incertitude importante.

Un soutien fiscal indispensable pour entraîner le développement de la filière

Pour assurer le décollage des biocarburants, l'ensemble des Etats membres met en œuvre un soutien par la fiscalité, généralement plus important qu'en France. L'Union européenne en a d'ailleurs reconnu la nécessité, par la directive 2003/96/CE qui ouvre la possibilité aux Etats membres d'exonérer partiellement d'accises les biocarburants.

La première des deux dispositions fiscales utilisées par la France est une réduction de la taxe intérieure de consommation sur les produits pétroliers (TIPP) pour les biocarburants élaborés sous contrôle fiscal dans des unités de production agréées. Pour tenir compte de la hausse du prix du pétrole qui creusait l'avantage comparatif des biocarburants, la loi de finances pour 2005 a réduit cette réduction de la TIPP de 13% pour l'éthanol et de 25% pour les EHV. Depuis début 2005, la réduction est donc de 33 € par hectolitre pour l'éthanol22 et de 25 € par hectolitre pour les EHV. Le poids de cette réduction de taxe est supporté par le budget de l'Etat.

La deuxième disposition fiscale utilisée en France correspond à une réduction de la taxe générale sur les activités polluantes à laquelle sont soumis les distributeurs de supercarburants et de gazole, lorsqu'ils peuvent justifier l'incorporation de biocarburants dans leurs produits.

Malgré la hausse du prix du pétrole intervenue en 2004 et 2005, les biocarburants ne sont toujours pas compétitifs sans soutien fiscal. En effet, pour un prix hors taxe de l'essence de 0,4 €/litre en Europe23, le coût de production de l'éthanol en Europe est de 0,75 €/litre. L'écart entre les EHV et le gazole est inférieur mais nécessite néanmoins d'être réduit par la défiscalisation24.

Le coût du soutien aux biocarburants est un sujet de préoccupation souvent évoqué. La dépense fiscale en 2004 est estimée à 175 millions € pour un taux d'incorporation inférieur à 1%25. La dépense fiscale pour un taux d'incorporation de 5,75% aux conditions économiques de 2005 est évaluée à 1,27 milliard €, tandis que l'effort demandé aux consommateurs devrait s'élever à 2,4 milliards €26.

L'effort nécessaire au développement des biocarburants n'épargne aucun pays. À titre d'exemple, la Suède, l'Allemagne ou l'Espagne ont choisi de détaxer totalement l'éthanol27.

En réalité, l'opportunité du soutien aux biocarburants ne peut être appréciée au regard de son seul coût fiscal. Il est en effet indispensable de prendre en compte les externalités28 positives des biocarburants qui ne sont pas actuellement valorisées par les marchés et qui sont, de fait, difficiles à quantifier.

La prise en compte indispensable des externalités

Les biocarburants ont un intérêt environnemental évident : les émissions de CO2 liées à leur combustion sont compensées par la fixation de CO2 correspondant à la croissance de la plante.

Le bilan de leur utilisation sur l'environnement est donc meilleur que celui des combustibles fossiles. Mais les marchés ne reconnaissent pas pour l'instant cet avantage. Les émissions de CO2 des véhicules automobiles ne sont en effet pas pour le moment taxées. Mais il paraît nécessaire, à long terme, d'intégrer le coût évité de la tonne de CO2 lié à l'usage des biocarburants. Il existe une base économique pour valoriser cet avantage : le prix de marché de la tonne de CO2, soit environ 20 €/tonne. [voir rubrique CO2]

L'intérêt économique des biocarburants est également incontestable.

En premier lieu, l'utilisation des biocarburants permet de réduire la facture énergétique extérieure et de diminuer les inconvénients géopolitiques de la dépendance. Ces avantages macroéconomiques sont certes difficiles à estimer monétairement mais ils sont réels.

Par ailleurs, les biocarburants devraient conforter voire générer des emplois dans l'agriculture et dans les industries de transformation en zone rurale, ce qui est également une externalité positive, difficile à estimer mais qui est un bénéfice réel.

Le surcroît d'activité agricole généré par les cultures énergétiques serait loin d'être négligeable. Pour le moment, les surfaces allouées au blé et à la betterave transformés en bioéthanol sont de 60 000 hectares, celles allouées au colza pour la production d'EHV de 330 000 hectares, la quasi-totalité étant prises sur le 1,5 million d'hectares mis en jachère pour les productions alimentaires.

Le développement des biocarburants devrait conduire à la mise en culture de la totalité des jachères et au-delà.

Le renouveau d'activité agricole est à l'évidence favorable à l'économie nationale, puisqu'in fine il correspond à une diminution des importations et du transfert de richesse vers l'extérieur. Ce renouveau est également favorable au monde rural. À cet égard, selon les estimations des professions agricoles, le développement de l'éthanol devrait à lui seul créer environ 26 000 emplois.

La question fondamentale est en conséquence celle de l'optimisation de l'ensemble de la filière des biocarburants, qui passe par une action concertée à tous les niveaux.

Un développement dynamique relancé en France

Les cultures énergétiques représentent une chance pour l'agriculture, quel que soit le pays considéré, dans la limite toutefois de la satisfaction des besoins alimentaires.

Si le développement de l'éthanol ne risque en aucune façon de s'effectuer en France au détriment des cultures alimentaires, en revanche certains experts estiment qu'il n'en sera pas de même pour le développement de l'EHV.

En aval, le développement des cultures énergétiques doit aussi s'accompagner d'une croissance des capacités industrielles de traitement et d'une démarche également dynamique de l'appareil de distribution.

Au total, l'impulsion de l'État est d'une importance primordiale, comme c'est toujours le cas pour assurer le décollage d'une énergie nouvelle.

Redonner à la France un rôle de leader dans les carburants verts

Force est aujourd'hui de constater que la France a pris, dans la production de biocarburants, un retard difficilement justifiable, compte tenu de son statut de grande puissance agricole.

Après avoir été longtemps leader en Europe, la France a rétrogradé à la deuxième place pour les deux types de biocarburants. Pour le bioéthanol, la production française n'a, en 2004, atteint que 102 000 tonnes, soit presque deux fois moins que la production espagnole29. Pour les EHV, la situation est encore plus dégradée, puisqu'en 2004, la production française de 348 000 tonnes est trois fois plus faible que la production allemande30.

La relance des biocarburants en France présente également l'avantage de renforcer son pouvoir de négociation au sein de l'Union européenne. L'intérêt communautaire pour la biomasse est en effet de plus en plus vif. Auprès de la Commission européenne, la France a tout intérêt à mettre en avant ses performances dans le domaine essentiel des biocarburants pour contrer des exigences nouvelles en matière d'électricité renouvelable dont l'intérêt économique est de plus en plus douteux. [voir rubrique Énergies renouvelables - problématiques communes].

Le développement des biocarburants en France est enfin essentiel pour dynamiser une filière industrielle dont les débouchés sur les marchés mondiaux sont prometteurs.

Sur le marché du bioéthanol, l'Union européenne, et la France en particulier, sont, pour le moment, des acteurs tout à fait secondaires.

La production européenne représente en effet moins de 3% de la production mondiale, dominée par le Brésil (9,9 millions de tonnes) et les États-Unis (8,2 Mt). Seule une production importante pourra d'une part, entraîner des efforts de recherche suffisants et une ingénierie compétitive, et, d'autre part, empêcher la submersion du marché intérieur par des importations en provenance des pays émergents ou en développement.

Sur le marché des EHV, la situation européenne est bonne, avec 81% de la production mondiale. Dotée d'une industrie automobile leader mondial dans le domaine du moteur diesel, l'Union européenne a un intérêt manifeste à amplifier encore son avantage compétitif, en proposant une filière complète, allant de la production d'EHV au meilleur coût aux technologies des moteurs diesels les plus sobres et les moins polluants.

C'est donc en toute logique que la France a décidé d'accélérer le pas dans la voie des carburants verts.

Les objectifs ambitieux des pouvoirs publics

Dès 2001, la Commission européenne a fixé l'objectif pour 2020 d'un remplacement à hauteur de 20% des carburants traditionnels par des carburants de substitution : gaz naturel, biocarburants en premier lieu.

En application de cette stratégie, la directive 2003/30/CE indique, à titre indicatif, que les consommations de biocarburants devront représenter 2% en 2005 et 5,75% en 201031 des consommations globales d'essence et de gazole utilisées dans les transports, pour chaque État membre.

Pour atteindre cet objectif, les Etats membres peuvent, selon la directive 2003/96/CE, exonérer partiellement ou totalement d'accises les biocarburants.

Dès novembre 2001, l'Office parlementaire d'évaluation des choix scientifiques et technologiques adoptait les recommandations de MM. Claude Birraux et Jean-Yves Le Déaut, Députés, appelant à une accélération du développement des biocarburants dans le cadre d'un plan mobilisateur intitulé « Terre énergie pour des biocarburants indépendants »32.

En 2004, le Plan Climat enregistrait l'engagement du Gouvernement d'atteindre les objectifs de la directive européenne. La loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique, d'une part, valide cette approche, et, d'autre part, reprend l'objectif proposé par l'Office à plus long terme d'une économie d'importations de 10 Mtep en 2010, grâce à l'apport de la biomasse pour la production de chaleur et de biocarburants, dans le cadre d'un plan « Terre-énergie ».

Depuis lors, une accélération a été annoncée, en septembre 2005, par le Premier ministre, M. Dominique de Villepin, l'incorporation de biocarburants devant atteindre 5,75%, dès 2008, au lieu de 2010, les objectifs de 7% étant fixés pour 2010 et 10% en 201533.

Selon les estimations relatives à 2005, l'éthanol incorporé dans l'essence a représenté 172 550 tonnes et les EHV incorporés dans le gazole 404 700 tonnes. Pour atteindre l'objectif de 5,75% en énergie à la date de 2008, la consommation d'éthanol devra être multipliée par 5 et celle d'EHV par 5,534, 35.

Deux questions se posent. Le monde agricole pourra-t-il fournir les matières premières nécessaires ? L'industrie pourra-elle assurer leur transformation et la distribution assurer la commercialisation ?

Des marges de production agricole réellement importantes en France

Le développement des biocarburants jusqu'au niveau indiqué ci-dessus conduirait à multiplier par 5,5 les surfaces actuellement allouées aux cultures énergétiques. Mais la capacité des surfaces agricoles nationales à fournir les matières premières nécessaires ne fait aucun doute, non plus que le dépassement des objectifs grâce au progrès technique.

Pour atteindre les 5,75% d'incorporation d'éthanol, 225 000 hectares devront être consacrés au blé ou à la betterave. De l'avis de l'INRA et de l'administration, cette superficie pourra être mise en culture sans difficulté.

Il n'en serait pas de même pour les surfaces de colza à cultiver pour la production d'EHV. Alors que le colza est actuellement cultivé sur 1,1 million ha36, 37, 1,6 million d'hectares de colza supplémentaires devront en effet être mis en culture.

Bien entendu, les jachères, qui, en 2004, représentaient 1 200 000 hectares, pourront être mobilisées. Selon l'INRA, les jachères effectivement utilisables pour les cultures industrielles ne représenteraient toutefois que 900 000 hectares. D'où une concurrence, jugée inévitable, entre les cultures de colza pour l'alimentation et pour les biocarburants, et, en conséquence, d'éventuelles tensions sur les prix du colza et des huiles végétales plus généralement.

Ces craintes seront vraisemblablement démenties car la politique agricole commune semble durablement favorable au développement de biocarburants.

En 1992, afin de réduire les excédents agricoles, la politique agricole commune (PAC) réformée a introduit, pour les grandes cultures, le gel obligatoire ou mise en jachère d'une partie des terres utilisées pour des cultures alimentaires. Mais celles-ci peuvent toutefois être utilisées pour des cultures industrielles. En 2004, les cultures énergétiques ou industrielles non seulement continuent d'être autorisées sur les jachères mais sont aussi encouragées hors jachère par l'octroi d'une aide directe de 45 € par hectare38.

Renforcées par la politique agricole commune, les cultures énergétiques ne semblent pas devoir buter sur une limite de capacité.

Il paraît en effet possible de parvenir à produire jusqu'à 10 millions de tep d'éthanol, sur la base de 4 millions d'hectares en tri-culture blé, maïs, betterave, à condition de valoriser sous forme d'énergie les 13 tonnes de biomasse par hectare. Le développement des technologies de gazéification ou de fermentation des lignocelluloses est ainsi indispensable.

Les carburants BTL, une opportunité pour la filière bois française

Totalisant 15 millions d'hectares et augmentant de 40 000 hectares par an, la forêt française est la première de l'Union européenne à 15, devant celle de l'Allemagne, de l'Espagne et de l'Italie.

Sur la base d'une production biologique des forêts françaises d'environ 90 millions m³ par an, la récolte de bois ne dépasse pas 55 millions m³. Le potentiel d'augmentation de la récolte est donc considérable.

La filière bois rassemble par ailleurs 450 000 personnes, travaillant dans le reboisement, la sylviculture, l'exploitation forestière et les industries de première et seconde transformation du bois. Il s'agit le plus souvent d'industries locales, qui contribuent au maintien d'une activité dans les zones rurales et concourent à un développement équilibré du territoire.

La mise en place de technologies biocarburants de 2ème génération aurait l'intérêt de renforcer la filière bois, même si des arbitrages doivent sans doute être faits entre les trois types d'utilisation de la lignocellulose : bois énergie, production d'électricité et carburants liquides BTL.

La nécessité d'un développement simultané de l'industrie

Un développement volontariste des biocarburants passe non seulement par une mobilisation de l'agriculture mais également par des investissements en capacités de production additionnelles d'éthanol et d'EHV.

Ces investissements permettront la mise en œuvre des progrès techniques réalisés sur les procédés et, dans la mesure où les objectifs de production sont ambitieux, conduiront à des économies d'échelle, deux facteurs de réduction des coûts.

C'est pourquoi, afin d'atteindre les objectifs ambitieux des pouvoirs publics, une concertation a été conduite en novembre 2005, par les ministres de l'agriculture et de l'industrie, lors d'une table ronde, le 21 novembre 2005, réunissant toutes les parties prenantes, publiques et privées.

Quinze engagements concrets ont été pris par les industriels et les distributeurs, tendant à donner la visibilité technique et commerciale indispensable à la réalisation des investissements lourds requis par le développement de la filière des biocarburants.

Tous les éléments semblent donc réunis pour assurer la reconquête par la France de sa place de leader européen des biocarburants qu'elle n'aurait jamais dû perdre.

BIOGAZ

La réduction des émissions de CO2 tend à monopoliser l'attention quand on évoque la lutte contre l'effet de serre. Le méthane CH4 est un autre gaz à effet de serre qu'il est indispensable de prendre en compte car son pouvoir de réchauffement global, c'est-à-dire sa nocivité vis-à-vis du réchauffement global, est 21 fois supérieur à celui du CO2.

Mélange de CO2 et de CH4 formé par dégradation de la matière organique en absence d'oxygène, le biogaz constitue donc une cible capitale des efforts de lutte contre l'effet de serre.

La maîtrise des émissions de biogaz s'impose d'autant plus qu'elle conduit à mettre en place des modes de traitement modernes des déchets ménagers, agricoles et industriels, et à valoriser son contenu énergétique qui est loin d'être négligeable.

Le biogaz, une ressource énergétique issue de résidus difficiles à gérer

Le biogaz résulte de la fermentation, spontanée ou stimulée par des bactéries, en l'absence d'oxygène, de matières organiques comme la fraction fermentescible des déchets ménagers, les boues des stations d'épuration, les graisses et autres déchets des industries agroalimentaires, les fumiers ou les lisiers des exploitations agricoles.

Le biogaz est constitué d'environ deux tiers de méthane CH4, d'un tiers de dioxyde de carbone CO2, et de traces d'autres gaz, la composition du mélange pouvant varier à la marge suivant la nature des déchets et le type de procédés.

La démarche de maîtrise des émissions de biogaz passe par plusieurs étapes.

Ce sont les centres d'enfouissement techniques spécifiquement aménagés ou les réacteurs de méthanisation qui permettent de récupérer le biogaz produit par les déchets ménagers.

Les centres d'enfouissement techniques sont généralement composés de grands casiers semi-enterrés, remplis successivement, au fur et à mesure de l'exploitation. Reposant sur un drainage de récupération des ruissellements et une couche imperméable, chacun des casiers est surmonté d'un drainage de récupération du biogaz et coiffé d'une couche de terre végétale pour la banalisation du site après fermeture. Ainsi est assurée la récupération du biogaz selon une technique dont les nuisances sont considérablement réduites par rapport à une décharge à l'air libre.

Assurant le traitement des déchets agricoles ou des boues de stations d'épuration en milieu confiné, les unités ou les usines de méthanisation comportent généralement un système de prétraitement des matières et un « digesteur », sorte de silo où la dégradation a lieu.

Pour les centres techniques d'enfouissement comme pour les unités de méthanisation, le biogaz fait l'objet d'un traitement avant valorisation.

Le biogaz constitue une ressource énergétique en tant que telle. Le biogaz peut en effet servir de combustible pour la production de chaleur, mais aussi pour la production d'électricité avec des turbines à gaz ou à la cogénération de chaleur et d'électricité. Avec plus de difficultés techniques, le biogaz peut aussi servir à produire des carburants liquides ou tout simplement être injecté sur un réseau de distribution de gaz naturel.

Si la récupération et la valorisation du biogaz mettent en œuvre des techniques en théorie simples, leur mise en œuvre pratique est relativement récente.

Comparée au Royaume Uni et à l'Allemagne, la France est en retard dans la récupération du biogaz. Des efforts importants sont toutefois engagés pour progresser dans ce domaine, la réduction des émissions de gaz à effet de serre et la protection de l'environnement étant en partie financées par la valorisation énergétique du biogaz.

En France, un retard en cours de rattrapage

Réalisée dans 4000 installations, la production de biogaz dans l'Union européenne s'est élevée à 4,3 millions de tonnes équivalent pétrole (Mtep) en 200439. Les centres de stockage ont fourni 35% du total du biogaz produit, les stations d'épuration industrielles 35% et les stations d'épuration urbaines 20%40.

Le leader européen de la production de biogaz est le Royaume Uni avec 1,47 Mtep, suivi de l'Allemagne avec 1,29 Mtep. La France vient loin derrière, avec 0,36 Mtep, à peu près au même niveau que l'Espagne (0,27 Mtep) et l'Italie (0,2 Mtep).

Tant le Royaume Uni que l'Allemagne valorisent à près de 80% leur biogaz sous forme d'électricité, le reste l'étant sous forme de chaleur.

Sous l'impulsion et avec l'aide de l'ADEME, la France a engagé une politique de rattrapage.

Pour la récupération et la valorisation du biogaz, la France compte une vingtaine de centres d'enfouissement techniques de déchets ménagers, une unité de méthanisation des déchets ménagers, deux cents stations d'épuration urbaines ou industrielles et moins de dix sites de déjections d'élevage.

La valorisation du biogaz s'effectue en France majoritairement sous forme de chaleur et dans une moindre mesure sous forme d'électricité. Dans son effort de rattrapage, la France développe en priorité la valorisation du biogaz sous forme d'électricité. L'instrument d'intervention utilisé pour ce faire est le tarif de rachat de l'électricité produite par les centrales thermiques brûlant du biogaz, qui s'élève à 46 €/MWh, auquel s'ajoute une prime d'efficacité énergétique de 0 à 12 €/MWh.

La question de la production de biogaz, en réalité de sa récupération assistée, et de sa valorisation ne saurait être considérée comme accessoire, bien au contraire.

Les émissions de méthane des décharges41 et de l'agriculture42 ont en effet représenté un total de 1,2 million de tonnes par an. Compte tenu du pouvoir radiatif très élevé du méthane, 21 fois supérieur à celui du dioxyde de carbone, ces émissions représentent 5% du total des émissions françaises de gaz à effet de serre.

Les volumes des émissions de méthane liées aux déjections d'élevage sont plus importants en France, en volumes d'émissions, que ceux émanant des décharges de déchets ménagers ou industriels.

La dispersion des lieux d'élevage sur tout le territoire représente évidemment une difficulté majeure pour la réduction des émissions correspondantes, à moins que des solutions techniques simples et peu coûteuses ne permettent d'essaimer des installations de valorisation adaptées aux exploitations agricoles individuelles.

Sur le plan industriel, la France dispose des atouts nécessaires en Europe, avec VEOLIA Environnement et VALORGA.

L'action résolue engagée dans le domaine du biogaz est d'autant plus nécessaire que sa valorisation réduit le coût du traitement des déchets et que les bénéfices en termes d'aménagement et d'environnement sont considérables.

BOIS ÉNERGIE

Les applications énergétiques de la biomasse sont généralement réparties en trois catégories : les biocarburants, le biogaz et le bois énergie.

Contribuant à desserrer la dépendance des transports routiers vis-à-vis du pétrole et à diminuer les émissions de gaz à effet de serre, les biocarburants constituent un enjeu majeur pour les transports. [voir rubrique Biocarburants]

Le biogaz offre des solutions capitales pour une valorisation des déchets bénéfique pour l'environnement. [voir rubrique Biogaz]

Dans le grand pays forestier qu'est la France, le bois énergie constitue, depuis longtemps, une ressource énergétique importante, fournissant déjà plus de 6% de la production d'énergie primaire française, avec des perspectives de développement considérables.

Le bois énergie apporte déjà une contribution importante à la lutte contre l'effet de serre, puisque le CO2 rejeté à la combustion est compensé par la photosynthèse qui assure la croissance de la plante ou de l'arbre en fixant du CO2.

Mais pour mieux valoriser les ressources du monde rural, le bois doit aujourd'hui entrer dans une ère nouvelle, celle du bois énergie, utilisé non seulement par les particuliers mais également par les collectivités et l'industrie.

La filière bois doit être mobilisée à cette fin, pour mieux exploiter la forêt et les résidus des industries du bois, pour développer de nouveaux conditionnements du bois énergie et pour assurer leur commercialisation.

L'industrie, de son côté, doit mettre au point des chaudières à haut rendement pour la production de chaleur et d'électricité.

Les entreprises et les collectivités doivent également être convaincues que les ressources locales peuvent contribuer d'une manière parfois décisive à la fourniture et à la distribution de chaleur, voire d'électricité.

Un potentiel imparfaitement mobilisé

La forêt française couvre 15 millions d'hectares. On en tire annuellement 25 millions de m3 de bois énergie. En ajoutant les 15 millions de m3 de résidus de l'industrie du bois et des exploitations rurales, le bois énergie consommé en France représente 40 millions de m3 par an, soit l'équivalent de 9,2 millions de tonnes équivalent pétrole (Mtep)43.

En France, l'essentiel du bois énergie est utilisé pour la production de chaleur. Mais une partie contribue à la production d'électricité, principalement dans l'industrie.

Ce sont les ménages qui, pour le moment, consomment, en France, la plus grande partie du bois énergie (près de 80%). Près d'un ménage sur deux dispose, en effet, dans l'habitat individuel, d'un chauffage au bois, dont le rendement est toutefois faible44. D'un usage habituel, disséminé et d'un faible volume unitaire, le seul bois énergie consommé par les ménages représente une contribution en énergie primaire supérieure de 30% à celle de l'hydroélectricité.

Le reste du bois énergie, soit 20% du total, est brûlé principalement dans près de 1000 chaufferies industrielles appartenant à la filière bois, pour obtenir de la chaleur, et dans certains cas, de l'électricité en cogénération. Le chauffage urbain, le chauffage de l'habitat collectif ou le chauffage de bâtiments du secteur tertiaire représentent un autre débouché, d'une importance inférieure pour le moment.

Compte tenu de la superficie de son territoire et l'importance de ses forêts, il n'est pas étonnant que la France soit le premier producteur de bois énergie de l'Union européenne, devant la Suède, la Finlande, l'Allemagne et l'Espagne45.

Toutefois, rapportée au nombre d'habitants, la consommation de bois énergie en France est très faible, pas très éloignée de la moyenne européenne. Le niveau de consommation par tête en France est en effet de 0,15 tep par an, soit dix fois moins qu'en Finlande, six fois moins qu'en Suède, mais deux fois plus qu'en Allemagne.

L'avance de la Finlande s'explique par l'importance de son industrie forestière (papier et pulpe) et par le fort développement des réseaux de chaleur alimentés en bois énergie. Quant à la Suède, le rôle qu'elle assigne traditionnellement au bois énergie pour la production de chaleur est désormais complété par un vif encouragement, donné par des certificats verts46, à son utilisation, pour la production d'électricité, par des centrales thermiques spécialement adaptées à ce type de combustible. L'Allemagne, pour sa part, a mis en place en 2004 de puissantes incitations au développement de l'électricité produite avec du combustible bois énergie, grâce à un tarif de rachat élevé (84-115 €/MWh) auquel s'ajoutent différentes primes en fonction des solutions techniques.

Dans l'industrie du bois énergie, la position de la France n'est pas non plus de premier plan. Que ce soit pour les équipements individuels ou pour les chaudières industrielles, les industriels français sont peu nombreux et d'une taille insuffisante, comparés aux spécialistes scandinaves, allemands ou autrichiens. Le secteur est dominé par la société suédo-norvégienne Kvaerner, dont le chiffre d'affaires est cinquante fois supérieur à celui d'un spécialiste français comme Weiss.

Au total, il apparaît que la France possède des atouts dans le bois énergie qui pourraient sans aucun doute être mieux développés. C'est à quoi s'est attaché le programme bois énergie 2000-2006 de l'ADEME, qui, fort de ses premiers succès, pourrait sans aucun doute être accéléré, compte tenu du contexte énergétique mondial.

Un effort à amplifier

La valorisation des atouts de la France dans le bois énergie aurait de multiples avantages, agricoles, environnementaux et énergétiques. Si l'on considère l'état de la forêt française, c'est une obligation.

Chronique depuis plusieurs décennies, la sous-exploitation de la forêt française s'aggrave au point de menacer son entretien, son renouvellement et même sa pérennité47. Le taux d'exploitation48 insuffisant des forêts françaises (60% environ) a pour première conséquence d'obliger à des importations qui pourraient être remplacées par l'offre nationale, qui s'ajoutent aux importations incompressibles de bois exotiques et conduisent à un déficit du commerce extérieur en bois et produits dérivés. La deuxième conséquence est le vieillissement de la forêt française avec une perspective de manque à gagner à long terme, la dégradation de la qualité du bois et l'accumulation de friches forestières aggravant les risques d'incendie.

Si la consommation de bois énergie est, en France, d'ores et déjà de 40 millions m³ (Mm³)49, il existe de considérables marges de production supplémentaires. Le volume de bois fort disponible est estimé à environ 25 Mm³, dont une partie pourrait être consacrée aux usages industriels et l'autre au bois énergie. Par ailleurs, le taux de récupération des sous-produits de l'industrie pourrait être amélioré, ce qui augmenterait encore les ressources disponibles pour le bois énergie.

Au total, sans empiéter sur la demande des industries de la filière bois, 12 Mm³ supplémentaires par an, au minimum, pourraient être utilisés sous forme de bois énergie. L'apport énergétique correspondant serait de 3 millions de tonnes équivalent pétrole50.

Une exploitation plus dynamique de la forêt française et une récupération plus exhaustive des sous-produits sont indispensables, de même que l'amélioration des modes de conditionnement du bois et des circuits de distribution. D'ores et déjà, la demande de bois énergie a été stimulée, notamment grâce à des aides nationales ou locales, comme l'ADEME a commencé à le faire avec son programme 2000-2006.

S'agissant du chauffage domestique, l'objectif de l'ADEME a été de favoriser la modernisation du parc d'appareils par l'augmentation de la part relative des foyers fermés, des poêles et chaudières de haute performance, et de conforter les circuits d'approvisionnement garanti.

Dans l'industrie, des progrès ont été effectués pour l'utilisation de sous-produits de transformation du bois dans des chaufferies industrielles et éventuellement de l'électricité en cogénération. Des progrès importants ont également été réalisés pour le développement des chaufferies urbaines ou collectives au bois, utilisant des ressources de proximité.

Soutenu par des aides fiscales sous forme de crédits d'impôts - un crédit d'impôt de 50% a été fixé par la loi de finances pour 2006 pour les chaudières à bois d'un rendement supérieur à 65% - le programme bois énergie 2000-2006 devrait atteindre ses objectifs.

Par ailleurs, les pouvoirs publics se sont récemment engagés à développer la production d'électricité utilisant le bois énergie comme combustible.

Ce type d'application est actuellement peu important. En effet, la puissance cumulée des installations de production électrique à partir de la biomasse ne dépasse pas 200 MW.

La décision a été prise de renforcer ce débouché. Un appel d'offre est en effet programmé pour 2006 par le ministère délégué à l'industrie, en vue de la construction d'une puissance installée de 300 MW pour la production d'électricité renouvelable à partir de bois et de déchets agricoles51.

La filière bois n'a pas suffi à dynamiser l'exploitation forestière. On peut espérer que le bois énergie, s'ajoutant aux industries du bois, créera un nouveau dynamisme

Satisfaire, à moindre coût et à moindres émissions de CO2, des besoins en énergie nationaux, dynamiser des territoires en y créant une activité forestière et industrielle et renforcer l'industrie française sur le marché national et à l'export : ces objectifs méritent l'attention redoublée des pouvoirs publics.

CHANGEMENT CLIMATIQUE

L'effet de serre additionnel, un danger identifié depuis longtemps

En 1861, l'ingénieur irlandais Tyndall démontre que différents gaz ou vapeurs peuvent absorber la chaleur ou la restituer. Parmi ceux-ci : la vapeur d'eau et le gaz carbonique que l'on retrouve en faible concentration dans l'atmosphère. Tyndall en déduit que toute variation de la concentration de gaz carbonique dans l'air pourrait provoquer un changement de climat.

En réalité, c'est depuis 1822 avec Fourier que l'on sait que l'atmosphère joue le rôle des vitres d'une serre, qui laissent passer l'essentiel du rayonnement solaire et piègent la chaleur en absorbant les rayonnements thermiques émis par son contenu. D'ailleurs, sans l'effet de serre naturel, la température moyenne de la surface du globe serait d'environ -18 °C au lieu de +15 °C.

Reprenant en 1895, les travaux de Tyndall, Svante August Arrhenius, un chimiste suédois, futur Prix Nobel, calcule que, si la concentration de l'atmosphère en dioxyde de carbone était multipliée par 2,5 ou 3, la température des régions arctiques pourrait augmenter de 8 ou 9 °C.

Constatant l'envol de la consommation d'énergie liée au développement économique, Arrhenius redoute, dès 1920, les conséquences de la croissance de la consommation de charbon sur l'atmosphère.

La crainte d'un impact des combustibles fossiles sur le climat n'est donc pas une nouveauté scientifique.

Deux constats scientifiques irréfutables

Le réchauffement global et le changement climatique

En sport, les records sont faits pour être battus. Il semble en être malheureusement de même, pour le réchauffement global et le changement climatique.

La vague de chaleur de l'été 2003 en Europe est restée dans les mémoires, avec ses 21000 décès additionnels en France, Italie, Pays-Bas, Portugal, Royaume Uni et Espagne. L'année 2004 est la 4ème année la plus chaude depuis 1861. Les mois de juin et d'octobre 2005 ont battu tous les records depuis plus d'un siècle, la température de surface de l'Atlantique nord étant la plus élevée jamais enregistrée. Depuis le début du XXème siècle, la température moyenne globale en surface a augmenté de 0,6 à 0,7°C. En réalité cette augmentation s'accélère depuis 1976, à un rythme trois plus élevé que celui des cent dernières années. De fait, les années 1990 sont la décennie la plus chaude depuis que des enregistrements sont effectués. Les évolutions récentes ne semblent pas de nature à enrayer ce phénomène.

Les bouleversements climatiques se multiplient. Les périodes de sécheresse se prolongent dans de nombreuses régions, par exemple dans la corne de l'Afrique en 2004, alors que, dans d'autres régions, les précipitations ont dépassé la moyenne, comme en Europe de l'est ou en Asie de l'ouest. Encore plus marquée qu'en 2003, année déjà fortement perturbée, la saison des ouragans dans l'Atlantique se caractérise par un nombre record de tempêtes tropicales ayant reçu un nom - 26 au total - qui ont semé la dévastation en Amérique centrale, dans les Caraïbes et aux États-Unis d'Amérique.

En parallèle à cette évolution climatique incontestable, dont les populations ont de plus en plus conscience, un autre phénomène est prouvé scientifiquement, à savoir la modification de la composition de l'atmosphère.

La modification de la composition de l'atmosphère

Depuis le début du XIXème siècle, qui voit le démarrage des activités industrielles, la composition de l'atmosphère terrestre change. Ce fait est désormais incontestable, compte tenu de la multiplicité des observations et de leur fiabilité.

La concentration du dioxyde de carbone dans l'atmosphère, qui est restée stable à 280 ppm pendant un millénaire, a augmenté ensuite au rythme annuel moyen de 1,5 ppm, pour atteindre 365 ppm en 199852. La concentration de méthane dans l'atmosphère, stable à 700 ppb pendant huit cents ans, augmente au rythme annuel moyen de 7 ppb et a atteint 1745 ppb en 199853. Des évolutions du même ordre sont observées pour d'autres gaz, comme le protoxyde d'azote ou oxyde nitreux N2O ou les hydrofluorocarbones.

La modification de la composition de l'atmosphère entraîne un réchauffement global

L'évolution du climat résulte de processus physiques, géophysiques, chimiques et biologiques qui sont aujourd'hui de mieux en mieux connus. Les modèles mathématiques permettent de simuler les interactions entre les terres émergées, les océans, les nuages, la stratosphère, par exemple.

Même si des progrès restent à effectuer, leurs résultats sont de plus en plus fiables : la modification de la composition de l'atmosphère, telle qu'on la mesure, ne peut qu'entraîner un réchauffement global, suivant la représentation que l'on a du système planétaire, et, par suite, un changement climatique.

Des évolutions naturelles sont également à l'œuvre, aujourd'hui connues de tous.

Le climat de la planète Terre subit en permanence des variations naturelles. Deux évolutions intervenues depuis 1970 sont bien connues : l'éclairement de la Terre et les éruptions volcaniques.

S'agissant de l'éclairement de la Terre, deux cycles de court terme existeraient, l'un de court terme, l'autre de long terme.

Les mesures effectuées par les satellites depuis les années 1970 permettent d'évaluer la réalité des fluctuations de l'énergie rayonnée par le soleil entre 1970 et 2000 selon un cycle de 11 ans lié aux taches solaires. L'éclairement de la Terre n'aurait en fait varié que très faiblement. Des fluctuations de l'éclairement de la Terre sur le climat se produiraient aussi sur longue période, selon un cycle de 1500 ans54. Après une période chaude, dite optimum médiéval au XIIe siècle, le climat aurait connu, en réponse à une augmentation de l'éclairement, un petit âge glaciaire entre 1550 et 1700. Notre époque correspondrait à une évolution vers la partie haute du cycle, qui serait atteinte dans plusieurs siècles.

Deuxième type de phénomène naturel pouvant influer sur la température de l'atmosphère : les éruptions volcaniques, qui ont été nombreuses au cours du XXe siècle, particulièrement entre 1960 et 1991, avec entre autres l'éruption du Mont Pinatubo cette dernière année. Mais l'accroissement de la concentration d'aérosols dans la stratosphère freinerait le réchauffement planétaire. Selon les calculs, les deux phénomènes de l'éclairement et du volcanisme se compenseraient.

En termes d'ordre de grandeur, ces phénomènes naturels identifiés sont de moindre portée que le seul effet de la modification de l'atmosphère.

On peut bien entendu imaginer que le réchauffement global résulte d'autres causes naturelles qui ne seraient pas encore identifiées. Mais là n'est pas la question.

Une précaution indispensable : réduire les émissions de gaz à effet de serre

Que le réchauffement global soit dû essentiellement aux activités humaines fait l'objet d'un consensus très large parmi les experts du GIEC (Groupe intergouvernemental d'experts sur le climat).

On peut s'interroger sur la valeur de ce consensus, dans la mesure où les voix contraires semblent peu nombreuses ou peu audibles dans la communauté scientifique.

Mais à partir du moment où il y a un réchauffement global, ce qu'il est difficile de contester vu la convergence des indices et des mesures, l'unicité de sa cause n'a pas beaucoup d'intérêt.

En réalité, la question de fond est la suivante : l'augmentation de la concentration de gaz à effet de serre dans l'atmosphère est-elle, oui ou non, de nature à déclencher un réchauffement global ?

À cette question, la physique et les modèles climatiques55 répondent positivement, que des causes naturelles amplifiant ou atténuant ce phénomène s'y ajoutent ou non.

Par précaution, il faut agir, d'autant que l'emballement du système climatique pourrait être dramatique et que la réduction des émissions de gaz à effet de serre est vertueuse pour l'économie, à condition qu'elle soit effectuée avec discernement.

Un danger à éviter à tout prix : des dérèglements climatiques cumulatifs

Parmi les multiples conséquences climatiques, géographiques, économiques et sociales de l'augmentation de la concentration de l'atmosphère en gaz à effet de serre, la plus redoutable serait, sans aucun doute, le déclenchement de mécanismes cumulatifs emportant le climat dans des évolutions imprévisibles de grande ampleur.

Le ralentissement voire l'arrêt du Gulf Stream est l'un des effets collatéraux du réchauffement climatique que l'on peut redouter.

Autre scénario catastrophe, la libération des hydrates de carbone présents au fond des océans est parfois redoutée. Encagé dans des molécules d'eau, le méthane, qui repose sur de nombreux fonds marins à grande profondeur, est piégé par la pression. Il n'existe pas d'enchaînement crédible d'évolutions naturelles spontanées portant les hydrates de méthane vers la surface. En revanche, une exploitation mal maîtrisée de cette réserve immense d'hydrocarbures peut susciter la crainte d'une remontée intempestive de grandes quantités de méthane. D'une grande difficulté technique, compte tenu de la profondeur et de la dispersion de la ressource, l'extraction d'hydrates de méthane paraît toutefois éloignée dans le temps.

L'altération du permafrost est un troisième scénario d'épouvante environnementale, d'une portée considérable puisque le permafrost piège non seulement en grande quantité du dioxyde de carbone mais aussi du méthane.

Le réchauffement global pourrait d'abord réduire les quelque dix millions de km² de permafrost de l'hémisphère nord autour de l'océan glacial arctique. On constate d'ores et déjà, dans certaines régions comme l'Alaska, une altération des propriétés mécaniques du permafrost, génératrice de dégâts divers. Mélange compact de terre, de végétaux et de glace, le permafrost pourrait voir sa superficie divisée par 10 par un réchauffement de cinq degrés, à l'horizon de la fin du siècle.

Phénomène cumulatif, l'altération du permafrost pourrait, à son tour, stimuler le réchauffement climatique. De grandes quantités de CO2 sont en effet contenues par le permafrost. Selon certains auteurs, le permafrost contiendrait 30% du carbone contenu par la croûte terrestre, qui, s'il était libéré dans l'atmosphère à l'état de dioxyde de carbone, viendrait renforcer l'effet de serre. Autre menace, elle aussi redoutable, la fonte du permafrost pourrait également libérer le méthane qu'il contient. Phénomène supplémentaire, l'élévation de température pourrait aussi accélérer la décomposition en méthane des végétaux du permafrost.

Pour intéressants qu'ils soient, les scénarios ci-dessus sont hors limites des modèles climatiques. Dans l'ordre des inquiétudes à avoir, il faut sans doute redouter davantage pour l'avenir, des interactions imprévues entre les éléments du climat, se traduisant par une fréquence accrue et une amplification des phénomènes extrêmes climatiques, dans un contexte où les émissions de CO2 continueraient de croître rapidement.

La réduction des émissions, une contrainte à optimiser sur le plan économique

La non-adhésion des États-Unis au Protocole de Kyoto repose sur leur refus officiel de handicaper la croissance économique et de mettre en danger le mode de vie nord américain.

Si l'Union européenne et le Japon ne parvenaient pas à élargir la lutte contre l'effet de serre lors de Kyoto II, l'auto contrainte qu'ils se sont imposée pourrait apparaître comme un poids inutile sur leur compétitivité.

Une autre lecture du Protocole de Kyoto est toutefois possible, celle d'une incitation forte à améliorer l'efficacité énergétique de leurs économies et à substituer des énergies sans carbone comme l'énergie nucléaire ou les énergies renouvelables à des sources d'énergie, dont les réserves, au demeurant limitées, seraient mieux utilisées comme matières premières de la chimie que comme combustibles.

En réalité, le coût des mesures à prendre pour atteindre les objectifs de Kyoto est en grande partie tributaire des instruments mis en œuvre. Les économistes ont largement démontré que les contraintes nationales de réduction sont moins efficaces et plus coûteuses que le jeu d'un marché le plus large possible de permis ou de quotas d'émission56. Au-delà des coûts, l'évolution des mentalités est un sujet d'importance, que la mise en œuvre des certificats blancs en France a pour but d'accélérer. Enfin, la dynamisation des investissements et des recherches sur les énergies sans carbone est susceptible de générer des avantages concurrentiels pour les industries qui sauront y consentir.

Imposée par le principe de précaution, la contrainte de la réduction des émissions de gaz à effet de serre doit, à tout prix, être transformée en opportunité de faire apparaître, au meilleur coût, des bénéfices technologiques. [voir rubrique Kyoto]

CHARBON

Dans l'état actuel des connaissances sur les réserves mondiales en combustibles fossiles, le charbon occupe, de très loin, la première place57. Entre 2001 et 2004, sa consommation a bondi de 23%. Le charbon occupe de fait un rôle irremplaçable dans l'industrie sidérurgique et de premier plan dans la production électrique et d'autres industries. De grands pays comme les États-Unis, la Russie, la Chine et l'Inde possèdent de substantiels gisements dont l'exploitation se poursuit de plus belle.

On prévoit donc que la consommation de charbon augmentera de 1,5% par an d'ici à 201558. Au-delà de cette date, il est difficile de prolonger les tendances actuelles. Le rôle du charbon pourrait en effet s'accroître.

Grâce à la réactivation de technologies anciennement connues, le charbon pourrait servir à la fabrication de carburants liquides pour les transports d'aujourd'hui, et, à plus long terme, à la production d'hydrogène pour les transports de demain.

Loin de pâtir de la concurrence d'énergies plus récentes, comme le nucléaire, le gaz naturel ou les énergies renouvelables, le charbon affirme sa présence dans le paysage énergétique mondial et mérite toujours, selon certains auteurs, le titre de Roi charbon ou « King Coal »59.

Un rôle planétaire irremplaçable

En France, en Belgique et au Royaume Uni, la production charbonnière a connu, dans les dernières décennies, un déclin inexorable. Ce n'est pas le cas dans le monde. Le charbon joue en effet un rôle considérable dans le monde, avec 24% du total de la production d'énergie primaire mondiale.

La part relative du charbon a légèrement décru entre 1973 et 2003. Sa production a toutefois été multipliée par 1,6 en trente ans60. La consommation mondiale de charbon représente l'équivalent de 2,8 milliards de tonnes de pétrole en 2004.

Plus de deux cents ans de réserves aux niveaux de production actuels

Les réserves mondiales prouvées de charbon s'élevaient fin 2004 à 909 milliards de tonnes, dont 53% d'anthracite et de houille, et 47% de lignite et de charbon sous-bitumineux. Les ressources probables de charbon représenteraient, selon certaines sources, environ 20% supplémentaires.

Ces réserves prouvées correspondent à 164 années de production au niveau atteint par celle-ci en 2004. Au total, les réserves de charbon représentent environ 80% des réserves de combustibles fossiles.

Leur répartition géographique est très différente de celles de pétrole et de gaz naturel. L'Europe et les pays de l'ex URSS détiennent en effet 32% des réserves mondiales de charbon, contre 12% de celles de pétrole, l'Asie Pacifique 33% des réserves de charbon contre 3% de celle de pétrole, et l'Amérique du nord 28% des réserves de charbon contre 5% de celles de pétrole.

Le rôle important du charbon en Europe

La France n'a plus de production charbonnière depuis 2004. Mais sa situation n'est en aucun cas représentative de la situation européenne.

Après la production record de 59 millions de tonnes de 1959, le pacte charbonnier de 1994 a signé l'arrêt en 2005 de la production charbonnière en France. De fait, la fermeture du puits de la Houve en Lorraine, le 23 avril 2004, marque officiellement la fin de l'exploitation du charbon en France, en raison de coûts d'extraction trop élevés par rapport à ceux des pays neufs. De toute façon, les réserves hexagonales en charbon ne dépassent pas 15 millions de tonnes. Pour autant, les importations de charbon en France, en provenance d'Australie et d'Afrique du Sud, principalement, se sont élevées à 12 millions de tonnes équivalent pétrole en 2004. Le charbon continue en effet d'être utilisé principalement pour la production d'électricité thermique (5,5 millions tep) et dans la sidérurgie, soit directement soit indirectement pour la fabrication de coke61.

Si elle a fortement décru depuis les années 1970, la production charbonnière du Royaume Uni atteint tout de même 15,3 millions tep en 2004, sur la base de réserves de 220 millions de tonnes. Au reste, la production électrique britannique repose encore à 36 % sur les centrales thermiques au charbon.

L'Allemagne a tiré 54,7 millions tep de charbon de son sol en 2004. Après la fermeture de plusieurs mines des Länder de l'Est, le lignite est extrait principalement en Rhénanie et l'anthracite en Ruhr. Les réserves représentent 183 millions de tonnes d'anthracite et 6,6 milliards de tonnes de lignite. Fait marquant, 50,6% de la production d'électricité allemande sont assurés par des centrales thermiques à lignite et à anthracite62.

Le charbon occupe toujours une place importante dans les nouveaux pays membres de l'Union européenne. Le premier pays charbonnier européen est ainsi la Pologne, avec 70 millions de tep de charbon produites en 2004 et des réserves de 14 milliards de tonnes. La République tchèque a extrait, la même année, 23,5 millions de tonnes, pour des réserves de 5,5 milliards de tonnes.

Au total, le charbon représente 16% de la consommation d'énergie primaire de l'Union européenne à 25, qui ne possède que 3,7% des réserves mondiales de charbon.

Le rôle majeur du charbon dans de nombreux autres pays industrialisés

La Russie et différents pays de l'ex-URSS - Ukraine, Kazakhstan - assignent un rôle important au charbon, en raison de ses multiples utilisations - production électrique, industrie dont sidérurgie, chauffage urbain ou individuel -, et de leurs importantes ressources dans ce combustible fossile63.

Mais l'utilisation massive du charbon ne se limite pas seulement à ces pays dits « en transition vers une économie de marché ».

La production de charbon des États-Unis, avec 567 millions de tonnes équivalent pétrole en 2004, est la deuxième du monde. Il est vrai que la production électrique américaine repose à 50% sur les centrales thermiques au charbon.

En aucun cas, il n'est possible de parler d'un déclin du charbon aux États-Unis64. La production électrique issue du charbon a en effet augmenté de 17% entre 1993 et 2004. Et si dans ce secteur, le gaz naturel fait une percée remarquée entre les mêmes dates avec une augmentation de 71%, la production des centrales au charbon reste en 2004 près de trois fois supérieure à celle des centrales à gaz et deux fois et demi supérieure à celle des 104 réacteurs nucléaires du pays65.

Premier exportateur mondial de charbon, l'Australie assure 60% de sa production d'électricité à partir de ce combustible fossile66. Quant au Canada, pour compléter sa large production d'hydroélectricité, il recourt au charbon pour 21% de sa production électrique.

Le charbon, clé de l'avenir énergétique des pays émergents

La Chine est le premier producteur mondial de charbon avec 990 millions tep en 2004 et dispose de réserves considérables (114 milliards de tonnes). Le charbon y joue un rôle essentiel dans la consommation d'énergie primaire, avec 65% du total. En 2003, la production chinoise d'électricité reposait à 70% sur le charbon.

Devant faire face à une croissance très forte de la demande d'électricité, la Chine ne peut que développer l'ensemble des filières - hydroélectrique, gaz naturel et nucléaire -. La part relative du charbon devrait donc décroître. Mais sa production devrait continuer à augmenter en valeur absolue, ne serait-ce qu'en raison du montant très élevé des réserves, soit 12,6% des réserves mondiales de charbon.

La situation de l'Inde est comparable à celle de la Chine, à ceci près que le niveau de consommation d'énergie par habitant y est inférieur67. À cet égard, il faut rappeler que 20% de la population indienne n'a pas accès à l'électricité.

Le charbon a, en 2003, fourni 52% de la consommation d'énergie primaire de l'Inde. L'Inde est déjà un grand producteur de charbon, avec 189 Mtep en 2004, sur la base de réserves de 92 milliards de tonnes soit 10,2% des réserves mondiales. La production électrique est assurée à plus de 80% par des centrales thermiques au charbon.

Pas plus qu'en Chine, la diversification des sources d'énergie en Inde ne devrait signifier un recul de la production charbonnière en valeur absolue.

Un marché international en croissance et des prix à la hausse

Les importations de charbon ne représentent au plan mondial que 13% de la consommation mais elles augmentent de 1,5% par an. Cette croissance provient d'une demande accrue, d'abord, de charbon vapeur pour la production électrique, et, ensuite, de charbon à coke pour la sidérurgie.

Le Japon est le premier importateur mondial de charbon avec 160 millions de tonnes, soit 25% du total mondial, suivi de la Corée du Sud. La Chine et l'Inde accroissent leurs importations qui demeurent toutefois encore relativement faibles. L'Europe devrait continuer d'augmenter ses importations de charbon dont le montant total n'est que de 30% supérieur à celui du Japon. L'Amérique du Nord et l'Amérique latine, elles-mêmes importants producteurs, n'importent que la moitié des importations japonaises.

Compte tenu du coût du fret, le commerce de charbon est organisé par grandes zones géographiques. L'Australie, premier exportateur mondial, fournit l'Asie, de même que la Chine68 et l'Indonésie. L'Europe est approvisionnée d'abord par l'Afrique du Sud, puis par l'Australie, l'Amérique du Sud et les pays de l'ex-URSS.

Le prix du charbon a connu ces dernières années une augmentation rapide. Entre décembre 2002 et décembre 2004, le prix de la tonne de charbon vapeur a été multiplié par 2,2 , passant de 36$ à 80$. La demande de la Chine dont la production d'électricité et d'acier a explosé, a fortement augmenté, de même que celle des pays européens touchés par la canicule et la sécheresse qui ont entraîné une baisse de la production hydroélectrique. En conséquence, les prix du fret se sont envolés, faute de capacités de transport maritime suffisantes.

Ces phénomènes conjoncturels se sont atténués depuis lors. Fin 2005, le prix du charbon est en effet redescendu à 54$ la tonne. Il reste qu'en trois ans, l'augmentation du prix du charbon est malgré tout de 50%, suivant la tendance générale de la hausse des prix des énergies sur les marchés mondiaux.

Les dangers de la production charbonnière et de son utilisation

Survenue en 1906, la catastrophe minière de Courrières (Pas-de-Calais) fit 1099 victimes, suite à un coup de grisou. C'est la plus importante catastrophe minière jamais survenue, après celle de 1942, survenue en Chine, qui fit 1549 morts. En réalité, les accidents miniers furent légions en France, comme dans les autres pays. En 1985, un coup de grisou fit encore 22 morts au puits Simon en Lorraine. Maladie professionnelle à l'issue le plus souvent fatale, la silicose a fait aussi des milliers de victimes tout au long de l'histoire charbonnière.

Au XXIème siècle, les dangers de l'extraction du charbon ne sont toujours pas conjurés.

Premier producteur mondial de charbon, la Chine paie chaque année un très lourd tribut à l'extraction de ce combustible fossile qui lui est indispensable. Les mines artisanales exploitées par quelques travailleurs et même les plus grandes exploitations pourtant mieux encadrées enregistrent six mille morts en moyenne par an69.

La mine tue dans tous les pays - industrialisés : un accident de janvier 2006 a fait douze morts dans la mine de Tallmansville en Virginie occidentale (États-Unis) - ou en transition vers l'économie de marché : on compte 125 morts dans les mines ukrainiennes de 1999 à 2002.

À ces dangers de l'extraction du charbon, il faut ajouter ceux des pollutions que son utilisation entraîne.

La filière charbon est, parmi les technologies de la production d'électricité, celle dont l'impact sanitaire et environnemental est le plus lourd.

Les dommages créés par les différentes filières ont été comparés par l'étude ExternE réalisée par la Commission européenne en 1997, en termes de santé publique, de maladies professionnelles, de récoltes, de ressources minérales, de bruit.

Les dommages causés par le fonctionnement d'une centrale au charbon à vapeur classique sont quatre fois plus importants que ceux d'une centrale à gaz et près de cent soixante dix fois supérieurs à ceux d'une centrale nucléaire70. Quant aux émissions de CO2 d'une centrale à charbon, elles sont deux fois plus élevées que celles d'une centrale à gaz et quarante fois plus fortes que celle de l'ensemble constitué par une centrale nucléaire et le cycle du combustible utilisé.

Des technologies performantes ont certes été mises au point dans la dernière décennie pour réduire dans des proportions considérables les émissions de poussières, de SO2 et d'oxydes d'azote NOx des centrales thermiques au charbon.

L'application de ces progrès est toutefois focalisée dans les pays industrialisés et reste à mettre en place dans les pays émergents.

Au demeurant, les équipements de dépollution et le recours à des technologies de centrales à charbon propre de type vapeur ultra-supercritique ou gazéification intégrée IGCC augmentent le coût des investissements. [voir rubrique suivante centrales thermiques à charbon du futur]

La diffusion de ces technologies en Chine et en Inde ne pourra se faire que dans le cadre de programmes de coopération technique et économique que le Protocole de Kyoto ou d'autres initiatives entendent favoriser.[voir rubrique Kyoto]

Les centrales thermiques d'aujourd'hui et de demain

Contrairement à ce qu'une vision hexagonale pourrait laisser penser, les technologies du charbon sont en plein développement, en particulier pour la production électrique.

Des progrès importants ont d'ores et déjà été effectués pour améliorer les rendements énergétiques des centrales à charbon, diminuer leurs rejets et leur donner une flexibilité dans les combustibles utilisés.

En tout état de cause, le rendement d'une centrale thermique à charbon, comme à gaz d'ailleurs, revêt une importance capitale. En effet, plus le rendement est élevé et plus la consommation d'énergie et les émissions de CO2 sont faibles pour une production donnée. Le remplacement d'une centrale thermique d'un rendement inférieur à 30% par une centrale de nouvelle génération d'un rendement supérieur à 40% permet de réduire de 25% les émissions de CO2, à production d'électricité constante.

Au demeurant, l'objectif des prochaines années est de mettre au point la centrale thermique du futur, c'est-à-dire sans émission ni de polluants ni de dioxyde de carbone, ce qui exige inévitablement la séquestration du CO2 produit en même temps que l'électricité.

En tout état de cause, les émissions de CO2 des centrales thermiques pourront être fortement diminuées, d'un facteur de 6 à 8, mais ne seront vraisemblablement pas réduites à zéro, en raison du coût énergétique des procédés et de leurs rendements décroissants71.

Les technologies opérationnelles

Assurant le socle de la production électrique des pays charbonniers, les centrales thermiques au charbon permettent aussi de diversifier un parc de production d'électricité, et de couvrir le besoin spécifique d'adaptation rapide de la production à la demande d'électricité72. Autre avantage, les centrales modernes sont le plus souvent flexibles quant au combustible qu'elles utilisent, ce qui permet de diversifier les approvisionnements73.

Les centrales thermiques opérationnelles sont de trois types. Les centrales à vapeur classiques brûlent le charbon sur un lit fixe à la pression atmosphérique. Les centrales à lit fluidisé brûlent le charbon en suspension dans un flux d'air ascendant. Les centrales à vapeur supercritique se caractérisent par des températures et des pressions de fonctionnement plus élevées que les autres.

Les centrales à vapeur classiques

Alimentées par du charbon pulvérisé, les centrales à vapeur classiques produisent de la vapeur qui est ensuite surchauffée par la chaleur contenue dans les gaz de combustion74. La détente de la vapeur dans la turbine entraîne l'alternateur qui, lui-même, génère l'électricité. En aval de la combustion, les poussières sont retenues par des filtres électrostatiques, les oxydes d'azote éliminés par réduction sélective et le soufre absorbé par des dispositifs spécifiques.

Les centrales à vapeur classiques présentent l'intérêt de pouvoir adapter rapidement leur production à la demande, leur rendement thermique de 38% étant peu affecté par leur niveau de production. Les dispositifs de traitement des fumées ont par ailleurs permis de réduire leurs émissions. Mais la prévention à la source de la formation de polluants a été améliorée significativement avec la technologie du lit fluidisé.

Les centrales à lit fluidisé

Un lit fluidisé est un ensemble de particules d'un matériau inerte en suspension dans un flux d'air ascendant. La technologie du lit fluidisé peut être utilisée dans différentes industries pour optimiser un processus de combustion. Dans le cas d'une centrale thermique à charbon, le charbon pulvérisé est injecté dans un lit fluidisé à pression atmosphérique ou sous pression75.

Les centrales de ce type présentent le double avantage d'être performantes en termes de réduction des émissions de polluants, et flexibles en termes de combustibles utilisables.

En même temps que le charbon, on peut en effet injecter dans le lit fluidisé un composé chimique comme le calcaire qui piège le dioxyde de soufre SO2. La formation d'oxyde d'azote est réduite en raison de la température de la combustion plus basse du lit fluidisé par rapport à celle du foyer d'une centrale classique.

Les centrales à lit fluidisé sont par ailleurs, dans une certaine mesure, des centrales « mange-tout », acceptant tous types de charbon, y compris des charbons de faible qualité, mais aussi des résidus de l'extraction du charbon et de l'industrie pétrolière76.

La technologie du lit fluidisé est largement diffusée, la France en particulier possédant les centrales à lit fluidisé atmosphérique circulant77 de Carling (125 MWe) et de Gardanne (250 MWe).

La variante la plus avancée de cette technologie est la centrale à lit fluidisé sous pression. Les centrales à lit fluidisé sous pression actuellement en fonctionnement sont encore des installations d'une puissance limitée. Une centrale de ce type est plus compacte que son homologue atmosphérique et présente un rendement supérieur, grâce à l'adjonction d'une turbine à gaz à la turbine à vapeur, des rendements de 45% devant pouvoir être atteints. Ces deux progrès devraient induire une diminution des coûts d'investissement et d'exploitation.

Les technologies en développement

Pour encore augmenter encore le rendement, la flexibilité et réduire les émissions des centrales à charbon, deux voies techniques supplémentaires sont en cours de mise au point industrielle : les centrales à vapeur ultra-supercritique et les cycles combinés à gazéification du charbon.

La vapeur supercritique

Le rendement d'une centrale thermique augmente avec la pression et la température de la vapeur. Tant pour les centrales à vapeur que pour les centrales à lit fluidisé, on cherche donc à mettre en œuvre des températures et des pressions de vapeur de plus en plus élevées, ce qui exige des matériaux plus résistants pour la chaudière, le générateur de vapeur et les dispositifs de surchauffage. On parle alors de centrales supercritiques, supercritiques avancées ou ultra-supercritiques, les deux premières étant des techniques déjà maîtrisées et la troisième étant en cours de développement78. Selon les paramètres adoptés, des rendements de 45 à 49% ont déjà été atteints et des rendements supérieurs à 50% sont envisageables.

L'un des avantages majeurs de ces centrales supercritiques ou ultra-supercritiques est leur flexibilité vis-à-vis du type de combustible utilisé.

En réunissant les avantages du lit fluidisé circulant et de la vapeur supercritique, le Danemark79 a conçu une centrale pouvant brûler jusqu'à 60% de biomasse sous la forme de paille, de déchets de bois et de biofuels, et 40% de charbon. Différentes réalisations sont récentes en Allemagne, aux États-Unis et au Japon.

Les centrales à gazéification intégrée et à cycle combiné (IGCC)

À côté de la montée en température et en pression des centrales à vapeur classiques ou à lit fluidisé, la technologie IGCC (Integrated Gasification Gas Combined Cycle) suscite de grandes attentes.

Dans cette technique, le charbon sert à produire du gaz de synthèse [voir rubrique Fischer-Tropsch et gaz de synthèse]. Le gaz de synthèse lui-même actionne une turbine à gaz. La chaleur des gaz de combustion est récupérée pour produire de la vapeur d'eau alimentant une turbine à vapeur.

Il s'agit donc d'un cycle combiné80 actionné non pas par du gaz naturel mais par un gaz produit à partir de charbon ou de résidus carbonés.

Dans la pratique, une centrale à gazéification intégrée du charbon et à cycle combiné se compose de plusieurs unités : unité de séparation ou de compression d'air, unité de gazéification, unité de purification du gaz et cycle combiné à gaz. Pour la gazéification, on utilise un lit fixe ou un lit mobile. Plutôt que le lit fluidisé, les centrales les plus avancées utilisent le lit entraîné où le charbon pulvérisé et l'oxygène sont introduits en même temps que la vapeur, à une température de 1400 à 1600°C et avec une cinétique de réaction très rapide.

Toute la difficulté de cette technologie réside dans le processus de gazéification, qui doit, à la fois, ne pas consommer trop d'énergie et conduire à un gaz sans poussières ni impuretés corrosives. Les centrales de démonstration construites aux Pays-Bas, en Espagne ou aux États-Unis semblent toutefois avoir donné satisfaction, avec des rendements de 40 à 45% pour des puissances électriques de 253 à 315 MW81. Compte tenu de leur complexité et des délais de leur mise en route, les centrales IGCC sont utilisées préférentiellement pour la production en base.

Les deux atouts des centrales IGCC sont d'une part des rejets dans l'environnement très réduits et d'autre part une grande flexibilité vis-à-vis du combustible, de nombreux produits à chaîne carbonée pouvant être gazéifiés comme le charbon.

La diffusion de cette technologie en cours de mise au point exige une diminution de son coût.

La séquestration du CO2 en aval de la centrale thermique du futur

L'amélioration des rendements des centrales thermiques du futur peut certes diminuer les émissions de CO2 à production égale mais ne peut les supprimer. Le recours à la séquestration du CO2 en aval d'une centrale thermique s'impose en conséquence.

Par la combinaison de différentes technologies - une chaudière à haut rendement, la combustion à l'oxygène pour concentrer le CO2 dans les fumées, la capture et le stockage géologique du CO2 -, il devrait être possible d'utiliser le charbon pour la production d'électricité sans émettre de dioxyde de carbone.

Différents projets sont en cours de finalisation, en Europe du Nord et aux États-Unis, pour la conception et la démonstration de la centrale thermique à charbon du futur sans CO2.

En Europe du Nord, Vattenfall, société d'origine suédoise mais présente également en Finlande, en Allemagne et en Pologne, et cinquième producteur d'électricité européen, mettra en service, en 2008-2009, à Schwarz Pump, près de Berlin, une centrale thermique au charbon avec capture et stockage du CO2. La chaudière pilote de 30 MWth fonctionnera au charbon et avec un mélange d'oxygène et de CO2 recyclé, selon le procédé d'oxycombustion qui permet d'augmenter fortement la concentration du CO2 dans les fumées [voir la rubrique Séquestration du CO2]. Transporté à près de 350 km de distance par gazoduc, le CO2 produit sera ensuite stocké dans un aquifère salin profond. Le budget de cette expérience pilote est de 57 millions €.

Le programme américain de centrale électrique propre FutureGen est encore plus ambitieux. Il consiste à construire une installation industrielle qui produise, à partir de charbon, à la fois de l'électricité et de l'hydrogène. Le charbon servira à la production de gaz de synthèse puis à celle d'hydrogène [voir rubrique gaz de synthèse - Fischer Tropsch - conversion eau-gaz]. L'hydrogène sera alors soit utilisé sur place pour la production d'électricité grâce à un cycle combiné à hydrogène ou à des piles à combustibles de puissance, soit acheminé par gazoduc pour d'autres utilisations.

Or la production du gaz de synthèse consomme de l'énergie fossile et s'accompagne donc d'émissions de CO2. Par ailleurs, la réaction de conversion eau-gaz mise en œuvre pour la production d'hydrogène produit également du CO2. La capture du dioxyde de carbone et son stockage géologique font donc partie intégrante du projet.

En pratique, la centrale thermique au charbon FutureGen devrait avoir une puissance de 275 MW. 90% du CO2 émis devront être capturés et stockés, soit 1 million de tonnes de CO2 par an. L'objectif est que les nombreuses technologies nécessaires à la réalisation du projet soient commercialisables en 2020.

L'investissement dans le projet FutureGen s'élève à 950 millions de dollars. Parmi les nombreux défis technologiques à relever, figurent l'amélioration des rendements d'une part de la gazéification du charbon, c'est-à-dire sa transformation en gaz de synthèse, et, d'autre part, la mise au point de turbines à hydrogène efficientes ou la séparation membranaire de l'hydrogène et du dioxyde de carbone après la réaction de conversion eau-gaz.

Les carburants « Coal-to-Liquids » (CTL) et la production d'hydrogène à partir de charbon

Le charbon peut aussi servir de matière première de base pour produire des carburants liquides, via la liquéfaction directe du charbon ou via la production de gaz de synthèse et le procédé Fisher-Tropsch [voir rubrique Gaz de synthèse : pivot des carburants du futur ?].

Ces technologies mises au point en Allemagne et exploitées pendant la deuxième guerre mondiale ont ensuite été perfectionnées aux États-Unis, sans application d'envergure, mais utilisée ensuite à grande échelle en Afrique du Sud.

C'est dans les années 1910-1925 que Friedrich Bergius a inventé un procédé d'hydrogénation ou de liquéfaction directe du charbon. Franz Fischer et Hans Tropsch ont mis au point en 1923 un second procédé de synthèse de carburants liquides à partir du charbon, souvent désigné par le terme de gazéification ou liquéfaction indirecte du charbon.

Grâce à ces technologies, la production de carburants synthétiques constitua un domaine prioritaire de l'effort de guerre de l'Allemagne nazie. Au maximum de sa capacité de production, au début 1944, l'Allemagne produisait 124 000 barils par jour de carburants synthétiques à partir du charbon, dans 25 usines, basées à parité sur les deux procédés Bergius ou Fischer-Tropsch. Le procédé Bergius d'hydrogénation fournissait de l'essence de haute qualité pour les moteurs d'avions. La synthèse Fischer-Tropsch fournissait du gazole de haute qualité, des lubrifiants, et de l'essence de moindre qualité.

Anticipant un boycott économique sur le pétrole, l'Afrique du Sud reprit ces technologies sur la base de ses énormes ressources en charbon82. Malgré la levée en 1991 des sanctions économiques de l'ONU suite à l'abolition de l'apartheid, l'Afrique du Sud continue d'exploiter ses installations. Une fois amorties, elles délivrent en effet des produits compétitifs avec les carburants pétroliers.

La liquéfaction directe du charbon

Les procédés modernes de liquéfaction directe du charbon sont issus du procédé de Bergius.

La liquéfaction directe du charbon consiste à broyer finement le charbon et à le mélanger à hauteur de 30 à 50% avec un solvant issu de résidus charbonniers. Ce mélange hétérogène est ensuite chauffé à 350-450°C dans une atmosphère d'hydrogène à basse pression, en présence de catalyseurs83. Des réactions additionnelles sont nécessaires pour obtenir de l'essence ou du gazole.

Le rendement de ce procédé est de 50%, une tonne de charbon conduisant à une demi-tonne de carburants automobiles. On estime que, par ce procédé, l'Allemagne nazie produisait environ 3 millions de tonnes de carburants, soit 90% des carburants utilisés par la Luftwaffe.

Dans sa recherche de carburants alternatifs aux carburants pétroliers, la Chine a lancé la construction, en Mongolie intérieure, d'une unité de liquéfaction directe du charbon qui devrait entrer en service en 2007, avec une capacité d'un million de tonnes par an.

La liquéfaction indirecte ou gazéification du charbon

La liquéfaction indirecte du charbon passe par la production de gaz de synthèse CO+H2.

Le gaz de synthèse est très anciennement connu et utilisé, puisque, sous le nom de gaz de ville, il a servi à l'éclairage dans de nombreuses cités européennes ou américaines, avant d'être remplacé par le gaz naturel, dont le contenu énergétique et la pureté sont plus élevés.

En Afrique du Sud, la production de gaz de synthèse a reposé sur la technologie moderne du lit fluidisé circulant84.

Sur la base de la réaction de Fischer-Tropsch, les carburants sont synthétisés selon une méthode mise au point par la société sud-africaine Sasol leader mondial de cette technologie CTL « Coal-to-Liquids ». Les réacteurs SAS (Sasol Advanced Synfuel Reactors), ont une capacité de plus de 200 000 barils par jour, ce qui représente près de 40% de la consommation nationale.85.

Avec la hausse durable du prix du pétrole et la montée des besoins en carburants automobiles, la technologie CTL va diffuser à travers le monde.

Confiante dans la compétitivité de ses carburants synthétiques, à la suite de la hausse des prix du pétrole intervenue depuis 2004, le leader mondial Sasol projette la construction aux États-Unis, au Montana ou au Wyoming, d'une usine de carburants synthétiques à partir du charbon.

Après le test de la liquéfaction directe du charbon, la Chine prévoit de recourir à la gazéification du charbon et à la réaction de Fischer-Tropsch pour compléter sa production de carburants alternatifs aux carburants pétroliers.

La gazéification souterraine du charbon

La production souterraine de gaz de synthèse86 est possible par injection sous pression d'air ou d'un mélange d'oxygène et de vapeur dans un gisement de charbon abandonné ou exploitable.

Son intérêt est que l'on récupère le gaz de synthèse en surface, les résidus solides de la réaction restant dans le sous-sol. La gazéification souterraine du charbon présente toutefois de nombreuses difficultés. Les forages d'injection d'air ou de vapeur dans les veines de charbon et les forages de récupération du gaz de synthèse sont coûteux et ne doivent être ni séparés par des barrières de pression trop élevées ni en communication avec le milieu environnant, sous peine de pollutions souterraines graves.

Utilisé en Union Soviétique pendant plusieurs décennies, ce procédé n'a pas essaimé dans d'autres pays. Mais la gazéification souterraine du charbon est remise à l'ordre du jour en Australie.

La production d'hydrogène à partir du charbon

Le charbon pourra également s'insérer, le moment venu, dans l'économie de l'hydrogène.

Il est en effet possible de produire de l'hydrogène à partir de charbon. On commence par produire du gaz de synthèse (CO+ H2), dont on peut récupérer l'hydrogène. La réaction de conversion eau-gaz permet ensuite d'utiliser le monoxyde de carbone pour convertir de l'eau en hydrogène additionnel [voir rubrique Gaz de synthèse : pivot des carburants du futur ?].

Ce procédé est déjà utilisé pour la synthèse d'ammoniac et la fabrication d'engrais azotés. Il pourrait également l'être pour la production d'hydrogène utilisé dans des piles à combustible, dès lors qu'elles seront opérationnelles.

L'avenir prometteur mais ambivalent du charbon

164 années de production : tel est le potentiel des réserves mondiales de charbon au niveau de production actuel87. Il s'agit là de réserves prouvées, bien réparties géographiquement, présentes dans des pays dont les besoins en énergie sont massifs, comme les États-Unis, la Chine ou l'Inde. La probabilité d'un déclin du charbon est donc très faible88.

Prometteur, l'avenir du charbon est aussi porteur de menaces pour l'environnement, compte tenu de l'émission de CO2 pour chacune de ses utilisations.

Dès lors, le développement de technologies du charbon propre et leur diffusion maximale sur la planète s'imposent dans le cadre de la lutte contre l'effet de serre.

Bien qu'ils refusent l'adhésion au Protocole de Kyoto, les États-Unis sont toutefois très actifs dans la recherche sur le charbon.

Entamé dès 1985 avec le programme sur les technologies du charbon propre qui s'est déroulé jusqu'en 1993, repris en 2001 avec l'initiative sur la modernisation des centrales thermiques à charbon, l'effort des États-Unis dans le domaine charbonnier a reçu une nouvelle impulsion avec l'initiative présidentielle sur l'énergie du charbon propre « Clean Coal Power Initiative » d'une portée de 10 ans.

Ce programme à coûts partagés dispose de 2 milliards de dollars de subventions du DOE (Department of Energy) pour abonder les initiatives prises par le secteur privé pour construire des démonstrateurs à échelle 1 des différents procédés. Le total des investissements réalisés devrait avoisiner une dizaine de milliards de dollars. Il s'agit de mettre au point non seulement des dispositifs de modernisation des centrales existantes (accroissement des rendements, réduction des émissions de polluants) mais aussi de perfectionner les technologies innovantes de centrales ultra-supercritiques, de centrales à gazéification intégrée etc.

D'autres pays, notamment européens, sont actifs dans les technologies du charbon propre, le Danemark, l'Allemagne, mais aussi le Japon.

On peut souhaiter que la France, leader mondial un temps de la technologie du lit fluidisé avec la centrale de 250 MWe de Gardanne, réinvestisse avec vigueur ce domaine porteur de la recherche industrielle.

CO2 DIOXYDE DE CARBONE

La lutte contre le changement climatique impose la réduction des émissions de gaz à effet de serre. La lutte contre les émissions de dioxyde de carbone est prioritaire mais elle ne saurait occulter la nécessité de réduire les rejets des autres gaz à effet de serre, dont les volumes sont plus réduits mais dont le pouvoir de réchauffement global est plus important que celui du CO2.

En tout état de cause, l'efficacité de la lutte contre les émissions de CO2 impose d'en connaître, avec précision, les quantités, les pays émetteurs et les secteurs d'activité.

Pour progresser dans la voie de la limitation des rejets, plusieurs options sont possibles, qui sont en tout état de cause complémentaires, aucune ne pouvant être privilégiée au détriment des autres.

Une palette de gaz à effet de serre dont le plus important est le CO2

Comme l'ont compris depuis longtemps les scientifiques [voir la rubrique Changement climatique - Réchauffement global], le gaz carbonique est un gaz à effet de serre majeur mais il n'est pas le seul. D'autres gaz émis par les activités industrielles ou agricoles ont également un pouvoir de réchauffement global important, souvent d'ailleurs très supérieur à celui du CO2.

Le CO2, principal gaz à effet de serre

Le premier des gaz à effet de serre par le volume de ses émissions est le dioxyde de carbone CO2. Il provient essentiellement de la combustion des énergies fossiles - charbon, pétrole, gaz naturel - dans les secteurs des transports, du résidentiel-tertiaire (bâtiments) et de l'industrie. Dans un pays comme la France, la contribution du CO2 à l'effet de serre additionnel est de l'ordre de 73% du total89.

Les statistiques d'émissions les plus complètes sont relatives aux émissions de CO2 liées à l'énergie - c'est-à-dire à l'utilisation de combustibles fossiles -90. Au plan mondial, les émissions de CO2 dues à l'énergie ont représenté 24,1 milliards de tonnes de CO2 en 2002, soit, dans un autre système d'unités, 6,5 milliards de tonnes de carbone91. Les émissions françaises se sont élevées en 2002 à 390 millions de tonnes de CO2, soit 106 millions de tonnes de carbone92, et, en 2003 à 408 millions de tonnes de CO2.

Le méthane, un gaz à effet de serre à ne pas sous-estimer

Le méthane CH4 est le second gaz à effet de serre du fait de son impact sur le réchauffement global, qui est supérieur d'un facteur 21 à celui du CO293 et par les volumes qui en sont émis dans l'atmosphère du fait des activités humaines.

Les émissions de méthane CH4 proviennent de plusieurs types de sources, principalement agricoles mais aussi industrielles. Ce sont les activités agricoles, l'élevage - en particulier celui des ruminants -, les cultures - en tout premier lieu celle du riz - qui entraînent les rejets de méthane les plus importants dans l'atmosphère. Les décharges d'ordures ménagères ou de déchets industriels sont également une source notable de méthane, en raison de la libération de ce gaz par la putréfaction de matières animales ou végétales. La consommation d'énergie et l'industrie sont également des sources d'émissions directes de méthane dans l'atmosphère : rejets directs d'installations d'extraction ou de traitement d'hydrocarbures, rejets d'usines chimiques, fuites des gazoducs, etc.

En France, en 2003, les émissions de méthane se sont élevées à 2,8 millions de tonnes, volume important certes mais très inférieur à celui du CO2 (408 millions de tonnes de CO2). Mais compte tenu de son pouvoir radiatif supérieur dans un rapport de 21 à 1 à celui du CO2, l'impact des 2,8 millions de tonnes de CH4 équivaut à celui de 60 millions de tonnes de CO2.

Au total, les émissions de méthane sont, en France, responsables de 11% de l'effet de serre additionnel dû aux émissions nationales de gaz à effet de serre.

Au plan mondial, on voit donc combien sont importantes des opérations comme la récupération des gaz de décharge, la méthanisation confinée du lisier, le « torchage » du méthane sur les plateformes pétrolières ou la réduction des fuites des gazoducs.

L'oxyde nitreux N2O, autre gaz à effet de serre particulièrement nocif

L'importance de l'impact de l'oxyde nitreux ou protoxyde d'azote N2O94 sur le réchauffement global résulte du même phénomène que pour le méthane : la nocivité des émissions, même faible est fortement amplifiée par son effet radiatif supérieur d'un facteur 310 à celui du dioxyde de carbone.

Les émissions de protoxyde d'azote proviennent essentiellement de l'utilisation d'engrais azotés dans l'agriculture, de la consommation d'énergie dans les transports95 et de certains procédés industriels, notamment chimiques. Elles sont loin d'être négligeables, en volume et en impact sur le climat.

Les émissions françaises de N2O se sont élevées à 241 000 tonnes en 2003, et représentent l'équivalent de 75 millions de tonnes de CO2.

Le violent pouvoir de réchauffement global des composés fluorés

Les émissions de composés fluorés sont limitées en volume mais leur impact est maximal.

Utilisés comme fluides frigorigènes pour le froid commercial et la climatisation automobile, ainsi que dans les aérosols en remplacement des CFC interdits par le protocole de Montréal parce qu'impliqués dans l'altération de la couche d'ozone, les hydrofluorocarbones HFC96 sont des gaz à effet de serre dont le pouvoir de réchauffement global est très élevé puisqu'il varie de 140 (HFC-152a) à 11700 (HFC-23). Le plus utilisé d'entre eux, le HFC-134a, a un coefficient de 1300 en équivalent CO2 et compte pour 63% du total. En France, les quantités totales émises ont été de 6500 tonnes en 2003, qui représentent l'équivalent de 12 millions de tonnes de CO2.

Les perfluorocarbones sont, pour leur part, émis lors de la production d'aluminium par électrolyse et à partir de processus de fabrication de l'industrie électronique. Encore plus élevés que ceux des hydrofluorocarbones, leurs pouvoirs de réchauffement global sont, selon les molécules, de 6500 à 9200 fois supérieurs à ceux du dioxyde de carbone. Émis en faibles quantités (183 tonnes en 2003 en France), leur équivalent CO2 est toutefois d'un million de tonnes.

Enfin, l'hexafluorure de soufre SF6, utilisé dans l'industrie du magnésium, dans la fabrication de certaines chaussures de sport et de différents équipements électriques, n'est émis qu'à hauteur de faibles tonnages (66 tonnes en France en 2003). Mais compte tenu de son pouvoir de réchauffement global de 23900, son équivalent en CO2 est important (1,6 million de tonnes en France en 2003).

Les gaz à effet de serre indirect

D'autres polluants primaires jouent un rôle dans l'effet de serre, en intervenant dans la formation de polluants secondaires comme l'ozone ou les aérosols. Ces polluants primaires sont essentiellement liés à la consommation d'énergie, et dans une moindre mesure aux procédés industriels.

Les principaux gaz à effet de serre indirect sont le dioxyde de soufre SO2, issu de la combustion des produits fossiles, en particulier les produits pétroliers, les oxydes d'azote NOx rejetés principalement par les véhicules automobiles, le monoxyde de carbone CO rejeté par l'automobile et l'industrie sidérurgique et enfin, les COVNM (composés organiques volatils non méthaniques) rejetés par les moteurs à combustion interne et issus de l'utilisation de solvants. Le total de leurs émissions atteint des montants importants (9 millions de tonnes en 2003 en France).

*

Dans un pays comme la France, la consommation d'énergie est, de très loin, la première source d'émission de CO2. Bon an mal an, 95% des émissions de CO2 ont cette origine. Deux remarques doivent être faites à cet égard.

En premier lieu, la consommation d'énergie est, bien entendu, source d'autres gaz à effet de serre que le CO2 : méthane CH4, dioxyde de soufre SO2, protoxyde d'azote N2O, oxydes d'azote NOx, monoxyde de carbone CO et composés organiques volatils non méthaniques COVNM. Mais la part du CO2 représente l'essentiel, avec 95% du total.

En second lieu, la contribution des gaz autres que le CO2 émis par des usages non liés à l'énergie est loin d'être négligeable. En effet, les émissions de CO2 ne comptent que pour 73% du pouvoir de réchauffement global des émissions françaises de gaz à effet de serre. Cette situation est évidemment liée au niveau élevé de développement économique de l'économie française qui conduit à l'utilisation de nombreux gaz industriels, mais se retrouve dans d'autres pays.

Les émissions de CO2 : quels volumes, quels pays, quels secteurs ?

Si l'on ne peut négliger les effets du méthane et des autres polluants liés aux usages de l'énergie, le dioxyde de carbone CO2 est de très loin le principal gaz à effet de serre généré par la combustion de combustibles fossiles97. Les statistiques mondiales se focalisent donc sur celui-ci 98.

Les émissions mondiales de CO2 en 2003 se sont élevées à 25 milliards de tonnes de CO2 [tCO2]99. Comme on peut s'y attendre, en raison des écarts de niveau de vie entre les continents, trois grandes zones jouent un rôle déterminant dans les émissions de CO2 liées à l'énergie. En 2003, l'Amérique du Nord100 a émis 27% du total mondial, le continent européen101 27 % également, et, l'Extrême Orient 31%.

Les États-Unis sont, de très loin, en 2003, le premier émetteur mondial de CO2 (5,7 milliards de tonnes de CO2 [tCO2]). On trouve ensuite la Chine (3,8 Md t CO2 [t CO2]), la Russie (1,5 Md t CO2 [t CO2]), le Japon (1,2 Md tCO2 [tCO2]), l'Inde (1,0 Md tCO2 [tCO2]), l'Allemagne (0,85 Md tCO2 [tCO2]), le Canada (0,55 Md tCO2 [tCO2]), le Royaume Uni (0,54 Md tCO2 [tCO2]). L'Union européenne à 25 est responsable, pour sa part, de l'émission de 3,9 milliards de tonnes de CO2 [tCO2] en 2003.

La France a pour sa part émis 389 Millions tCO2 [tCO2] en 2003, selon la même source, soit 106 Millions tCO2 [tC]102.

Entre 1990 et 2003, les émissions mondiales ont progressé de 20,5%.

Les émissions de l'Amérique du Nord ont progressé à peu près au même rythme que les émissions mondiales (19,6%). Celles du continent européen ont diminué (-13%), principalement en raison de l'effondrement de la croissance économique en Russie et en raison de la fermeture de nombreux sites industriels obsolètes des Länder de l'Est de l'Allemagne.

En revanche, l'Extrême Orient enregistre une croissance très rapide de ses émissions de CO2. De 1990 à 2003, la Chine a augmenté ses émissions de 64% et l'Inde de 75%. Les émissions du Japon ont, pour leur part, cru au même rythme (19%) que les émissions mondiales.

Les émissions de CO2 par unité de PIB ou par habitant

La comparaison des intensités d'émission de CO2 par rapport au PIB est un indicateur classique, que l'on calcule en rapportant les émissions nationales de CO2 au PIB.

L'efficacité énergétique et la part des combustibles fossiles dans l'approvisionnement énergétique du pays considéré déterminent la hiérarchie des performances nationales103.

La Russie est le pays qui émet le plus de CO2 par unité de PIB, suivi de la Pologne, ce qui s'explique par une efficacité énergétique faible et la prédominance des combustibles fossiles dans leur approvisionnement en énergie. Le deuxième groupe de pays, qui ont sensiblement les mêmes performances, comprend l'Australie, la Chine et le Canada. Les États-Unis et la Corée du Sud viennent ensuite.

La France, pour sa part, grâce à son parc électronucléaire, émet, par unité de PIB, deux fois moins de CO2 que les États-Unis et 1,7 fois moins que l'Allemagne104.

L'autre indicateur classiquement utilisé est la quantité de CO2 par rapport à la population. Les émissions de CO2 sont cette fois rapportée au nombre d'habitants. Le niveau de vie, d'abord, et, la part des énergies fossiles dans la consommation nationale d'énergie, ensuite, et l'efficacité énergétique du pays, enfin, déterminent une hiérarchie où la France, comme les pays développés disposant d'une hydroélectricité abondante et d'un parc électronucléaire important, témoigne d'excellentes performances105.

En 2003, les États-Unis ont émis 5,37 tonnes de CO2 par habitant [tC] suivis du Canada (4,77) et de l'Australie (4,73).

Par comparaison, le niveau de l'Union européenne à 25 est de 2,32, c'est-à-dire presque deux fois moindre. Au sein même de l'Union, les disparités sont fortes. La Suisse et la Suède présentent les meilleures performances, avec environ 1,6 tonne, suivies de la France (1,73 tonne). L'Allemagne au contraire, en raison de sa production électrique assurée à 50% par le charbon, émet 2,82 tonnes par habitant. Le Royaume Uni se caractérise par un niveau de 2,5 tonnes par habitant, en raison du rôle majeur du charbon et du gaz naturel dans sa production électrique.

La croissance des émissions par habitant en Chine et en Inde est un autre fait marquant. En 2003, la Chine a émis 0,79 tonne de CO2 par habitant, soit une augmentation de 44% par rapport à 1990. L'Inde enregistre une augmentation de 42% entre les mêmes dates, le niveau de 0,27 tonne atteint en 2003 étant toutefois trois plus faible qu'en Chine.

L'importance critique de la production électrique et des transports

Pour analyser l'origine des émissions de CO2, on distingue classiquement les secteurs suivants : production d'électricité et de chaleur106, transports, résidentiel, tertiaire, industrie et autres.

Au plan mondial, selon les estimations partielles de l'AIE-OCDE107, la production d'électricité et de chaleur a, en 2002, été le premier secteur émetteur de CO2 avec 35% du total mondial. Selon d'autres sources, comme le Département de l'énergie des États-Unis, la contribution de la production d'électricité et de chaleur serait proche de 40% du total. La croissance des émissions de CO2 liées à la production d'électricité et de chaleur est très rapide : +33% entre 1990 et 2002. Cette évolution s'explique essentiellement par la prédominance pérenne des combustibles fossiles dans la production d'électricité et de chaleur.

Selon l'AIE-OCDE, le deuxième secteur émetteur de CO2 au plan mondial est celui des transports, dont les émissions ont représenté 24% du total en 2002.

La croissance des besoins de mobilité, dans tous les pays du monde - développés ou en développement - est forte. Comme elle est assumée principalement par l'automobile, les émissions de CO2 dues aux transports connaissent une croissance très forte (+28% depuis 1990), qui devrait continuer dans les prochaines années108.

Les responsabilités respectives des différents secteurs dans les émissions de CO2 dans l'Union européenne à 25 sont voisines, selon la Commission européenne109. En 2000, la production d'électricité et de chaleur comptait pour 34,1% des émissions européennes totales de CO2, les transports pour 26,4%, l'industrie pour 15%, le résidentiel pour 12,6%, le tertiaire pour 6,5% et les autres secteurs pour 5,4%.

Le cas vertueux de la France

La France dispose d'un parc de production électrique particulièrement économe en émissions de CO2. Le parc électronucléaire de la France a en effet assuré, en 2004, 78,3% de la production électrique française, l'hydroélectricité contribuant pour 11,5%110.

Certes, les énergies renouvelables électriques ne jouent encore qu'un rôle mineur dans l'approvisionnement national en électricité. Mais les centrales thermiques classiques dites « centrales thermiques à flamme » fonctionnant au fioul ou au charbon, qui assurent la production de pointe, n'ont assuré que 10,1% du total.

Il n'est donc pas étonnant, dans ces conditions, que la production d'électricité n'ait été à l'origine, en 2004, que de 9,1 millions de tonnes de CO2 [tC]111, soit 8,6% des émissions totales.

En revanche, les transports, avec 41 millions de tonnes de CO2 [tC] en 2004, sont de loin le premier émetteur de CO2 de France et connaissent une croissance rapide de leurs émissions : +19,7% de 1990 à 2003 et encore +0,7% de 2003 à 2004.

Le résidentiel-tertiaire est le deuxième émetteur, avec 28 millions de tonnes de CO2 [tC] en 2004, avec une croissance de +6,8% entre 1990 et 2003, mais une diminution de 0,4% de 2003 à 2004.

Le troisième secteur est l'ensemble industrie-agriculture, avec 21,9 millions de tonnes de CO2 [tC] en 2004, qui a diminué ses émissions de 14,8% entre 1990 et 2003, mais a été orienté à la hausse de 2003 à 2004 (+0,5%).

Signalons enfin que la branche énergie, c'est-à-dire principalement le chauffage urbain et le raffinage, compte pour 5,2% du total des émissions en 2004, avec 5,5 millions de tonnes de CO2 [tC], en diminution de 6,8% de 1990 à 2003.

La réduction des émissions de CO2 : les possibilités techniques

Pour réduire les émissions de CO2, de nombreuses pistes peuvent être envisagées. Des progrès en termes d'efficacité d'énergie sont probablement le moyen le plus sûr et le plus efficace. Un moyen naturel consiste à renforcer ou conforter les puits de carbone. Le remplacement de filières émettrices de CO2 par des technologies propres offre d'autres possibilités. Une autre option est celle, à l'étude, de la capture et du stockage de CO2 dont les émissions ne pourraient pas être évitées.

La maîtrise des consommations d'énergie

Selon une étude réalisée par l'AIE-OCDE112, c'est, à l'évidence, l'accroissement de l'efficacité énergétique qui permettra une diminution des émissions de CO2. La contribution de la maîtrise de l'énergie pourrait atteindre les deux tiers du total dans les pays émergents ou en développement ainsi que dans les pays dits en transition (Europe orientale et pays de l'ex-URSS). Même dans l'OCDE, sa contribution serait de l'ordre de la moitié des réductions envisageables.

Les puits de carbone

L'extension ou l'exploitation des forêts ainsi que les changements apportés aux cultures peuvent aussi avoir un impact important sur les émissions de gaz à effet de serre d'un pays.

Si la déforestation se traduit par une diminution des quantités de CO2 fixées par photosynthèse, la plantation de forêts devrait constituer de véritables puits de carbone, permettant de fixer des quantités accrues de carbone. La protection et le renforcement des puits et des réservoirs de gaz à effet de serre figure parmi les méthodes recensées par le Protocole de Kyoto pour lutter contre les émissions de gaz à effet de serre, ainsi que la promotion des méthodes durables de gestion forestière, de boisement et de reboisement.

Afin de mieux cerner la capacité réelle de stockage d'une plantation, une expérience portant sur 2000 hectares est en cours en Amazonie pour mesurer les échanges gazeux entre les arbres et l'atmosphère, qui comprennent la fixation de CO2 lors de la croissance de l'arbre mais également sa libération partielle du fait de la respiration végétale, de la décomposition des feuilles et du bois mort, ou en cas d'incendie. L'expérience devrait également permettre de collecter des données sur le dégagement ou la fixation de méthane par les végétaux, mis en lumière récemment par une équipe de recherche.

À cet égard, la modification des cultures peut également avoir pour conséquence, par exemple, de modifier la composition de sols en réduisant les dégagements de méthane, d'accélérer les cycles végétaux et donc la fixation de CO2, de diminuer les quantités d'engrais utilisées et donc les dégagements de protoxyde d'azote.

Regroupés sous la dénomination LULUCF (Land Use and Land Use Change and Forestry) par la Convention des Nations Unies sur le Changement climatique, ces processus désignent la forestation/déforestation et les modifications diverses des sols.

Ces mécanismes ont ainsi permis, en France, en 2003, une diminution des émissions nationales de l'ensemble des gaz à effet de serre de 52,6 millions de tonnes de CO2 [tCO2]. Les puits de carbone ont entraîné une diminution de 157 millions de tonnes équivalent CO2 [tCO2], les émissions dues aux changements de culture comptant au contraire pour un surcroît d'émissions de 107,5 millions de tonnes équivalent CO2 [tCO2].

La substitution de technologies

Des gains en termes de réduction des émissions de CO2 peuvent être obtenus grâce au changement de technologies.

En remplaçant de vieilles centrales thermiques au charbon d'un rendement inférieur à 30%, par des centrales à vapeur supercritique d'un rendement supérieur à 40%, les émissions de CO2 sont réduites d'un quart.

La construction de cycles combinés à gaz en remplacement de centrales thermiques au charbon entraîne aussi des réductions substantielles d'émissions, et, mieux encore, la construction d'installations n'émettant pas de gaz à effet de serre, comme des centrales nucléaires pour la production de masse, d'éoliennes ou de centrales solaires pour la production décentralisée, en remplacement de centrales brûlant des combustibles fossiles.

Le remplacement du charbon par le gaz naturel dans la production électrique permet de réduire de près de la moitié des émissions de CO2 par MWh produit.

Selon l'AIE-OCDE, l'impact de ce type de substitution serait toutefois marginal dans les pays en développement, avec une contribution faible à la diminution de leurs émissions, en raison de la croissance de la demande d'électricité qui pousse à maintenir en fonctionnement les anciennes centrales malgré la mise en service de nouvelles unités de production113.

Le développement des énergies renouvelables dans la production de chaleur et d'électricité pourrait, selon l'AIE-OCDE, contribuer à hauteur de 20% du total à la réduction des émissions de CO2.

Le développement du nucléaire en se substituant aux filières fossiles apporterait lui aussi une contribution importante.

Un autre domaine où la substitution de technologies peut contribuer à la réduction des émissions, est celui de la consommation finale d'énergie. Il s'agit là de remplacer le fioul par le gaz naturel dans le chauffage domestique, de passer de l'essence au gazole ou aux biocarburants pour les véhicules automobiles, de réduire la consommation électrique grâce à l'utilisation du solaire thermique pour l'eau chaude sanitaire, etc.

La séquestration du dioxyde de carbone : capture et stockage

Les sources d'émissions de CO2 dans l'atmosphère sont innombrables : véhicules de transports, habitations individuelles ou collectives, installations agricoles et industrielles.

Selon la catégorie de sources considérée, le volume et la concentration des émissions diffèrent fortement d'une source à l'autre.

Les sources les plus nombreuses émettent chacune des quantités réduites de CO2, comme les véhicules automobiles ou les habitations. Dans l'état actuel des connaissances, il n'existe pas, dans ce cas, de moyen technique pour capter et stocker les émissions. D'où l'importance particulière de la maîtrise ou de la réduction des consommations.

À l'inverse, pour les sources d'émission centralisées, si la source présente la double caractéristique de produire des émissions concentrées et massives, alors on peut envisager la capture du CO2 en amont du processus de combustion ou en aval de celle-ci dans les fumées.

Moyennant un éventuel transport du CO2 ainsi capturé, on peut ensuite envisager son stockage dans le sous-sol selon différentes techniques, les unes totalement dédiées à cette fin, les autres s'inscrivant dans une activité d'extraction, comme celle du pétrole ou du gaz naturel. [voir rubrique : Séquestration du CO2]

ÉCONOMIES D'ÉNERGIE, EFFICACITÉ ET INTENSITÉ ÉNERGÉTIQUES

Creusant la facture énergétique des pays dépendants de l'extérieur pour leur approvisionnement en énergie, l'inefficacité énergétique devient aussi une charge insupportable même aux pays les mieux dotés en ressources naturelles.

Les États-Unis consacreront ainsi en 2006 plus du tiers de leur budget de recherche sur l'énergie aux techniques d'économies d'énergie114.

Dans l'Union européenne à 25, qui souffre d'une grave dépendance énergétique extérieure, le Livre vert de la Commission européenne, intitulé « Comment consommer moins en consommant mieux » propose une réduction de 20% de la consommation d'énergie de l'Union, d'ici à 2020115.

En France, la loi de programme du 13 juillet fixant les objectifs de la politique énergétique a fixé au premier rang de ses priorités la maîtrise de la consommation d'énergie, avec l'objectif d'une réduction de 2% par an de l'intensité énergétique116.

Économies d'énergie, efficacité et intensité énergétiques : des concepts complémentaires

Réduire la dépense et la dépendance énergétiques ainsi que les émissions de gaz à effet de serre : un tel programme souhaitable en théorie doit se faire à services rendus constants voire croissants pour emporter l'adhésion. Trois types de démarches peuvent y concourir.

Les économies d'énergie, dans le sens commun, correspondent à une diminution de la consommation d'énergie, quelles qu'en soient les conséquences en terme de niveau de production ou de satisfaction de l'usager. En raison de leur connotation malthusienne ou régressive, on leur préfère souvent la notion d'efficacité énergétique.

L'efficacité énergétique consiste à optimiser le service rendu par la consommation d'une même quantité d'énergie. L'isolation thermique d'un logement permet d'atteindre une température plus élevée pour une dépense énergétique identique. En récupérant les gaz chauds d'une turbine à gaz pour produire de la vapeur d'eau actionnant à son tour une deuxième turbine, on augmente l'efficacité énergétique de la production électrique à partir du gaz naturel. Cette notion ne véhicule pas d'appréciation implicite sur le niveau souhaitable de consommation.

Rapport entre la consommation d'énergie et le PIB (Produit intérieur brut), en volume, l'intensité énergétique permet de comparer dans le temps et l'espace, le rôle de l'énergie dans l'activité économique et dans les modes de vie des consommateurs. L'intensité énergétique recouvre en réalité l'efficacité énergétique et l'importance de l'énergie dans les modes de consommation.

Les intensités énergétiques des différents pays européens sont relativement proches, dénotant ainsi des efficacités énergétiques et des modes de vie proches.

En revanche, l'intensité énergétique des États-Unis est supérieure de près de 50%, traduisant, dans un contexte d'abondance énergétique historique, d'abord une efficacité énergétique plus faible de l'industrie et surtout des transports, ensuite l'importance des déplacements sur un territoire immense, et, enfin, l'exigence de confort dans un climat plus extrême.

Les principaux facteurs d'évolution

Globalement, l'économie française est de plus en plus efficace sur le plan énergétique. L'intensité énergétique finale a en effet diminué de 38% entre 1973 et 2004. Les tendances peuvent toutefois facilement s'inverser et les comportements effacer l'effet des améliorations techniques.

L'intensité énergétique primaire ou finale

La consommation française d'énergie primaire est passée de 180 Mtep en 1973 à 276 Mtep en 2004, soit une évolution de +54%. La structure de cette consommation s'est elle-même fortement modifiée, avec une baisse de 53% de la consommation de charbon et de 23% de celle de pétrole117, une augmentation de 203% de la consommation de gaz naturel et de +34% de celle d'énergies renouvelables thermiques, ainsi que, du fait de la construction du parc électronucléaire, une multiplication par 15 de la consommation d'électricité primaire (nucléaire et hydraulique).

L'intensité énergétique primaire est le rapport de la consommation d'énergie primaire au PIB. Cet indicateur, qui renseigne sur l'évolution des techniques de production d'énergie primaire, a diminué de 18% entre 1973 et 2004. L'amélioration de l'efficacité énergétique est patente mais inférieure à celle de l'énergie finale.

La consommation énergétique finale est, pour sa part, passée de 133,6 Mt en 1973 à 161,2 Mt en 2004, soit une augmentation de 20,7%. La consommation de charbon dans l'industrie et le résidentiel tertiaire a diminué de 64% et celle de pétrole de 14%, principalement dans l'industrie. La consommation finale de gaz a, pour sa part, augmenté de 300% et celle d'électricité de 178%, variations qui témoignent de la diffusion croissante de ces sources d'énergie dans les secteurs de l'industrie et du résidentiel-tertiaire.

Au final, l'intensité énergétique finale, indicateur qui renseigne sur l'efficacité énergétique des utilisations finales de l'énergie, a diminué de 38% entre 1973 et 2004.

Si globalement l'efficacité énergétique s'est, en France, améliorée depuis 1973, tant pour l'énergie primaire que pour l'énergie finale, l'évolution n'a pas été uniforme tout au long de la période, ce qui montre que deux facteurs sous-tendent les évolutions de l'intensité énergétique, d'une part les évolutions techniques, et, d'autre part, les évolutions comportementales.

L'influence de la conjoncture énergétique et économique

Après le premier choc pétrolier, l'intensité énergétique finale diminue au rythme de 1,7% par an jusqu'en 1982.

Après cette date et jusqu'en 1996, une évolution inverse se produit, avec une augmentation de l'intensité énergétique de +0,5% par an. La raison majeure en est un relâchement des efforts d'économies d'énergie, du fait de la diminution des prix du pétrole de 37 $/baril en janvier 1982 à 20 dollars le baril en 1986 et à sa stabilisation à ce niveau pendant une décennie.

À partir de 1996, le prix du pétrole fluctue à la hausse puis à la baisse, avant de reprendre une hausse quasi continue à partir de janvier 2000. L'intensité énergétique est en baisse continue depuis 1996, l'accélération de la croissance économique produisant mécaniquement un effet positif118.

Les chocs et les contre-chocs pétroliers démontrent ainsi que l'efficacité énergétique peut s'améliorer rapidement et se détériorer tout aussi rapidement, sous l'influence de l'évolution des prix de l'énergie.

La hausse des prix du pétrole est vertueuse en pesant sur la consommation d'énergie finale. La baisse des prix suscite un relâchement de la contrainte de coût.

La croissance économique est également vertueuse, en terme de consommation d'énergie finale, en la répartissant sur une base plus large. Le ralentissement économique produit des effets négatifs non seulement sur l'emploi, les revenus mais aussi sur l'efficacité énergétique.

L'autonomie des comportements

L'amélioration technique de l'efficacité énergétique est un objectif important de l'action des pouvoirs publics. Mais l'importance de l'évolution des comportements ne peut être ignorée.

Ainsi au cours de la période 1986-1999, l'intensité énergétique finale a diminué de 13%, un résultat provenant en réalité de deux évolutions en sens contraire.

L'efficience énergétique d'origine technique a progressé, notamment grâce aux normes d'isolation sur les logements neufs, à la diminution de consommation des véhicules automobiles et à l'amélioration des procédés dans l'industrie. Les économies d'énergie annuelles cumulées s'élèvent à 11 Mtep.

En revanche, le comportement des consommateurs va dans le sens d'une hausse des consommations unitaires, avec au total une augmentation de la consommation de 8 Mtep. Les consommateurs dépensent en effet plus pour leur chauffage pour atteindre des températures plus élevées de leurs logements, utilisent davantage leurs véhicules et multiplient leur consommation d'électricité119.

L'importance des comportements individuels justifie ainsi les campagnes de sensibilisation du public.

Progrès réalisés ou envisageables

L'efficacité croissante des véhicules automobiles

La consommation des automobiles particulières en France diminue en moyenne d'un litre aux cent kilomètres tous les quatre ans. Grâce au progrès technique, la diminution de cylindrée des moteurs à performances égales ou « downsizing » présente le double avantage de réduire la consommation tout en accroissant la puissance et en particulier l'accélération, avec la généralisation des turbos. La diésélisation du parc permet également une réduction de la consommation moyenne. À titre de comparaison, la diésélisation du parc automobile américain permettrait de réduire de 125 millions de tonnes de CO2 le montant de ses émissions annuelles.

Inversement, la généralisation de la climatisation dans toute la gamme de véhicules, leur alourdissement pour accroître leur sécurité et la vogue des véhicules 4x4, des SUV (Sport Utility Vehicule) et autres Cross over, amplifient l'impact de l'augmentation du kilométrage parcouru.

Les constructeurs français sont en pointe dans l'Union européenne, si l'on utilise la mesure indirecte de la consommation par les émissions de CO2 moyennes des véhicules vendus par Renault et PSA, qui sont de 148 g/km, contre 160 g/km pour la moyenne européenne. Les petits véhicules dont les émissions sont inférieures à 120 g/km constituent le créneau dont les ventes sont en France les plus dynamiques.

Au-delà des progrès techniques sur les moteurs, d'autres évolutions amélioreraient l'efficacité énergétique du transport automobile120.

La congestion du trafic est en effet une source considérable d'inefficacité énergétique, en particulier pour le transport routier121. Par ailleurs, la généralisation des bonnes pratiques de conduite, notamment grâce au respect des limites de vitesses, serait également une source importante d'économies d'énergie.

Les performances énergétiques des bâtiments

La première réglementation thermique de 1975 a renforcé l'isolation thermique de l'enveloppe des bâtiments, à savoir les murs, les toitures, les planchers, les vitrages, et, le contrôle des infiltrations d'air. Avant la mise en place de cette réglementation, les normes de qualité sur les logements n'étaient pas réglementaires. Le principal mérite de la Réglementation Thermique de 1975 a été d'imposer une limite de déperdition globale par m3 chauffé.

La Réglementation Thermique de 1975 a permis une économie de 169,65 TWh en 1998 sur les constructions neuves. L'impact des améliorations apportées au parc existant peut être estimé, pour sa part, à 118,3 TWh en 1998.

La Réglementation Thermique 2000 (RT 2000) renforce encore les isolations thermiques des logements neufs. Pour aller plus loin, il était nécessaire d'intégrer les apports solaires et d'autres acquis de l'architecture bioclimatique. C'est une des nouveautés de la nouvelle réglementation thermique.

La Réglementation Thermique 2005 (RT 2005), applicable à la mi-2006, a pour but de réduire la consommation énergétique des bâtiments neufs de 15% par rapport aux normes de 2000. Tout projet de logement doit avoir une consommation inférieure à celle du bâtiment de référence, non seulement isolé thermiquement mais doté de moyens modernes de chauffage - chaudière basse température ou panneau électrique rayonnant - et de panneaux solaires thermiques pour l'eau chaude sanitaire. Les modes de calcul de la consommation valorisent l'orientation du bâtiment, la gestion des apports solaires et la ventilation naturelle notamment.

Les nouveaux outils

La loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique a non seulement fixé des objectifs ambitieux pour l'amélioration de l'intensité énergétique finale mais aussi introduit une nouvelle méthode pour accélérer les économies d'énergie dans notre pays.

Des objectifs à valeur législative

L'article 3 de la loi indique ainsi que « le premier axe de la politique énergétique est de maîtriser la demande d'énergie afin de porter le rythme annuel de baisse de l'intensité énergétique finale à 2% dès 2015 et à 2,5% d'ici à 2030 ».

Le rapport annexé à la loi décline ces objectifs d'abord pour l'habitat et les locaux à usage professionnel, ensuite pour les transports, et, enfin pour l'industrie.

Les seuils minimaux de performance énergétique pour les bâtiments neufs doivent être progressivement abaissés, avec un objectif de 40% en 2020.

L'État doit favoriser une baisse à 120 g/km de CO2 à l'horizon 2012, des véhicules individuels.

Dans le domaine industriel, l'État doit favoriser la mise en place de seuils de puissance en veille des appareils électriques inférieurs à 1 watt, la diffusion de procédés de fabrication non émetteurs de gaz à effet de serre et le développement d'un système d'échange de quotas d'émissions au sein de l'Union européenne.

Les certificats d'économies d'énergie

La loi du 13 juillet 2005 met également en place un ensemble d'outils nouveaux pour dynamiser l'amélioration de l'efficacité énergétique dans notre pays.

La loi introduit en effet une obligation pour les fournisseurs d'énergie en France d'inciter leurs clients, particuliers ou entreprises, à réaliser des économies d'énergie.

Les opérations correspondantes sont définies par les pouvoirs publics. 24 opérations standardisées sont recensées par l'ADEME (Agence de l'environnement et de la maîtrise de l'énergie), comme par exemple l'amélioration de l'isolation des bâtiments, l'installation de chaudières plus performantes, l'acquisition d'appareils électroménagers particulièrement économes classés A+ ou la mise en place de systèmes de régulation122.

En favorisant ces opérations, les fournisseurs d'énergie seront payés de leurs efforts par des certificats d'économies d'énergie, dits certificats « blancs ». Toutes les entreprises pourront aussi en obtenir, de par leurs propres efforts d'économie d'énergie. Les certificats blancs pourront s'échanger sur un marché. Les entreprises « vertueuses » vendront leurs certificats, ce qui réduira le coût de leurs actions d'économies d'énergie. Les fournisseurs d'énergie qui n'auraient pas obtenu par eux-mêmes le nombre de certificats requis en achèteront, plutôt que de payer les pénalités d'un montant deux fois plus élevé.

Ce système a démontré son efficacité au Royaume Uni, où il a permis d'économiser 80 TWh en trois ans.

ÉNERGIES RENOUVELABLES : PROBLÉMATIQUES COMMUNES ET SPÉCIFICITÉS

Chaleur et électricité : deux domaines d'excellence des énergies renouvelables

Surfant sur la vogue de l'éolien issue du nord de l'Europe et de la Californie au début des années 1980, la production d'électricité a longtemps paru être l'application privilégiée des énergies renouvelables.

À l'instigation des pays scandinaves et de l'Allemagne, la Commission européenne a fait de l'électricité dite « verte » une priorité des énergies renouvelables. En application d'une directive de 2001123, la France s'est ainsi vue fixer comme objectif - et non pas comme obligation - que 21 % de sa production d'électricité en 2010 proviennent de sources d'énergies renouvelables124. L'Office parlementaire d'évaluation des choix scientifiques et technologiques a, le premier en France, dans son rapport sur « l'état actuel et les perspectives techniques des énergies renouvelables », souligné la complémentarité de toutes les formes d'énergie et rappelé l'importance de la contribution des énergies renouvelables à la production de chaleur.

Par la suite, la Commission européenne a heureusement élargi sa vision. La performance énergétique des bâtiments125, les biocarburants126 et la promotion de la cogénération127 ont fait l'objet de directives pour leur promotion. Mais l'illusion n'est pas encore totalement dissipée.

Car les énergies renouvelables ont deux applications complémentaires : la production d'électricité et la production de chaleur.

La production d'électricité est au premier plan médiatique avec l'éolien. Elle l'est également au plan technique puisque l'hydroélectricité est la première énergie renouvelable dans de nombreux pays.

La production de chaleur occupe l'arrière-plan, pratique et domestique avec le bois énergie. Ne figurant pas, le plus souvent, dans les statistiques des énergies commercialisées, les renouvelables thermiques - biomasse et déchets animaux pour la combustion et le chauffage - sont pourtant au premier rang mondial.

De fait, ni l'un ni l'autre de ces deux aspects - électricité et chaleur - ne doivent être négligés.

Expression des forces naturelles qui agitent les éléments - la terre, la mer, l'atmosphère -, les énergies renouvelables sont soit inépuisables à l'échelle humaine - l'énergie solaire, la chaleur de la terre - soit reconstituées sans terme imaginable - le vent, la végétation -.

Leur caractéristique commune est d'être des énergies dispersées. Le défi technique est de les concentrer pour les récupérer. À cette fin, l'ingéniosité humaine multiplie les procédés techniques et les applications.

Un foisonnement de technologies en devenir

L'hydroélectricité mise à part, les technologies relatives aux énergies renouvelables sont en devenir. La puissance des éoliennes augmente. Les rendements des panneaux solaires - thermiques ou photovoltaïques - progressent et les coûts diminuent. La fabrication de biocarburants augmente de rendement. De surcroît, la liste des énergies renouvelables s'enrichit d'année en année.

Succédant aux anciens moulins à vent du pompage et de la mouture, les éoliennes seront peut-être complétées par les procédés de récupération de l'énergie des vagues et de la houle.

Après l'échec des usines marémotrices, les hydroliennes permettront de mobiliser l'énergie des marées128. Ces génératrices à hélice ancrées sur le fond de la mer et actionnées par les courants pourraient mobiliser une puissance de 3-4000 MW en France et de 6-7000 MW au Royaume Uni.

La géothermie en zone volcanique, traditionnelle pour le chauffage, s'applique à la production d'électricité (centrale géothermique de Bouillante en Guadeloupe), tandis que la récupération de la chaleur de roches chaudes fracturées est testée pour la production d'électricité (Soultz-sous-Forêts).

La biomasse permet la production de chaleur, d'électricité et de biocarburants, la plante entière étant bientôt mobilisée, en plus de la graine et du tubercule comme actuellement.

Particulièrement diffuse, l'énergie solaire nécessite des prodiges techniques pour être convertie directement en électricité, via l'effet photovoltaïque et le silicium, selon des techniques encore trop coûteuses. Comme chauffage d'appoint de l'eau sanitaire, les panneaux solaires thermiques sont d'ores et déjà performants. Si des procédés économiques de concentration de la lumière sont mis au point, les centrales solaires comme Thémis renaîtront un jour.

Les énergies renouvelables sont donc un domaine d'innovations techniques, qui ne sont toutefois pas susceptibles de modifier leurs caractéristiques physiques intrinsèques.

Des contraintes de gestion particulières

Caractéristique commune : les énergies renouvelables exigent des modes de gestion particuliers. L'éolien, de par ses fluctuations, complique la gestion des réseaux électriques. L'hydroélectricité ne peut couvrir les besoins de base. Le photovoltaïque est une ressource d'appoint. La saisonnalité marque la production de la biomasse.

Contrairement aux énergies fossiles ou nucléaire, les énergies renouvelables ont, de fait, une disponibilité limitée et des délais d'appel ou d'arrêt qui ne sont pas nuls. Des procédures particulières sont nécessaires pour leur stockage.

Une disponibilité variable

La disponibilité de l'énergie éolienne ou de l'hydroélectricité dépend des conditions météorologiques. Démarrant pour un vent de 3 à 5 m/s (11-18 km/h), les éoliennes sont stoppées lorsque le vent dépasse 25 m/s (90 km/h). Les vents faibles et les vents forts les condamnent donc à l'arrêt. Pour autant, leur production dépend fortement de la vitesse du vent. L'hydraulicité altère fortement la production hydroélectrique au fil de l'eau, ainsi que la capacité des barrages sur retenue. Le rendement de la biomasse sur l'année varie en fonction des conditions météorologiques, de même que la production photovoltaïque dépend de l'ensoleillement.

Au total les durées d'utilisation des énergies renouvelables sont inférieures à celles des énergies fossiles ou nucléaire. Comparées aux 8000 heures d'une centrale nucléaire de type EPR, la durée d'utilisation moyenne annuelle pour la France dans son ensemble, est de 2500 heures pour l'éolien, de 2000 heures pour un barrage sur retenue, de 5000 heures par an pour l'hydroélectricité au fil de l'eau, de 500 heures à 5000 heures par an pour l'hydroélectricité par pompage, de 1000 heures par an pour le photovoltaïque.

Fonction de la météorologie, la puissance disponible de l'éolien n'est pas garantie, non plus que celle du solaire thermique ou photovoltaïque. Seule l'hydroélectricité possède un potentiel de production prévisible à court terme.

Des délais d'appel et d'arrêt divers

Variable selon la saison, la consommation d'électricité ou de chaleur fluctue également d'une heure à l'autre. Pour couvrir des besoins imprévus, certaines énergies renouvelables ne sont d'aucun secours.

En cas de demande soudaine de puissance, l'éolien n'est appelable que si des installations ont été mises en réserve, malgré un vent suffisant. En revanche l'arrêt peut intervenir en quelques minutes. L'hydroélectrique au contraire est mobilisable et effaçable quasiment dans l'instant - qu'il s'agisse d'hydraulique en retenue ou en éclusée.

La production des énergies renouvelables ne coïncide pas toujours dans le temps avec les besoins, d'où des problèmes de stockage éventuels à résoudre.

Des contraintes surmontables mais coûteuses

Sur le plan technique, les contraintes de gestion supplémentaires des énergies renouvelables ne sont pas insurmontables. Mais elles enchérissent leur utilisation129.

« Sans soutien, les énergies renouvelables ne sauraient s'imposer face aux autres filières ». « Toutes les formes d'énergie auraient eu, à leur démarrage, besoin d'aides pour s'imposer ». « Si les énergies renouvelables ne sont pas encore rentables, la raison en est que des moyens suffisants n'auraient jamais été alloués à la recherche et au développement dans ce domaine ». Telles sont des remarques souvent entendues à propos de la compétitivité des énergies renouvelables.

Le fait est que les énergies renouvelables sont soutenues dans la totalité des pays où elles connaissent un essor. Mais plusieurs pays en pointe dans leur développement manifestent une prudence nouvelle dans leur politique d'aides publiques.

Comment et jusqu'où  soutenir les énergies renouvelables au Danemark ?

Exemplaire, la trajectoire des énergies renouvelables au Danemark apporte un éclairage significatif sur les problèmes rencontrés par tous les pays pour leur développement.

L'histoire de l'éolien moderne commence au Danemark dans les années 1950 et fait de ce pays le leader mondial.

En une cinquantaine d'années, le Danemark apporte des réponses à toutes les questions posées par le développement de l'éolien : techniques, industrielles, financières, réglementaires.

La côte nord-ouest du Jutland et, dans une moindre mesure, les îles de Fionie et de Seeland étant balayées par des vents intenses et réguliers, les moulins à vent sont une tradition séculaire au Danemark, prolongée par les éoliennes qui équipent les fermes en particulier pour le pompage de l'eau. Dès la fin de la deuxième guerre mondiale, les fabricants danois de matériel agricole ou de fourniture pour le bâtiment se diversifient dans l'éolien et en développent le potentiel pour la production d'électricité à usage local130. Nombre de fermiers s'équipent d'éoliennes pour disposer de revenus complémentaires. Aujourd'hui encore, 80 % des éoliennes danoises sont la propriété d'agriculteurs ou de coopératives.

Une nouvelle industrie naît, dont le Danemark occupe la première place mondiale, fournissant par exemple dès 1980 le millier d'éoliennes de Palm Springs, en Californie et exportant aujourd'hui dans 40 pays.

Afin d'augmenter la production unitaire des éoliennes, les constructeurs augmentent la taille et la puissance de leurs machines. Mais, ce faisant, l'investissement dans l'éolien s'alourdit, favorisant l'entrée en scène de sociétés financières à la recherche de projets à forte rentabilité, d'autant plus que des aides publiques sont mises en place, sous la forme de prix de rachat de l'électricité produite et de certificats verts que les consommateurs doivent se procurer chaque année, puis de subventions directes aux producteurs.

Possédant en 2000 plus de la moitié du marché mondial, l'industrie danoise se concentre progressivement131. La concurrence d'entreprises spécialisées étrangères, allemandes (Enercon) ou espagnoles (Gamesa) en particulier, s'accroît, avant que des multinationales puissantes, comme General Electric ou Siemens132, envahissent ce nouveau secteur d'activité qui leur paraît d'autant plus attractif que sa rentabilité est élevée et, de surcroît, garantie par des aides publiques pérennes.

En 2003, le Danemark comptait environ 6 000 éoliennes, dont la puissance totale représentait 3115 MW.

Pour rapprocher la production éolienne des conditions du marché, le dispositif de soutien à l'éolien est profondément remanié en 2004. Selon les accords politiques de la majorité gouvernementale133, l'obligation d'achat de l'électricité éolienne sera progressivement remplacée par une subvention plafonnée aux exploitants. En outre, deux projets phares de fermes éoliennes offshore de 200 MW chacune, seront mis en place dans le cadre d'appels d'offre, afin de limiter, par le jeu de la concurrence, le coût des aides octroyées par la collectivité.

En 2003, l'éolien fournissait 18 % du total de la production danoise d'énergie à partir de sources renouvelables, mais il était largement devancé par les déchets qui comptent pour 32 % et la biomasse (bois et paille) pour 41 %134.

Au terme d'un effort considérable entamé au début des années 1980, la production d'énergie à partir de sources renouvelables a été multipliée par 4 et assure 13,6 % de la consommation totale d'énergie du pays.

La situation énergétique du Danemark est néanmoins particulière, du fait de ses ressources en hydrocarbures issus de la mer du Nord. Le Royaume du Danemark a en effet produit en 2003 18,1 millions de tonnes de pétrole et 7,2 millions de tonnes équivalent pétrole de gaz naturel.

Sa production d'électricité continue d'être dominée par le charbon (55% en 2003) et par le gaz naturel (21%). La montée en puissance de l'éolien, dont la production a été multipliée par 10 entre 1990 et 2003, est loin d'avoir résolu à elle seule l'équation énergétique du Danemark.

En fait, l'essor des énergies renouvelables n'aurait pas été possible si le Royaume du Danemark n'avait pu compter sur des importations en charbon et sur des ressources nationales excédentaires en hydrocarbures tirés de la mer du Nord.

L'Allemagne en difficulté, sans le gaz russe et la séquestration du CO2

Depuis 2000, l'Allemagne fait le pari d'un développement accéléré des énergies renouvelables pour compenser, dans le domaine de la production électrique, la réduction de sa production de charbon et de lignite, et, l'abandon du nucléaire. Ce projet, avant tout politique, est d'une rare complexité technique.

Le charbon, avec 55 millions tep135 extraites en 2004, constitue toujours le socle énergétique de l'Allemagne, qui, fait moins connu, possède aussi des ressources conséquentes en gaz naturel avec 14,7 millions tep. Les combustibles fossiles sont à la base de la production électrique du pays. Le charbon fournit plus de la moitié de l'électricité produite, avec une part dominante du lignite136, tandis que le gaz naturel assure près de 10 % du total.

Après que les mines de lignite les moins performantes des Länder de l'Est ont été fermées, 45 000 personnes travaillent encore dans les dix mines encore exploitées, principalement en Ruhr (anthracite) et en Rhénanie (lignite). Des subventions annuelles de près de 3,5 milliards € compensent des prix de revient supérieurs à ceux du marché mondial et amortissent les conséquences sociales d'un déclin au demeurant très lent de la production charbonnière137.

Sur le plan de la lutte contre l'effet de serre, l'Allemagne a réussi à diminuer ses émissions de CO2 de 11 % entre 1990 et 2003. En apparence, son objectif d'une diminution de 21% en 2010 par rapport à 1990 dans le cadre du Protocole de Kyoto semble donc pouvoir être atteint. En réalité, les bonnes performances du passé proviennent de la fermeture des centrales thermiques obsolètes des Länder de l'Est. Les marges de progrès sont nettement plus restreintes pour l'avenir.

Le nucléaire a fourni 28% de la production électrique allemande en 2003. La diminution de la production électronucléaire est programmée depuis le compromis du 14 juin 2000 passé par le Gouvernement du Chancelier Schröder et l'industrie. Des plafonds de production ont été fixés à chacun des 19 réacteurs alors en fonctionnement, un transfert de quotas étant possible d'un réacteur ancien à un réacteur plus récent. Devant être complet en 2022, l'arrêt des réacteurs a de fait commencé pour les réacteurs les plus anciens de Stade (novembre 2003) et d'Obrigheim (mai 2005). Le Gouvernement de grande coalition formé fin 2005 n'a pas remis en cause ce processus qui se traduira par une durée d'exploitation moyenne de 32 ans. On sait que le potentiel d'exploitation de ces réacteurs nucléaire de Génération II est probablement supérieur à 40 ans, avec une compétitivité maximale en fin de vie une fois l'amortissement économique réalisé. On peut se demander si le poids économique du renoncement à un tel avantage n'apparaîtra pas, un jour, démesuré.

Le redéploiement énergétique de l'Allemagne repose, selon le ministère de l'environnement, sur le développement des énergies renouvelables, dont la priorité a d'abord été l'éolien et le photovoltaïque.

Au terme d'un effort considérable d'une vingtaine d'années, l'Allemagne disposait en 2004, avec 16 629 MW, de près de la moitié de la puissance éolienne européenne138 et plus du tiers de la puissance éolienne mondiale139. Par comparaison, le deuxième pays européen dans ce secteur est l'Espagne, avec 6202 MW, soit le tiers environ de la puissance allemande.

L'Allemagne est également l'un des leaders mondiaux du solaire photovoltaïque. Lancé en 1999, l'objectif des 100 000 toits solaires a été atteint en 2003, portant la puissance installée à 431 MWc140, le rythme d'installation s'étant encore accru avec 363 MWc installés pour la seule année 2004.

Pour atteindre ces résultats, le secteur des énergies renouvelables a bénéficié, en Allemagne, d'un soutien d'une ampleur particulière.

De 1975 à 2000, les dépenses publiques en faveur du seul éolien se sont élevées à 4,5 milliards €. En 1999, une première loi EEG141 a systématisé et amplifié les mesures en faveur des énergies renouvelables, l'électricité produite bénéficiant d'une obligation d'achat sur 20 ans, fixée à 91 €/MWh pour l'éolien142 et à 506 €/MWh pour le photovoltaïque143.

Une nouvelle loi EEG a été adoptée le 21 juillet 2004 pour augmenter l'efficacité du soutien public. Les nouveaux objectifs sont de porter la part des énergies renouvelables à 12,5% de la production électrique nationale en 2010 et à 20% en 2020. Le soutien à l'éolien est réduit pour les nouvelles installations144. Mais, afin de tenir l'objectif, d'autres sources d'électricité renouvelables entrent dans le champ des aides publiques, tout spécialement la grande hydraulique, la petite hydraulique, l'électricité produite à partir de la biomasse, ainsi que l'électricité produite à partir de la géothermie145.

Malgré les dépenses publiques consenties, l'investissement allemand dans l'éolien ne semble pas avoir eu l'efficacité escomptée. En 2002, les 12 000 MW installés fournissaient 3% de la production électrique du pays. En 2004, les 16 628 MW installés ont assuré un peu plus de 4% de la production totale.

La faiblesse de la production provient essentiellement d'un régime de vents peu favorable146. À titre de comparaison, le ratio production/puissance installée pour 2005 est de 2,1 pour le Danemark contre 1,4 en Allemagne, ce qui veut dire que les éoliennes danoises sont 1,6 fois plus productives que les machines allemandes, non pas en raison des techniques plus efficaces mais en raison seulement d'un régime de vents plus favorable.

Mesurée en termes d'électricité produite, la contribution du photovoltaïque est de l'ordre de 1 TWh par an, soit 0,2% de la production totale. Son intérêt est autre. D'une part, le photovoltaïque peut s'avérer intéressant pour des sites isolés non raccordés au réseau. D'autre part, la politique de soutien au marché a permis à l'industrie allemande de se développer et de conquérir 15% d'un marché mondial jugé prometteur. Mais globalement, sa contribution à la production électrique globale est négligeable.

Le développement des autres sources d'électricité renouvelables sera donc nécessaire pour faire face à la croissance prévisible de la demande d'électricité, mais rien n'indique qu'il sera suffisant.

Dès lors, à court terme, la solution du gaz naturel s'impose à l'Allemagne pour accroître sa production d'électricité, tout en minimisant ses émissions de CO2. La Russie lui fournit déjà près de la moitié de ses importations. L'approfondissement de ce partenariat semble probable dans les années à venir.

À plus long terme, une autre solution, plus complexe à mettre en œuvre, consistera à développer la production d'électricité à partir du charbon, en procédant à la captation et au stockage des émissions de CO2 correspondantes.

Une impulsion récente en France

L'année 2000 et l'année 2005 sont, en France, deux étapes essentielles du soutien aux énergies renouvelables.

Avant cette date, leur développement est pour l'essentiel du ressort des marchés. L'éolien bénéficie toutefois à partir de 1996 d'appels d'offre lancés par le secrétariat à l'industrie pour la construction d'éoliennes dans le cadre du programme Éole 2005. L'objectif est d'atteindre une puissance installée de 250 à 500 MW en 2005. La mise en concurrence des candidats à la réalisation de projets éoliens a l'avantage de tirer les prix vers le bas. Pour les partisans et les promoteurs de l'éolien, ce mécanisme n'est pas approprié : il faut au contraire assurer des marges supérieures, pour séduire les investisseurs qui alors multiplieront les projets, ce qui déclenchera un effet d'échelle et permettra une diminution des coûts de production.

À l'occasion de la transposition de la directive européenne sur l'ouverture à la concurrence des marchés de l'électricité des États membres de l'Union européenne, la France s'engage en 2000 dans une politique plus offensive de développement des énergies renouvelables.

Le mécanisme de base pour soutenir le développement des énergies renouvelables devient l'obligation d'achat147. EDF et les distributeurs non nationalisés sont tenus d'acheter l'électricité produite sur le territoire national par les installations qui valorisent les déchets ménagers, qui alimentent un réseau de chaleur (cogénération) ou qui utilisent des énergies renouvelables148. Après l'adoption de la loi de 2000 sur la modernisation et le développement du service public de l'électricité, les tarifs d'achat font l'objet d'arrêtés, publiés avant la fin juin 2002.

En 2004, EDF a acheté, au titre de l'obligation d'achat, 24,2 TWh d'électricité, produite à hauteur de 71% à partir de la cogénération, de 15% par l'hydraulique et de 9% par des usines d'incinération d'ordures ménagères (UIOM). L'éolien compte pour 2% du total des achats d'électricité149.

Tableau 1 : Tarifs d'achat et coût de production des énergies renouvelables pour la production d'électricité

(source : DGEMP et EDF)

€/MWh

Tarif de l'obligation d'achat - France

(date de l'arrêté)

Coûts de production 2005

Diminution des coûts de production probable sur 10 ans

Base

Modulation

Éolien terrestre

83,8 pendant 5 ans

(8/6/2001)

30,5-83,8 pendant les 10 années suivantes suivant le site

55-75

- 20%

Éolien offshore

Appel d'offre

-

100-120

-30%

Hydraulique

54,9-61

(25/6/2001)

Prime : 0-15,2 en hiver selon régularité de la production

50-80

Stable

Photovoltaïque

152,5 (hexagone)

305 (Corse, DOM-TOM)

(13/6/2002)

Décision nov.05 :

+50% particuliers

x2 grandes installations

350-550

-50%

Géothermie

76,2

(13/3/2002)

Prime efficacité énergétique : 0-3

   

Cogénération

61-91,5

(31/7/2001)

     

Biomasse

(combustion matières végétales)

49

(16/6/2002)

Prime efficacité énergétique : 0-12

60-110

-10%

Méthanisation (déchets agricoles ou industriels)

46

(16/4/2002)

Prime efficacité énergétique : 0-12

60-150

-10%

Biogaz de décharge

45-57,2

(3/10/2001)

Prime efficacité énergétique : 0-3

60-150

-10%

Déchets ménagers (sauf biogaz)

45-50

(2/10/2001)

Prime efficacité énergétique : 0-3

   

Déchets animaux bruts ou transformés (farines animales)

45-50

(13/4/2002)

Prime efficacité énergétique : 0-3

   

Petites installations (< 36 kVA)

78,7-96,0

(13/3/2002)

     

Deuxième étape en 2005, le soutien aux énergies renouvelables thermiques est considéré comme une priorité essentielle dans le cadre de la diversification du bouquet énergétique150. La loi de programme de 2005 fixant les orientations de la politique énergétique vise une augmentation de 50% à l'horizon 2010 de la production de chaleur d'origine renouvelable.

Au final, comme dans tous les pays, le soutien aux énergies renouvelables repose sur les consommateurs. Les organismes de distribution d'électricité ajoutent en effet à la facture d'électricité, un surcoût, dont le produit est reversé aux producteurs à proportion des charges qu'ils subissent du fait de l'obligation d'achat. En 2004, les surcoûts de l'obligation d'achat ont représenté environ 1,1 milliard €, soit environ 3 €/MWh ou 0,3 €/kWh. Il est à noter que la cogénération, au demeurant favorable en termes d'efficacité énergétique puisqu'elle permet la valorisation de la chaleur produite en même temps que l'électricité, représente la majeure partie des charges liées à l'obligation d'achat.

Pour le consommateur individuel, la charge du soutien aux énergies renouvelables et au développement de la cogénération, représente environ 3,5% de la facture d'électricité, et près de 7% pour un consommateur industriel151.

Un développement ambitieux des énergies renouvelables ne doit pas pour autant trop peser sur la facture d'électricité. C'est pourquoi un plafond de 7% du tarif de vente du kWh a été fixé en 2003 pour les surcoûts correspondant à l'ensemble des charges de service public152.

Si le développement des énergies renouvelables s'accélérait encore dans le cadre actuel, le plafond fixé en 2003 pourrait être rapidement atteint, ce qui obligerait à remettre à plat le mécanisme de financement des charges de service public, et, en particulier, le soutien au développement de ces nouvelles filières. Plusieurs pays en pointe dans ce domaine ont déjà opéré, comme on l'a vu, une révision de leurs politiques de soutien aux énergies renouvelables. La France pourrait y être conduite à son tour plus rapidement que prévu.

ÉOLIEN

Parmi les sources d'énergie renouvelables, aucune n'a plus d'importance médiatique ni ne suscite plus de polémiques que l'éolien, une technique pourtant visible et connue de tous depuis des temps immémoriaux.

D'un usage ancestral, les moulins étaient utilisés pour la fabrication de la farine ou le pompage de l'eau. Les premières éoliennes spécialisées dans la production d'électricité, appelées aussi aérogénérateurs, apparurent pour un usage local et rural.

L'offre d'éoliennes couvre aujourd'hui une gamme très étendue de machines dont la puissance électrique varie de 2 kW à 3,5 MW, dans un rapport de 1 à mille, et dont les dimensions respectives sont évidemment très différentes.

On distingue généralement trois catégories d'éoliennes : le petit éolien, le grand éolien et dans un futur proche, l'éolien offshore.

Permettant la recharge de batteries ou le pompage électrique, une éolienne de 2 kW, comme celle proposée par la société française Vergnet, possède une hélice de 4 mètres de diamètre et une nacelle contenant la génératrice située à 12 mètres de hauteur.

À l'autre extrémité de la gamme, les éoliennes les plus puissantes au catalogue des constructeurs fin 2005, avaient une puissance de 3,6 MW, avec des rotors de 104 mètres de diamètre et des mâts de 80 à 100 mètres de haut. L'augmentation de taille de l'éolienne et de son rotor permet d'accroître le couple de la machine et donc sa puissance, les grandes machines étant particulièrement adaptées aux sites peu ventés, comme les sites allemands de l'intérieur des terres. Au demeurant la course au gigantisme des éoliennes ne s'arrêtera pas. À la demande de l'industrie danoise, le centre de recherche Risø étudiait en 2001 la faisabilité technique de machines de 8 à 12 MW, dotées de rotors à une seule lame de 80 mètres perchés à 240 mètres de hauteur.

L'offshore est la nouvelle frontière de l'éolien. En mer, des vents plus forts et réguliers que sur les côtes et les reliefs intérieurs, permettent une production accrue d'électricité. Estimant la production d'électricité d'une éolienne installée en mer supérieure de 60 % à celle d'une machine identique située sur le rivage, les constructeurs se lancent dans cette nouvelle aventure mais ont à résoudre des problèmes difficiles de corrosion, de structures et de maintenance.

Porte-drapeau des énergies renouvelables, l'énergie éolienne connaît ainsi de nombreux développements technologiques, avec une montée en puissance et une augmentation des dimensions ininterrompues des machines installées.

L'industrie éolienne s'est également fortement structurée, avec la consolidation des firmes pionnières, notamment danoises, et l'entrée dans le secteur de grandes entreprises diversifiées.

Énergie vertueuse dans le cadre de la lutte contre l'effet de serre, l'éolien a vu ses marchés se développer fortement, sous l'action de la réglementation et grâce à l'attribution de soutiens à l'investissement qui garantissent une rentabilité financière satisfaisante.

En tout état de cause, les difficultés à la mise en œuvre de l'éolien trouvent une à une des solutions. Ce type d'énergie tend donc à se banaliser dans tous les sens du terme. Son développement est plus aisé.

Mais peu à peu, apparaissent aussi l'impossibilité du tout éolien et les inconvénients du trop d'éolien.

Les progrès techniques de l'éolien

La course à la puissance des grandes éoliennes

De nombreux paramètres, techniques et économiques, justifient une course à la taille et à la puissance des éoliennes.

Pour un même régime atmosphérique, le vent augmente quand on s'élève du sol153. Or la puissance d'un aérogénérateur, désigné couramment par le terme d'éolienne, varie comme le cube de la vitesse du vent. Par ailleurs, l'énergie collectée par une éolienne dépend de l'aire du disque balayé par le rotor et donc du carré de la longueur d'une pale.

L'augmentation de taille correspond donc à la recherche d'une puissance maximale de l'installation.

En 2000, les éoliennes installées en Allemagne avaient une puissance de 920 kW, pour un rotor de diamètre d'environ 60 mètres et un mât de 80 mètres de haut. L'année 2004 aura vu l'installation par la société Repower d'un prototype d'éolienne de 5 000 kW (5 MW), dont le diamètre de rotor est de 126 mètres.

L'augmentation de taille et de puissance des éoliennes a également pour but de tirer parti d'économies d'échelle. Un certain nombre de coûts de fabrication et d'installation d'une éolienne ne dépendent qu'à la marge de sa puissance154. Par ailleurs, on peut rentabiliser au mieux les sites les mieux ventés, disponibles pour cette activité, qui représentent une ressource rare. Enfin, les coûts administratifs d'autorisation sont mieux amortis.

Au Danemark, la puissance moyenne des éoliennes installées est passée de 750 kW en 1999 à 1800 kW en 2004, en Allemagne, de 920 kW à 1 700 kW entre les mêmes dates, et, en France, de 135 à 1036 kW.

Un nouveau marché s'ouvre pour les constructeurs d'éoliennes : le remplacement de machines anciennes par des machines nouvelles de forte puissance.

Le créneau des petites et moyennes éoliennes

Le développement de l'éolien s'est effectué à partir de machines de proximité, qui gardent tout leur intérêt pour certains types d'application.

Permettant la recharge de batteries ou le pompage électrique, une éolienne de 2 kW, comme celle proposée par la société française Vergnet, possède une hélice de 4 mètres de diamètre et une nacelle contenant la génératrice située à 12 mètres de hauteur. Dix fois plus puissante, une éolienne de 25 kW permet de fournir de l'électricité à des villages isolés de 50 foyers environ, dont la consommation unitaire est de l'ordre de 1,5 kWh en moyenne, avec une hélice de 10 mètres de diamètre et un mât de 24 mètres de hauteur. Ces éoliennes sont souvent juchées sur des mâts basculants permettant de les rabattre au sol en cas de tempête ou de cyclone.

Enfin, différents nouveaux concepts d'éoliennes sont proposés, dont des machines à axe vertical ou des machines horizontales de petite puissance - 2 à 3 kW - pour les toits des habitations collectives, dont l'avenir dira si leur installation est rentable.

Des nuisances principalement visuelles

Le bruit produit par une éolienne a longtemps été considéré comme une nuisance empêchant leur implantation. Les bruits mécaniques des engrenages sont désormais quasiment inexistants. Avec les éoliennes modernes de puissance, dont les pales tournent à faible vitesse, le bruit de souffle des rotors n'est que de 100 décibels en pied de mât et inaudible à 200 mètres.

Les éoliennes ont également été critiquées en raison des dangers qu'elles créeraient pour les oiseaux, notamment migrateurs. Les champs d'éoliennes avec des implantations très resserrées, tels qu'il en fut construit en Californie, ont été accusés de ravager des colonies d'oiseaux protégés155. Mais il a été démontré au Canada dans le Yukon, notamment, que correctement espacées, les éoliennes, même placées sur les couloirs migratoires, sont évitées par les oiseaux.

Autre critique faite aux éoliennes, le mauvais fonctionnement des télévisions dans les habitations situées aux alentours des éoliennes du fait de la perturbation de signaux électromagnétiques aériens, trouve sans difficulté des solutions techniques.

La nuisance principale des éoliennes reste donc leur impact visuel. Dans cette perspective, les projets d'implantation doivent concilier deux impératifs contradictoires. Pour maximiser la production d'une éolienne, il faut augmenter sa puissance, et donc la taille de son rotor et la hauteur de son mât. Ce progrès permet alors de diminuer leur nombre mais leur impact visuel augmente en proportion. En outre, les sites les mieux ventés se trouvent souvent sur des reliefs du littoral visibles de très loin.

Au reste, l'implantation d'éoliennes est d'autant mieux acceptée que celles-ci sont disséminées sur un vaste territoire. À cet égard, la pratique française initiale a pu susciter de nombreuses critiques, puisque le département de l'Aude concentrait à la mi-2002 plus de la moitié du parc français d'éoliennes avec près de 58 MW.

Les sites industriels en bord de mer seront probablement privilégiés à l'avenir, car ils peuvent le plus souvent accueillir des éoliennes sans engendrer d'opposition locale, comme Total l'a bien compris en installant des éoliennes de puissance à proximité de sa raffinerie de Dunkerque.

L'offshore, une nouvelle frontière éloignée de l'éolien

La localisation étant une variable fondamentale de son potentiel de production, l'offshore est longtemps apparu comme l'eldorado de l'éolien.

Bénéficiant de vents plus fréquents156, plus forts et plus réguliers qu'à terre, une installation offshore devrait, selon les calculs des constructeurs, produire davantage (+60%) qu'à terre157.

Toutefois, à l'usage, le coût de construction de l'éolien offshore apparaît deux fois supérieur à celui de l'éolien terrestre. Les aléas météorologiques allongent les délais de construction et de maintenance. L'importance et la difficulté de la construction réservent l'offshore à des fermes de forte puissance, ce qui exige une mise de fond importante et restreint le cercle des investisseurs potentiels. Des inconnues demeurent quant à la tenue des machines dans un environnement fortement corrosif.

Pour garantir la rentabilité de leurs investissements, les promoteurs d'éoliennes offshore demandent en conséquence, dans leurs réponses aux appels d'offre, des tarifs de rachat de l'électricité produite compris entre 120 et 150 €/MWh.

De fait, les fermes éoliennes offshore ne représentent actuellement que quelques centaines de MW dans le monde, concentrées au Danemark et au Royaume Uni. L'essor de l'offshore est toutefois recherché dans plusieurs pays, avec des appels d'offre de 400 MW au Danemark, de 500 MW en France, de plus de 8000 MW au Royaume Uni et un objectif de 6 700 MW en Allemagne en mer Baltique. Deuxième avantage de l'offshore, le régime des vents y est en général plus régulier qu'à terre, d'où une réduction théorique des efforts mécaniques sur l'éolienne.

Les limites intrinsèques de l'énergie éolienne

Le fonctionnement des éoliennes est soumis à la météorologie et non pas à la demande d'électricité.

En dessous d'une certaine vitesse de vent, en général 5 m/s, soit 18 km/h, une éolienne, ne pouvant fournir de la puissance, est déconnectée du réseau et tourne à vide ou bien est arrêtée purement et simplement. Dans le cas d'éoliennes proches les unes des autres, les phénomènes d'abri ou de turbulence peuvent entraîner l'arrêt de certaines alors que d'autres tournent normalement.

Par ailleurs, avec des vents d'une vitesse supérieure à 25 m/s, soit 90 km/h, les éoliennes doivent être stoppées, faute de pouvoir supporter les efforts mécaniques correspondants.

Autre variable importante conditionnant la production d'électricité effective d'une éolienne, la vitesse moyenne du vent peut, en variant d'un facteur 1,7 faire varier la quantité d'énergie fournie du simple au triple, d'où l'intérêt d'implanter ces machines dans des zones aux régimes de vent régulier et modéré.

En France, malgré les régimes de vent favorables des bords de mer, et la compensation météorologique possible entre l'Atlantique et la Méditerranée, la durée moyenne de fonctionnement des éoliennes à leur puissance nominale ne dépasse pas 2 000 heures par an. On doit par ailleurs noter que pendant les périodes de froid ou de canicule, où la demande d'électricité est la plus forte, les éoliennes sont à l'arrêt faute de vent.

En conséquence, l'alimentation en électricité d'utilisateurs, particuliers ou industriels, ne peut en aucun cas reposer exclusivement sur des éoliennes. Des moyens de production complémentaires doivent nécessairement leur être associés.

S'il est doté d'une éolienne de moyenne puissance, un réseau de faible dimension comme celui d'une petite île non raccordée au réseau doit comprendre des panneaux solaires complémentaires, des batteries de stockage de l'électricité et un groupe électrogène.

Sur un réseau de forte puissance, l'installation d'éoliennes doit être complétée par celle des turbines à gaz ou à fioul susceptibles de les relayer lorsque les conditions météorologiques interdisent leur fonctionnement. Les calculs économiques relatifs à l'éolien doivent donc nécessairement intégrer le coût des centrales électriques additionnelles à leur adjoindre pour que les utilisateurs ne souffrent pas de l'irrégularité de cette production d'électricité.

Enfin, comparée à celles des centrales thermiques, la puissance spécifique des éoliennes est faible - 5 MW au maximum en 2005 -, ce qui, ajouté au caractère aléatoire de leur production, les rend inaptes à l'alimentation en propre de sites industriels.

L'internationalisation et la structuration de l'industrie éolienne

L'histoire de l'éolien repose sur les entreprises danoises qui, à partir de leurs activités originelles - matériel agricole ou fournitures pour le bâtiment - se sont diversifiées dans l'éolien et ont bâti l'industrie des éoliennes modernes.

La croissance des marchés et les besoins d'investissement en recherche et développement ont toutefois conduit, d'une part, à la concentration du secteur, et, d'autre part, à l'entrée sur ce marché de grandes firmes internationales.

Le leader mondial, en 2004, reste une firme danoise indépendante, Vestas, qui a toutefois absorbé son concurrent danois Neg-Micon. L'entreprise allemande, Enercon, est numéro 3 sur le marché de l'éolien. Gamesa, entreprise espagnole, numéro 4 du secteur, a absorbé la société Made.

Attirés par la croissance du marché de l'éolien, de grands groupes ont investi le secteur. Ainsi General Electric a racheté EnronWind, lors de la faillite frauduleuse en 2002 de sa maison mère, courtier américain en énergie. Quant à Siemens, il s'est installé sur le marché avec le rachat, fin 2004, de la société danoise Bonus.

Sur le marché en plein essor du grand éolien, la France a misé sur Jeumont Industrie du groupe Areva, pour combler son handicap. Cette société, spécialisée dans l'électromécanique et les composants de centrales nucléaires, a entamé une diversification dans l'éolien et compte rattraper son retard de près de vingt ans grâce à des techniques innovantes. Pour doper cette activité, Areva a pris une participation de 21% au capital de la société allemande Repower, 7ème producteur mondial, spécialisée dans les machines de forte puissance.

La France est, par ailleurs, bien placée dans le petit éolien avec la société Vergnet, dont la gamme s'étend avec des machines de 1 à 220 kW, adaptées à la production locale d'électricité et à l'alimentation de réseaux électriques de petite taille. Cette société a connu des réussites importantes dans les départements d'outre-mer et en Nouvelle Calédonie.

En tout état de cause, l'industrie éolienne est réputée avoir créé, dans les pays leaders de l'éolien, de nombreux emplois : 20 000 au Danemark, premier exportateur mondial de la filière, 59 000 en Allemagne et 12 000 en Espagne, répartis entre la fabrication des machines, la construction et la maintenance des installations.

Or les éoliennes de fabrication française installées en France ne représentent qu'une infime part du marché.

S'engageant dans la multiplication des éoliennes sur son territoire, la France doit évidemment renforcer son industrie, pour en tirer des bénéfices économiques conséquents.

Des marchés principalement européens, dépendant des aides publiques

Berceau de l'éolien moderne, avec le Danemark et l'Allemagne, l'Europe possède aujourd'hui 74% des capacités mondiales installées, soit 34 366 MW158.

Dans l'Union européenne, l'Allemagne a le parc installé le plus important, dont la puissance est deux fois plus élevée que celle du parc de l'Espagne, deuxième du classement, et cinq fois plus que celui du Danemark, troisième159.

Avec 15% du parc mondial, l'Amérique du nord constitue la deuxième zone d'implantation de l'éolien, avec 6800 MW aux États-Unis en 2004 et 441 MW au Canada.

L'Asie possède 9% du parc mondial, l'Inde étant le mieux équipé avec 2800 MW en 2004 et la Chine possédant 740 MW à la même date.

L'analyse du marché de l'éolien dans les années récentes laisse penser que cette filière s'étend dans le monde. Mais son développement repose encore sur les aides publiques.

L'expansion de l'éolien hors d'Europe

En 2004, l'Europe constituait toujours, le premier marché pour les ventes annuelles des constructeurs, l'augmentation du parc européen ayant atteint 5 856 MW. Mais l'énergie éolienne semble se développer sur d'autres continents qu'en Europe.

Ainsi, l'Asie est devenue le second marché mondial, avec une augmentation de la puissance installée de 918 MW en 2004. En un an, la Chine a augmenté son parc de 24% et l'Inde de 32%. On peut donc dire que l'éolien fait partie des filières énergétiques testées par ces puissances émergentes pour faire face à la gigantesque augmentation de leur demande en énergie.

Un essor dépendant des aides publiques

L'essor de l'éolien dépend encore étroitement des aides publiques.

Si l'Espagne représente actuellement le leader mondial de l'accroissement de capacité, c'est parce que les pouvoirs publics accordent aux investisseurs, depuis 2004, une rétribution garantie sur la durée de vie complète des parcs éoliens.

De même, le Royaume Uni, pour enfin faire décoller l'éolien offshore dont il attend une contribution significative à son approvisionnement énergétique, multiplie les systèmes d'aide, avec des certificats verts, une garantie du capital investi dans l'offshore, une exemption de la taxe sur l'énergie et enfin des réductions d'impôts.

A contrario, toute révision des aides accordées à l'éolien se traduit immédiatement par un ralentissement des investissements.

Ainsi, aux États-Unis, il a suffi que la reconduction de l'aide fiscale à la production PTC (Production Tax Credit) prenne du retard en 2004 pour que l'augmentation annuelle de la puissance installée passe de 1707 MW en 2003 à 448 MW en 2004.

De même, le marché allemand a fléchi de 30% entre 2003 et 2004, en raison de la baisse de 4% en moyenne du prix d'achat de l'électricité éolienne et de sa dégressivité de 2% par an à partir de 2005.

Une contribution faible à la production électrique

Compte tenu de l'importance de son parc éolien et de la variété des caractéristiques géographiques des États membres, l'Union européenne représente un laboratoire des avantages et des inconvénients de cette forme d'énergie.

Grâce à la publication par EurObserv'ER des statistiques annuelles des puissances installées et de la production électrique éolienne de chacun des pays160, on peut reconstituer le nombre d'heures de fonctionnement à pleine puissance des éoliennes d'un pays considéré et donc le facteur de charge.

Deux groupes de grands pays éoliens161 se distinguent en termes d'efficacité de l'investissement éolien, recouvrant logiquement le régime des vents dont chaque pays bénéficie. Rappelons qu'une année comprend 8 760 heures.

Parmi les pays dont le nombre d'heures de fonctionnement à pleine puissance a été supérieur à 2000 heures par an en 2004, figurent la Grèce (2619 heures), les Pays-Bas (2506 heures), le Royaume Uni (2218 heures) et le Danemark (2108 heures).

L'Espagne bénéficie d'une efficacité voisine avec 1936 heures. Pour les autres grands pays, l'efficacité de l'investissement éolien chute rapidement, en particulier pour la Suède (1836 heures), la France (1798 heures), l'Italie (1694 heures).

L'une des efficiences les plus faibles est celle du parc éolien allemand, dont la durée de fonctionnement à pleine puissance n'a pas dépassé 1451 heures en 2004, soit un facteur de charge de 16,5%. L'installation d'éoliennes sur les côtes allemandes de la mer du Nord ayant été sévèrement limitée pour protéger l'environnement, les éoliennes ont été disséminées sur tout le territoire, y compris des zones peu ou mal ventées.

En conséquence, l'Allemagne, avec ses 16 629 MW de puissance éolienne installée fin 2004, n'a produit que 22,6 TWh, soit 3% de sa production électrique de l'année.

Plusieurs conclusions s'imposent de l'analyse des résultats effectifs de l'exploitation éolienne, qui confirment des intuitions de bon sens.

L'investissement éolien n'a qu'une efficacité très limitée dans les pays dont le régime de vents n'est pas favorable. Des sites bien ventés peuvent bien entendu exister et justifier un tel investissement mais une approche au cas par cas est sans aucun doute meilleure qu'une politique systématique. Ceci renvoie au fait que l'éolien est un moyen de production décentralisée de l'électricité et non pas une filière d'application générale pouvant s'imposer dans un pays au détriment des autres filières.

Par ailleurs, la production éolienne, y compris dans les pays dont le régime de vents est le plus favorable, plafonne statistiquement à 2500, voire 3000 heures par an au maximum. Or le coût d'investissement dans l'éolien est de l'ordre de 922 €/kW, contre 559 €/kW pour un cycle combiné à gaz. Le retour sur investissement est donc très long, comparativement à celui d'installations comme un cycle combiné à gaz qui peut fonctionner près de 7000 heures par an. On comprend donc que l'investissement éolien doive être fortement subventionné.

En parallèle à l'installation d'éoliennes sur son territoire, l'Allemagne a su développer une industrie solide, avec trois entreprises dans les dix premières mondiales du secteur en 2004, Enercon troisième mondial, Repower septième mondial et Nordex huitième mondial. Le chiffre d'affaires des constructeurs allemands s'est élevé à 4,7 milliards €, dont 38% à l'export, tandis que le nombre d'emplois générés est décrit comme « important » par le ministère de l'environnement.

Dans ces conditions, le soutien à l'éolien possède plusieurs dimensions, dont une dimension industrielle et sociale primordiale, qui n'a pas grand-chose à voir avec l'efficacité énergétique.

L'énergie éolienne en France : bilan et perspectives

Le décollage de l'éolien en France est entamé. La puissance installée a augmenté de 63% en 2004, le niveau de 405 MW ayant été atteint en fin d'année. Cet essor s'est accéléré en 2005 puisque la puissance a doublé, atteignant environ 800 MW fin 2005.

À ce rythme, l'objectif de 2000 MW installés fin 2006, posé par la programmation pluriannuelle des investissements (PPI), devrait être atteint162.

Les différents instruments de soutien introduits par les pouvoirs publics semblent, de fait, bien calibrés par rapport aux objectifs poursuivis.

Le niveau satisfaisant des tarifs de rachat de l'électricité éolienne

La rentabilité de l'investissement éolien est actuellement suffisante pour assurer son développement en France. Le tarif de rachat de l'électricité éolienne est en effet largement supérieur à son prix de revient.

D'un montant, fixé en 2001, de 83,8 €/MWh pour les cinq premières années et de 30,5 à 83,8 €/MWh pour les dix années suivantes163, le tarif de rachat est en moyenne actuellement de 80 €/MWh, pour un prix de revient compris entre 55 et 75 €/MWh, sur la base d'un facteur de charge moyen en France de 25%164.

De fait, la puissance moyenne des éoliennes installées s'élève régulièrement, ce qui devrait permettre de baisser les coûts de production165.

D'après EDF, ce tarif garantit une rentabilité de 11 à 12 % par an, un niveau supérieur à la rentabilité de 8% demandée par les investisseurs. L'expérience semble montrer que cet écart est justifié par le risque pris par l'investisseur. La production d'une éolienne est en effet difficile à prévoir du fait des aléas météorologiques et de la connaissance préalable souvent insuffisante de l'exposition du site choisi.

La procédure de l'appel d'offres paraît adaptée, par ailleurs, à la spécificité des investissements offshore, dont les coûts peuvent varier sensiblement selon les sites.

Les nouvelles zones de développement éolien

La loi du 10 février 2000 avait limité aux installations éoliennes de 12 MW au plus, le soutien par le tarif de rachat.

Tout en conservant cette disposition pour les deux ans suivant son adoption, la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique, a subordonné l'octroi de ce soutien aux installations construites dans des zones de développement éolien.

L'objectif est en effet d'ordonner l'essor de l'éolien en France, tout en le favorisant. Les zones de développement de l'éolien, proposées par les communes intéressées, sont définies par le préfet du département correspondant, en fonction de leur potentiel éolien et de leurs caractéristiques géographiques166.

Cette nouvelle approche permettra d'améliorer la répartition des implantations par rapport aux paysages et au réseau électrique et de bénéficier ainsi d'économies d'échelle.

Des contraintes de gestion croissantes à anticiper

L'intermittence est une caractéristique intrinsèque de l'énergie éolienne, qui induit des contraintes de gestion non négligeables. Dans un pays comme la France, dotée de régimes de vents qui peuvent éventuellement se compenser, la puissance garantie est comprise entre 10 et 20% de la puissance installée.

La prévision à 24h des conditions de vent est relativement fiable. Mais les prévisions de l'heure de déclenchement et d'arrêt du vent sont très déficientes, ainsi que celle de son intensité réelle.

En tout état de cause, la production éolienne peut, en France, se substituer, lorsqu'elle est effective, à des échanges extérieurs et à la production des centrales thermiques mais nécessiter, lorsqu'elle est déficiente, l'entrée en service d'autres moyens de production.

D'où la nécessité d'une gestion fine du réseau, qui oblige à prévoir des moyens de production de substitution ou de stockage de l'électricité produite, par exemple le pompage.

En termes de lutte contre l'effet de serre, l'impact de l'éolien peut être inférieur aux attentes, si des moyens de production de substitution doivent être installés167.

Le développement de l'éolien entraîne, par ailleurs, des coûts de gestion de réseau. Le coût de l'intermittence est évalué à 2-4 €/MWh par EDF168, à rajouter au prix de revient réel de l'éolien.

Si la puissance éolienne installée devait atteindre 7 000 kW en France, il faudrait alors renforcer le réseau de transport de l'électricité. Non seulement le surcoût d'environ les deux tiers du MWh éolien par rapport au MWh nucléaire est supporté par le consommateur, mais celui-ci devra aussi prendre en charge les coûts correspondants.

Insuffisantes aujourd'hui, la vérité et la transparence des coûts de l'éolien devront progresser dans les années à venir, afin de permettre des choix rationnels de politique énergétique.

FUSION

La fusion contrôlée représente un défi technique à long terme gigantesque. Dupliquer le fonctionnement du Soleil dans des machines bien terrestres, tel est, en effet, l'objectif scientifique.

La fusion est également un programme d'une ambition économique considérable, puisque son but est d'approvisionner l'humanité en une énergie non polluante et abondante à l'infini.

À court terme, l'implantation d'ITER à Cadarache, obtenue par la France en juin 2005, générera des retombées économiques très importantes pour la région Provence-Côte d'Azur-Alpes du Sud.

Un défi majeur, qui nécessite des investissements massifs

La fusion thermonucléaire dans le Soleil et les autres étoiles

Au sein du Soleil, la température atteint environ 300 millions °C et les réactions de fusion génèrent une énergie rayonnée de 1014 milliards kW. Ce processus se produit depuis 5 milliards d'années. Il se produira encore pendant 5 milliards d'années, selon les calculs des astrophysiciens.

L'extraordinaire libération d'énergie que permettent les réactions de fusion explique que la recherche scientifique ait pour but la maîtrise de ses mécanismes.

Les réacteurs nucléaires des centrales électriques mettent en œuvre des réactions de fission, c'est-à-dire la rupture de noyaux lourds d'éléments comme l'uranium. Au contraire, la réaction de fusion correspond à la synthèse de noyaux légers, à partir de noyaux de départ eux-mêmes légers.

Dans les deux cas de la fission et de la fusion, il se produit une perte de masse transformée en énergie, selon la célèbre équation d'Einstein E=mc². La perte de masse et donc l'énergie dégagée sont encore plus importantes pour la fusion que pour la fission.

Les isotopes de l'hydrogène constituent les combustibles de base des réactions de fusion contrôlée, en premier lieu le deutérium dont le noyau comprend un proton et un neutron, et le tritium dont le noyau possède un proton et deux neutrons. Présent dans l'eau de mer, le deutérium est disponible en grandes quantités dans le monde. Le tritium se prépare soit dans des réacteurs à fission, soit dans le réacteur à fusion lui-même, en y disposant du lithium comme matériau de couverture. Le lithium est pour sa part abondant sur terre et présent dans des quantités infinies dans la mer.

L'approvisionnement en combustibles pour la fusion thermonucléaire ne poserait donc aucun problème.

Des conditions expérimentales extrêmes

Au contraire des réactions chimiques traditionnelles qui impliquent les cortèges électroniques périphériques des atomes, la réaction de fusion nucléaire met en jeu des noyaux. Pour y parvenir, il faut, en premier lieu, dépouiller les atomes de leur enveloppe d'électrons, et, en second lieu, vaincre les forces énormes de répulsion électrique qui s'opposent au rapprochement nécessaire des deux noyaux.

Ces deux opérations sont réalisées par la constitution d'un plasma169 à des températures de plusieurs dizaines de millions de degrés et à des pressions très élevées.

Au demeurant, la fusion contrôlée, si elle était mise au point, présenterait des avantages par rapport à la fission nucléaire.

Des limites inhérentes au processus physique empêchent toute variation brutale de puissance et toute perte de contrôle du plasma.

En outre, les déchets radioactifs générés par un réacteur de fusion se limitent à des quantités réduites de tritium. La période de demi-vie de cet élément et son impact radiologique étant faibles, il suffit de stocker les rejets pendant une dizaine d'années pour les rendre inoffensifs. Les matériaux radioactifs du réacteur récupérés lors de son démantèlement, c'est-à-dire les matériaux activés par les neutrons, nécessitent toutefois un traitement particulier.

Les accidents les plus graves pouvant survenir sur un réacteur de fusion, correspondent à une perte d'étanchéité des installations. Les quantités de deutérium et de tritium utilisées dans un réacteur de fusion étant très limitées, leur impact radioactif serait faible.

Sur le papier, la fusion contrôlée présente donc un grand intérêt.

Des machines d'étude de plus en plus puissantes

Les recherches sur la fusion contrôlée empruntent deux voies, celles des lasers et celles de tokamaks.

Les lasers de puissance

Le procédé recourant à des lasers de puissance, technique baptisée « confinement inertiel », consiste à placer une petite bille de mélange de deutérium et de tritium au point de convergence d'un ensemble de faisceaux laser. Pour obtenir des puissances très élevées, on utilise des lasers à impulsion qui délivrent des faisceaux de lumière cohérente de très courte durée - environ un milliardième de seconde. La matière au centre des faisceaux est alors confinée et soumise à une augmentation de pression et de températures énormes, susceptibles de déclencher la réaction de fusion.

La fusion par confinement inertiel fait l'objet de nombreuses recherches, en particulier aux États-Unis, au laboratoire de Lawrence Livermore, l'un des grands laboratoires nationaux du pays. Les États-Unis viennent de lancer une nouvelle étape avec la construction du NIF (National Ignition Facility), tandis que la France disposera enfin de possibilités techniques du meilleur niveau avec le laser MegaJoule en cours de construction par le CEA près de Bordeaux170.

Cependant, cette voie de recherche laisse pour l'instant sans réponse de nombreuses questions. Comment passer à une fusion continue dans la mesure où l'on procède pour l'instant par impulsions de très courte durée ? Comment récupérer l'énergie dégagée en quantités probablement très faibles, pour ensuite produire de l'électricité ?

Les tokamaks

Inventés par les chercheurs soviétiques, les tokamaks sont des machines complexes de grandes dimensions dont le réacteur proprement dit a la forme d'un tore, c'est-à-dire la forme d'une chambre à air171.

Présent à raison d'un volume de plusieurs mètres cube dans les plus grands des tokamaks, le mélange deutérium-tritium est soumis à un champ magnétique très puissant qui le comprime, le fait flotter dans l'anneau et dépouille les atomes de leurs électrons. Au surplus, le champ magnétique induit un courant électrique dans le plasma qui contribue à porter sa température à des millions de degrés.

Avec Tore Supra en service depuis 1988 à Cadarache près d'Aix-en-Provence, la France possède l'un des tokamaks les plus performants du monde, qui a permis d'obtenir des plasmas de 20 m3 pendant des durées de deux minutes. Ainsi, Tore Supra a obtenu les meilleures performances en termes de durée.

Pour aller plus loin dans la maîtrise de la réalisation de plasmas de grand volume, les Etats membres de l'Union européenne ont réuni leurs efforts pour construire le JET (Joint European Torus), dont la construction a débuté en 1977 et dont la mise en service est intervenue en 1983. Le JET, implanté à Culham près d'Oxford en Angleterre, a enregistré plusieurs succès de grande portée. En 1997, il a en effet décroché le record mondial de la puissance de fusion avec un niveau de 16 MW, soit 64% de la puissance fournie pour un plasma de près de 100 m3. Le JET détient ainsi les records de puissance.

Il reste à se rapprocher de la barre fatidique des 100 %, c'est-à-dire l'état d'ignition, où, après avoir fourni l'énergie de départ, la réaction s'auto-entretient sans apport extérieur. C'est l'objectif du projet ITER (International Thermonuclear Experimental Reactor), qui tentera d'avoir les meilleures performances en durée et en puissance172.

ITER, une étape pour un prototype industriel vers 2060

Une coopération internationale indispensable pour ITER, projet de grande ampleur

La recherche sur la fusion repose sur la construction de machines de plus en plus puissantes.

Au plan qualitatif, les problèmes technologiques posés sont d'une difficulté inouïe. Ainsi, par exemple, seuls des aimants à supraconducteurs conviennent pour produire des champs magnétiques très élevés, or ceux-ci nécessitent des températures de fonctionnement très basses. Simultanément, la température atteinte par les plasmas est de plusieurs dizaines de millions de degrés. Pour compliquer les choses, les flux de neutrons sont très importants dans un tokamak.

Pour franchir une étape supplémentaire dans l'étude de la fusion, le projet ITER a été proposé au monde lors du sommet réunissant les présidents Reagan et Gorbatchev en 1985. La coopération internationale s'est par la suite étendue au Japon et à l'Union européenne.

La première version d'ITER avait un coût de 6 milliards de dollars, selon les premiers travaux de conception et d'ingénierie qui ont au demeurant duré près de six ans. Ce coût est rapidement apparu démesuré. Pour obtenir la participation du plus grand nombre possible de pays173, une nouvelle version d'ITER, moins coûteuse a été définie.

Au final, le projet ITER rassemble aujourd'hui l'Union européenne, la Russie, le Japon, les États-Unis, la Corée du Sud et la Chine.

Un réacteur pour démontrer la faisabilité de la fusion contrôlée

ITER a pour objet la démonstration scientifique et technologique de la faisabilité de la fusion contrôlée. Les recherches devront parvenir à la création d'un plasma de grand volume, au déclenchement d'une réaction de fusion et à son entretien avec un apport minimal d'énergie extérieure.

D'un diamètre de 12 mètres, ITER contiendra un volume de plasma de 840 m3 chauffé à cent millions de degrés et devrait parvenir à une puissance de fusion de 500 MW pendant plus de 300 secondes, avec une puissance dégagée par la réaction de fusion dix fois supérieure à la puissance extérieure fournie à la machine.

Selon le calendrier prévu, la construction d'ITER devrait prendre 10 ans et s'achever vers 2015.

Un prototype industriel de fusion contrôlée vers 2060

Dans l'hypothèse d'un succès d'ITER, il restera toutefois à faire la preuve que cette technologie pourra produire de l'électricité sur une large échelle.

D'ores et déjà, les concepteurs d'ITER prévoient la construction d'une nouvelle machine à finalité industrielle, intitulée DEMO, dont la conception et l'ingénierie devraient prendre dix ans. On escompte qu'il faudra alors dix années de fonctionnement et d'expérience de DEMO pour en tirer toutes les leçons.

La communauté scientifique estime que les connaissances nécessaires seront acquises en 2040.

Il faudra alors dix années de plus pour concevoir et construire le prototype d'un réacteur commercial de fusion contrôlée.

Dès lors, en faisant l'hypothèse que les étapes d'ITER et de DEMO soient un succès et que le retard cumulé ne dépasse pas 10 années, l'entrée en service commercial d'un premier prototype industriel s'effectuerait vers 2060. Le déploiement éventuel des réacteurs commerciaux de fusion pourrait alors intervenir vers 2080.

Des retombées technologiques et économiques immédiates

ITER constitue un très grand équipement scientifique mobilisant des investissements considérables, et comme tel, nécessitant une coopération internationale pour les financer.

Malgré le cofinancement qui réduit la charge pour chacun des participants, des critiques sont régulièrement émises vis-à-vis des très grands équipements scientifiques, suspectés de monopoliser les crédits de la recherche, au détriment des autres disciplines.

Selon la classification retenue par l'Office parlementaire d'évaluation des choix scientifiques et technologiques174, ITER est un très grand équipement (TGE) de grand programme d'utilité socio-économique, très différent dans sa finalité des TGE de percée thématique175 ou des TGE d'infrastructure176.

Si son coût important se justifie par l'importance de l'objectif - produire une énergie inépuisable sans CO2 -, son implantation en France, à Cadarache, se justifie aussi par ses retombées technologiques, industrielles et économiques prévisibles.

La charge d'ITER pour le financement de la recherche

Le coût de construction d'ITER était évalué, début 2005 lors de la négociation pour le choix de son lieu d'implantation, à 4,7 milliards € pour sa construction sur 10 ans et à 4,8 milliards € pour son exploitation sur 20 ans.

Il est courant que les coûts prévisionnels dérapent pour ce type de très grand équipement. Nonobstant, l'Union européenne assurera 40% du financement de la construction et de l'exploitation. D'un montant de 10% du total, la contribution de la France sera d'un milliard €, prise en charge à parité par l'Etat et par les collectivités territoriales de la région Provence-Alpes du Sud-Côte d'Azur177. Les autres partenaires assumeront à parité le financement des 50% restants178.

Des retombées économiques immédiates

La France bénéficie déjà des retombées de très grands équipements scientifiques (TGE) construits en coopération internationale. Déjà nombreux dans l'Hexagone, les plus importants au plan des investissements consentis sont l'Institut Laue-Langevin (ILL) à Grenoble (physique des neutrons), l'ESRF (European Synchrotron Radiation Facility) à Grenoble également, et le CERN179.

La direction de l'ESRF, le grand synchrotron européen de Grenoble, évalue à 30 à 40 % la part de son budget global annuel de 420 millions de francs qui est réinjectée dans l'économie, du fait des commandes de matériels ou de prestation de services et des salaires des personnels. Par ailleurs, sur la base de l'expérience acquise avec l'ILL et l'ESRF, on estime qu'un emploi dans un grand équipement génère la création d'un autre emploi dans un laboratoire du site.

En prenant en compte la totalité des effets induits et des achats effectués, le nombre d'emplois générés par le CERN est compris entre 8 770 et 12 700 emplois, qui s'ajoutent aux 7 180 personnes directement liées au CERN180.

L'impact des TGE sur leur région d'accueil est donc une réalité mesurable et fondamentale. Cet impact positif a évidemment été à la base de la décision du Conseil général de l'Essonne et de la Région Ile-de-France de contribuer ensemble à hauteur d'environ 200 millions €, au financement du synchrotron SOLEIL en cours de construction sur le plateau de Saclay.

Au-delà des retombées économiques directes, les entreprises de taille internationale accordent la plus grande importance au niveau du tissu scientifique et industriel de la zone d'accueil pour décider la localisation de leurs laboratoires de recherche. La présence d'un très grand équipement scientifique renforce ou crée des compétences locales.

Au plan national, les retombées d'un très grand instrument sont également considérables, tout en empruntant des canaux très divers.

Les retombées du JET sont considérables pour le Royaume-Uni. L'ensemble des contrats passés entre 1984 et 1999 sous le JET, a représenté plus d'un milliard €. Le Royaume-Uni a bénéficié de près de 60% du total. S'agissant du CERN, la France est un pays « suréquilibré », ce qui l'oblige à verser une contribution supérieure à sa cotisation statutaire pour compenser l'avantage des retombées économiques dont elle bénéficie plus que d'autres.

Le coût pour la France de l'implantation d'ITER à Cadarache n'est pas négligeable mais ses retombées dans la région seront importantes. Selon le conseil régional de la région PACA, la construction d'ITER devrait correspondre à l'emploi direct de 500 personnes et à l'emploi indirect de 3 000 personnes. Ultérieurement, environ 4 500 emplois seraient liés à l'exploitation. Les retombées économiques globales seraient de 400 millions € par an.

On sait depuis longtemps que la science est un des moteurs du développement économique. Les grands équipements scientifiques, qui en sont de plus en plus souvent les outils, génèrent d'eux-mêmes de l'activité, avant de produire de la connaissance et des résultats scientifiques exploitables.

GAZ DE SYNTHÈSE : PIVOT DES CARBURANTS DU XXIème SIÈCLE ?

L'abondance du pétrole, la relative facilité et le faible coût de sa distillation ont assuré sa prédominance rapide par rapport à tous les autres carburants. Mais la chimie connaît depuis longtemps les moyens de fabriquer différents hydrocarbures à partir de diverses sources. Alors même que les prix du pétrole augmentent durablement, ces technologies anciennes et marginalisées, sauf dans certains pays, prennent un nouvel intérêt.

La synthèse de carburants liquides à partir du charbon a été mise au point en Allemagne au début du XXème siècle et a été appliquée à grande échelle par l'Allemagne nazie. Depuis les années 1970, le procédé Fischer-Tropsch, qui correspond à la production d'hydrocarbures liquides ou solides à partir de gaz de synthèse (CO + H2), est utilisé à grande échelle par l'Afrique du Sud.

Mieux encore, à partir de gaz de synthèse, il est possible de produire de l'hydrogène selon la réaction de conversion eau-gaz, ce qui ouvre des perspectives d'une importance majeure pour la production d'hydrogène à partir de charbon.

En tout état de cause, le gaz de synthèse apparaît donc être le pivot d'une nouvelle chimie des carburants.

Or ce gaz de synthèse, produit originellement à partir de charbon, peut aussi être obtenu à partir de nombreux autres composés carbonés : gaz naturel, résidus pétroliers, biomasse. D'où son intérêt potentiel majeur pour envisager la production sans pétrole de carburants liquides pour les transports.

La production de gaz de synthèse à partir de produits carbonés divers

La gazéification du charbon est un processus dont l'intérêt est connu depuis des décennies. En présence d'eau et d'oxygène, le charbon se transforme en un mélange de monoxyde de carbone CO et d'hydrogène, qui, lui-même, peut servir à de multiples réactions de synthèse chimique, selon la réaction : 181

C + H2O → CO + H2

En particulier, le gaz de synthèse peut servir non seulement à la production d'ammoniaque, de méthanol ou d'alcools, produits eux-mêmes fondamentaux pour la chimie industrielle, mais aussi à la synthèse de carburants hydrocarbonés.

Sous le nom de gaz de ville ou de gaz à eau, le gaz de synthèse a servi à l'éclairage et au chauffage, dans les grandes cités européennes ou américaines, depuis la fin du XIXème siècle jusqu'aux années 1950.

L'utilisation des immenses réserves de charbon de nombreux pays pour la production de carburants automobiles suffirait à justifier le renouveau de l'intérêt pour le gaz de synthèse.

La mise au point de procédés de fabrication de gaz de synthèse fait actuellement l'objet de nombreux travaux de recherche et de développement.

Comme pour les centrales thermiques à charbon [voir rubrique charbon], le charbon peut être brûlé soit sur lit fixe soit sur lit fluidisé, auquel cas les particules de charbon sont en suspension dans un courant gazeux, le mélange de vapeur d'eau et d'oxygène étant introduit sous pression.

Dans la pratique, le gazéifieur est complété par une unité de séparation d'air qui produit l'oxygène injecté avec la vapeur d'eau et par une unité de purification du gaz de synthèse destinée à le débarrasser du maximum d'impuretés.

Les technologies correspondantes ont été opérationnelles en Allemagne pendant la deuxième guerre mondiale182 et le sont toujours en Afrique du Sud183 et aux États-Unis184.

Mais en réalité, de nombreux autres produits peuvent servir à fabriquer le gaz de synthèse. Le gaz naturel, le naphta et différents résidus pétroliers peuvent y conduire. La biomasse peut également servir, sous forme de bois, de résidus des industries papetières, de végétaux divers.

Il s'agit aujourd'hui d'adapter à de nouvelles matières premières les principaux procédés déjà utilisés à l'échelle industrielle pour le charbon.

Le procédé Fischer-Tropsch pour produire des carburants liquides

Le procédé Fischer-Tropsch permet, à partir de gaz de synthèse, de produire tous types de chaînes carbonées et d'hydrocarbures, allant du méthane CH4, molécule à un atome de carbone, à des paraffines dont la chaîne carbonée dépasse la trentaine de carbones.

En pratique, le procédé Fischer-Tropsch conduit à un mélange de composés chimiques dont la composition est variable, selon le gaz de synthèse initial et selon le catalyseur utilisé (fer ou cobalt), la température et la pression auxquelles la réaction se déroule, selon le schéma :

n CO + 2n H2 → (-CH2-)n + n H2O.

En particulier, lorsque la température est de 350 °C, on obtient de l'essence et des oléfines légères. À basse température, on obtient du fioul, des distillats et des goudrons.

L'Institut Français du Pétrole a, pour sa part, développé un procédé Fischer-Tropsch permettant d'obtenir, avec des catalyseurs cobalt-cuivre, du méthanol et des alcools homologues185.

La production d'hydrogène à partir de gaz de synthèse

Le gaz de synthèse est un mélange d'hydrogène H2 et de monoxyde de carbone CO. Après récupération de l'hydrogène formé, il est possible d'aller plus loin, en utilisant les propriétés réductrices du monoxyde de carbone. Réaction chimique classique, la réaction de conversion eau-gaz consiste à faire réagir le monoxyde de carbone CO sur de l'eau à une température d'environ 300°C186, en présence d'un catalyseur métallique.

La réaction de conversion eau-gaz est la suivante :

CO + H2O → CO2 + H2

le produit de la réaction étant un mélange d'hydrogène et de dioxyde de carbone et la conversion de l'eau en gaz étant d'un excellent rendement.

En aval de la conversion, il est possible de purifier l'hydrogène formé, par un procédé d'absorption à 99,9% du dioxyde de carbone CO2 formé et du monoxyde de carbone qui n'a pas réagi.

Couplée à la séquestration du CO2, la production d'hydrogène à partir du charbon pourrait donc avoir un grand avenir. Les États-Unis ne s'y sont pas trompé, en incluant une unité pilote de conversion eau-gaz dans leur projet de centrale thermique au charbon du futur [voir rubrique charbon].

GAZ NATUREL

En trente ans, le gaz naturel a fait une percée remarquable au point d'occuper la deuxième place dans la production mondiale d'énergie primaire, avec 26,4% de la production totale. Depuis 1973, sa production a été multipliée par 2,3187.

Avec des réserves prouvées de plus de soixante années de production au niveau actuel, bien réparties géographiquement et réévaluées à la hausse d'année en année, le gaz naturel multiplie ses applications, notamment dans la production électrique et, bientôt peut-être dans les transports, sa combustion s'accompagnant au surplus de rejets réduits de polluants et d'émissions de CO2 inférieures à celle du charbon.

Le gaz naturel semble donc devoir occuper, dans les années à venir, une place croissante dans le mix énergétique mondial, à condition toutefois que les investissements massifs que son développement impose, puissent être financés.

Les réserves mondiales et la production

Le gaz naturel est une énergie « jeune », c'est-à-dire nouvellement exploitée, avec des réserves dont la connaissance est récente et s'accroît régulièrement, et dont l'avenir est brillant si sa mise en valeur peut être réalisée rapidement.

En vingt ans, et malgré une production croissante, les réserves mondiales prouvées de gaz naturel ont été multipliées par 1,9, atteignant 179 530 milliards m3 fin 2004, soit 66,7 années de la production mondiale de 2004.

Une répartition des réserves et des enjeux géopolitiques majeurs

Les réserves prouvées de gaz naturel sont relativement bien réparties géographiquement comparées aux réserves de pétrole188.

Le Moyen Orient ne compte que pour 41% du total des réserves mondiales de gaz naturel contre 62% pour le pétrole.

L'Europe, la Russie et les pays de l'ex URSS sont mieux dotés en gaz naturel, avec 36% des réserves mondiales, qu'en pétrole (12% des réserves mondiales).

De même, l'Asie Pacifique possède 8% des réserves mondiales de gaz naturel, contre 3% pour le pétrole.

En revanche l'Amérique du Nord est moins bien pourvue en gaz naturel (4% des réserves mondiales) qu'en pétrole (5%), de même que l'Amérique latine. Notons que la mer du Nord recèle, dans l'état actuel des connaissances, 2,7% des réserves mondiales de gaz naturel, la Norvège et les Pays-Bas en détenant l'essentiel.

Au-delà de la répartition par continent, ce qui compte pour l'avenir du gaz naturel, c'est la répartition des réserves par pays.

Dans l'état actuel des connaissances, c'est la Russie qui dispose des réserves prouvées les plus importantes, avec près de 27% du total mondial189.

Dans le classement, on trouve ensuite les pays du Moyen Orient, avec l'Iran en tête. Les États-Unis disposent des 6èmes réserves mondiales. Le Nigeria et l'Algérie sont les principaux détenteurs de réserves en Afrique, l'Égypte et la Libye ayant un potentiel non négligeable. En Amérique latine, le Venezuela est bien doté. L'Irak, l'Asie centrale avec le Kazakhstan, le Turkménistan, l'Ouzbékistan et l'Azerbaïdjan présentent un potentiel de production important. L'Indonésie, la Malaisie et l'Australie sont titulaires, chacune, de réserves du même ordre que la Norvège, le pays d'Europe dont la production est la plus durable avec celle des Pays-Bas.

En complément à ces grands producteurs, l'on trouve par ailleurs de nombreux pays dont les ressources, inférieures mais non négligeables pour autant, peuvent leur suffire ou en faire des intervenants d'appoint sur le marché international.

Caractéristique fondamentale, on connaît encore mal les réserves de la planète en gaz naturel. En conséquence, les évaluations de réserves prouvées de gaz naturel sont sujettes à révisions fréquentes, le plus souvent à la hausse.

Entre 2004 et 2005, l'Australie a réduit des deux tiers ses estimations de réserves. À l'inverse, le Nigeria et la Libye ont réévalué les leurs, de même que l'Arabie saoudite.

D'après le US Geological Survey (USGS), le gaz naturel non découvert représenterait 120 400 milliards m3, soit 71% des réserves prouvées. Pour les trois quarts, ces réserves non encore découvertes se trouveraient, pour le moment, trop éloignées des gazoducs existants ou des centres de consommation pour être exploitées à des coûts acceptables.

Sur le plan géographique, ce sont les pays de l'ex-URSS, le Moyen Orient et l'Afrique du Nord qui auraient le potentiel de découvertes le plus important.

Les difficultés actuelles et futures de la production de gaz naturel

Révélant le retard de certains pays dans l'exploitation de leur gaz naturel, le classement des pays producteurs est quelque peu différent de celui des réserves.

Le premier producteur mondial en 2004 est la Russie, et le deuxième les États-Unis. Si l'écart de production entre les deux pays est faible (10%), aux rythmes actuels la Russie a encore 81 années certaines de production devant elle, alors que les États-Unis n'en ont que 10, le Canada 3ème producteur mondial n'en ayant lui-même que 9.

En Europe, des différences du même ordre existent. Quatrième producteur mondial, le Royaume Uni n'a plus que 6 années de production certaine au niveau actuel, alors que la Norvège en a 30 et les Pays-Bas 22. Ayant déjà un niveau de production important mais aussi respectivement 53 et 33 années de production devant eux, le Turkménistan et l'Ouzbékistan sont des pays producteurs importants.

Reste enfin la question difficile de la valorisation des immenses réserves de l'Iran, déjà 5ème producteur mondial, et de l'Arabie saoudite, qui passe sans doute par le gaz naturel liquéfié et les carburants Gas-To-Liquids [voir paragraphes suivants].

Les événements récents dans plusieurs régions du monde, notamment en Asie centrale, montrent que le gaz naturel est clairement devenu, après le pétrole, un enjeu géopolitique majeur.

Le boom de la consommation mondiale : vers un choc gazier ?

La consommation mondiale de gaz naturel s'est élevée à 2689 millions m3 en 2004, en augmentation de 3,3% par rapport à 2003. Les prévisions s'accordent sur une augmentation de 70% d'ici à 2025.

On peut se demander si les conditions d'un choc gazier ne sont pas réunies190.

Le prix du gaz naturel à la remorque des prix du pétrole

L'approvisionnement en gaz naturel se pratique selon deux modalités principales.

Modalité d'une importance relativement faible, le gaz naturel peut s'acheter en gros sur les marchés spot, pour des échéances variables. Les transactions correspondent à des marchés d'ajustement, par exemple à une demande additionnelle imprévue des marchés en cas de vague de froid. En Europe continentale, les transactions sur le marché spot de gaz naturel, ne représentent qu'une part très faible de l'approvisionnement total.

Modalité essentielle régissant les rapports entre les grands distributeurs et leurs fournisseurs, les contrats d'approvisionnement à long terme portent sur une durée de plusieurs années et des volumes donnés et comprennent des modalités d'indexation.

Le gaz naturel et le pétrole sont souvent extraits des mêmes gisements ou de gisements géographiquement proches les uns des autres. L'extraction de pétrole s'accompagne souvent de la production de gaz naturel, le contraire étant toutefois moins fréquent. L'exploitation du pétrole se caractérisant par une avance historique, celle du gaz naturel s'est naturellement inscrite dans sa logique technique et économique. Par ailleurs, la relative maîtrise des marchés pétroliers par les pays producteurs de l'OPEP constitue une référence pour les pays gaziers, qui peuvent souhaiter parvenir à un contrôle des prix de marché analogue.

En conséquence, la plupart des contrats à long terme d'approvisionnement en gaz naturel sont indexés sur le cours des produits pétroliers. La référence est souvent le prix du fioul lourd ou du fioul domestique, avec un retard de trois à six mois. Gaz de France qui s'approvisionne pour plus de 95% auprès de producteurs internationaux de Russie, d'Algérie, de Norvège et des Pays-Bas, est soumis à cette contrainte.

Entre décembre 2003 et décembre 2004, le prix du gaz naturel en contrat long terme est passé de 12 à 14 €/MWh. Au premier semestre 2005, les cours des produits pétroliers exprimés en euros ont augmenté de plus de 65% au premier semestre 2005, déclenchant une hausse du même ordre, bien que retardée, des prix de gros du gaz. En conséquence, Gaz de France a souhaité répercuter ces hausses sur ses clients.

Pour autant, les prix du gaz vendu à partir des réseaux publics de transport ou de distribution sont réglementés, Gaz de France étant de surcroît soumis à des obligations de service public. Un compromis a été trouvé entre l'État et Gaz de France pour étaler dans le temps la hausse des prix d'achat du gaz naturel sur les marchés internationaux et la rendre compatible avec le niveau de vie des ménages et la compétitivité des entreprises. En particulier, en compensation des hausses de prix intervenues en juillet et septembre 2005, les consommateurs se chauffant au gaz ont reçu une remise commerciale pendant tout l'hiver 2005-2006.

De nombreux projets de recours au gaz naturel

Les débouchés du gaz naturel s'élargissent d'année en année. Le chauffage et la climatisation domestiques se développent en effet dans toutes les régions du monde. La production électrique privilégie les cycles combinés à gaz naturel pour les nouvelles installations et pour le remplacement éventuel des centrales à charbon trop polluantes. Le gaz naturel se substitue au charbon et au fioul dans de nombreuses industries, pour sa souplesse d'utilisation et ses moindres émissions de polluants et de CO2191.

L'Europe accroît sa consommation de gaz naturel essentiellement pour augmenter sa production électrique, et pour remplacer ses anciennes centrales thermiques au charbon devenues incompatibles avec ses engagements du Protocole de Kyoto. Le mouvement est identique dans les pays de l'Est.

Les États-Unis absorbent à eux seuls 24% de la consommation mondiale de gaz naturel, leur consommation augmentant au rythme de 1,5% par an. Leur production croît plus lentement, au rythme de 0,5% par an, car, malgré les efforts entrepris, la productivité des puits a diminué de 71% depuis 1971. D'où une augmentation des importations, qui ont représenté 15% de la consommation nationale en 2004. Dans ces conditions, le gaz naturel liquéfié est appelé à jouer un rôle croissant 192.

Le Japon privilégie aussi le gaz naturel pour l'augmentation de sa production électrique. En Corée du Sud, les usages du gaz naturel, concentrés dans le résidentiel, vont s'étendre dans l'industrie.

Alors que le gaz naturel ne représente pour le moment que 3% de sa consommation d'énergie primaire, la Chine prévoit d'augmenter sa consommation de 8% par an, non seulement pour la production électrique mais aussi pour les usages domestiques. En Inde, la part du gaz naturel dans la consommation d'énergie primaire est de 6,5% mais devrait croître rapidement, comme en Chine.

Les pays exportateurs du Moyen Orient ont clairement fait le choix de maximiser leurs exportations de pétrole en substituant pour leurs usages propres, le gaz naturel aux produits pétroliers à chaque fois que la technique le permet. La consommation de gaz naturel augmentera donc aussi fortement dans cette zone. Ceux des pays qui, comme le Qatar, bénéficient de ressources immenses de gaz naturel, entendent mettre au point des technologies nouvelles comme le GNL (gaz naturel liquéfié), et le GTL (Gas-to-Liquids), ce qui créera également de nouveaux débouchés dans la région.

L'Afrique, l'Amérique centrale et l'Amérique du Sud s'appuient également, dans des proportions croissantes, sur le gaz naturel.

Il s'agit donc là d'un mouvement mondial, appelé non seulement à durer, du fait des immenses réserves de la planète en gaz naturel, mais aussi à s'accélérer, si les technologies de production de carburants liquides à partir du gaz naturel confirment leur intérêt par rapport aux carburants pétroliers.

Les conditions d'un choc gazier

Le prix du gaz naturel sur le marché spot est passé de 6 $/MBtu en février 2005 à plus de 15 $/MBtu aux États-Unis, pour redescendre à 9 $/MBtu en janvier 2006. Les prix sur le marché spot européen ont connu une évolution voisine.

Les prix spot sont en premier lieu influencés par les aléas climatiques, qui amplifient les besoins au-delà des prévisions. Mais la tendance de fond des marchés du gaz naturel est une insuffisance croissante de l'offre par rapport à la demande.

Selon l'Agence internationale de l'énergie de l'OCDE (AIE-OCDE), la consommation mondiale de gaz naturel devrait presque doubler d'ici à 2030. Le fait que les réserves soient suffisantes pour y faire face, ne saurait empêcher des chocs gaziers.

La fragilité du marché vient bien sûr de la domination actuelle, et vraisemblablement pour plusieurs années encore, des pays de l'OPEP, dont la production gazière n'est pas une priorité.

Mais l'élément essentiel est le gigantisme des investissements à réaliser dans les infrastructures gazières, en particulier dans l'exploration et le développement des gisements, pour hisser l'offre au niveau de la demande. Selon l'AIE, les besoins d'investissement sont de 100 milliards de dollars par an, entre 2003 et 2030.

L'insuffisance de l'offre et la hausse de la demande pourraient donc créer inévitablement des tensions durables sur les prix, sinon des chocs gaziers à répétition.

La sécurité d'approvisionnement : un objectif décisif

Les dangers de la dépendance gazière

En matière de gaz naturel comme de pétrole, c'est moins l'épuisement des gisements que les conditions de fonctionnement du marché qui inquiètent.

L'intérêt croissant du gaz naturel va nécessiter des investissements colossaux, que l'Agence internationale de l'énergie évalue à 2 700 milliards de dollars entre 2003 et 2030193. La mise en exploitation de gisements lointains et la construction de nouveaux gazoducs seront en effet indispensables pour satisfaire la demande. Alternative au transport à faible pression dans les canalisations terrestres ou sous-marines, la liquéfaction, qui permet le transport du gaz naturel à longue distance par méthaniers, contribuera à rendre plus sûr et plus homogène le marché mondial.

Mais l'approvisionnement en énergie ne saurait être automatique ni en quantité ni en prix.

La crise gazière entre la Russie et l'Ukraine du début janvier 2006 en a fourni un exemple éclairant, tant pour ces deux pays que pour l'Europe tout entière.

L'Ukraine importe 80% de sa consommation annuelle de gaz naturel, en provenance de Russie et de Turkménistan, dans le cadre de contrats d'approvisionnement annuels et d'autorisation de prélèvements sur les quantités en transit194. Fin 2005, Gazprom195 entend faire passer ses tarifs de livraison à l'Ukraine de 50 dollars à 220-230 dollars les 1000 m³, par référence au tarif mondial qui lui permettra de maximiser ses bénéfices. L'Ukraine demandant une hausse graduelle des tarifs, Gazprom, sur les injonctions des pouvoirs publics russes, réduit ses approvisionnements à l'Ukraine. Les conséquences s'en font immédiatement sentir sur l'Europe. Les gazoducs jouent en effet un rôle primordial dans l'économie européenne du gaz naturel, tout particulièrement les gazoducs qui traversent l'Ukraine196.

30% de la fourniture en gaz naturel des membres européens de l'OCDE197 et 80% des exportations totales de gaz naturel de la Russie transitent en effet par l'Ukraine. Celle-ci, pour essayer de maintenir ses approvisionnements, opère alors des prélèvements sur les flux à destination de l'extérieur. Un jour après l'arrêt de la fourniture à l'Ukraine et donc du débit global des gazoducs198, la baisse des livraisons atteint 25 à 30% pour la France, 50% en Pologne, 40% en Hongrie, 35% en Autriche et 25% en Italie.

Si la crise s'est résolue rapidement par l'étalement dans le temps de la hausse voulue par Gazprom dans le cadre d'un accord de 5 ans, cet épisode hivernal d'un affrontement entre un fournisseur et l'un de ses clients met en évidence les dangers de la dépendance gazière : vulnérabilité sur le prix d'achat du gaz naturel et menace pour la continuité de la fourniture lorsque le gaz naturel transite par un ou plusieurs pays intermédiaires.

L'intérêt du projet de gazoduc nord européen passant sous la Baltique et évitant bien sûr l'Ukraine mais aussi les pays baltes et la Pologne, en est confirmé.

L'Allemagne dont la Russie fournit 35 à 40% de la consommation de gaz naturel, y est évidemment partie prenante.

Diversification et stockage : deux moyens de sécurisation efficaces

En 1973, la France, qui produisait encore à Lacq une part importante de sa consommation de gaz naturel199, achetait 82% de son gaz importé aux Pays-Bas et 18% à l'Algérie.

En 2004, ses importations, qui se sont fortement accrues, sont toutefois très diversifiées, la Norvège lui fournissant 27% du total, la Russie 21%, les Pays-Bas 20%, l'Algérie 12%, et les autres pays 20% ensemble.

Cette diversification lui permet de compenser les à-coups dans la production de ses fournisseurs, comme en 2004, par exemple, où la chute des importations en provenance d'Algérie, suite à un accident survenu dans l'usine de GPL de Skikda, a été compensée par un fort accroissement des importations provenant des Pays-Bas.

En tout état de cause, le développement mondial du gaz naturel liquéfié offre de nouvelles possibilités de diversification des sources, susceptible d'étendre encore ses applications.

La sécurité d'approvisionnement est également assurée par le stockage souterrain de gaz naturel tel qu'il est effectué en France sur plusieurs sites200.

Les stockages de gaz naturel en formation géologique représentent en France, autour de 6 mois de consommation annuelle moyenne. Ces stocks permettent de s'affranchir du pouvoir de pression des fournisseurs, en cas de hausse imprévue de la demande, par exemple en période de grand froid.

En raison d'un climat plus rigoureux en 2004 qu'en 2003, les stocks de gaz naturel étaient de 5,7 mois fin 2004, contre 6,2 mois l'année précédente.

En tout état de cause, la sécurité d'approvisionnement en énergie, l'une des finalités majeures de la politique énergétique, repose évidemment sur la diversification des sources d'énergie primaire.

La France, en limitant le rôle du gaz naturel à 14,6% du bilan national en énergie primaire, est, à cet égard, plus prudente que d'autres pays, par exemple l'Allemagne, qui fait et fera jouer au gaz naturel un rôle beaucoup plus important.

Le gaz naturel de charbon

Le charbon n'est pas seulement le combustible fossile le plus abondant du monde. C'est aussi un réservoir de méthane. Le processus naturel de formation du charbon a en effet généré de grandes quantités de méthane adsorbées par le solide lui-même ou piégées dans ses fissures. Ce type de méthane est appelé gaz naturel de charbon ou méthane de houille.

Deux problèmes se posent à propos du gaz naturel de charbon : d'une part les rejets de ventilation des mines de charbon, et, d'autre part, la récupération du gaz naturel de charbon piégé dans les gisements non exploités.

La réduction des rejets de gaz naturel de charbon provenant des mines exploitées

Le méthane de houille intimement lié aux gisements de charbon est le responsable direct des coups de grisou, qui, avec les explosions dues aux poussières de charbon, ont fait et continuent de faire des milliers de victimes dans les mines du monde entier.

La ventilation indispensable des mines de charbon conduit à l'émission dans l'atmosphère de méthane, un gaz à effet de serre dont le pouvoir radiatif, c'est-à-dire la nocivité, est 21 fois supérieure à celle du dioxyde de carbone CO2. Représentant, selon certaines estimations, l'équivalent de 210 millions de tonnes de CO2, les émissions de méthane dues à l'exploitation des mines font l'objet d'études visant à les diminuer ou à les capter.

Le gaz naturel de charbon des gisements non exploités

Indépendamment de sa présence dans les mines, le gaz naturel de charbon constitue un combustible qui peut être récupéré directement par forage. Il s'agit là d'un moyen de valorisation des gisements de charbon abandonnés ou inexploités.

Pour des raisons économiques, on limite généralement l'exploitation du gaz naturel de charbon aux gisements peu profonds.

Accédant aux veines de charbon, des forages d'injection d'eau sous pression permettent d'augmenter la perméabilité du gisement par fracturation hydraulique, facilitant ainsi l'écoulement du gaz naturel de charbon. Une méthode inverse peut être utilisée, consistant à pomper l'eau naturelle présente dans le gisement, ce qui facilite la désorption du gaz naturel de charbon. Afin de préserver l'environnement de surface, cette eau est réinjectée à distance en profondeur. La pression du gaz naturel de charbon dans les forages de récupération est en général faible, ce qui oblige à le comprimer en surface avant injection dans un gazoduc de surface.

Aux États-Unis, les réserves de gaz naturel de charbon représentent 10% des réserves totales de gaz naturel201. On en tire actuellement environ 130 millions de m³ par an. La production annuelle de gaz naturel de charbon au Canada est actuellement de 3 millions de m³ par an, le montant total récupérable étant évalué à 2 milliards de m³.

Le gaz naturel liquéfié (GNL)

La liquéfaction représente un nouvel âge pour le gaz naturel, celui d'un marché totalement mondialisé. Grâce à des techniques aujourd'hui maîtrisées et d'un coût supportable, le gaz naturel peut, dans cet état physique, être transporté en n'importe quel point du monde, ce qui augmente ses débouchés et permet de diversifier les approvisionnements. Le gaz naturel liquéfié contribue donc à l'essor du gaz naturel, qui repose toutefois essentiellement sur l'abondance des réserves et ses avantages énergétiques ainsi qu'environnementaux.

Les techniques maîtrisées du gaz naturel liquéfié

Liquéfié à -161°C à basse pression dans des usines du littoral capables de produire plusieurs milliers de m3 par heure, le gaz naturel liquéfié est ensuite transporté dans des méthaniers. D'une capacité de 200 000 m3 pour les plus récents, les nouveaux navires de GDF sont propulsés par des moteurs électriques alimentés par des turbines à gaz où sont injectées les vapeurs de gaz naturel formées dans les cuves réfrigérées à basse pression202, 203. La regazéification s'opère après déchargement dans le port d'arrivée et bientôt sur des terminaux offshore pour éviter les difficultés locales d'implantation.

La sécurité de l'ensemble de la chaîne de transport est élevée. Au contraire du GPL (gaz de pétrole liquéfié) dont les vapeurs explosent en cas d'inflammation, le gaz naturel liquéfié peut brûler mais n'explose pas, ce qui réduit notamment la menace terroriste.

La récupération des vapeurs des cuves minimisant la dépense énergétique de transport et la regazéification étant peu consommatrice d'énergie, la dépense principale correspond à la liquéfaction en amont du transport et à la compression à 60-80 bar du gaz avant injection dans le gazoduc. La consommation d'énergie de la chaîne est de l'ordre de 15% du volume gazéifié. Si le coût total n'est pas rédhibitoire, il n'est pas pour autant négligeable.

La diversification des approvisionnements

La liquéfaction du gaz naturel en rend la consommation possible indépendamment d'un lien continu par gazoduc et crée les conditions d'un marché mondial qui réduit la dépendance des pays consommateurs.

Ainsi il est possible pour Gaz de France d'élargir ses fournisseurs à l'Égypte, au Qatar, à l'Iran et aux gisements de Sibérie, ce qui fait de l'entreprise française le 1er importateur européen et le 5ème importateur mondial après les grands électriciens japonais et coréen204.

Les grands pays producteurs de gaz naturel sont de plus en plus nombreux à s'équiper en usines de liquéfaction et en terminaux pour méthaniers pour desservir des clients de plus en plus nombreux et divers. De même les pays consommateurs s'équipent pour recevoir les méthaniers. La France pour sa part, complète ses deux terminaux de Fos-sur-Mer, qui date de 1972 et de Montoir-de-Bretagne en Loire-Atlantique, qui date de 1982 par un troisième terminal à proximité de Fos-sur-Mer également.

Au total, l'Europe possède 10 terminaux GNL, une vingtaine de projets étant en cours de finalisation.

Quant aux États-Unis, leur incapacité à accroître leur production de gaz naturel au rythme de leur consommation fortement croissante les oblige à construire les installations de réception du gaz naturel liquéfié en provenance d'autres pays que le Canada et le Mexique. Les États-Unis disposent de quatre terminaux à terre, dans le Massachusetts, le Maryland, la Géorgie et en Louisiane, et d'un nouveau terminal offshore, dans le Golfe du Mexique, mis en service début 2005. La construction de terminaux GNL est à l'étude sur la côte ouest des États-Unis, la solution de terminaux offshore étant en tête de liste.

Le gaz naturel véhicule (GNV)

Le gaz naturel est utilisé comme carburant automobile depuis de nombreuses années dans différents pays producteurs. 4 millions de véhicules l'utilisent aujourd'hui205. Certains pays, comme l'Argentine ou l'Iran, en ont fait un choix stratégique. Dans l'Union européenne, l'Italie, avec environ 300 000 véhicules enregistrés, est le leader de ce type de carburant, valorisé dans la zone productrice de gaz naturel de la plaine du Pô. En France, 50 000 véhicules ont roulé en Aquitaine, au plus fort de la production du gaz de Lacq.

Pour être utilisé comme carburant automobile, le gaz naturel est comprimé à 200 bar206, stocké comme tel et introduit dans le moteur qui ne diffère d'un moteur classique que dans le fait que l'injection et les pistons sont optimisés pour ce type de carburant.

En réalité, deux solutions sont possibles : soit la spécialisation du moteur à l'utilisation du gaz naturel, soit son adaptation aux deux types de carburant pour un fonctionnement alternatif à l'essence ou au gaz naturel. Dans le premier cas, l'autonomie du véhicule, de l'ordre de 400 km, est inférieure à celle d'un véhicule essence207. Dans le cas de la bicarburation, les réservoirs en carbone permettent une autonomie en gaz naturel de plus de 200 km, qui s'ajoutent au rayon d'action « essence ». L'option double carburation est donc sans doute la plus intéressante pour les voitures particulières. Fin 2005, il existait 12 véhicules bicarburation vendus sur le marché, huit constructeurs européens proposant des versions GNV de leurs véhicules208.

En tout état de cause, les émissions de polluants d'un moteur fonctionnant au gaz naturel sont inférieures à celles d'un moteur à essence. Il en est ainsi également des émissions de CO2, inférieures de 25% à celle de leur homologue essence. Autre avantage du gaz naturel, son indice d'octane209 élevé (130) permet un taux de compression élevé et donc une réduction de la cylindrée des moteurs210.

Gaz de France a pris le pari d'accélérer la percée du gaz naturel véhicule (GNV)211. Déjà, en France, 2000 bus et 500 bennes à ordure roulent au gaz naturel véhicule. Les flottes captives, dont les distances parcourues entre deux rechargements sont relativement faibles, sont en effet un marché prioritaire. La prochaine étape visée est celle du marché des automobiles particulières, avec un ciblage précis. Le surcoût GNV par rapport à une motorisation essence est de l'ordre de 1000 euros.

La création d'un réseau de distribution pour un nouveau carburant est difficile, comme en témoigne la faible diffusion du GPL. La stratégie de Gaz de France est donc de privilégier le rechargement à domicile des véhicules fonctionnant au GNV. Sur la base des 4 millions de pavillons ou maisons particulières existant en France, le potentiel de véhicules pouvant opter pour le gaz naturel véhicule est de l'ordre de 6 millions.

Un compresseur alimenté par le gaz naturel standard, installé dans le garage d'une maison individuelle permet le rechargement complet en une nuit, pour une autonomie de 250 km.

Cette durée pouvant paraître excessive, le cœur de cible pour le GNV correspond aux automobilistes qui effectuent moins de 50 km par jour et qui représentent 85% du total des automobilistes habitant en pavillon. Dans ce cas la durée de remplissage du réservoir est réduite à 2-3 heures.

Au terme d'un protocole de juillet 2005 intervenu entre l'État, les constructeurs automobiles et les distributeurs de gaz naturel, les mesures fiscales de soutien à la filière sont amplifiées, l'objectif étant de parvenir à 100 000 véhicules GNV en 2010. Comme pour les véhicules fonctionnant au GPL ou à l'électricité, le crédit d'impôt est porté de 1525 euros à 2000 euros.

L'avenir dira si le GNV peut acquérir une part de marché significative.

Les carburants « Gas-to-Liquids » (GTL)

Pour de nombreux experts, la production de carburants liquides à partir du gaz naturel Gas-To-Liquids (GTL) représente la nouvelle frontière du gaz naturel.

Les technologies sont en effet prêtes à l'emploi, fondées sur la production de gaz de synthèse et le procédé Fischer-Tropsch. [voir rubrique Gaz de synthèse].

Immenses, les débouchés des transports pourraient compléter la gamme d'utilisation du gaz naturel, incitant les producteurs à réaliser les investissements très lourds qu'ils devront consentir pour satisfaire la demande de gaz naturel.

Autre intérêt considérable, la production de carburants GTL à proximité de grands gisements comme ceux de l'Iran et du Qatar satisferait la demande locale de carburants. Elle permettrait également d'amortir les dépenses de transport à longue distance sur un produit à valeur ajoutée plus élevée que celle du simple gaz naturel liquéfié.

Des procédés techniques confirmés

La transformation du gaz naturel en carburant liquide s'effectue selon deux étapes : d'abord le vaporeformage de gaz naturel selon la réaction CH4+ H2O  → CO + 3H2, qui donne du gaz de synthèse, et, ensuite la réaction de Fischer-Tropsch, mise au point en 1923 et utilisée à grande échelle pour la liquéfaction du charbon, qui conduit au carburant GTL [voir rubriques Gaz de synthèse et Charbon CTL].

Des évolutions récentes donnent une nouvelle actualité aux carburants GTL.

L'augmentation du prix du pétrole renforce l'intérêt des carburants de substitution. Certes, elle entraîne celle du gaz naturel, mais avec un décalage dans le temps et dans une proportion moindre.

Mais une évolution majeure provient de la baisse des coûts d'investissement dans les installations de vaporeformage et dans les réacteurs Fischer-Tropsch, observée par Royal Dutch Shell. Une innovation technique pourrait encore renforcer la compétitivité des carburants GTL. Un nouveau procédé du vaporeformage auto thermique pourrait en effet encore réduire les coûts de production212.

Enfin, des carburants GTL de type gazole peuvent être spécifiquement produits, un avantage important dans un contexte de capacités de raffinage insuffisantes pour ce type de carburants.

Le Qatar, pionnier du GTL

Une première unité de production de carburants GTL, construite par Shell, est opérationnelle en Malaisie, pour une capacité de 12 500 barils par jours.

Mais c'est le Qatar qui est en pointe dans ce domaine. En tant que détenteur de près de 15% des réserves mondiales de gaz naturel, le Qatar, dont la stabilité et l'ouverture politiques permettent l'instauration d'un climat propice à la coopération internationale, s'est lancé le premier dans la voie d'un développement ambitieux du GTL.

Le projet Oryx, qui rassemble le Qatar, l'entreprise sud-africaine Sasol, leader mondial de la liquéfaction du charbon et la société américaine Chevron, produira plus de 30 000 barils par jour. D'ici à 2011, Shell construira ses propres installations, d'une capacité de 70 000 barils par jour et ExxonMobil les siennes d'une capacité de 154 000 barils par jour.

À une échelle moindre, les projets sont nombreux dans d'autres pays, en Iran, en Algérie, en Russie, au Nigeria et même en Bolivie.

La production d'électricité et la cogénération, nouveaux horizons du gaz naturel

La cogénération au gaz naturel, en plein essor en France

Au-delà de ses marchés traditionnels de la consommation individuelle et de l'industrie, le gaz naturel a d'ores et déjà effectué une nouvelle percée en France, par l'intermédiaire de la multiplication des installations de cogénération de chaleur et d'électricité fonctionnant au gaz naturel.

À la date de 2003, 725 installations de cogénération étaient en fonctionnement en France, utilisant différents types de combustibles. Le premier d'entre eux est le gaz naturel (55%)213. Du fait de leur haut rendement, les cogénérations au gaz naturel ont produit, la même année, 79% de l'électricité issue de la cogénération.

Les cycles combinés à gaz, une technologie séduisante

Parmi les applications industrielles du gaz naturel, la production d'électricité connaît un essor rapide qui devrait se poursuivre dans les prochaines années.

Grâce aux progrès technologiques effectués dans les deux dernières décennies, les turbines à gaz et plus particulièrement les cycles combinés à gaz214 présentent des performances techniques et économiques d'un grand intérêt pour les investisseurs.

Rapides à construire (30 mois), d'un coût d'investissement peu élevé (500 à 600 $/kW), les cycles combinés à gaz conviennent particulièrement à la production en semi-base et à la production en pointe, deux créneaux en essor sur de nombreux marchés dérégulés, en particulier en Europe.

Certes la compétitivité des cycles combinés pour la production d'électricité dépend étroitement du prix du gaz naturel, le coût de ce dernier entrant pour 63% dans le coût total du MWh. Mais la rapidité d'amortissement d'une telle installation offre une rentabilité d'autant plus séduisante que des contrats d'approvisionnement de longue durée auront pu être souscrits.

Les débouchés des cycles combinés à gaz sont par ailleurs renforcés par les contraintes de la réduction des émissions de gaz à effet de serre qui s'imposent aux États signataires du Protocole de Kyoto.

Le remplacement des centrales thermiques au charbon par des cycles combinés à gaz permet en effet non seulement une nette réduction des émissions de polluants atmosphériques mais aussi et surtout de diviser par deux les émissions de dioxyde de carbone par Mégawatt produit215.

Un inconvénient important des cycles combinés à gaz est qu'ils ne peuvent brûler qu'un nombre limité de combustibles différents : gaz naturel et gaz sidérurgiques principalement.

Le gaz naturel et la production électrique en France

La mise en service commercial en 2002 du réacteur nucléaire N4 le plus récent d'EDF (Civaux 2)216, a couronné une période de plus de vingt ans de montée en puissance du parc électronucléaire français.

S'appuyant sur la capacité du pays à exporter de l'électricité, une thèse a longtemps fait florès en France, à savoir l'existence inutile d'une surcapacité de production.

De fait, les exportations d'électricité ont atteint 15,1% de la production en 2002, le climat exceptionnellement doux de cette année ayant diminué la demande intérieure. Cette situation a présenté au moins deux avantages. D'abord, correspondant à près de 6 millions de tep, les exportations d'électricité ont généré des recettes de l'ordre de 3 milliards €. Ensuite, le réseau français étant interconnecté, les exportations ont compensé des importations indispensables dans certaines situations de consommation de pointe217.

Mais le solde exportateur a ensuite diminué depuis lors, ne représentant plus que 12,5% en 2004 et continuera à le faire.

Pour répondre à la croissance de la consommation de l'électricité, des investissements seront en réalité rapidement nécessaires.

Les prévisions effectuées par RTE (Réseau de transport de l'électricité) ne laissent aucun doute à cet égard218. Sur la base de l'hypothèse d'une croissance moyenne de 1,5% par an de la consommation d'électricité sur la période 2002-2010, une capacité de production de 1,2 GW supplémentaire apparaît nécessaire dès l'été 2009. Pour la période 2010-2020, avec l'hypothèse d'une croissance de 1,1% par an, ce sont au moins 7 GW qui s'avèrent indispensables.

Ces besoins concernant la production de pointe ou de semi-base, les énergies renouvelables ne peuvent apporter à elles seules la réponse au problème posé, compte tenu des aléas de leur contribution. La production en base est aussi probablement concernée, ce qui justifie la construction de la tête de série EPR à Flamanville, le nucléaire étant largement plus compétitif que le gaz naturel [voir rubrique nucléaire].

L'installation, en France, de cycles combinés à gaz apparaît probable. Fonctionnant au gaz de haut fourneau et au gaz naturel, une première installation de 800 MW est construite à Dunkerque par Gaz de France, qui prévoit par ailleurs deux centrales supplémentaires à Fos-sur-Mer (Bouches-du-Rhône) et à Montoir-de-Bretagne (Loire-Atlantique). Une annonce est faite par le courtier en énergie Poweo pour Pont-sur-Sambre (Nord), de grands opérateurs comme Suez ou SNET fourbissant leurs propres projets.

En tout état de cause, un cycle combiné au gaz naturel émettant des quantités importantes de CO2219 par rapport à un réacteur nucléaire, l'entrée en service de ces nouveaux moyens de production devra être compensée par des réductions des émissions des autres secteurs, pour que la France respecte ses engagements liés au Protocole de Kyoto.

GÉOTHERMIE

La géothermie connaît une nouvelle vogue : son vecteur calorifique, l'eau ou la vapeur d'eau, n'est pas un gaz à effet de serre ; son gisement est quasiment inépuisable.

La géothermie est utilisée depuis des siècles en particulier dans les zones volcaniques. Les sources d'eau chaude y répondent traditionnellement à différents usages - thermalisme, industrie, chauffage des habitations -. Mais la géothermie ne se limite pas aux zones volcaniques. La Terre est en effet un immense réservoir de chaleur, la température du sol augmentant avec la profondeur. De nombreuses configurations géologiques produisent des accumulations d'eau chaude recyclables dans le cadre de la géothermie.

De la température la plus élevée à la moins élevée, on trouve la géothermie haute énergie pour les températures de 250 à 350 °C, la géothermie moyenne énergie pour des températures de 90 à 180°C, la géothermie basse énergie pour des températures de 30 à 90°C et la géothermie très basse énergie pour les températures inférieures ou égales à 30°C220.

La géothermie haute ou moyenne énergie sert préférentiellement à la production d'électricité. La géothermie basse énergie sert plutôt à la production de chaleur. Quant à la géothermie très basse énergie, elle est mise en œuvre par les pompes à chaleur géothermales.

Le développement de la géothermie est amorcé. Énergie renouvelable relativement concentrée dans certaines zones géographiques, le défi de la géothermie est de développer ses applications basse énergie, dont la diffusion à travers le monde pourrait être très importante.

Les différents types de géothermie : haute, moyenne ou basse énergie

La géothermie haute énergie, moyenne ou basse énergie, et très basse énergie témoignent, sinon de réalisations nombreuses, au moins de perspectives de développement considérables.

La Terre, source d'énergie considérable et inépuisable

Comme on peut en faire l'expérience en descendant dans le puits d'une mine, la température du sous-sol augmente avec la profondeur. L'amplitude de la variation, qui dépend toutefois de la nature des roches traversées, peut atteindre plusieurs degrés tous les cent mètres221.

Le modèle couramment admis de la Terre est celui d'une sphère à plusieurs coquilles concentriques, s'emboîtant comme les couches successives d'un oignon. En partant de la surface et en se dirigeant vers le centre de la Terre, on trouve la croûte d'une épaisseur de plusieurs dizaines de km sous les continents, moins épaisse sous les océans ; puis le manteau d'une épaisseur d'environ 2900 km ; et enfin le noyau liquide avec sa graine solide en son centre, qui est situé à 6371 km de la surface.

Les plaques dont les mouvements, les collisions ou les chevauchements expliquent certains des phénomènes volcaniques, sont formées de la partie supérieure du manteau et de la croûte continentale ou sous-marine, et se déplacent sur le magma visqueux de la partie inférieure du manteau.

La chaleur de la Terre provient non seulement du refroidissement progressif du noyau, dont la température est d'environ 5 000°C, mais aussi et surtout de la désintégration d'éléments radioactifs contenus par le manteau, un phénomène naturel222.

La puissance géothermique de la Terre est considérable. Selon certains calculs, la quantité de calories emmagasinées par les seuls deux premiers kilomètres de la croûte terrestre est plusieurs milliers de fois supérieure aux calories que livrerait la combustion de l'ensemble des combustibles de la planète223.

L'exploitation de cette chaleur dans des conditions économiques satisfaisantes suppose qu'elle ne soit pas trop diffuse. Cette conjoncture favorable peut se rencontrer dans différentes situations, volcanisme, aquifères géothermaux. Mais même des différences de température entre l'atmosphère et le sous-sol peuvent être exploitées avec profit, ce qui montre l'étendue des possibilités de la géothermie.

La géothermie haute énergie en milieu volcanique

Le volcanisme est un phénomène générant une énergie concentrée et récupérable dans de nombreuses régions.

Premier type de volcanisme, le volcanisme de subduction correspond aux effets collatéraux du passage d'une plaque tectonique océanique sous une plaque terrestre, par exemple dans la chaîne des Cascades dans l'ouest du continent nord-américain, ou à la convergence de deux plaques océaniques dont la rencontre aboutit à la formation de volcans dont certains s'élèvent au-dessus de l'océan, comme dans le cas des volcans du Pacifique Nord et du Pacifique Ouest.

Avec une autre forme de volcanisme, le volcanisme dit de point chaud, des volcans se forment au milieu d'une plaque, notamment océanique, la plupart restant sous-marins et quelques-uns seulement dépassant la surface des océans224. L'Islande est un parfait exemple d'une île de vaste dimension poussée comme un champignon volcanique au milieu de l'océan atlantique. Phénomène dérivé du précédent, une plaque sous-marine peut aussi se déplacer au-dessus d'un point chaud qui, lui, reste immobile. Il y a alors création d'un chapelet de volcans formant un archipel comme celui des îles Carolines, des îles Marshall ou des îles Hawaï.

Dans toutes les régions volcaniques, le magma est une source de chaleur importante à proximité de la surface. Il suffit que les roches soient fissurées pour que les eaux des précipitations s'infiltrent et se réchauffent en profondeur. Elles peuvent alors remonter spontanément en donnant des sources thermales, ou bien, elles peuvent être piégées, sous terre, sous forme de vapeur d'eau surchauffée à des températures comprises entre 250 et 350 °C. Des forages judicieusement positionnés permettent de la récupérer.

Ces niveaux de température élevés sont exploités d'abord pour la production d'électricité, et, ensuite, pour différents types d'utilisation de la chaleur à des fins industrielles ou résidentielles, sans émission de gaz à effet de serre225.

Parmi les régions volcaniques du monde, la ceinture de feu du Pacifique226 qui collectionne un ensemble de volcans, offre des ressources géothermiques et donc un potentiel énergétique considérable.

La géothermie haute énergie en milieu non volcanique

Dans des configurations géologiques autres que volcaniques, le sous-sol peut contenir des gisements de vapeur situés entre 1500 et 3000 mètres de profondeur, dont la température est de 250 à 350°C. Quand elle peut être récupérée, cette vapeur sert à la production d'électricité. Les États-Unis sont leaders de ce type d'application.

Une autre technique, en cours de développement, consiste à utiliser des roches chaudes et sèches, situées à grande profondeur pour produire de la vapeur en y injectant de l'eau depuis la surface. Les configurations rocheuses naturelles sont utilisées pour créer des échangeurs et récupérer de l'eau chaude déplacée à proximité par des forages adéquats, sans aucune intervention humaine en profondeur. L'objectif est de parvenir à récupérer de la chaleur haute énergie pour produire ensuite de l'électricité.

Ce type d'installations a fait l'objet d'expérimentations au Japon, aux États-Unis et en Europe.

Avec l'aide de crédits de l'Union européenne, une expérience est actuellement conduite en Alsace, à Soultz-sous-Forêts où la variation de température selon la profondeur s'élève à 10°C par hectomètre. Une première boucle d'injection sous pression, de déplacement de volumes d'eau chaude et de captage d'eaux à 140 °C a été réalisée à 3600 mètres de profondeur. Le même système semble pouvoir être réalisé à une profondeur de 5000 mètres pour récupérer des eaux à 200 °C. Afin que le bilan énergétique soit favorable, la pression d'injection ne doit pas être trop élevée, les pertes en eau doivent être limitées au maximum, le débit de l'eau récupérée aussi élevé que possible et la boucle durable dans le temps.

Les difficultés de l'exercice sont considérables mais le concept est néanmoins prometteur, dans la mesure où il pourrait s'appliquer à un grand nombre de régions du monde.

La géothermie moyenne énergie

À des profondeurs variant de quelques centaines de mètres à quelques kilomètres, le sous-sol peut aussi recéler des sources d'eau chaude sous pression, d'une température comprise entre 90 et 180°C227.

Une fois récupérées, ces eaux chaudes peuvent servir à la production d'électricité.

La géothermie basse énergie

Les eaux des nappes phréatiques ont une température classiquement comprise entre 30 et 90°C, selon la profondeur et l'environnement228. Dans un pays tempéré comme la France, le renouvellement des eaux grâce à l'infiltration est suffisant pour que l'on puisse envisager leur exploitation. Selon la profondeur de la nappe, la température de l'eau et le débit envisageable à long terme sans altération de ses réserves, la géothermie basse énergie peut servir au chauffage industriel, urbain ou collectif.

En France, la géothermie basse énergie est mise en œuvre pour le chauffage de logements, principalement dans le Bassin parisien et le Bassin aquitain. Le potentiel énergétique des eaux souterraines est évalué par le Bureau de recherches géologiques et minières (BRGM) à 40 millions de tonnes équivalent pétrole par an, dont 2 millions seulement seraient exploitables dans des conditions économiques.

La géothermie très basse énergie

Les pompes à chaleur proprement dites, alimentées à l'électricité, ont pour fonction d'augmenter les rendements globaux des systèmes de chauffage ou de climatisation.

Les pompes à chaleur géothermales exploitent la masse thermique et l'inertie de température d'une nappe phréatique peu profonde, d'une réserve d'eau souterraine ou du sous-sol lui-même. En hiver, la pompe à chaleur géothermale extrait la chaleur du sous-sol et en été sa fraîcheur.

Au total, les ressources géothermiques de la Terre sont multiples. La nécessité d'investissements de départ souvent élevés explique leur faible mobilisation dans certains pays. Mais ses ressources ne peuvent plus être ignorées dans le contexte d'un prix de l'énergie élevé et de la lutte contre l'effet de serre.

Le développement des applications de la géothermie

La production électrique à partir de la géothermie haute et moyenne énergie

L'électricité géothermique est au quatrième rang des sources d'électricité renouvelable, derrière l'hydraulique, la biomasse et l'éolien. La capacité de production d'électricité géothermique en fonctionnement dans le monde en 2004, s'élevait au total à 8000 MW, soit, à titre de comparaison, l'équivalent de moins de neuf centrales nucléaires de 900 MW229.

Le continent américain, avec 3216 MW et l'Asie, avec 3225 MW, se partageaient en 2004 les trois quarts de la puissance en fonctionnement, l'Europe ne comprenant qu'un peu plus de 1000 MW.

Dans le classement par pays, des puissances électriques géothermiques en fonctionnement, les États-Unis arrivaient en tête en 2004 (1914 MW), suivis des Philippines (1838 MW), du Mexique (953 MW), de l'Indonésie (838 MW) et du Japon (530 MW).

En Europe, l'Italie, au quatrième rang mondial avec 700 MW en fonctionnement, est de loin la plus avancée dans ce domaine, avec une centrale électrique géothermique à Larderello en Toscane qui fonctionne depuis 1904. Cette centrale électrique géothermique, d'une puissance de 543 MW, est complétée par la centrale de Travete Radicondeli (160 MW) et de Monte Amiata (88 MW). La construction d'une dizaine de centrales supplémentaires est prévue d'ici 2010.

L'Italie est le seul État membre de l'Union européenne à avoir une production notable dans ce domaine avec plus de 5 TWh en 2004, soit 98 % de la production géothermique européenne230.

Quant à la France, elle dispose en Guadeloupe d'une réalisation exemplaire, avec la centrale de Bouillante, d'une puissance totale de 15 MW. Sur ce site, des infiltrations d'eau de mer et d'eau de pluie se produisent par des fissures rocheuses et se réchauffent à grande profondeur sur des roches fracturées du volcan peu éloigné de la Soufrière et remontent vers la surface grâce à des failles. Le puits d'exploitation, d'environ 300 mètres de profondeur, délivre en surface un mélange eau-vapeur de près de 200 °C, avec un débit de 115 tonnes par heure, qui, une fois séparé, entraîne une turbine couplée à un alternateur231.

L'électricité d'origine géothermique ne représente qu'une très faible part, avec moins de 0,5 %, de l'électricité produite dans le monde. Les prévisions pour l'avenir sont optimistes, un triplement de la production étant attendu pour 2020 grâce à des réalisations nombreuses en Asie de l'Est.

La production de chaleur à partir de géothermie basse ou moyenne température

La production de chaleur par l'utilisation d'eaux souterraines à température comprise entre 30 °C et 150 °C, représente l'application principale de la géothermie basse ou moyenne énergie.

La puissance installée dans le monde en 2004 s'élevait à 12 100 MW, dont la production a représenté 4 millions de tonnes équivalent pétrole.

L'application principale de la géothermie basse ou moyenne température est, à 70%, le chauffage de bâtiments à usage d'habitation ou à usage professionnel, ainsi que le chauffage des bains et piscines. On trouve ensuite, par ordre d'importance décroissante, le chauffage de serre, les fabrications industrielles et l'aquaculture. La géothermie de moyenne ou basse énergie trouve son optimum économique avec les réseaux de chaleur qui permettent d'amortir le coût des forages et de la filtration.

Dans l'Union européenne, les deux États membres les plus avancés pour l'exploitation de la chaleur géothermique sont la Hongrie, avec une puissance installée de 690 MWth, l'Italie (487 MWth) et la France (292 MWth).

En France, plus de 170 000 logements sont chauffés grâce à la géothermie et à des réseaux de chaleur, essentiellement dans le Bassin parisien et le Bassin aquitain. La production de chaleur géothermique pour le chauffage urbain a représenté 121 000 tep en 2004. Tout le potentiel du sous-sol français est loin d'être exploité. D'autres régions françaises présentent des possibilités intéressantes, en particulier la Limagne, le fossé rhénan et la plaine d'Alsace.

Les pompes à chaleur géothermales

Les pompes à chaleur servent à extraire de la chaleur d'une source froide pour la transférer à une source chaude. Ce processus conduit à abaisser la température de la source froide et à augmenter celle de la source chaude. Les pompes à chaleur constituent donc un dispositif de chauffage. Mais les pompes à chaleur présentent l'intérêt d'être réversibles, c'est-à-dire de pouvoir servir à climatiser un local. Fonctionnant à l'électricité, les pompes à chaleur reposent sur le principe de la compression et de la détente d'un gaz qui s'accompagne de la production respectivement de calories ou de frigories.

L'utilisation d'une pompe à chaleur pour le chauffage entraîne une augmentation de la consommation d'électricité, mais le rendement thermique et économique de la pompe à chaleur est très élevé.

Les pompes à chaleur se sont développées dans les décennies 1970 et 1980 après le premier et le deuxième choc pétrolier, sur la base d'une technologie recourant à l'air pour les échanges thermiques. La baisse du prix du pétrole et les difficultés techniques rencontrées par cette technologie n'ont pas permis à ce marché de se développer en France au-delà de quelques dizaines de milliers d'exemplaires.

Les nouvelles versions des pompes à chaleur utilisent non pas l'air comme base thermique mais le sous-sol. Ces pompes à chaleur sont dites géothermales.

La technologie des pompes à chaleur géothermales se développe rapidement depuis le début de la décennie 2000. Le parc mondial atteint 13 815 MWth, permettant de prélever une énergie géothermique d'un montant de 1,4 Mtep par an.

L'Union européenne possède environ le tiers du parc mondial de pompes à chaleur géothermale, soit près de 380 000 unités, la croissance de ce parc européen étant très rapide.

La Suède est le leader européen des pompes à chaleur géothermales, avec 37% de la puissance installée dans l'UE-25, suivi par l'Allemagne avec 14% , l'Autriche avec 13% et la France avec 12%. En 2004, la production d'énergie des pompes à chaleur des ménages a représenté 277 000 tonnes équivalent pétrole et celles de l'industrie 37 000 tep.

Comme dans d'autres technologies des énergies renouvelables, la France n'est pas absente de la fabrication des pompes à chaleur géothermales mais son industrie n'est pas dans les premiers rangs européens.

*

Considérant l'impératif de la réduction des émissions de gaz à effet de serre, le développement de la géothermie passe certes par la multiplication d'installations centralisées et puissantes de production d'électricité ou de chaleur, mais aussi et surtout par l'essor des réseaux de chaleur utilisant la géothermie moyenne, basse ou très basse énergie.

HYDROÉLECTRICITÉ

L'hydroélectricité a assuré en 2003 6,5% de la production d'énergie primaire mondiale, contre 5,5% en 1973232.

En trente ans, la production hydroélectrique a été multipliée par deux.

Dans l'OCDE, la part de l'hydroélectricité dans la production électrique est de l'ordre de 15%, avec des disparités considérables suivant les pays en raison de leur géographie, et avec des fluctuations importantes selon les années en raison des variations des précipitations.

Au plan mondial, 20% seulement du potentiel exploitable de l'hydroélectricité est valorisé.

La grande hydroélectricité, qui correspond à des installations d'une puissance supérieure ou égale à 10 MW, nécessite des investissements lourds et à long terme. La grande hydroélectricité permet une production de masse à des coûts unitaires très bas, une fois les équipements amortis.

Ses perspectives de développement concernent au premier chef les pays émergents ou en développement, les meilleurs sites étant déjà équipés dans les pays industrialisés.

La petite et la moyenne hydroélectricité ont, au contraire, de multiples possibilités de développement, et, systématisées dans certains pays, comme la Suisse ou la Suède, peuvent fournir des contributions importantes au plan national.

La production hydroélectrique ne s'accompagne pas d'émissions de gaz à effet de serre. Représentant déjà la première énergie renouvelable commerciale mondiale, l'hydroélectricité semble au total avoir un avenir brillant233.

L'énergie renouvelable commerciale la plus importante

L'énergie hydraulique est indispensable à la croissance économique. Elle fournit non seulement des kWh indispensables au développement de l'industrie mais aussi l'eau nécessaire à l'irrigation et à la croissance des rendements agricoles.

Aucun pays, dans aucune période de l'histoire, n'a pu se payer le luxe de la négliger. Il y a d'autant moins de raison de penser que l'hydroélectricité ne se développera pas à l'avenir qu'elle est vertueuse en termes de lutte contre le changement climatique.

Une fois les ouvrages de génie civil réalisés - digues, barrages, retenues d'eau - les seules émissions de gaz à effet de serre dont elle soit responsable proviennent en effet du méthane formé par la végétation submergée.

Vertueuse vis-à-vis de l'effet de serre, l'énergie hydraulique présente toutefois des inconvénients car sa mise en œuvre peut conduire à des déplacements dramatiques de populations nombreuses, à des modifications drastiques de régions entières et à la disparition d'espèces de la flore et de la faune, altérant la biodiversité, autre concept clé de la protection de l'environnement.

Mais ces précautions de langage sont particulières aux pays industrialisés, qui ont tous réalisé leur équipement au XXe siècle au point d'avoir saturé leurs sites les plus rentables.

Les pays émergents ou en développement, pour leur part, n'éprouvent aucune réticence à prévoir de vastes programmes pouvant nécessiter le transfert des milliers de personnes et bouleverser la géographie de milliers de km².

Un rôle clé dans le développement économique de la France

L'hydroélectricité - la fée électricité illustrée par Raoul Dufy - a joué un rôle clé dans le développement économique de la France.

La production hydroélectrique représente aujourd'hui en moyenne 15 % du total de la production d'électricité française, la puissance du parc installé s'élevant à plus de 25 000 MW.

Ce sont des sociétés privées qui, dans l'entre-deux guerres et grâce à la loi de 1919 sur les concessions électriques, ont commencé à développer les barrages en France, notamment dans le Massif Central. Après la nationalisation des sociétés d'électricité en 1946 et la création d'Électricité de France, un programme d'aménagement hydraulique est mis en œuvre au niveau national. Les réalisations s'enchaînent, barrages-poids en béton et en éclusée comme Génissiat sur le Rhône mis en service en 1948, barrages-voûte comme à Tignes en 1952, barrages en remblai comme celui, zoné et à noyau, de Serre-Ponçon en 1960.

Les barrages ont des régimes d'utilisation très diversifiés.

Un barrage en éclusée comme Génissiat, d'une puissance installée de 417 MW, produit du courant en permanence et fait ainsi partie du dispositif de production en base.

Les barrages fonctionnant sur des retenues d'eau comme celui de Roselend en Savoie, d'une puissance installée de 500 MW, ont une gestion complexe dont les paramètres sont les besoins en électricité sur moyenne période en semi-base ainsi que les besoins en irrigation.

D'autres ouvrages, comme le barrage-poids à enrochement et noyau en terre de Grand'Maison dans l'Isère, d'une puissance installée de 1224 MW, peuvent être affectés à la production d'électricité pour les heures de pointe, l'eau utilisée étant stockée en aval et remontée par pompage aux heures creuses.

Quelle peut être la contribution d'un aménagement hydroélectrique à la production électrique nationale ?

La production d'un barrage en éclusée comme Génissiat sur le Rhône représente près de 2 % de la production hydroélectrique française (environ 1,6 à 1,7 TWh). Les barrages sur le Rhône, exploités par la Compagnie nationale du Rhône, produisent ensemble plus de 16 TWh, ce qui représente 21 % de l'hydroélectricité française et près de 4 % de l'électricité consommée en France.

Au-delà des aménagements de fleuves entiers, comme le Rhône ou la Durance, les ouvrages spécifiques comme Grand'Maison peuvent produire jusqu'à 1 TWh.

Dans un pays tempéré comme la France, les différences de production peuvent être importantes d'une année sur l'autre, en fonction du climat : ainsi la production de la grande hydraulique est passée de 77,5 TWh en 1999 à 72,8 TWh en 2000, soit une baisse de 6,2 % due aux variations des précipitations, et a atteint un plus bas niveau de 65,5 TWh en 2003.

281 centrales d'une puissance supérieure à 10 MW sont exploitées en France, représentant une puissance totale de 22,5 GW, à quoi s'ajoutent 1810 petites centrales hydrauliques d'une puissance inférieure à 10 MW, représentant une puissance totale de 2 GW.

Après le rachat de la Compagnie nationale du Rhône par Suez, en application de la directive européenne d'ouverture du marché de l'électricité à la concurrence, EDF possède une puissance installée de 20 GW, pouvant produire jusqu'à 46 TWh234, et reste le plus grand producteur européen d'hydroélectricité.

Le cas de la France est à l'image de nombreux autres pays : ressource essentielle, l'hydroélectricité a joué un rôle majeur dans l'électrification et continue de produire de l'électricité à un coût très bas, inférieur à 20 €/MWh, les investissements réalisés étant largement amortis. Autre avantage, l'hydroélectricité permet de faire face à des pics de consommation, 70% des moyens de production d'EDF étant mobilisables en dix minutes.

Mais les possibilités d'expansion de la grande hydroélectricité semblent rares, la plupart des sites favorables étant déjà exploités et les oppositions locales à de nouveaux ouvrages étant réputées insurmontables. La loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique a toutefois prévu dans son article 44, la possibilité d'augmenter la puissance d'une installation de 20% par simple autorisation. Dans un souci de protection de l'environnement, la capacité de production hydroélectrique fait l'objet de dispositions de la loi sur l'eau en faveur de l'augmentation des débits réservés, qui pourraient conduire à une diminution de 5% de la production maximale.

Si la grande hydroélectricité ne semble pas, au total, posséder de réelles perspectives de développement en France, il n'en est pas de même dans d'autres pays.

La maturité de la grande hydroélectricité, dans les pays industrialisés

Après avoir utilisé la force motrice des cours d'eau pour actionner tous types de machines, dans la meunerie, le textile ou la construction mécanique par exemple, tous les pays industrialisés depuis le début du XXe siècle ont assigné un rôle important à l'hydroélectricité.

Les volumes produits par la grande hydraulique, c'est-à-dire provenant d'équipements dont la puissance est supérieure à 10 MW, représentent l'essentiel de la production.

En 2004, la consommation d'hydroélectricité a représenté l'équivalent de 76 millions de tonnes équivalent pétrole (Mtep) au Canada, leader mondial, 60 Mtep aux États-Unis, 40 Mtep en Russie, et 15 Mtep en France.

D'une manière générale, il est peu probable que le rôle de la grande hydraulique s'accroisse substantiellement à l'avenir dans les pays industrialisés. Les meilleurs sites sont en effet déjà équipés. Il reste des sites propices dont l'apport ne serait pas négligeable. Mais les modifications de l'environnement, entraînées inéluctablement par l'installation de turbines au fil de l'eau et la construction de barrages, rencontrent des oppositions locales de plus en plus fortes.

Restent toutefois des exceptions : les pays de l'ex-URSS et surtout le Canada.

L'Azerbaïdjan a mis en exploitation en 2000 la centrale hydroélectrique de 4000 MW de Yenikand. La Géorgie compte ajouter 350 MW de centrales nouvelles, consolider le barrage-voûte d'Inguri, le plus élevé du monde avec 272 mètres de haut et multiplier par trois sa capacité de production installée, pour la porter à 1300 MW.

Mais c'est le Canada qui entreprend les projets les plus gigantesques.

Le Canada tire déjà 60 % de son électricité de ses barrages hydroélectriques, avec une puissance installée de 67 000 MW en 1997 - près de trois fois plus que la capacité française.

L'hydroélectricité a démarré au Canada à la fin du XIXe siècle sur la rivière Ottawa. De fait la première ville nord-américaine à éclairer toutes ses rues à l'électricité fut la ville du même nom. Dès 1903, Montréal fut approvisionnée en électricité par les chutes de Shawinigan grâce une ligne à 50 000 volts, de 137 km de long. L'année suivante, les installations de 9 MW situées en amont des chutes du Niagara fournissaient du courant aux États-Unis.

Toutes les provinces du Canada détiennent une compagnie d'électricité qui exploite les ressources locales, les plus importantes étant HydroQuébec, British Columbia Hydro, Manitoba Hydro, Ontario Power Generation et Newfoundland & Labrador Hydro.

Parmi les installations majeures du Québec, le complexe de La Grande sur la baie James est l'un des tout premiers complexes hydroélectriques mondiaux, d'une capacité de 15 000 MW, complété par celui de Manicouagan-Outardes sur le rivage nord du Québec. La mise en valeur de la rivière Rupert pourrait dégager environ 2000 MW supplémentaires. On trouve d'autres centrales de grande taille à Churchill Falls au Labrador, sur le Niagara en Ontario et en Colombie britannique.

Le développement de l'hydroélectricité au Canada connaîtra une brusque accélération avec la mise en valeur des territoires du Nord Ouest.

À elle seule, la rivière Mackenzie pourrait fournir 10 000 MW supplémentaires, cinq autres rivières de la même région fournissant 50 % additionnels. La réalisation de ces projets gigantesques devrait durer de 5 à 20 ans.

L'hydroélectricité, une ressource capitale pour les pays émergents

Les projets de nouvelles usines hydroélectriques sont nombreux dans les pays émergents ou en développement. Concentrés en Chine, Inde et Amérique latine, ces projets concernent, en réalité, un très grand nombre de pays.

Deuxième producteur mondial d'hydroélectricité en 2004235, talonnant le Canada, la Chine possède le plus grand aménagement hydraulique du monde avec le barrage des Trois Gorges, sur le Yang-Tsé-Kiang ou Fleuve Bleu, le principal fleuve d'Asie avec ses 5500 km de long et son estuaire à Shanghai. La puissance installée s'élèvera à 18 000 MW lorsque les aménagements seront achevés en 2009236. Cette réalisation, au premier rang mondial, aura nécessité le déplacement de 1 130 000 personnes. D'autres projets de très grande taille concernent le fleuve Hongshui dans la province de Guangxi, au nord de la Chine. Au total, la capacité hydroélectrique installée de 63 000 MW en 1998, devrait doubler d'ici 2010.

L'Inde a entrepris un effort d'équipements supplémentaires de 6 000 MW237. Le projet le plus important, celui de 1450 MW de la vallée de Narmada, se situe à quelque mille kilomètres de New Delhi et devrait permettre d'irriguer une partie du Rajasthan. Mais il exigera le déplacement de plusieurs centaines de milliers de personnes.

La Malaisie, qui poursuit la réalisation de la centrale de Bakun d'une puissance de 2400 MW, se heurte toutefois à des difficultés de financement. Autre projet gigantesque, celui de la centrale hydroélectrique de Son La au Vietnam, sur le fleuve Da à 300 km à l'ouest d'Hanoï, qui entraînera le déplacement de 700 000 personnes.

L'une des plus grandes réalisations hydroélectriques du monde se trouve en Amérique latine, sur le rio Parana, à Itaipu, au point de rencontre des territoires du Paraguay, du Brésil et de l'Argentine. Ses dix-huit turbines totalisent une puissance de 12 000 MW.

Les ouvrages de grande puissance installés au Brésil représentent près de 70 000 MW, avec plus de 10 000 MW en cours de réalisation238. Après avoir concentré ses efforts sur le bassin amazonien, le Brésil s'oriente vers le sud de son territoire avec 2500 MW en projet.

L'Afrique détient pour sa part un immense potentiel hydroélectrique, évalué à 15 % du total mondial.

L'Égypte et le Congo Kinshasa ont pris la tête du mouvement, la première avec le barrage d'Assouan qui, achevé en 1970, a entraîné la submersion d'une superficie égale à la moitié de la Belgique mais a permis l'irrigation de dizaines de milliers d'hectares et le second avec les barrages sur le fleuve Congo, un fleuve de 4700 km de long sur lequel sont installés 2300 MW. La mise en valeur du bassin du Nil et celle du Congo concernent chacune plus de dix pays d'Afrique centrale et orientale.

D'autres pays possèdent des ressources considérables, comme le Mozambique avec 2100 MW, la Zambie avec 1600 MW, le Zimbabwe avec près de 700 MW et la République d'Afrique du Sud plus de 2000 MW. Au Moyen Orient, La Turquie conduit enfin des travaux de très grande ampleur dans le sud-est de l'Anatolie, en particulier sur le Tigre, l'ensemble devant conduire à une capacité installée de 7500 MW, correspondant à 21 barrages et 19 centrales hydroélectriques. L'apport de cette réalisation sera évidemment majeur en termes d'irrigation.

L'instabilité politique récurrente de nombreux pays d'Afrique est à l'évidence un obstacle considérable au développement de l'hydroélectricité qui nécessite la programmation à long terme d'investissements souvent colossaux. De même, les conflits régionaux s'opposent au partage des ressources de bassins fluviaux de grande ampleur, partage qui pourrait pourtant être bénéfique au développement humain, agricole et industriel.

Il n'y a sans doute pas de priorité plus importante pour le développement de l'Afrique que l'essor de l'hydroélectricité.

La petite et moyenne hydraulique

La petite hydraulique correspond aux centrales hydroélectriques d'une puissance de moins de 10 MW, installées sur des cours d'eau d'importance locale dans toutes les régions et dans tous les pays.

En 2004, la capacité en petites centrales hydrauliques installées dans l'Union européenne s'élevait à 11 600 MW239. Les petites centrales, au demeurant très nombreuses et bien disséminées sur tous les territoires, représentent environ 10 % de la puissance cumulée des centrales de forte puissance.

L'Italie est le leader européen de la petite hydraulique avec une capacité totale installée de 2360 MW en 2004.

En France, le parc de petites centrales hydroélectriques en fonctionnement représentait, à la même date, 2021 MW. Les suivants sont l'Espagne (1750 MW), l'Allemagne (1565 MW) et la Suède (1100 MW).

Le potentiel de nouvelles installations dans l'Union européenne est évalué à près de 5000 MW, soit près de 50 % du parc existant. L'Union européenne, souhaite la mobilisation effective de ce potentiel, afin que la petite hydroélectricité participe à la lutte contre l'effet de serre. En conséquence, l'objectif de 14 000 MW installés à l'horizon 2010 a été fixé.

Mais cet objectif semble avoir peu de chance d'être atteint, tant la petite hydraulique est au carrefour d'aspirations contradictoires en ce qui concerne la protection de l'environnement. Le cas de la France est à cet égard instructif.

En France, une capacité de 1000 MW pourrait sans doute être ajoutée au parc existant. Mais les critiques contre les installations sont nombreuses, émanant des riverains, des associations de pêcheurs ou des associations de protection de l'environnement.

Au surplus, la production des petites centrales est extrêmement variable selon les années, les phénomènes de compensation propres aux grands bassins hydrauliques ne pouvant jouer par hypothèse sur des cours d'eau individualisés.

Aussi, les projets d'équipement ne présentent-ils pas des perspectives très séduisantes pour les investisseurs. Les obstacles administratifs sont nombreux, les recours juridiques fréquents. Quant au tarif de rachat par EDF du courant produit, il était jugé trop bas en 2000, à 50 €/MWh, pour garantir une rentabilité suffisante aux investisseurs. C'est pourquoi les pouvoirs publics ont décidé fin 2001 de le fixer dans une fourchette de 54,9-61 €/MWh240.

Quoi qu'il en soit, la production d'électricité assurée par la petite hydroélectricité, ne semble pas devoir croître dans des proportions telles qu'elle contribue d'une manière importante à l'approvisionnement en électricité. Dans le cas de la France, avec une puissance totale de 3000 MW soit 50 % de plus qu'actuellement, ces petites centrales ne pourraient pas fournir beaucoup plus de 5 TWh, soit à peine 7 % de la production hydroélectrique totale ou 1% de la production électrique nationale.

HYDROGÈNE

L'hydrogène, l'un des éléments les plus abondants sur la planète, est aujourd'hui un produit chimique intermédiaire fourni en grandes quantités et utilisé pour ses propriétés réductrices dans un très grand nombre d'industries.

Si l'hydrogène fait aujourd'hui l'objet d'un grand nombre de programmes de recherche, c'est en raison de son aptitude éventuelle à servir de vecteur énergétique dans l'avenir, concurrençant ou remplaçant les carburants pétroliers.

Alimentant en effet, avec l'oxygène de l'air, les piles à combustible, l'hydrogène serait le vecteur énergétique d'une nouvelle ère de l'automobile, entièrement convertie à l'électricité, n'émettant de ce fait ni polluant atmosphérique ni gaz à effet de serre.

En réalité, l'hydrogène vecteur énergétique entrerait en concurrence non seulement avec les carburants pétroliers mais aussi avec les carburants liquides issus du charbon, du gaz ou de la biomasse. Ceci conduit donc à s'interroger sur ses atouts réels dans la pratique, qui sont certes nombreux mais nécessitent la résolution de plusieurs problèmes techniques difficiles.

En tout état de cause, l'avènement de l'économie de l'hydrogène, une vision de Jules Verne fréquemment remise au goût du jour, exigerait que l'on sache produire ce gaz en très grandes quantités, à des coûts compétitifs, et sans émissions de gaz à effet de serre, sans quoi son intérêt serait limité.

La production d'hydrogène à grande échelle est un défi technologique et industriel fantastique. Si l'on considère la seule année 2004, la consommation de carburants pétroliers (essence, gazole, GPL, carburéacteurs) s'est en effet élevée en France à 49,4 millions tep.

On comprend donc qu'en plein décollage de l'intérêt pour l'hydrogène, les recherches actuellement conduites explorent la totalité des voies possibles.

Les procédés connus et actuellement utilisés devront, nécessairement, être complétés par la séquestration du CO2 produit en parallèle à l'hydrogène.

Les nouveaux procédés requièrent des températures élevées et font appel à des technologies sophistiquées, où l'on voit apparaître une nouvelle utilité de l'énergie nucléaire.

Les usages actuels de l'hydrogène et sa production

Loin d'être un inconnu dans le monde de la chimie, l'hydrogène est actuellement produit à environ 50 millions de tonnes par an. L'hydrogène est en effet un produit intermédiaire indispensable dans de nombreux procédés industriels.

Les usages actuels de l'hydrogène

L'hydrogène est utilisé, principalement pour ses propriétés d'agent réducteur, dans l'industrie pétrolière pour la désulfuration de l'essence et du gazole (37% de la production totale) ; dans l'industrie chimique pour la fabrication d'ammoniaque (50%) et de méthanol (8%), de polymères comme les polyuréthanes et les polycarbonates ; dans l'industrie du verre ou des semi-conducteurs et dans la métallurgie pour la transformation de l'acier.

Les utilisations énergétiques de l'hydrogène se résument pour le moment à son emploi sous forme d'ergol liquide241 utilisé pour la propulsion des fusées, notamment par la fusée Ariane en conjonction avec l'oxygène.

Le vaporeformage, procédé dominant la production d'hydrogène

La production actuelle d'hydrogène repose essentiellement sur le vapocraquage du gaz naturel ou vaporeformage.

Après désulfuration, on fait réagir le gaz naturel sur de la vapeur d'eau à une température de l'ordre de 900°C et à une pression de 20 à 30 bar, en présence d'un catalyseur au nickel. Selon la réaction CH4 + H2O → CO + 3H2, un mélange de monoxyde de carbone et d'hydrogène est obtenu. Le processus continue par la conversion du monoxyde de carbone en dioxyde de carbone CO2 et hydrogène additionnel, selon la réaction CO + H2O → CO2+H2, réaction dite conversion eau-gaz. [voir rubrique Gaz de synthèse, pivot des carburants du futur]. Au total, pour une molécule de CH4, on obtient par ce procédé quatre molécules d'hydrogène. L'opération finale consiste à séparer l'hydrogène du CO2 et à éliminer les dernières impuretés.

Le gaz naturel est la matière première principalement utilisée actuellement pour la production d'hydrogène. Mais d'autres produits peuvent être utilisés. Selon l'IFP, la part du gaz naturel est de 48%, celle des hydrocarbures de 30% et celle du charbon de 20%.

Le naphta242 peut également subir un vaporeformage pour donner de l'hydrogène.

La méthode de l'oxydation partielle

L'oxydation partielle d'hydrocarbures est une autre méthode utilisée pour produire de l'hydrogène, via la production de gaz de synthèse, mélange de monoxyde de carbone et d'hydrogène [voir rubrique Gaz de synthèse].

Dans la pratique, cette méthode, qui s'applique aux résidus pétroliers lourds et même au charbon, met en œuvre des températures élevées (1200 à 1500°C), des pressions importantes (de 20 à 90 bar ou plus) , de l'oxygène et de la vapeur d'eau.

Ces conditions techniques difficiles et coûteuses ne se justifient que dans la mesure où le prix de la matière première est peu élevé.

La production d'hydrogène à partir de la biomasse

La biomasse peut aussi servir à la production d'hydrogène. On produit d'abord du gaz de synthèse CO + H2, puis de l'hydrogène par la réaction de conversion eau-gaz (CO + H2O → CO2 + H2). La production d'hydrogène est une alternative à la production de carburants liquides par la réaction de Fischer-Tropsch.

L'intérêt du recours à la biomasse plutôt qu'à un combustible fossile, est que le CO2 dégagé par la conversion eau-gaz est compensé par le CO2 qui a été fixé par la photosynthèse lors de la croissance des plantes utilisées. De même, la dépense énergétique nécessaire à la réalisation des deux réactions pourrait être effectuée en utilisant de la biomasse comme combustibles. D'où un bilan global qui pourrait être neutre en termes de gaz à effet de serre.

L'hydrogène produit mériterait alors la dénomination de biohydrogène. Sa consommation dans des piles à combustible s'effectuerait sans aucune émission de gaz à effet de serre. Son utilisation en tant que carburant pour des moteurs à combustion à gaz conduirait à la seule formation d'oxydes d'azote. L'utilisation de biocarburants permet d'obtenir un résultat identique. L'intérêt du biohydrogène serait de pouvoir être utilisé dans des turbines à gaz pour la production d'électricité. [voir rubrique Charbon - centrales du futur]

L'industrie française est en pointe dans la production d'hydrogène

La France dispose avec Air Liquide d'un des champions mondiaux de la production d'hydrogène. Air Liquide exploite en effet 40 unités de production à travers le monde. Pour répondre aux besoins de l'industrie, une production de masse est assurée, des quantités de 10 000 kg d'hydrogène par heure étant atteintes par les unités les plus modernes.

L'hydrogène à usage industriel est couramment transporté par canalisation. À elle seule, la société Air Liquide, dont la part du marché mondial n'est pourtant que de 20%243, dispose d'un réseau de 1700 km.

La production d'hydrogène à usage industriel connaît une croissance rapide qui devrait continuer à l'avenir, notamment en raison des besoins croissants de l'industrie du raffinage, confrontée à des normes toujours plus exigeantes sur l'abaissement de la teneur en soufre des carburants.

Le règne des hydrocarbures dans la production actuelle de l'hydrogène

La prédominance du gaz naturel et des résidus pétroliers dans la production d'hydrogène s'explique par des coûts inférieurs à ceux des autres procédés244.

D'un montant de 7,3 $/GJ, le coût de production de l'hydrogène par vaporeformage du gaz naturel est le prix plancher245. Avec les résidus pétroliers, le coût de production est supérieur de 25%, avec le naphta de 30%, le charbon et la biomasse de 92%246.

Les écarts sont encore plus importants pour les méthodes n'utilisant pas de produits carbonés comme matière première. Le coût de production de l'hydrogène par électrolyse de l'eau est 1,8 fois plus cher que le vaporeformage à partir de gaz naturel, lorsque l'on utilise l'électricité du réseau247, 4,2 fois plus cher avec de l'électricité éolienne, 6,7 fois plus cher avec l'électricité solaire photovoltaïque et 7,1 fois plus cher avec l'électricité provenant d'une centrale solaire thermodynamique248.

D'autres évaluations confirment la compétitivité sans pareil du vaporeformage du gaz naturel, avec un coût de production d'un dollar par kg d'hydrogène, contre deux dollars pour le charbon et un coût supérieur à trois dollars pour l'électrolyse à basse température249.

En tout état de cause, même le procédé le plus performant, le vaporeformage d'un gaz naturel peu onéreux, conduit à des coûts de production de l'hydrogène qui, à contenu énergétique comparable, sont très supérieurs à ceux de l'essence ou du gazole.

Avec les procédés actuels, le coût de production de l'hydrogène est en effet de 1000 €/tep, contre 250 €/tep pour les carburants pétroliers250, soit quatre fois plus élevé.

Les émissions de CO2 correspondantes sont également plus fortes que celles du raffinage.

L'innovation est donc indispensable pour une production de masse d'hydrogène.

L'hydrogène, un vecteur énergétique complexe à mettre en œuvre

Les carburants pétroliers, hégémoniques dans les transports, constituent un vecteur énergétique aux nombreuses qualités. Plusieurs types de combustibles fossiles - pétrole, gaz naturel, charbon - permettent d'en fabriquer, la biomasse également. [voir rubrique Gaz de synthèse - conversion eau-gaz - Fischer-Tropsch]. Facilement stockables, ils sont aisément transportables et distribuables.

L'hydrogène a pour principal intérêt de permettre la production d'électricité via la pile à combustible et de ne délivrer aucun gaz à effet de serre par combustion avec l'oxygène.

Mais, en tant que vecteur énergétique, présente-t-il autant d'avantages que les carburants pétroliers ?

Atome le plus abondant dans la nature mais sous forme combinée, l'hydrogène H2 peut être synthétisé à partir de nombreuses matières premières - charbon, gaz naturel, pétrole, biomasse - mais aussi à partir de l'eau, par électrolyse251.

Mais la production d'hydrogène consomme beaucoup d'énergie. Avec la méthode du vaporeformage, une consommation de 1,7 J de méthane est nécessaire pour obtenir 1,2 J d'hydrogène252. De même, la production d'un m³ d'hydrogène par électrolyse consomme de 4 à 5,2 kWh.

En tant que vecteur énergétique, l'hydrogène présente une densité massique d'énergie élevée, 120 MJ/kg, contre 45 MJ/kg pour l'essence253, ce qui veut dire qu'une masse d'hydrogène donnée présente un contenu énergétique presque trois plus élevé qu'une même masse d'essence.

Mais, grand désavantage de l'hydrogène, sa densité volumique d'énergie est très faible, comparée à celle de l'essence. Il faut, en effet, 4,6 litres d'hydrogène comprimé à 700 bar pour avoir l'équivalent énergétique d'un litre d'essence.

Autre point faible de l'hydrogène, il se liquéfie à une température très basse (-252,8°C), d'où une dépense énergétique très grande pour le stocker sous cette forme. En conséquence, le stockage de l'hydrogène est préférentiellement envisagé sous forme comprimée. Le stockage sous 700 bar de pression est aujourd'hui maîtrisé dans différents types de réservoirs. Mais la compression occasionne une dépense énergétique additionnelle.

On peut également stocker l'hydrogène sous forme d'hydrures métalliques, qui peuvent fixer, d'une manière réversible, une grande quantité d'hydrogène. Mais la restitution de l'hydrogène nécessite toutefois de chauffer le réservoir.

Enfin, le transport d'hydrogène par canalisation est, comme on l'a vu, une technique couramment utilisée. Mais deux difficultés devront être résolues pour son usage dans les piles à combustible.

L'hydrogène utilisé comme carburant d'une pile à combustible doit être très pur, sauf à endommager rapidement le catalyseur voire les membranes de la pile. Or l'hydrogène à un haut degré de pureté fragilise l'acier, ce qui pourrait restreindre l'usage des gazoducs pour l'hydrogène destiné au transport.

Par ailleurs, l'hydrogène ayant un contenu énergétique volumique près de cinq fois moins élevé que le pétrole, son coût de transport représentera une dépense proportionnellement beaucoup plus importante que pour l'essence.

Les différents problèmes posés par l'utilisation de l'hydrogène comme vecteur énergétique ont tous probablement des solutions.

Mais la mise en œuvre de ce vecteur énergétique est loin d'être aussi séduisante que ne le sont ses propriétés intrinsèques vis-à-vis de la production d'électricité et de l'effet de serre.

Le perfectionnement des méthodes actuelles

La fabrication de l'hydrogène assurée par vaporeformage du gaz naturel, d'autres combustibles fossiles ou de la biomasse, souffre de deux inconvénients majeurs.

Le premier est son coût qui a pour conséquence qu'à contenu énergétique identique, le coût de l'hydrogène est quatre fois plus élevé que celui de l'essence. La question se pose bien sûr de savoir s'il est plus intéressant de convertir en hydrogène des combustibles fossiles ou des biocombustibles que de les utiliser directement. Si la réponse à cette question est positive, il est alors évident que des gains de productivité importants sont nécessaires pour réduire le handicap de l'hydrogène en matière de prix.

Deuxième inconvénient majeur, la production d'hydrogène à partir de combustibles fossiles ou de biomasse s'accompagne d'émissions de CO2 importantes. La conversion eau-gaz a comme sous-produit, à côté de l'hydrogène, du CO2. L'énergie consommée par la formation préalable de gaz de synthèse et la conversion eau-gaz est également source de CO2, dans le cas des procédés classiques.

La capture, le transport et le stockage du CO2 formé par ces procédés sont donc indispensables, dans l'optique d'une utilisation de l'hydrogène comme moyen de lutte contre l'effet de serre.

Le projet FutureGen du Département de l'énergie des États-Unis, qui vise à produire de l'hydrogène à partir du charbon, pour produire de l'électricité ou alimenter des véhicules automobiles, comporte le volet indispensable de la séquestration du CO2. [voir rubrique charbon]

En tout état de cause, le coût de séquestration du CO2 devra s'ajouter au coût de production de l'hydrogène proprement dit, ce qui ne favorisera pas l'amélioration de la compétitivité des procédés classiques de production d'hydrogène.

D'où l'intérêt des nouveaux procédés à l'étude, les cycles thermochimiques et l'électrolyse à haute température.

Les cycles thermochimiques à haute température

Les cycles thermochimiques de synthèse d'hydrogène ont pour but de contourner l'impossibilité de produire de l'hydrogène par dissociation directe de l'eau à moins de 5000°C.

Opérant à des températures de l'ordre d'un millier de degrés Celsius, un très grand nombre de cycles thermochimiques dont la matière première est l'eau comprennent, dans l'une de leurs étapes, la formation d'hydrogène. Le principe de la méthode est alors de soutirer l'hydrogène formé et de recycler, dans les proportions les plus larges possibles, les réactifs intermédiaires.

Parmi les différents cycles thermochimiques bien connus : calcium-bromure, dioxyde de soufre-électrolyse, iode-soufre, les procédés basés sur la décomposition de l'acide sulfurique semblent les plus intéressants254.

Le cycle calcium bromure

Le cycle thermochimique calcium-bromure est étudié principalement aux États-Unis, au laboratoire national d'Argonne. Son avantage est de se dérouler à basse température. L'acide bromhydrique est décomposé en hydrogène, soit en utilisant le fer comme catalyseur, soit en le portant à l'état de plasma. Ce cycle ne semble pas inscrit dans les priorités de recherche actuelles.

Le cycle hybride Westinghouse

Mettant en œuvre à la fois la thermochimie et l'électrolyse, le cycle hybride Westinghouse est relativement simple, dans la mesure où seul le dioxyde de soufre est utilisé comme réactif intermédiaire et où deux étapes seulement sont nécessaires.

Une réaction d'électrolyse à une température comprise entre 20 et 110°C permet la synthèse d'hydrogène et d'acide sulfurique, selon le schéma : SO2 + 2 H2O → H2SO4 + H2. La réaction de décomposition de l'acide sulfurique nécessite une température de 850°C et l'apport de chaleur, selon le schéma : H2SO4 → SO2+ H2O+1/2 O2.

Si la faisabilité de ce cycle a été établie dans les années 1970, il reste de nombreux défis techniques à gagner, comme la mise au point de l'électrolyseur en milieu acide fortement corrosif.

Le cycle iode-soufre

Le cycle thermochimique fait actuellement l'objet d'études approfondies, en raison de son potentiel. Le cycle iode-soufre, qui nécessite une température de 900°C, pourrait, en effet, atteindre un rendement de 50 à 55%255.

Il comprend trois réactions majeures. Se déroulant à 120°C, la première réaction est exothermique et conduit à la formation d'acide sulfurique selon le schéma : I2 + SO2 + 2 H2O → 2 HI + H2SO4. La deuxième réaction est celle de la dissociation de l'acide iodhydrique, selon 2 HI → I2 + H2, réaction endothermique se déroulant à 400°C, très difficile à effectuer. La troisième réaction majeure, la plus difficile est celle de la dissociation de l'acide sulfurique, selon H2SO4 → SO2 + H2O + ½ O2, réaction endothermique nécessitant une température d'au moins 850°C256. Une variante pour la dissociation de l'acide sulfurique est la réaction de Bunsen, H2SO4 + 2 HI → I2 + SO2 + 2 H2O, qui présente l'avantage d'intervenir à une température de l'ordre de 120°C.

Compte tenu des températures élevées à laquelle s'effectuent les réactions, différentes difficultés doivent être résolues, d'abord à l'échelle du laboratoire qui est la seule concernée actuellement.

Des catalyseurs résistants dans le temps doivent être mis au point pour réaliser la décomposition de l'acide sulfurique. Pour le moment, on utilise le platine mais des solutions moins coûteuses comme le platine sur oxydes métalliques ou les oxydes mixtes de fer et de titane semblent prometteuses257. Des membranes efficaces et résistantes doivent aussi être mises au point pour effectuer la séparation de l'iode et de l'hydrogène

Mais l'industrialisation éventuelle d'un tel procédé semble se heurter à des difficultés.

Le cycle thermochimique iode-soufre a un rendement croissant avec la température, le niveau de 50% n'étant atteint qu'à une température de 850-900°C. À ces températures, la corrosion par les réactifs intermédiaires, HI, H2SO4 ou SO2, exigera des matériaux d'un coût très élevé.

Par ailleurs, les quantités de matières dans le cycle thermochimique sont considérables par rapport à la quantité d'hydrogène produite.

À cet égard, les ordres de grandeur convergent, malgré des chiffres précis différents. Selon l'INL, pour obtenir un kilogramme d'hydrogène, il serait nécessaire de mettre en action une masse totale de 7500 kg de réactifs divers258. Pour EDF, le rapport de masse sera proche de 1000259. Or certains réactifs sont très onéreux, comme l'iode, dont les quantités devraient être de plusieurs milliers de tonnes dans chaque usine, alors que la production mondiale est actuellement de quelques dizaines de milliers de tonnes.

Enfin, la coexistence d'une usine chimique traitant des matières dangereuses et d'un réacteur nucléaire de 4ème Génération, seul capable de fournir la chaleur requise, nécessiterait des précautions importantes, comme par exemple une distance minimale et des obstacles naturels ou artificiels entre les deux installations.

La mise au point du procédé et le passage à l'échelle industrielle sont étudiés en coopération internationale par la France, les États-Unis et le Japon. Une boucle de production d'hydrogène d'une capacité de 200 litres par heure est en cours de réalisation, afin de démontrer la faisabilité du procédé, avec un rendement de l'ordre de 50 à 55%.

Les perspectives favorables de l'électrolyse

L'électrolyse de l'eau alcaline est une méthode classique de production d'hydrogène, consistant à réaliser la dissociation de la molécule d'eau en hydrogène et oxygène, selon la réaction H2O → H2 + ½ O2, en faisant passer un courant électrique entre deux électrodes plongées dans l'eau.

Cette réaction est mise en œuvre actuellement au plan industriel à une température de 100°C environ pour produire de l'hydrogène très pur, les volumes correspondants étant toutefois réduits compte tenu de son coût élevé.

De nombreuses voies de recherche sont donc actuellement explorées pour se rapprocher du rendement maximum théorique de l'électrolyse, qui est de 50%. Le rendement de l'électrolyse augmente considérablement avec la température. L'une des voies de recherche les plus importantes consiste donc à effectuer l'électrolyse à une température élevée, allant de 250 à 900°C.

L'électrolyse à conduction protonique

L'électrolyse à conduction protonique consiste à dissocier, en hydrogène et en oxygène, l'eau d'un électrolyte alcalin, l'anode et la cathode étant séparées par une membrane sélective ne laissant passer que les ions H3O+.

À l'anode, l'eau se dissocie en oxygène et en ion H3O+ selon la réaction : 3 H2O → 2 H3O+ + ½ O2 + 2 e-. La membrane protonique permet la migration des ions H3O+ vers la cathode où est formé l'hydrogène, selon la réaction : 2 H3O+ + 2 e- → 2 H2O + H2.

L'électrolyse alcaline est d'ores et déjà mise en œuvre industriellement, dans des installations qui fournissent environ 4% de la production mondiale d'hydrogène260. La dépense énergétique étant importante pour réaliser la réaction - environ 55 kWh pour un kilogramme d'hydrogène -, ce procédé n'est utilisé que lorsque l'on peut disposer d'une électricité peu chère261. Le rendement du procédé est en effet inférieur à 25%.

Les progrès réalisés sur les cellules d'électrolyse laissent augurer une diminution des coûts de production.

Le rendement de l'électrolyse à conduction protonique est fortement amélioré à des températures comprises entre 400 et 700°C. Des matériaux connus sont utilisés pour les structures de l'électrolyseur, y compris pour la membrane. La principale difficulté réside dans la mise au point d'un électrolyte pouvant être utilisé à ces températures élevées. Les cérates, les titanates ou les zirconates constituent des solutions intéressantes.

La conduction protonique fait l'objet, en France, d'un programme de recherche conduit par Areva, en coopération avec le CNRS et l'université de Montpellier.

Représentant pour le moment une voie de recherche secondaire dans le monde, l'électrolyse à conduction protonique pourrait néanmoins avoir un grand avenir.

L'électrolyse à conduction oxyde

L'électrolyse à conduction oxyde consiste à dissocier en hydrogène et en oxygène, l'eau d'un électrolyte oxyde, l'anode et la cathode étant séparées par une membrane ne laissant passer que les ions O2-. La réaction est effectuée à une température comprise entre 700 et 1000°C.

À l'anode, les ions O2- sont oxydés en oxygène, selon la réaction : O2- → ½ O2 + 2 e-. À la cathode, la formation d'hydrogène se produit selon la réaction : H2O + 2 e-→ H2 + O2-.

Bien que les températures (700-1000°C) soient sensiblement supérieures à celle de l'électrolyse à conduction protonique (400-700°C), cette voie de recherche est actuellement privilégiée car elle bénéfice des résultats obtenus pour les piles à combustible de type SOFC (Solid Oxide Fuel Cell)262. [voir rubrique piles à combustible].

Dans la pratique, les cellules d'électrolyse à conduction oxyde se présentent sous la forme d'empilements de modules de trois plaques, l'anode, l'électrolyte, souvent de la zircone yttriée, et la cathode, à travers lesquels la vapeur d'eau à haute température est injectée263.

Les principaux problèmes à résoudre sont ceux de la tenue des matériaux de structure à la corrosion, notamment des joints, compte tenu des températures élevées de fonctionnement.

L'électrolyse à conduction oxyde fait l'objet de nombreuses recherches en France, aux États-Unis et au Japon. À titre d'exemple des performances actuelles, un ensemble de 22 modules mis au point au laboratoire national d'Idaho, aux États-Unis, a délivré 100 litres d'hydrogène par heure pendant 200 heures.

Un pilote semi-industriel est programmé pour 2008, en partenariat entre la France, l'Islande, le Danemark et l'Allemagne. La vapeur d'eau sera préchauffée par géothermie, portée ensuite à 750°C et injectée dans un empilement de 320 modules. L'objectif est de produire 1,6 m³ d'hydrogène par heure, pour une consommation électrique de 5 kW.

Il faut également noter que la co-électrolyse de l'eau et du dioxyde de carbone est étudiée aux États-Unis pour la production de gaz de synthèse, mélange d'hydrogène et de dioxyde de carbone264.

*

L'électrolyse de l'eau à haute température paraît ainsi une voie prometteuse, probablement plus simple à mettre en œuvre que les cycles thermochimiques, dont les volumes de matières engagées dans les procédés compliquent l'exploitation.

Néanmoins, aucun des procédés ne peut être écarté, en l'état actuel des connaissances. Pour le moment, ni le cycle iode-soufre, ni l'électrolyse à conduction oxyde ne sont compétitifs avec le vaporeformage du gaz naturel. Mais la situation pourrait s'inverser rapidement265.

L'augmentation du prix du gaz naturel, ainsi que la taxation des émissions de CO2 ou la séquestration obligatoire de ce dernier, renchérirait le prix de l'hydrogène obtenu par reformage.

Des progrès significatifs enregistrés sur les cycles ou l'électrolyse permettraient inversement de diminuer simultanément les coûts de production de l'hydrogène par dissociation de l'eau. Avec un gaz naturel à 9 $/Btu et une taxation du CO2 au prix de 100 $/tC, le prix de l'hydrogène obtenu par vaporeformage avoisinerait 3$/kg à comparer avec le coût de 3,5 $/kg de l'électrolyse266.

Pour l'une comme pour l'autre de ces solutions d'avenir, l'énergie nucléaire représente une source essentielle, car la moins onéreuse, de chaleur et d'électricité.

Les réacteurs nucléaires, solution clé pour la production d'hydrogène

Le vaporeformage du gaz naturel est le procédé dominant actuellement pour la production d'hydrogène. Son intérêt serait réduit par une hausse sensible du prix de la ressource et par la taxation du CO2. Des procédés innovants existent, fondés sur la dissociation de l'eau. Leur mise en œuvre exige toutefois la production en amont de chaleur à moyenne ou haute température, et, pour l'électrolyse, d'électricité.

Les réacteurs nucléaires actuels ou futurs, qui produisent, de fait, de la chaleur et de l'électricité, constituent ainsi une solution clé pour la production d'hydrogène.

L'intérêt des réacteurs actuels pour la production d'hydrogène

Si le rendement de l'électrolyse est maximal à des températures de 700 à 1000°C, le procédé actuellement industrialisé, l'électrolyse alcaline à conduction protonique, pourrait être notablement amélioré grâce à une augmentation de la température de 100°C à quelque 250°C.

En sortie de cœur, les températures des caloporteurs utilisés par les réacteurs actuellement en fonctionnement dans le monde sont suffisantes pour en prélever une partie destinée à la production d'hydrogène, de même qu'une partie de l'électricité produite267.

Les températures de sortie de cœur des réacteurs à eau pressurisée ou bouillante, sont de l'ordre de 300°C, celle des réacteurs canadiens Candu de 300°C, des réacteurs Magnox britanniques de 400°C, des réacteurs HTR de 750°C, des réacteurs RBMK de 280°C et des réacteurs à neutrons rapides refroidis au sodium de 500°C. Ceci permet d'envisager des applications externes au réacteur, à des températures inférieures de quelques dizaines de degrés.

Pour le moment, le rendement de la production d'hydrogène à partir des réacteurs à eau légère, qui forment l'essentiel du parc mondial, serait de l'ordre de 25%.

Mais l'électrolyse en mode auto thermique représente sans doute une voie d'avenir. Le réacteur nucléaire fournit la chaleur à 250°C requise pour vaporiser l'eau. Le surcroît de chaleur nécessaire à l'augmentation du rendement serait produite par effet Joule au sein de la cellule, ce qui devrait permettre d'atteindre un rendement de 30 à 35%.

L'industrialisation de ces procédés est envisageable vers 2015-2020.

Les réacteurs de 4ème Génération, solution clé pour l'hydrogène

Caractérisés par une température de sortie de cœur au plus égale à 900°C, les réacteurs à haute température représentent une voie d'avenir pour la production d'hydrogène sans gaz à effet de serre.

On oublie souvent que les réacteurs à haute température sont une voie déjà explorée dans le passé, à l'échelle de démonstrateurs technologiques. Même si les durées de fonctionnement de ces machines spécifiques ont été très variables, l'expérience acquise permet d'envisager la construction de prototypes vers 2020.

Les réacteurs à très haute température qui se caractériseront par des températures de sortie de cœur d'au moins 1000°C, permettront de mettre en œuvre, avec des rendements nettement accrus, des cycles thermochimiques ou l'électrolyse à conduction oxyde vers 900°C.

Mais le passage de 900 à 1000°C représente un saut qualitatif considérable en termes de tenue des matériaux. La mise au point de réacteurs à très haute température n'apparaît pas possible avant 2050, ce qui repousse la production d'hydrogène à très hauts rendements à cet horizon. [voir rubrique nucléaire]

La production d'hydrogène à partir de l'énergie solaire

En parallèle aux recherches sur la production d'hydrogène par des méthodes chimiques, deux voies sont explorées pour produire l'hydrogène à partir de l'énergie solaire.

Encore au stade de la conception et des études préliminaires, ces deux voies pourraient convenir, si elles s'avéraient fructueuses, à la production décentralisée d'hydrogène.

La voie biochimique

De nombreux micro-organismes produisent naturellement de l'hydrogène. C'est notamment le cas de l'algue verte. Des recherches fondamentales sont en cours pour déterminer comment le pouvoir réducteur de la cellule vivante pourrait être utilisé à cette fin.

On connaît l'importance de la photosynthèse, qui, d'une part, assure la conversion de l'énergie solaire en énergie chimique pour la biosphère, et, d'autre part, assure l'incorporation d'atomes de carbone à la plante pour assurer sa croissance.

La lumière visible est absorbée par la chlorophylle dont les molécules, fixées à des protéines membranaires, captent un grand nombre de photons solaires. L'énergie captée est transférée à des centres réactionnels où sont produits, par séparation de charges, des radicaux de charge opposées, chimiquement très réactifs et impliqués dans de nombreux processus complexes de la vie cellulaire.

Mais la photosynthèse fournit aussi les électrons nécessaires à la réduction du CO2, réaction qui apporte le carbone indispensable aux végétaux. La biosynthèse d'hydrogène a comme principe l'utilisation de ces électrons non pour incorporer le CO2 dans les molécules organiques mais pour réduire des protons H3O+ et obtenir de l'hydrogène moléculaire268.

Parmi les axes de cette recherche qui débute, figure d'abord la sélection des espèces qui ne convertissent pas toute l'énergie de photosynthèse en biomasse mais produisent également de l'hydrogène. Ensuite, il s'agit d'étudier les structures et les mécanismes fonctionnels des enzymes qui catalysent la production d'hydrogène.

D'une application encore lointaine, la production biochimique de l'hydrogène pourrait être pertinente pour des volumes réduits correspondant à une utilisation décentralisée.

La photolyse de l'eau

La photolyse de l'eau correspond à la dissociation photoélectrochimique de l'eau par la lumière solaire. Il s'agit en réalité de la production intégrée d'électrons par effet photovoltaïque et d'une électrolyse de l'eau conduisant à la formation d'hydrogène moléculaire.

Soumise à la lumière, une photoélectrode jouant le rôle d'anode produit des électrons et par oxydation de l'eau, une molécule d'oxygène selon la réaction 3 H2O → 2 H3O+ ½ O2 + 2 e-. La cathode reçoit les électrons par un conducteur extérieur et les ions H3O+ par transfert dans la solution. L'hydrogène y est alors formé selon la réaction : 2 H3O+ + 2 e- → 2 H2O + H2.

La principale difficulté à résoudre est la mise au point de photoanodes à haut rendement et à coûts réduits269. Parmi les matériaux actuellement utilisés, figurent le dioxyde de titane TiO2, le trioxyde de tungstène WO3 et l'hématite Fe2O3. Mais en réalité, il s'agit d'identifier ou de synthétiser des matériaux à haut rendement, résistant de surcroît à la corrosion. D'ores et déjà, des résultats substantiels ont été obtenus, avec des photoanodes à base d'arséniure de gallium, qui ont permis des rendements de conversion solaire/hydrogène approchant 20%.

Si le principe de la photoélectrochimie de l'hydrogène apparaît séduisant, il reste à évaluer le potentiel productif et économique de cette méthode, dont les réalisations pratiques sont, pour le moment, peu nombreuses et à l'échelle du laboratoire.

KYOTO : UN PROTOCOLE À VALEUR D'EXEMPLE

La genèse et les objectifs du Protocole de Kyoto

Le lancement de la démarche mondiale en matière de lutte contre le changement climatique date de 1992, avec le Sommet de la Terre, à Rio de Janeiro, marqué par l'ouverture de la Convention cadre des Nations Unies sur les changements climatiques CNUCC, et la signature des conventions sur la biodiversité et la désertification.

L'article 7 de la CNUCC a créé une Conférence des Parties (COP), dont la troisième réunion à Kyoto en 1997 a débouché sur le Protocole de Kyoto, ouvert à la signature dès mars 1998.

Le Protocole de Kyoto, signé par l'Union européenne en 1998 et approuvé par la France en 2000, fixe un objectif d'ensemble aux pays dits de l'Annexe I de la CNUCC270 : réduire entre 2008 et 2012 leurs émissions globales de leurs gaz à effet de serre de 5% par rapport au niveau de 1990. Les gaz à effet de serre pris en compte sont les suivants : dioxyde de carbone CO2, méthane CH4, protoxyde d'azote N2O, hydrofluorocarbones HFC, perfluorocarbones PFC, hexafluorure de soufre SF6.

L'objectif de réduction générale de 5% est décliné par grands ensembles géographiques ou par pays : Union européenne : -8% ; Japon : -6% ; États-Unis : -7% ; Canada : -6% ; Australie : +8% ; Nouvelle-Zélande : 0.

Au sein de la « Bulle européenne », des objectifs nationaux ont été fixés par le Conseil des ministres de l'Union en date du 18 juin 1998, prenant en compte, dans une certaine mesure, les disparités d'émissions nationales en 1990. C'est ainsi que la France doit stabiliser à l'horizon 2008-2012 ses émissions au niveau de 1990, tandis que l'Allemagne doit réduire les siennes de 21% et le Royaume Uni de 12,5%271.

Enfin, les pays en transition vers une économie de marché, au sens de 1997 et après révision en fonction des évolutions politiques ultérieures, se voient assigner eux aussi des objectifs nationaux, qui se révéleront aisés à atteindre en raison du ralentissement économique subi dans la décennie 1990272.

En tout état de cause, l'entrée en vigueur du Protocole de Kyoto a été subordonnée à la condition qu'un nombre minimum de 55 pays de l'Annexe I, représentant au moins 55% des émissions de dioxyde de carbone de cet ensemble de pays, l'ait ratifié273.

L'administration démocrate américaine avait signé le Protocole en 1997 mais le Congrès ne l'avait pas ratifié avant la fin du deuxième mandat du Président Clinton en décembre 2000 - janvier 2001. Arguant, d'une part, d'une causalité incertaine entre les émissions de gaz à effet de serre et le réchauffement global, et, d'autre part, du coût des réductions de CO2 pour l'économie américaine, l'administration Bush a clairement dénoncé le Protocole de Kyoto dès janvier 2001, la ratification par le Congrès étant de toute façon impossible à cette date.

Compte tenu des conditions à remplir, l'entrée en vigueur du Protocole a dès lors dépendu de sa ratification par la Russie, intervenue en novembre 2004274.

Alors que de nombreux pays, dont principalement l'Union européenne, avaient déjà mis en pratique ses objectifs, le Protocole de Kyoto est formellement entré en vigueur le 16 février 2005. À cette date, 141 pays l'avaient ratifié, dont 34 pays industriels.

Fin novembre 2005, 157 Etats et organisations régionales, représentant 62% des émissions des pays de l'Annexe I étaient parties prenantes du Protocole de Kyoto.

Protection de la couche d'ozone et lutte contre l'effet de serre

L'ozone O3 est, selon les cas, un gaz utile ou néfaste. Dans l'industrie et les services, l'ozone O3 est un agent oxydant très actif utilisé par exemple comme désinfectant. Polluant néfaste pour la santé, l'ozone troposphérique275 est formé suite à des décharges électriques ou par action de polluants chimiques sur l'oxygène de l'air sous de fortes températures. Gaz essentiel pour la protection des organismes vivants, l'ozone présent sous la forme d'une couche dans la stratosphère, à 25 km d'altitude environ, absorbe les rayonnements ultraviolets du Soleil qui, en son absence, élimineraient toute trace de vie sur la Terre.

Datant de 1987, le Protocole de Montréal a pour objet la protection de la couche d'ozone de l'Antarctique, altérée par les gaz industriels de type CFC (chlorofluorocarbones).

Le Protocole a prévu l'élimination de ces gaz utilisés jusqu'alors comme propulseurs, fluides pour la réfrigération ou la climatisation, solvants, produits d'extinction et leur remplacement progressif par les HFC (hydrofluorocarbures).

Or les HFC font partie des gaz à effet de serre au sens du Protocole de Kyoto. L'élimination des CFC ne peut être remise en cause compte tenu des certitudes scientifiques sur leur implication dans la destruction de la couche d'ozone276.

Deux voies complémentaires doivent dès lors être suivies : d'abord, la réduction des quantités et des usages des HFC et leur confinement, et, à plus long terme, la mise au point de gaz de substitution à la fois aux CFC et aux HFC.

Les outils du Protocole de Kyoto

Pour atteindre l'objectif global de réduction de 5% des émissions de gaz à effet de serre, le Protocole a créé trois instruments innovants, qui doivent permettre d'optimiser les efforts effectués en interne par les parties prenantes.

Les réductions nationales des émissions de gaz à effet de serre

Le Protocole de Kyoto n'établit pas une liste exclusive des mesures utilisables par les parties prenantes pour réduire en interne leurs émissions de gaz à effet de serre. Il en propose toutefois un certain nombre à titre d'exemples.

Le premier axe cité est l'accroissement de l'efficacité énergétique. Les deux suivants concernent les puits et les réservoirs de gaz à effet de serre, ainsi que l'agriculture durable. Le quatrième axe correspond au développement des énergies renouvelables, des technologies de piégeage du CO2 et des « technologies écologiquement rationnelles et innovantes ». Le cinquième axe correspond à la réduction progressive des imperfections du marché, des dispositions fiscales et des subventions qui vont à l'encontre du Protocole.

On remarquera que le nucléaire n'est pas explicitement cité comme filière de production électrique ne s'accompagnant pas d'émissions de gaz à effet de serre, ce qui ne peut se justifier pour des raisons techniques.

Les quotas d'émissions et les marchés d'échange

En application du Protocole de Kyoto, l'Union européenne a créé le 1er janvier 2005 un marché de quotas d'émissions de gaz à effet de serre. Sur la base d'un montant maximal d'émissions européennes, chaque État membre s'est vu en effet allouer un montant maximal d'émissions, à charge pour lui de le répartir par secteur et par entreprise, selon un Plan national d'allocation des quotas d'émissions, dit PNAQ277.

Au niveau national278, on définit les installations qui sont soumises à autorisation pour l'émission de gaz à effet de serre279. Pour la première période triennale d'application du PNAQ (2005-2007), les entreprises reçoivent à titre gratuit des quotas d'émission de CO2 pour l'année considérée qu'elles restituent en début d'année suivante à hauteur de leurs émissions effectives. Les quotas excédentaires peuvent être cédés et les quotas manquants acquis sur le marché national ou européen. Pour la période 2008-2012, tous les gaz à effet de serre feront l'objet de quotas d'émissions.

Dans la pratique, l'Union européenne a attribué des quotas d'émission de CO2 à 11 428 sites industriels dans les 25 Etats membres, dont 1 140 en France.

Au total, les entreprises placées dans l'obligation d'obtenir des autorisations d'émettre des gaz à effet de serre ont le choix entre le contrôle ou la réduction de leurs émissions par des améliorations techniques ou l'achat de quotas d'émissions sur le marché correspondant.

De nombreuses études économiques ont démontré que la mise en place de quotas ou de permis d'émissions, assortie d'un marché d'échange, permet de minimiser les coûts de la lutte contre l'effet de serre. En premier lieu, la fixation et l'allocation des quotas d'émissions permettent bien d'atteindre l'objectif de réduction qu'un pays ou un ensemble de pays entendent atteindre. En deuxième lieu, le marché des permis ou quotas d'émission permet aux émetteurs d'arbitrer entre des dépenses de modernisation et l'achat sur le marché de droits à émettre. Au plan global, tout se passe comme si les investissements les plus rentables, c'est-à-dire ceux effectués sur les installations les moins performantes, étaient d'abord réalisés, ce qui permet d'optimiser les dépenses.

En Europe, le prix du CO2 a, au cours de l'année 2005, évolué, sur le marché Powernext Carbon entre 16 et 28 € / tonne de CO2.

Les mécanismes de développement propre et de mise en œuvre conjointe

Permettant aux pays signataires de remplir leurs obligations, deux instruments prévus par le Protocole de Kyoto tendent également à optimiser l'efficacité économique et environnementale des efforts de réduction des émissions.

Suivant le Mécanisme de développement propre (MDP)280, les pays signataires peuvent acquérir des certificats de réduction des émissions de gaz à effet de serre en réalisant, dans des pays non parties au Protocole de Kyoto, des investissements permettant de réduire les émissions locales. Il s'agit là d'un mécanisme d'une importance capitale.

En effet, ce sont souvent les pays émergents ou en développement qui utilisent les installations industrielles les plus vétustes, dont les émissions sont, proportionnellement, les plus importantes. C'est dans leur modernisation ou leur remplacement que se trouvent probablement les réductions marginales les plus importantes et les moins coûteuses. Le mécanisme de développement propre est un moyen de favoriser les transferts de technologies propres dans les pays émergents ou en développement, dans la mesure où les investisseurs bénéficient d'un surcroît de rentabilité grâce aux certificats qui peuvent ensuite être vendus sur le marché ou venir compenser un déficit d'investissement dans le pays originaire. On peut d'ailleurs imaginer un effet d'entraînement local favorisant la diffusion des technologies propres.

Le deuxième mécanisme, la Mise en œuvre conjointe (MOC)281 est similaire, à la différence près qu'il porte sur des investissements réalisés en commun par plusieurs pays appartenant à l'Annexe I. La Mise en œuvre conjointe vise essentiellement à favoriser les investissements réalisés en partenariat par des pays industrialisés et des pays de l'Est ou de l'ex-URSS.

Il est à noter que le Protocole de Kyoto a fait des réserves quant à la possibilité de retenir le nucléaire comme filière éligible au Mécanisme de développement propre ou à la Mise en œuvre conjointe. Pour l'application du Protocole, l'Union européenne l'a, pour sa part, exclu, ce qui ne peut se justifier sur un plan technique.

En tout état de cause, la Conférence des Nations Unis sur le Changement climatique de décembre 2005 à Montréal a arrêté les détails pratiques du Mécanisme de développement propre et de la Mise en œuvre conjointe. Les pays développés se sont engagés à consacrer au MDP au moins 13 millions de dollars sur les deux années 2006 et 2007.

L'adaptation aux répercussions du changement climatique

Un dernier mécanisme, dont l'adoption date de novembre 2001282 porte sur l'adaptation au changement climatique. Un programme d'étude de cinq années a été engagé en décembre 2005 pour identifier les répercussions du changement climatique et mettre au point les mesures d'adaptation envisageables. Alimenté par une partie des recettes générées par le Mécanisme de développement propre, un Fonds pour l'adaptation apportera sa contribution aux mesures prises par les pays en développement pour atténuer les répercussions du changement climatique.

La nécessité urgente d'un Kyoto II

Le Protocole de Kyoto porte sur une période s'achevant en 2012. Son renouvellement et son extension apparaissent d'une importance critique.

La limitation technique et temporelle du Protocole de Kyoto

Fin novembre 2005, les émissions des parties prenantes au Protocole représentaient 62% du potentiel des émissions totales des pays concernés, c'est-à-dire les pays industrialisés de l'Annexe I.

On sait que les États-Unis n'envisagent pas d'y adhérer au niveau fédéral, même si des groupements d'Etats fédérés ont pris conjointement des dispositions pour s'y conformer. L'Australie est un autre pays qui n'envisage pas d'y adhérer non plus. Il est en définitive peu probable que l'on puisse dépasser sensiblement le niveau de 70% des émissions des pays concernés.

Il s'agit là d'une limitation importante à l'efficacité du processus engagé par le Protocole de Kyoto. Mais il y a plus grave.

Défaut mis en exergue par les États-Unis, le Protocole de Kyoto n'inclut ni les pays émergents ni les pays en développement. Par référence aux émissions de CO2 de ces pays en 2003, le Protocole porte sur moins de la moitié des émissions mondiales.

Cette portée géographique limitée est évidemment en contradiction avec l'impact planétaire du réchauffement global.

En réalité, la démarche initiée par le Protocole de Kyoto est fondée sur sa valeur d'exemple. De fait, le moindre de ses résultats n'est certainement pas d'avoir permis une sensibilisation des populations et des Gouvernements, avivée par les événements climatiques extrêmes qui se sont multipliés ces dernières années.

L'objectif du Protocole, à savoir une réduction de 5% des émissions des pays de l'Annexe I, n'est pas encore à la hauteur du problème posé. De surcroît, le respect de cet objectif est peu probable dans l'état actuel des choses.

La préparation d'un Protocole de Kyoto II, plus complet au plan géographique, plus ambitieux en termes de réduction des émissions et plus large au plan des moyens techniques agréés pour ce faire, est donc d'une importance capitale.

Les imperfections des mécanismes actuels

La traduction dans l'Union européenne des engagements liés au Protocole de Kyoto manque, pour le moment, de visibilité pour le secteur de l'énergie dont les investissements sont pourtant de long terme.

Les allocations de quotas d'émission ne sont connues que pour la période 2005-2007, alors que des décisions d'investissement à long terme doivent être prises dans les toutes prochaines années. Autre imperfection des dispositions européennes actuelles, les États membres peuvent, en raison des pouvoirs de subsidiarité qui leur sont donnés par la directive européenne, choisir d'allouer gratuitement des quotas d'émission à des centrales thermiques à combustible fossile, en particulier à charbon283.

Par ailleurs, deux différences importantes existent, entre les outils mis en place par l'Union européenne et ceux du Clean Air Act des Etats-Unis. Les allocations de quotas d'émissions ont été faites sur une période de 30 ans. Par ailleurs, mécanisme fondamental, les prix de marché des polluants, en premier le dioxyde de soufre, ont été plafonnés, de manière que les coûts des quotas ne grèvent pas trop les coûts de production de l'industrie.

Cette approche mesurée des États-Unis ne les a pas empêchés, bien au contraire, d'obtenir d'importants résultats en termes de réduction des émissions de polluants.

La préparation d'un Protocole de Kyoto II

Une nouvelle étape dans la lutte contre le changement climatique semble avoir commencé fin 2005, à la suite de la Conférence des Nations Unies sur le Changement climatique de Montréal.

En effet, les parties prenantes au Protocole de Kyoto ont formé un groupe de travail dont la mission est de définir les nouveaux engagements que pourraient prendre les pays développés à partir de 2012, en matière de lutte contre le changement climatique. Ce groupe de travail commencera ses travaux en mai 2006.

En parallèle, la CNUCC a programmé une série de réunions consacrées à la définition de stratégies pour une approche coopérative à long terme de la lutte contre le changement climatique.

Fait nouveau et significatif, les États-Unis ont accepté d'y participer.

Le Partenariat Asie-Pacifique plus complémentaire que concurrent

Annoncé en juillet 2005 et lancé concrètement en janvier 2006 à l'initiative des États-Unis, le Partenariat Asie-Pacifique sur le développement propre et le climat rassemble autour de son fondateur, l'Australie, la Chine, l'Inde, le Japon et la Corée du Sud.

Ce partenariat, qui n'a pas vocation à devenir un traité, prend le contre-pied du Protocole de Kyoto sur un grand nombre de points.

En premier lieu, le Partenariat rassemble deux des pays les plus développés de la planète, les États-Unis et le Japon, et deux puissances émergentes et bientôt dominantes, la Chine et l'Inde, soit au total plus de la moitié des émissions mondiales de CO2.

Pour les six membres actuels, l'urgence est de favoriser le développement en partenariat et d'éradiquer la pauvreté. Satisfaire les besoins croissants en énergie est donc une priorité, qui permettra en outre de répondre aux défis que sont la pollution, la sécurité énergétique et l'augmentation de la concentration de l'atmosphère en gaz à effet de serre.

L'énergie étant considérée comme une condition centrale du développement, le partenariat estime que les énergies renouvelables et l'énergie nucléaire fourniront nécessairement une part croissante de l'approvisionnement en énergie.

Par ailleurs, les combustibles fossiles étant incontournables, l'urgence est de développer les technologies propres compatibles avec la protection de l'environnement mondial. Enfin, le moyen central pour remplir la mission, qui est d'ailleurs assignée au partenariat sans référence à des objectifs chiffrés, est le développement de partenariats publics-privés.

Il est évidemment impossible de déterminer, pour le moment, si les annonces du Partenariat seront suivies d'effets tangibles et si l'approche sous-jacente pourra exister voire s'imposer par rapport à celle du Protocole de Kyoto.

On peut toutefois remarquer que deux des membres du Partenariat Asie-Pacifique sont également parties prenantes du Protocole de Kyoto : le Japon et la Corée du Sud.

On peut souhaiter que dans un premier temps, une « fécondation mutuelle » des deux approches puisse intervenir, et, à plus long terme qu'une fusion se produise, lorsqu'un bilan comparé pourra être fait de l'efficacité respective des différentes méthodes proposées dans un but commun.

NUCLÉAIRE

6,5% : telle était, en 2003, la part de l'énergie nucléaire civile dans la production d'énergie primaire mondiale, soit un total voisin de celui de l'énergie hydroélectrique mondiale.

En trente ans, la contribution de l'énergie nucléaire a été multipliée par 12,3, grâce à son décollage rapide de la fin des années 1960 et des années 1970 284.

Si l'on se focalise sur l'électricité, le nucléaire a assuré, en 2003, 16% de la production mondiale, l'hydraulique 16%, le charbon 40% et le pétrole et le gaz 26%.

Après une progression lente au cours des décennies 1990 et 2000, le début du XXIème siècle verra-t-il le nucléaire reprendre sa marche en avant rapide de la décennie 1970 ?

*

La croissance des besoins en énergie, la hausse et la volatilité des prix du gaz et du pétrole contribuent à renforcer la position du nucléaire. Un autre phénomène, encore plus important, ira bientôt dans le même sens : la taxation directe ou indirecte des émissions de gaz carbonique des énergies fossiles, dans le cadre de la lutte contre l'effet de serre.

Mais le regain d'intérêt pour le nucléaire vient aussi de ses propres efforts.

La modernisation des tranches en fonctionnement et la baisse du coût de production du MWh de nombreux réacteurs déjà amortis améliorent la sûreté et la compétitivité de la filière. Les réacteurs de nouvelle génération - la Génération III -, témoignent de progrès sensibles.

Différents pays donnent par ailleurs l'exemple d'avancées essentielles dans le domaine de la gestion des déchets radioactifs.

Ces progrès font du nucléaire une nouvelle technologie de l'énergie d'autant plus importante qu'une autre phase de son développement est entamée.

Les recherches sur les réacteurs de Génération IV conduiront en effet à des ruptures technologiques majeures. Les applications de l'énergie nucléaire devraient s'élargir, au-delà de la production d'électricité, à la production de chaleur à haute température pour l'industrie, ainsi que d'hydrogène pour les transports.

En outre, si l'horizon de leur application industrielle est la fin du siècle, les recherches sur la fusion vont prendre un nouveau cours avec la réalisation d'ITER, dont les retombées technologiques devraient profiter aux réacteurs nucléaires traditionnels. [voir rubrique fusion]

Les technologies nucléaires font ainsi partie intégrante des nouvelles technologies de l'énergie, au regard de l'histoire énergétique mais aussi pour les prochaines décennies.

Le rôle du nucléaire, aujourd'hui et dans un futur proche

Avec 6,5 % de la production mondiale d'énergie primaire, la part du nucléaire est inférieure d'un facteur cinq à celle du pétrole (35 %), et d'un facteur trois à celle du charbon (24%) ou du gaz naturel (24%)285.

La base nucléaire installée dans le monde représente 442 réacteurs en service fin 2005286.

Les pays industrialisés en rassemblent les deux tiers, le continent européen incluant la Russie et l'Ukraine comptant deux cents réacteurs et les États-Unis cent quatre. Si le développement du nucléaire y a été stoppé pendant une décennie, un redémarrage semble actuellement se produire, dans des proportions toutefois encore limitées.

En revanche, l'Asie et notamment les grands pays émergents, Chine et Inde, comptent sur l'énergie nucléaire pour faire face à l'envol de la demande d'électricité et multiplient réalisations et projets de réacteurs.

Dans les pays industrialisés, un redémarrage encore limité

Dans l'Union européenne, la dernière décennie n'a pas été favorable au nucléaire. L'accident de Three Mile Island survenu en 1979 aux États-Unis et surtout la catastrophe de Tchernobyl en 1986 y ont fortement ralenti son expansion.

À la suite du référendum de 1980 qui a conclu à l'arrêt de tous les réacteurs du pays et après le vote du Parlement de 1997 fixant à 2010 l'échéance de la fermeture du dernier réacteur, la Suède a arrêté la tranche de Barsebaeck-1 en 1999 après de longues hésitations. La centrale de Barsebaeck a finalement été fermée le 2 juin 2005.

Aux termes de l'accord du 14 juin 2000 entre le Gouvernement et l'industrie, l'Allemagne a fixé à 32 ans la durée d'exploitation de ses 19 réacteurs électronucléaires, ce qui devrait conduire à un arrêt complet entre 2020 et 2025.

Quant à la Belgique, la durée maximale d'exploitation de ses 7 réacteurs est, depuis janvier 2003, fixée à 40 ans, ce qui devrait entraîner l'arrêt complet du parc au plus tard en 2025, sauf cas de force majeure affectant l'approvisionnement énergétique du pays.

À l'occasion de leur entrée dans l'Union européenne, les pays de l'Europe de l'Est n'ont évité l'arrêt de leurs centrales nucléaires qu'à condition d'en porter la sûreté aux normes de l'Europe occidentale287. La Lituanie a dû toutefois accepter l'arrêt de ses deux réacteurs RBMK en raison de l'impossibilité d'élever suffisamment leur niveau de sûreté, le premier effectué fin 2004 et le second au plus tard en 2009.

Aux États-Unis, la mise en œuvre d'une relance du nucléaire par l'administration Bush souhaitée dès 2001 s'est révélée plus difficile que prévu, des aides concrètes, susceptibles de hâter le processus, n'ayant été confirmées que par la loi sur l'énergie de 2005288. Néanmoins, l'organisation professionnelle de l'industrie nucléaire américaine estime possible la construction de 20 réacteurs d'ici à 2020289.

Dans ce contexte, la décision de la Finlande, approuvée par le Parlement en mai 2002, de construire un cinquième réacteur devant entrer en service en 2009, laisse présager un redémarrage. L'approbation par la loi, en 2005290, de la construction en France d'un réacteur EPR à Flamanville va dans le même sens.

Ce mouvement paraît toutefois timide par rapport aux projets à l'ordre du jour dans d'autres parties du monde.

Dans les pays nouvellement industrialisés ou émergents, la volonté de développer le nucléaire et de s'approprier une technologie clé

Début 2006, 25 réacteurs étaient en construction dans le monde.

En Russie291, 4 réacteurs sont en construction, deux en Ukraine et un en Roumanie. Mais c'est en Asie que les constructions en cours sont les plus nombreuses et les projets les plus fournis.

L'Inde292 totalise 8 réacteurs en chantier, dont un réacteur à neutrons rapides de 500 MWe293.

Le Japon294, qui vient de mettre en service un nouveau réacteur, poursuit la construction d'un réacteur supplémentaire.

Quant à la Chine295, la montée en puissance du nucléaire, telle qu'elle est définie actuellement, y est prévue pour s'effectuer en trois étapes.

La première étape consiste à répliquer plusieurs réacteurs à eau pressurisée d'un modèle éprouvé de Génération II actuellement opérationnels comme les deux REP 940 MW de Guangdong/Daya Bay et les deux autres de Ling Ao fournis par Framatome, et comme les réacteurs de moindre puissance (600 MW) construits par l'industrie nationale (China National Nuclear Corporation).

La deuxième étape correspond à la construction de quatre réacteurs de Génération III, évolutionnaires, c'est-à-dire modernisés mais extrapolés sans rupture technologique par rapport aux réacteurs actuels, pour une mise en service vers 2012-2015.

La troisième étape devrait porter sur un ensemble de 30 à 50 réacteurs supplémentaires opérationnels vers 2020.

Taiwan, pour sa part, construit actuellement deux réacteurs, qui viendront s'ajouter aux six tranches actuellement en fonctionnement.

D'autres pays émergents comme le Brésil296 étudient la montée en puissance du nucléaire.

En tout état de cause, pour un grand nombre de pays émergents, le nucléaire est une technologie clé et ceci à double titre.

À l'évidence, le nucléaire est pour tous ces pays une filière qui ne peut être ignorée pour leur approvisionnement en énergie.

Au-delà de cet objectif, la maîtrise d'une filière nucléaire nationale est un objectif essentiel de la politique industrielle de l'Inde et de la Chine.

L'objectif est d'assurer l'indépendance technologique, de favoriser la montée en valeur ajoutée de pans entiers de l'industrie nationale et de procurer, ultérieurement, des débouchés à l'exportation en concurrence directe avec les constructeurs actuels : Areva, General Electric, Westinghouse et AtomstroyExport (Russie).

Des réserves en uranium pour plusieurs siècles

Les réserves d'uranium sont importantes, bien réparties dans le monde et localisées, pour les plus importantes, dans des pays politiquement stables et bien insérés dans les échanges mondiaux.

En France, le développement de la filière s'est accompagné d'une maîtrise technique et économique complète du cycle du combustible, y compris l'accès aux gisements d'uranium. L'industrie française a d'ailleurs acquis des positions fortes dans la concurrence internationale.

Les réacteurs actuellement en fonctionnement sont à 81% des réacteurs à eau légère de 2ème génération, qui utilisent de l'uranium enrichi. Leur approvisionnement en combustible ne pose aucune difficulté, de même que celui des réacteurs de Génération III, comme l'EPR, qui pourraient les remplacer à partir des années 2020. Les réserves classiques connues d'uranium représentent en effet 70 années de consommation actuelle et les réserves probables supplémentaires, 100 années, ce qui permettrait d'engager la croissance du parc électronucléaire mondial avec le même type de réacteurs.

La pérennité de l'approvisionnement en uranium est, en réalité, assurée pour bien plus longtemps.

Le niveau des réserves d'uranium sera en effet porté à plusieurs millénaires avec les réacteurs de 4ème Génération, appelés à prendre, vers 2040, le relais des réacteurs à eau légère. Ces réacteurs utiliseront en effet une proportion du potentiel énergétique de l'uranium beaucoup plus grande que les réacteurs à eau légère.

Des réserves prouvées garantissant 70 années de consommation du parc actuel et des réserves probables pour 100 années supplémentaires

Comme pour les réserves d'autres ressources minérales, les réserves d'uranium font l'objet de deux types d'estimations.

Les ressources raisonnablement assurées correspondent aux gisements bien connus et bien délimités, que l'on peut exploiter à des conditions techniques et économiques précises. En 2003, ces réserves représentaient 3,2 millions de tonnes d'uranium297.

Les ressources supplémentaires estimées de catégorie I, correspondent aux quantités supplémentaires d'uranium dont on présume la présence, compte tenu de données géologiques directes, dans le prolongement de gisements bien explorés. En 2003, ces réserves supplémentaires représentaient 1,4 million de tonnes d'uranium298.

Les réserves totales, intitulées « ressources classiques connues », s'élèvent donc à 4,6 millions de tonnes d'uranium.

En 2003, les besoins mondiaux des 441 réacteurs nucléaires en service se sont élevés à environ 68 400 tonnes. Les ressources classiques connues assurent donc 70 années de consommation du parc électronucléaire actuellement en fonctionnement.

À ces réserves qui ont un haut degré de certitude, on peut ajouter comme pour les autres matières premières, des estimations de gisements non encore découverts mais dont la probabilité est forte compte tenu des données géologiques. Intitulées « ressources classiques non découvertes », ces ressources s'élèvent à 6,74 millions de tonnes d'uranium, ce qui représente 100 années de consommation supplémentaires299.

Enfin, il est possible d'extraire non seulement l'uranium des phosphates, ce qui augmente encore le niveau des réserves d'un montant de 22 millions de tonnes, mais également de l'eau de mer, les quantités étant cette fois estimées à 4 milliards de tonnes.

Une garantie d'accès aux réserves

Les gisements d'uranium sont disséminés sur à peu près tous les continents, Australie comprise.

Les pays industrialisés de l'OCDE, qui sont les principaux utilisateurs de l'énergie nucléaire, possèdent 40% des réserves mondiales d'uranium300, ce qui leur assure un approvisionnement régulier.

Dans l'état actuel des connaissances, c'est l'Australie qui est le principal détenteur mondial de réserves d'uranium, avec 23% des réserves totales mondiales. Le Canada est le numéro trois mondial, avec 9,5% des réserves et les États-Unis numéro 5 avec 7,5%.

Les pays de l'ex-URSS possèdent toutefois une part importante des réserves, en particulier le Kazakhstan, au 2ème rang mondial avec 18,5% des réserves totales, la Russie au 6ème rang mondial, avec 5,8% et l'Ukraine au 9ème rang mondial, avec 1,7%.

Le continent africain est également bien doté en uranium, l'Afrique du Sud ayant le 4ème rang mondial avec 8,6% des réserves, la Namibie le 7ème rang avec 5,6% et le Niger le 8ème rang avec 5%.

La production d'uranium

En 2003, les pays de l'OCDE ont assuré 51% de la production mondiale d'uranium. Le Canada a été le leader, avec 27% de la production mondiale et l'Australie le numéro deux, avec 20%.

On trouve ensuite le Kazakhstan, avec 9,4%, la Russie avec 8,7%.

L'Afrique du Sud a pour le moment une production réduite, soit 2,4% du total. Elle est devancée par le Niger, principal producteur africain en 2003 (8,5%) et par la Namibie (7,1%).

La constitution d'un cartel des producteurs d'uranium s'opposant aux exploitants nucléaires est donc peu vraisemblable, d'autant que des ressources dites secondaires en uranium contribuent à l'adéquation instantanée de l'offre et de la demande pour plusieurs années.

Les ressources secondaires en uranium

L'uranium extrait des gisements actuellement exploités ne constitue pas la seule source d'approvisionnement. De multiples autres canaux alimentent le marché, les uns résultant du nucléaire civil, les autres résultant d'accords de désarmement d'armes stratégiques.

Premier type de ressources civiles additionnelles, des stocks d'uranium ont été constitués à des fins de précaution et de couverture, par les exploitants nucléaires, stocks évalués à quelque 70 000 tonnes d'uranium dans l'Union européenne.

Le plutonium issu du retraitement des combustibles irradiés est une autre ressource fissile complémentaire, qui représente, dans l'Union européenne, l'équivalent de plus d'un millier de tonnes d'uranium et 5,7% de l'uranium total chargé, chaque année, dans les réacteurs de l'Union européenne.

Enfin, l'uranium appauvri issu de l'enrichissement représente des quantités importantes, estimées à près de 500 000 tonnes d'uranium naturel.

Par ailleurs, les accords de désarmement des arsenaux nucléaires ont mis sur le marché des quantités importantes d'uranium.

Selon l'accord de 1993, signé entre les États-Unis et la Russie, 500 tonnes d'uranium hautement enrichi issues des armes nucléaires russes doivent être transformées en uranium faiblement enrichi à usage civil, ce qui représente l'équivalent de 153 000 tonnes d'uranium. En 2003, plus de 193 tonnes d'uranium hautement enrichi avaient été transformées et 5700 tonnes de combustibles livrées aux États-Unis, conséquence du démantèlement de 7733 ogives nucléaires. Les livraisons jusqu'en 2013 d'uranium hautement enrichi russe représenteront environ 10% des besoins mondiaux. Réciproquement, les États-Unis se sont engagés à banaliser 174 tonnes d'excédents d'uranium hautement enrichi.

Selon un autre accord intervenu entre la Russie et les États-Unis, en 2000, les deux pays se sont, chacun, engagés à traiter, dans les vingt-cinq prochaines années, 34 tonnes d'excédents de plutonium militaire.

L'excellente situation de la France pour l'accès aux ressources en uranium et le combustible nucléaire

Avec le groupe AREVA, la France dispose d'un excellent accès aux ressources en uranium.

Présent essentiellement au Niger, au Canada et au Kazakhstan, le groupe AREVA possède ainsi 490 000 tonnes de ressources minérales globales en uranium, qui sont complétées, dans le cadre des accords HEU (Highly Enriched Uranium), par un accès à près de 2600 tonnes par an d'uranium issu du démantèlement des armes nucléaires russes.

En outre, le groupe AREVA est l'un des leaders mondiaux de la fabrication du combustible nucléaire. Pour la conversion chimique de l'uranium naturel en uranium apte à subir l'opération d'enrichissement, la part d'AREVA est de 25% du marché mondial. Le groupe possède également près de 25% des capacités mondiales d'enrichissement, avec l'usine Georges Besse de Tricastin, dont le renouvellement est prévu avec passage à la technologie de l'ultracentrifugation. Enfin, le groupe AREVA est également leader pour la fabrication du combustible, avec 35% du marché mondial pour l'ensemble des combustibles et 40% des combustibles pour les réacteurs à eau légère.

La hausse récente du prix de l'uranium naturel et ses conséquences réduites

Comme le prix du pétrole et du gaz, le prix de l'uranium naturel U3O8 résulte de contrats d'approvisionnement à long terme ou bien du marché spot. Pour la plupart d'une durée de 5 ans, les contrats à long terme représentent 80 à 90 % de la fourniture. Mais, les prix spot de l'uranium présentent un grand intérêt, dans la mesure où ils donnent une indication sur les tensions pouvant exister entre l'offre et la demande et servent de base aux contrats à long terme lors de leur renouvellement.

Entre 1988 et 2004, les prix spot de l'uranium naturel ont évolué autour d'un niveau moyen de 24 $/kg, le principal facteur de variation étant la mise sur le marché éventuelle des ressources secondaires, en particulier des stocks d'uranium hautement enrichi démilitarisé ou provenant des stocks constitués pour les réacteurs de recherche.

Les prix spot de l'uranium ont augmenté de 46% de janvier 2004 à janvier 2005 et encore de 77% entre janvier 2005 et janvier 2006.

Les stocks de précaution des électriciens et les ressources démilitarisées commencent en effet à s'épuiser. L'essor de l'énergie nucléaire, prévisible en Asie, incite, par ailleurs, les exploitants nucléaires à accélérer leurs achats d'uranium, aisément stockable.

La hausse du prix de l'uranium n'a toutefois qu'un impact très réduit sur le prix du MWh nucléaire. En effet, le coût de l'uranium ne représente que 5% du coût du MWh301.

En conséquence, si le prix de l'uranium était multiplié par dix, le coût de production de l'électricité nucléaire n'augmenterait que de 40%302. En revanche, si le prix du gaz était multiplié par dix, le coût du MWh gaz serait multiplié par 6.

Les paradoxes du mode actuel d'utilisation de l'uranium

L'utilisation actuelle de l'uranium est paradoxale, à plusieurs points de vue.

Une quantité très faible d'uranium suffit à produire une quantité énorme d'énergie. La fission d'un gramme d'uranium 235 libère en effet une quantité d'énergie deux millions de fois supérieure à celle libérée par la combustion d'un gramme de charbon. En conséquence, les quantités de minerai d'uranium consommées chaque année sont faibles. Mais elles pourraient l'être encore plus. Les réacteurs nucléaires actuellement en fonctionnement ne valorisent en effet qu'une part très réduite de l'uranium, ce qui plaide en faveur d'une remise à l'étude des réacteurs à neutrons rapides qui, eux, le valorisent beaucoup mieux.

Les réacteurs à eau légère, qui représentent actuellement 81% des réacteurs en exploitation dans le monde, utilisent en effet un combustible de type UO2, à l'uranium enrichi à 5% environ en uranium 235 fissile, l'isotope uranium 238 fertile303 étant présent à 95% environ.

Pour préparer ce combustible, un enrichissement isotopique coûteux est effectué, par diffusion gazeuse comme à l'usine Eurodif Georges Besse de Tricastin ou par ultracentrifugation comme dans les installations de la société Urenco. En effet, quelles que soient sa provenance et sa teneur, le minerai d'uranium comprend une proportion fixe de deux isotopes, l'uranium 235 dont la concentration relative est de 0,7% et l'uranium 238 dont la concentration relative est de 99,3%.

Lors du séjour en réacteur à eau légère, les noyaux d'uranium 235 fissile, rompus par les neutrons thermiques, libèrent de l'énergie. Un petit nombre de noyaux d'uranium 238 fertile absorbent un neutron pour donner naissance in situ à un petit nombre de noyaux de plutonium 239, lui-même fissile, qui vont participer, mais faiblement (30% environ), à la production d'énergie. Par ailleurs, les combustibles usés déchargés des réacteurs comportent encore une grande part de matières fissiles non brûlées : 93% d'uranium 238, 0,7% d'uranium 235 et 1% de plutonium, environ.

Une faible partie de l'uranium du combustible a ainsi participé à la production d'énergie.

L'augmentation d'un facteur 50 à 80 des réserves d'uranium avec les réacteurs à neutrons rapides

Pour remédier à la faible valorisation de l'uranium naturel par les réacteurs à eau légère, une première amélioration consiste à augmenter le taux de combustion des combustibles, ce qui conduit à les laisser plus longtemps en réacteur. Le retraitement apporte une deuxième réponse, en permettant de recycler le plutonium, matière fissile, sous forme de combustible MOX.

L'utilisation optimale de l'uranium naturel passe toutefois par la mise en œuvre de neutrons rapides.

Les réacteurs à neutrons rapides se caractérisent en effet par un meilleur taux de conversion de l'uranium 238 fertile en plutonium 239 fissile, au point même de permettre de consommer l'uranium 238 en presque totalité. De ce fait, les réserves en uranium naturel seraient multipliées par un facteur variant de 50 à 80 selon les cas.

Les réserves d'uranium seraient alors suffisantes pour satisfaire pendant plusieurs millénaires les besoins en énergie.

Au demeurant, la construction de réacteurs à neutrons rapides se ferait en parfaite articulation avec le parc actuel de réacteurs à eau légère.

En effet, les réacteurs à neutrons rapides nécessitent que leur combustible de départ contienne au moins 15% d'isotopes fissiles. Le retraitement des combustibles à l'oxyde d'uranium fournirait le plutonium nécessaire, le restant du combustible étant soit de l'uranium naturel soit de l'uranium appauvri, ce qui permettrait de valoriser les stocks actuels qui résultent des opérations d'enrichissement304.

37% de la consommation d'énergie française

En 2004, la production d'électricité française a été assurée à 78,2% par le parc électronucléaire d'EDF, l'hydraulique comptant pour 11%. En termes de consommation d'énergie primaire, la contribution de l'électronucléaire correspond à 37% du total en 2004.

Les opposants au nucléaire minimisent l'apport de cette énergie en France, en faisant valoir que sa contribution serait en réalité deux fois plus faible.

L'utilisation de deux définitions différentes, l'une fondée techniquement, l'autre erronée, est à la base de cette divergence.

La consommation d'énergie primaire, seul indicateur ayant un sens techniquement fondé

Qu'est-ce que l'énergie primaire ? C'est l'énergie produite directement, sans transformation préalable d'une autre forme d'énergie. L'énergie primaire désigne le charbon, le pétrole ou le gaz extraits du sous-sol ou importés, ou bien l'électricité primaire produite directement à partir de l'hydraulique, d'une centrale nucléaire ou bien d'une éolienne. L'électricité produite par une centrale thermique n'est pas primaire puisqu'elle provient du charbon ou du gaz.

Pour mesurer correctement la contribution respective de différents types d'énergie, il est donc nécessaire d'utiliser la notion de consommation d'énergie primaire. L'on trouve alors une contribution du nucléaire égale à 37%.

Le concept d'énergie primaire est, en conséquence, le seul opérationnel pour estimer la part des différents types d'énergie dans l'approvisionnement d'un pays. C'est donc à bon droit qu'on attribue au nucléaire une part de 37% dans la consommation d'énergie primaire de 2004 en France, dont le total s'élève à 276,2 millions de tonnes équivalent pétrole.

La part d'une énergie donnée dans la consommation d'énergie finale est d'autant plus élevée que le rendement des appareils actionnés est faible

À tort, un autre concept est utilisé pour estimer l'importance des différentes filières énergétiques : celui de la consommation finale d'énergie.

Selon la DGEMP, la consommation finale d'énergie en France s'est élevée à 161,2 millions de tep.

La différence entre les 276,2 millions tep305 de la consommation d'énergie primaire et les 161,2 millions de tep de la consommation d'énergie finale provient des pertes liées à la transformation d'une forme d'énergie en une autre. Le rendement d'un moteur à combustion interne est en effet faible, de même que celui d'une centrale thermique.

La répartition de la consommation d'énergie finale est la suivante : charbon : 3,9% ; pétrole : 45,4% ; gaz : 21,8% ; électricité : 22,4% ; énergies renouvelables thermiques : 6,4%.

L'application mécanique du taux de 78% d'électricité nucléaire dans notre pays à la part de 22,4% de l'électricité dans la consommation française d'énergie finale, conduit à réduire la contribution du nucléaire à 17,4% de la consommation d'énergie finale.

En réalité, le concept de répartition par type d'énergie de la consommation finale d'énergie n'a aucun sens technique ou pratique. Plus le rendement des appareils utilisés pour obtenir le service attendu est faible et plus la quantité d'énergie consommée dans cet objectif est élevée.

Si, en termes de consommation finale, les parts du charbon, du pétrole et du gaz sont importantes, c'est que les procédés techniques d'utilisation de ces combustibles ont des rendements faibles. Le rendement d'un moteur à combustion interne est notoirement faible, ce qui nécessite d'utiliser beaucoup d'énergie pour le faire fonctionner. Ainsi, en tenant compte de la combustion du moteur, de la résistance de l'air et du contact de la roue et de la route, l'énergie consommée par un véhicule automobile se traduit en 20% d'énergie mécanique et 80% de chaleur dissipée. Il convient donc de diviser par 5 le poids du pétrole dans la consommation d'énergie finale, ce qui rétablit l'importance relative du nucléaire.

L'utilisation de l'indicateur « consommation finale d'énergie » n'a donc aucun sens pour évaluer l'importance relative d'une énergie dans une économie donnée.

Les charges de gestion des déchets radioactifs et du démantèlement incluses dans le prix du MWh

Toutes les charges du nucléaire, actuelles et futures, sont couvertes par le prix de l'électricité, et tout particulièrement les charges de gestion des déchets radioactifs et les charges de démantèlement.

Les exploitants d'installations nucléaires ont la double obligation juridique, d'une part, de procéder à la mise en sécurité et au démantèlement de leurs installations arrêtées définitivement, et, d'autre part, de conditionner et de gérer leurs déchets radioactifs.

En conséquence, les exploitants intègrent ces coûts particuliers dans leurs coûts d'ensemble et constituent des provisions pour charge future dans leurs comptes financiers.

Sur la base d'un coût de production de 30 €/MWh, les provisions pour retraitement et stockage des déchets représentent 4 €/MWh, soit 14,2% du total et les provisions pour démantèlement 2 €/MWh (5,3%).

Constituant les autres coûts, les charges de capital représentent 8 €/MWh (26,3%), les charges directes d'exploitation 8 €/MWh (26,3%), les charges centrales 2 €/MWh (5,3%), les impôts et redevances 2 €/MWh (5,3%), le coût des combustibles 5 €/MWh (17,4%)306.

Des dotations annuelles prélevées sur le résultat d'exploitation des exploitants nucléaires viennent chaque année augmenter les provisions constituées pour couvrir ces charges spécifiques à long terme. Les sommes ainsi collectées constituent des actifs dont la nature varie selon l'exploitant considéré.

Fin 2004, les provisions d'EDF pour fin de cycle du combustible nucléaire s'élevaient à 14,3 milliards € et ses provisions pour déconstruction et derniers cœurs à 12,6 milliards €, la valeur des actifs dédiés à la même date étant de 2,7 milliards € et devant atteindre 15 milliards € en 2010307.

À la même date, AREVA avait accumulé, en propre, des provisions dites de fin de cycle de 3,9 milliards € et, en contrepartie, un portefeuille financier dédié dont la valeur était de 2,3 milliards €, qui garantit l'essentiel des dépenses à venir.

L'avantage compétitif renforcé du nucléaire

La dotation nationale en ressources énergétiques mais aussi les compétences et les capacités technologiques sont à la base de la production électrique. Mais la compétitivité des différentes technologies disponibles joue un rôle de plus en plus important avec l'ouverture des marchés et le renforcement de la concurrence.

Si l'Allemagne produit plus de la moitié de son électricité à partir du charbon, c'est d'abord parce qu'elle a extrait de son sous-sol, en 2004, près de 55 millions tep308 de charbon et de lignite. Deuxième producteur mondial de charbon derrière la Chine309, les États-Unis produisent 50 % de leur électricité à partir du charbon.

Exercice difficile, la comparaison des coûts de production de l'électricité, quelle que soit la méthode utilisée, livre toutefois des résultats identiques : le nucléaire est la filière la plus compétitive pour la production d'électricité.

En tout état de cause, l'investissement dans le nucléaire a des caractéristiques spécifiques.

Un investissement capitalistique pérenne pour des coûts stables à long terme

L'investissement nucléaire a la caractéristique d'être plus capitalistique que ses concurrents. Un seul réacteur nucléaire moderne, de type EPR (European Pressurized water Reactor), a une puissance nette de 1500 MW. Pour le comparer aux autres filières, le ministère de l'industrie retient, dans son étude sur les coûts de référence de la production électrique de décembre 2003, deux chaudières à charbon pulvérisé de 900 MW chacune ou deux cycles combinés à gaz de 450 MW chacun. Par comparaison, les éoliennes les plus puissantes du marché en 2005 ont des puissances maximales de 5 MW, soit 300 fois moins que l'EPR. En outre, la durée moyenne de fonctionnement à pleine puissance des éoliennes allemandes est de l'ordre de 1500 heures par an, contre 7900 heures par an pour une centrale nucléaire.

Rapporté à l'unité de puissance (kW) de l'installation, le coût d'investissement dans un réacteur nucléaire (1250 €/kW) est deux fois et demie plus élevé que celui d'un cycle combiné à gaz (500 $/kW) ou 60 % plus élevé que celui d'une éolienne de forte puissance (800 €/kW) mais du même ordre que celui d'une centrale à charbon (1208 €/kW)310. L'investissement nucléaire est également renchéri par la durée de construction, plus longue (57 mois), que pour le gaz (30 mois) ou le charbon (36 mois), ce qui conduit à des coûts d'investissement totaux, comprenant les intérêts dits intercalaires, c'est-à-dire les frais financiers, et les dépenses incompressibles pendant la construction, plus élevés pour le nucléaire311.

Plus important en valeur absolue, l'investissement dans une centrale électronucléaire est toutefois le plus durable. D'une durée de vie de conception de 40 ans, les réacteurs actuellement en service seront sans doute nombreux à dépasser ce cap et fonctionneront près de 50 ans ou plus. Un réacteur moderne comme l'EPR est conçu, pour sa part, pour une durée de fonctionnement de 60 ans, deux fois et demie plus longue que celle d'un cycle combiné à gaz (25 ans) et plus d'une fois et demie que celle d'une centrale à charbon pulvérisé (35 ans).

Autre particularité, au cours de son exploitation, un réacteur nucléaire produit de l'électricité à un coût qui ne dépend que très faiblement (15%) du coût du combustible312. Le coût du combustible représente au contraire 63 % du coût total pour un cycle combiné à gaz. Le nucléaire est en conséquence peu sensible aux tensions sur les matières premières313.

Entre janvier 2004 et octobre 2005, le prix du pétrole a augmenté de 85%, et celui du gaz de 60%. La stabilité à long terme du coût du MWh nucléaire est donc un avantage considérable.

La Finlande ne s'y est pas trompée en autorisant la société TVO, qui rassemble des industriels et des fournisseurs d'énergie finnois, à construire le cinquième réacteur nucléaire du pays, afin de fournir à ses actionnaires - distributeurs d'électricité, industries papetières ou chimiques, collectivités territoriales - une électricité durablement peu coûteuse.

La filière la plus compétitive sur la base des coûts historiques

Les coûts effectifs ou historiques des exploitants nucléaires démontrent la compétitivité du nucléaire par rapport aux centrales thermiques à charbon ou à gaz.

On dispose en effet de données historiques solides. Les coûts réels de 1995 ont en effet été révélés par EDF en 1996 et par la SNET en 1999314. Le coût de production de l'électricité s'élevait à cette date à 33 €/MWh pour le nucléaire315, et à 38 €/MWh pour le charbon. Le nucléaire était donc sans conteste plus compétitif que le charbon.

À partir de cette date, selon différentes études, dont celles de l'OCDE, l'écart se serait resserré entre le charbon et le nucléaire, mais ce dernier a gardé son avance.

La filière la plus compétitive pour l'avenir

S'il s'agit de répondre à la question : « quelle filière choisir pour un investissement dans la production d'électricité ? », les études sont nombreuses et fréquentes.

Depuis l'année 2000, des résultats intéressants ont été publiés par l'université finlandaise de Lappeenranta (2000), le MIT aux États-Unis (2003), la DGEMP en France (2003), l'université de Chicago pour le Département de l'énergie (2004), la Royal Academy of Engineering du Royaume Uni (2004).

Les estimations de prix de revient provenant de ces différentes études sont convergentes : les réacteurs nucléaires de nouvelle génération, mis en service à la fin de la décennie 2010, devraient produire l'électricité à un coût d'environ 30 €/MWh, la fourchette des évaluations étant de 26-38 €/MWh316.

Comparée à d'autres filières de production de l'électricité, l'énergie nucléaire est la plus compétitive, selon des estimations réalisées indépendamment les unes des autres. En Finlande, il a été calculé317 en 2000 que le prix de revient de l'électricité produite avec une centrale thermique au charbon serait supérieur de 11% à celui d'une centrale nucléaire, avec un cycle combiné à gaz supérieur de 21% et avec une centrale thermique à la tourbe supérieur de 42 %, cette comparaison étant faite sans prendre en compte le coût du CO2. Une actualisation de cette étude, deux ans plus tard, a donné un avantage similaire au nucléaire, l'éolien ajouté aux comparaisons apparaissant, pour sa part, deux fois plus coûteux que le nucléaire.

Une autre étude comparative importante est celle réalisée à intervalles réguliers par la DGEMP (Direction générale de l'énergie et des matières premières) du ministère de l'industrie, dont la dernière livraison est intervenue fin 2003318. Par rapport au coût de 28,4 € du MWh nucléaire, le cycle combiné à gaz est plus cher de 19 % et le charbon pulvérisé de 23 %319.

S'amplifiant avec la hausse du prix du gaz et du charbon, l'avantage comparatif du nucléaire se renforce encore dès lors que l'on prend en compte les coûts externes de la production d'électricité, liés à l'impact de la centrale électrique considérée sur la santé et l'environnement320. Ces coûts, liés aux dommages créés par les émissions atmosphériques et les rejets liquides, ont été estimés pour chacune des filières par la Commission européenne avec l'aide d'universitaires des Etats membres, dans le cadre de l'étude ExternE.

Selon ExternE, les coûts externes hors émissions de dioxyde de carbone CO2 du nucléaire sont de l'ordre de 1 €/MWh. Les coûts externes du charbon sont 12 fois supérieurs, ceux du fioul 8 fois, ceux du gaz 1,7 fois et ceux de la biomasse 2,3 fois, l'éolien étant le plus neutre (-50%). ExternE a résolu de nombreux problèmes méthodologiques complexes et ses résultats confirment des intuitions de bon sens. La diffusion de ses résultats sur le volet « non CO2 » a toutefois été insuffisante.

La méthode introduite par ExternE pour prendre en compte les émissions respectives de CO2 des différentes filières, a fait école. Les calculs correspondants s'appuient sur deux données incontestables : d'une part les volumes d'émissions de CO2 par MWh produit par la centrale considérée qui dépendent du combustible utilisé, et, d'autre part, le prix de la tonne de CO2, tel que les marchés d'échanges de quotas d'émissions peuvent le coter. Pour comparer les filières, on ajoute alors au coût du MWh le coût du CO2 correspondant, le nucléaire n'étant pas concerné puisqu'une centrale nucléaire n'émet pas de CO2.

Avec la prise en compte du CO2, l'avantage du nucléaire est alors encore plus déterminant. Comparé au 28,4 €/MWh du nucléaire, le MWh gaz ressort en effet à 42,1 € (+48%) et celui du charbon à 48,3 € (+70%)321.

Les solutions techniques pour gérer les déchets radioactifs

Une fois déchargés des réacteurs nucléaires, les combustibles nucléaires usés sont, soit entreposés après refroidissement et conditionnement en vue de leur stockage ultérieur, soit retraités en vue de recycler les matières énergétiques non brûlées, les déchets issus du retraitement étant entreposés dans la perspective de leur stockage ultérieur.

Pour chacune de ces options, les solutions techniques existent pour assurer un stockage définitif. Ces solutions sont en cours de mise en place dans plusieurs pays322.

Le stockage géologique direct en cas de non retraitement

Ayant décidé de ne pas retraiter leurs combustibles usés, la Suède et la Finlande ont choisi le stockage géologique en sub-surface ou en profondeur de la totalité de leurs déchets radioactifs et des combustibles usés.

Trois de ses centrales nucléaires sur quatre étant dotées d'installations d'enfouissement en surface des déchets de très faible activité, la Suède exploite depuis 1988, à proximité de la centrale de Forsmark, un centre de stockage souterrain dit SFR-1, à 60 mètres de profondeur, pour les déchets de faible ou moyenne activité à vie courte. Les combustibles usés sont entreposés dans l'installation souterraine du CLAB, à 25 mètres de profondeur, à proximité de la centrale d'Oskarshamn, opérationnel depuis 1985. Les combustibles usés seront ensuite transférés dans un centre de stockage définitif irréversible en formation de granite à quelque 500 mètres de profondeur, dont les caractéristiques sont étudiées dans le laboratoire de recherche souterrain d'Aspö. La Suède étudie également la construction d'un centre de stockage pour les déchets de faible ou moyenne activité à vie longue.

En Finlande, les deux centrales nucléaires de Loviisa et d'Olkiluoto sont chacune dotées d'un centre de stockage en sub-surface pour les déchets de faible ou moyenne activité. Comme en Suède, la destination des combustibles usés est, à la suite d'une décision de principe du Parlement finlandais de mai 2001, un centre de stockage en profondeur, situé à Olkiluoto, dont les caractéristiques sont en cours de définition suivant le modèle suédois.

Les États-Unis, pour leur part, exploitent plusieurs centres de stockage de surface pour leurs déchets radioactifs civils de faible activité, et, depuis 1999, le stockage en profondeur du WIPP (Waste Isolation Pilot Plant), à 655 mètres de profondeur, pour les déchets radioactifs militaires de faible activité à vie longue. Le retraitement étant interdit en application de la doctrine Ford-Carter de 1978, les Etats-Unis ont commencé en 1982 un processus de construction d'un site de stockage pour les combustibles usés dont l'ouverture est prévue à Yucca Mountain dans le Nevada, à l'horizon 2010.

Des solutions techniques disponibles en cas de retraitement

Les pays ayant choisi de retraiter leurs combustibles nucléaires usés recyclent les matières énergétiques non brûlées encore présentes dans le combustible, qui représentent 96% du combustible usé. Autre avantage, le retraitement divise par 5 le volume des déchets radioactifs issus des combustibles usés. Enfin, en séparant les différents types de déchets, le retraitement permet de leur appliquer à chacun un traitement différencié et optimal.

De nombreux pays ont fait ce choix, en particulier la France, le Royaume Uni, le Japon, la Belgique, la Suisse, les Pays-Bas. Ces différents pays ont mis en place des solutions de gestion définitive pour leurs déchets radioactifs, en commençant par les déchets de faible ou moyenne activité à vie courte qui représentent l'essentiel des volumes. Pour les déchets radioactifs de faible ou moyenne activité à vie longue et pour les déchets radioactifs de haute activité à vie longue, des solutions temporaires d'entreposage sont opérationnelles depuis de longues années, dans la perspective de la mise en place de solutions définitives.

En France, les déchets radioactifs représentent 1% en volume de la totalité des déchets industriels produits chaque année. Ce chiffre est à mettre en rapport avec le fait que la production électronucléaire assure 78% de la production électrique nationale.

Des solutions définitives sont déjà opérationnelles pour les déchets radioactifs de très faible activité (déchets TFA) (gravats, ferrailles très faiblement contaminées), pour les déchets de faible ou moyenne activité à vie courte (FMA-VC) (déchets solides provenant de l'exploitation et de la maintenance des installations nucléaires), qui représentent 90% du volume total des déchets radioactifs produits en France. Ces déchets sont stockés en surface dans les centres de Morvilliers et de Soulaines dans l'Aube.

Les déchets de faible activité à vie longue (FA-VL) (provenant du démantèlement des réacteurs de première génération uranium naturel-graphite-gaz) seront également stockés en surface, selon une solution en cours d'élaboration.

Les solutions techniques de gestion pour les déchets de haute activité à vie longue, ont été étudiées pendant 15 ans, comme l'a prescrit la loi du 30 décembre 1991.

Les déchets radioactifs de haute activité à vie longue (HA-VL) sur la gestion desquels porte la loi représentent un volume total de 1639 m³ fin 2002, concentrant 96 % de la radioactivité de tous les déchets radioactifs. À la même date, les déchets de moyenne activité à vie longue (MA-VL) représentaient, fin 2002, 45 359 m³.

Le volume de ces déchets est très limité : au total 47 000 m³, soit un cube de 36 mètres de côté, qui concentrent 99% de la radioactivité totale des déchets.

Les recherches sur les solutions de gestion de ces déchets ont été ordonnées en trois grandes méthodes ou trois axes : la séparation-transmutation (axe 1), le stockage en formation géologique (axe 2), le conditionnement et l'entreposage de longue durée (axe 3).

La séparation-transmutation

Le but de la séparation est de récupérer, d'une part, les actinides mineurs323 dont la période de radioactivité se mesure en centaines de milliers d'années, et, d'autre part, les produits de fission dont la période de radioactivité est de trente ans en moyenne. La séparation des actinides mineurs (neptunium, américium, curium) a été démontrée à l'échelle du laboratoire. La séparation à l'échelle industrielle est liée au renouvellement des installations de retraitement de La Hague en 2040.

La transmutation consiste en un bombardement neutronique des noyaux lourds d'actinides mineurs, qui fissionnent en des noyaux plus légers et à période de radioactivité plus courte. La faisabilité de la transmutation est démontrée grâce aux expériences conduites avec le surgénérateur Phénix ou à des transmutations effectuées en réacteur à eau pressurisée. Pour réaliser la transmutation à l'échelle industrielle, il sera nécessaire de disposer de réacteurs rapides de Génération IV et/ou, le cas échéant, de réacteurs sous-critiques pilotés par accélérateurs (ADS).

Ces réacteurs n'existent pour le moment qu'à l'état de concept. Leur mise en service industriel aura lieu vers 2035. Compte tenu des tests à effectuer sur leur capacité à transmuter des grandes quantités d'actinides mineurs, la transmutation à l'échelle industrielle devrait intervenir en 2040 au plus tôt.

Le stockage en formation géologique profonde

Le stockage en formation géologique profonde a pour objectif de faire jouer à une couche souterraine de roches comme l'argile, le granite, le sel ou le tuf, le rôle de coffre-fort vis-à-vis des déchets radioactifs issus du retraitement ou vis-à-vis des combustibles irradiés lorsque ceux-ci ne sont pas retraités. Le stockage géologique est considéré par l'AIEA, agence de l'ONU, et par de nombreux pays - Allemagne, Belgique, États-Unis, Finlande, Suède, Suisse - comme la méthode la plus sûre pour gérer les déchets radioactifs.

L'ANDRA (Agence nationale pour les déchets radioactifs) a accumulé de nombreux résultats favorables sur la capacité de l'argile à confiner les déchets radioactifs, grâce à ses recherches menées d'une part dans les laboratoires souterrains de Mol (Belgique) et du Mont Terri (Suisse), et, d'autre part, à Bure (Meuse) par des forages depuis la surface et par des études in situ dans la niche du laboratoire souterrain de Meuse/Haute-Marne. L'argile du Callovo-Oxfordien de Bure présente des capacités de confinement favorables, même si certaines études ne sont pas encore achevées. Il est aujourd'hui estimé que les ions les plus mobiles ne pourront atteindre le sommet de la couche d'argile qu'en 300 000 ans.

Un stockage géologique pourrait entrer en service en France vers 2020-2025, compte tenu des délais d'expérimentations et d'études supplémentaires, des délais administratifs et des délais de construction.

Les études d'ingénierie montrent que l'on peut concevoir un centre de stockage réversible, où la reprise des colis de déchets est possible sur une longue période. Les derniers déchets produits par les centrales actuelles les plus récentes le seront vers 2040, ceux de l'EPR à la fin du siècle. Un stockage géologique doit donc pouvoir fonctionner sur plus d'un siècle ou davantage.

Le conditionnement et l'entreposage de longue durée

Constituant l'axe 3 de la loi de 1991, le conditionnement et l'entreposage à long terme en surface sont deux domaines où des progrès importants ont été enregistrés.

Les volumes de déchets de haute ou moyenne activité ont été divisés par 10 depuis 1992, par la vitrification des effluents, le compactage des déchets technologiques et des structures métalliques des combustibles. La durabilité des colis de déchets vitrifiés dépasse la centaine de milliers d'années, de même que celle des colis de coques et embouts

Conçus pour compléter les entreposages industriels actuels d'une durée de vie de 50 ans, les entreposages de longue durée en surface ou en sub-surface visent des durées de fonctionnement de 100 à 300 ans. Un entreposage de longue durée pourrait être mis en service opérationnel en France vers 2016.

La loi du 30 décembre 1991 a prévu que la France arrête sa stratégie de gestion des déchets radioactifs en 2006.

La préparation indispensable du renouvellement du parc électronucléaire d'EDF

La France a construit ses 58 réacteurs actuellement en service en un temps très court. La France s'est en effet équipée d'une capacité de production installée de 50 GW ou 50 000 MW nucléaires entre 1980 et 1990, d'où ce que l'on appelle un « effet de falaise ». Symétriquement, du fait du vieillissement du parc, une décroissance rapide de la capacité française de production d'électricité pourrait se produire à l'avenir, si son renouvellement n'était pas engagé en temps et en heure.

La réglementation française ne fixe pas de durée de vie maximale aux réacteurs d'EDF. Mais l'autorité de sûreté prévoit des examens de sûreté approfondis tous les dix ans, en conclusion desquels une décision de « non opposition au redémarrage » est donnée le cas échéant.

Les troisièmes visites décennales, opérées après trente années de fonctionnement, commenceront en 2009 pour les réacteurs les plus anciens. Ouvrant la voie vers les 40 années de fonctionnement qui correspondent à la durée de vie de conception des réacteurs d'EDF, ces troisièmes visites décennales de contrôle joueront donc un rôle critique. Compte tenu de la bonne maîtrise par EDF des processus de vieillissement de ses réacteurs, on estime que la quasi-totalité du parc franchira sans encombre cette barrière et sera autorisée à fonctionner dix années de plus.

En revanche il est très probable qu'en 2020, certains réacteurs ne seront pas autorisés à dépasser le cap des 40 années de fonctionnement pour dix années supplémentaires.

À cette date, il faudra donc que de nouveaux réacteurs soient prêts à prendre le relais. Or il s'écoule cinq ans entre le premier béton d'une centrale nucléaire et la mise en service d'un réacteur. La décision de construire ces réacteurs de remplacement devra donc avoir été prise en 2015. Pour prendre cette décision sur des bases techniques saines, il faudra avoir testé la tête de série sur plusieurs années, avant d'en passer commande en plusieurs exemplaires.

Le calendrier à respecter comporte donc plusieurs dates critiques. En application de la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique, la commande de la tête de série EPR (European Pressurized water Reactor) choisi par EDF devra intervenir en 2006. Cette tête de série entrera ainsi en service en 2012.

En 2015, il sera possible d'évaluer ses performances, de définir d'éventuelles modifications et de passer commande d'un ou de plusieurs réacteurs de remplacement pour l'horizon 2020.

En 2020, ces nouveaux réacteurs pourront se substituer aux réacteurs les plus anciens d'EDF, comme Fessenheim, Bugey ou Saint Laurent des Eaux, dont la prolongation d'exploitation n'apparaîtrait pas possible.

Les réacteurs de Génération III

Pour une mise en service avant 2015, les constructeurs proposent des réacteurs dits évolutionnaires, extrapolés des réacteurs actuellement en fonctionnement.

Conçus selon les mêmes principes que les réacteurs actuellement en service, ces réacteurs évolutionnaires capitalisent l'expérience acquise pendant plusieurs dizaines d'années sur des nombres de réacteurs importants.

Les tendances pour les réacteurs de Génération III

Désignés sous l'appellation de réacteurs de la Génération III ou III+ ou de réacteurs pour 2015324, ces réacteurs sont l'EPR (European Pressurized water Reactor) de Framatome ANP325, l'ABWR (Advanced Boiling Water Reactor) de General Electric, l'AP 1000 (Advanced Passive pressurized water reactor) de Westinghouse-Toshiba, et les réacteurs VVER 1000 AES 91 et 92 du Minatom russe.

Leur ambition commune est de faire encore progresser la sûreté et la compétitivité de l'énergie nucléaire.

Une des voies empruntées pour améliorer encore la sûreté consiste à simplifier leur architecture, réduire le nombre de leurs composants et renforcer leurs structures. Une autre voie moins consensuelle repose sur l'appel à des dispositifs de sûreté passive, dont le déclenchement et l'intervention reposeraient sur des forces naturelles, sans intervention humaine.

Pour parfaire encore la compétitivité de leurs réacteurs, les constructeurs jouent sur les mêmes leviers.

La modularité des différentes parties du réacteur, voire la standardisation, réduisent les délais, les coûts de construction et donc le montant de l'investissement. L'augmentation des taux de combustion des combustibles, l'amélioration de la sûreté en fonctionnement et la réduction du nombre et de la durée des arrêts de tranche, augmentent la disponibilité des réacteurs et réduisent leurs coûts de production de l'électricité.

L'EPR, un réacteur évolutionnaire à la pointe du progrès technique

L'EPR résulte d'efforts communs effectués, entre 1993 et 2000, par la France et l'Allemagne, sa conception et son étude détaillée ayant réuni les constructeurs Framatome et Siemens, EDF et les principaux électriciens allemands, ainsi que les autorités de sûreté des deux pays. Depuis 2000, la mise au point de l'EPR est réalisée par Framatome ANP qui a absorbé le département nucléaire de Siemens en décembre 1999326.

La sûreté de l'EPR est encore améliorée par rapport aux réacteurs actuellement en service, grâce à un renforcement de la prévention des accidents de fusion de cœur et à la limitation de leurs conséquences éventuelles grâce à la mise en place d'un récupérateur de corium327.

L'enceinte de confinement du réacteur présente des caractéristiques exceptionnelles, que l'on ne retrouve dans aucun réacteur actuel. Le bâtiment réacteur repose sur un socle de béton de 6 mètres d'épaisseur. L'enceinte de confinement est double, la première enceinte étant constituée de béton précontraint étanche d'une épaisseur d'1 m 30 et la deuxième enceinte en béton étant également d'une épaisseur d'1 m 30. Les systèmes de sûreté de l'EPR sont constitués sous forme de quatre trains redondants et séparés. Une quantité plus importante du plutonium produit au cours de l'irradiation est auto consommée in situ et la production totale d'actinides est réduite de 14 %. L'EPR peut également fonctionner avec un cœur constitué jusqu'en totalité d'assemblages MOX.

Au plan économique, les coûts de production sont réduits grâce à la puissance élevée du réacteur - de 1500 à 1600 MW -, et à différentes améliorations techniques, comme l'augmentation des taux de combustion des combustibles, l'allongement des cycles d'exploitation, la réduction de la durée des arrêts de tranche et des visites décennales.

Au total, l'amélioration des performances d'exploitation permet d'abaisser de 10 % le coût de production du MWh par rapport à celui du dernier réacteur N4 de 1450 MWe construit en France.

Pour la fourniture de son 5ème réacteur nucléaire, la Finlande, par l'intermédiaire de l'exploitant nucléaire TVO, a reçu plusieurs offres. Framatome-ANP a présenté deux réacteurs : l'EPR, réacteur à eau pressurisée, de conception franco-allemande, et le SWR, réacteur à eau bouillante de conception allemande, intégrant des dispositifs de sûreté passive. General Electric a présenté son réacteur à eau bouillante ABWR, dont les deux premiers exemplaires sont en fonctionnement au Japon et deux autres sont en construction à Taiwan.

Le constructeur russe Atomstroyexport du groupe du Minatom a, pour sa part, présenté son réacteur VVER 1060 MW.

L'exploitant nucléaire finlandais TVO a finalement, le 18 décembre 2003, choisi l'EPR proposé par Framatome-ANP et Siemens.

Les réacteurs de 4ème Génération et les nouvelles applications du nucléaire

Au-delà des réacteurs évolutionnaires du type EPR, indispensables pour renouveler, à partir de 2020, les parcs électronucléaires actuellement en service, de nouveaux concepts de réacteurs sont actuellement étudiés pour obtenir de nouvelles fonctionnalités.

Développés à l'initiative de constructeurs, les projets de réacteurs à haute température devraient se traduire, pour certains, par la construction de démonstrateurs à l'horizon 2015.

Faisant l'objet d'une coopération internationale, les réacteurs dits de 4ème Génération nécessitent des sauts technologiques difficiles, ce qui repousse leur entrée en service commercial vers 2040.

Les réacteurs à haute température

Les réacteurs à haute température refroidis au gaz correspondent à une première voie de recherche déjà explorée dans les décennies soixante et soixante-dix328. Le bénéfice principal attendu de la haute température est une augmentation du rendement. De nouveaux types de combustibles doivent apporter une amélioration de la sûreté intrinsèque du réacteur.

Le PBMR (Pebble Bed Modular Reactor) est un projet de réacteur à haute température, d'une puissance de 100 à 300 MWe, développé en Afrique du Sud par une société rassemblant l'État sud-africain et la compagnie d'électricité Eskom, avec une participation de Westinghouse. Ce réacteur refroidi à l'hélium, présente l'originalité d'utiliser un combustible à l'oxyde d'uranium, conditionné sous la forme de particules compactées ensuite dans des boulets de la taille d'une balle de tennis, qui ne serait pas retraitable. L'objectif est de construire à partir de 2007 un démonstrateur qui pourrait entrer en service vers 2013.

Issu d'une coopération entre les États-Unis et la Russie, le projet de réacteur GT-MHR (Gas Turbine Modular Helium cooled Reactor) de General Atomics, d'une puissance de 300 MWe, a pour premier objectif la production d'électricité. Mais il a été proposé pour la consommation du plutonium provenant du démantèlement des ogives nucléaires russes, à la suite de la signature, en janvier 1993, du traité START II, ce qui représente une opportunité de réalisation. L'objectif est de construire un premier exemplaire du GT-MHR en Russie à Seversk. La mise en service de ce réacteur GT-MHR est au mieux l'horizon 2015.

Le projet de réacteur ANTARES d'Areva est, pour sa part, un réacteur à haute température refroidi à l'hélium, d'une puissance thermique de 600 MW, dont l'objectif est la production mixte d'électricité et de chaleur. Avec une température de sortie de cœur de 850 à 950°C, ANTARES pourrait répondre à la demande de chaleur de différentes industries. Son étude de faisabilité devrait être achevée en 2009, pour une décision de construire un prototype en 2015 et sa mise en service en 2020329.

Les réacteurs de 4ème Génération proprement dits

Le Forum international Génération IV (GIF - Generation IV International Forum), qui rassemble les organismes responsables de la recherche nucléaire de 10 pays et de l'Union européenne330, coordonne les études sur les réacteurs de 4ème Génération.

Pour sélectionner les différents concepts prioritaires, cinq critères ont été utilisés : l'amélioration de la sûreté ; la réduction des coûts ; la valorisation maximale des réserves d'uranium ; la production minimale de déchets radioactifs à vie longue ; la diversification des applications au-delà de la production d'électricité.

D'un commun accord, six filières ont été sélectionnées, pour bénéficier d'un effort de recherche commun, sur la base du volontariat.

Sur les six projets de réacteurs sélectionnés pour leur potentiel maximal, deux sont retenus pour leur adéquation vis-à-vis de la production d'hydrogène ou la spécificité du combustible utilisé.

Quatre sont des réacteurs à neutrons rapides.

Les réacteurs à très haute température (VHTR - Very High Temperature Reactor) sont retenus pour leur potentiel vis-à-vis de la production d'hydrogène et la fourniture de chaleur pour l'industrie. Tous les membres du GIF participent à leur développement. Grâce à une température de sortie de cœur d'au moins 950°C atteinte par l'hélium utilisé pour le refroidissement, le VHTR est dédié à la cogénération d'électricité et d'hydrogène par cycle thermochimique ou électrolyse de vapeur d'eau à haute température.

Présentant l'intérêt d'utiliser comme combustible le système uranium 233 - thorium 232331, et de générer peu d'actinides mineurs comme déchets comparativement aux autres réacteurs, les réacteurs à sels fondus (MSF - Molten Salt Reactor) font l'objet d'une activité de veille, à laquelle participent les États-Unis, l'Union européenne et la France. Les sels fondus présentent également l'intérêt de pouvoir servir de caloporteur entre le réacteur et tout procédé industriel consommant de la chaleur.

L'une des priorités du Canada qui a acquis une expérience importante sur les réacteurs à tubes sous pression de la filière Candu, les réacteurs à eau supercritique sont peut-être une voie d'accès aux neutrons rapides, avec une cuve plutôt qu'avec des tubes sous pression. Une autre est celle des réacteurs à neutrons rapides refroidis au plomb, qui intéressent au premier chef les États-Unis, du fait de leur possibilité de bénéficier d'un transfert des technologies russes, les meilleures du monde dans ce domaine, bien qu'encore limitées aux réacteurs de petite puissance.

Les deux autres filières à neutrons rapides sont les réacteurs rapides refroidis au sodium, et les réacteurs rapides refroidis au gaz, dont la France, les États-Unis et le Japon sont les principaux acteurs, avec le soutien des autres membres du GIF.

Indispensable compte tenu de la lourdeur des investissements à effectuer dans des recherches dites pré compétitives, la coopération internationale doit mettre au point les modalités d'échanges d'information et de résultats, de propriété intellectuelle et de redevances pour licence.

Un accord-cadre intergouvernemental a été signé en février 2005 par cinq pays du GIF, rejoints depuis lors par trois autres, pour la phase de coopération. Compte tenu de son avance dans le domaine des réacteurs rapides au sodium, la France est particulièrement attentive à la prise en compte de l'expérience et des apports antérieurs332. Des accords techniques sont désormais déclinés, comme par exemple avec la signature en février 2006 de l'accord de coopération sur les réacteurs rapides refroidis au sodium par les États-Unis, le Japon et la France. D'autres accords, parmi lesquels ceux relatifs aux réacteurs à haute température à neutrons thermiques ou rapides, devraient être signés en 2006.

Dans la perspective de futures applications commerciales, les négociations sur les systèmes et les projets de recherche et développement relatifs aux technologies clés (combustibles, matériaux et composants) accordent une grande importance à la propriété intellectuelle. Il s'agit de déterminer avec soin, d'une part, le régime appliqué aux résultats acquis antérieurement à la période de coopération par les parties prenantes et apportés aux projets communs, et, d'autre part, le régime des résultats de la coopération proprement dite.

Une obligation pour l'Europe : revenir dans la course

Durant les décennies 1970 et 1980, l'Europe a occupé une position dominante dans la recherche sur les réacteurs à neutrons rapides et les réacteurs à haute température.

La France mettait en effet en service le réacteur à neutrons rapides refroidi au sodium Phénix à Marcoule en 1973, et, le Royaume Uni, le réacteur PFR en 1974 à Dounray. La filière des réacteurs à haute température était étudiée avec les réacteurs allemands AVR et THTR.

Aujourd'hui, l'Europe ne dispose plus que du réacteur Phénix de 250 MWe. Ce dernier moyen d'étude disparaîtra avec l'arrêt du réacteur prévu pour 2008-2009.

La situation est inverse en Asie, qui possède des moyens d'étude et de démonstration technologique de plus en plus nombreux.

L'Asie dispose, en effet, d'un ensemble de moyens d'études et d'expérimentation nombreux sur ces filières d'avenir. Appliquant une stratégie systématique dans l'ensemble des filières énergétiques et en particulier pour le nucléaire, le Japon exploite le réacteur expérimental HTTR de 40 MW thermiques333, le réacteur rapide au sodium Joyo de 140 MW thermiques et s'apprête à redémarrer le réacteur refroidi au sodium Monju d'une puissance de 280 MWe. La Chine exploite le réacteur à haute température HTR 10 et construit le réacteur au sodium CEFR de 65 MWth. Quant à l'Inde, après avoir acquis le savoir-faire indispensable sur les réacteurs rapides au sodium avec le réacteur FBTR de 40 MW thermiques, elle construit le réacteur PBFR d'une puissance de 500 MWe.

Dans le cadre du projet NGNP (Next Generation Nuclear Power), dont le budget prévisionnel de 1,25 milliard $ pour la période 2006-2015 a été approuvé par la loi sur l'énergie de 2005, les États-Unis prévoient de construire un réacteur à très haute température de 600 MW thermiques pour un démarrage entre 2017 et 2021, dont 10% de la puissance seraient prélevés pour la production d'hydrogène.

L'affaiblissement de l'Europe dans les filières nucléaires du futur, n'a pas été, pour le moment, enrayé par une action résolue de l'Union européenne. Les crédits de recherche d'Euratom sont en effet en très grande majorité alloués aux recherches sur la fusion. Les crédits pour la fission ont été affectés à la sûreté pour 41 millions €/an par le 5ème PCRD (Programme cadre de recherche et développement - 1999-2002), et aux recherches sur les déchets et la radioprotection pour 38 millions €/an par le 6ème PCRD, les recherches sur les concepts du futur n'ayant reçu que 15 millions € sur 5 ans.

Il est indispensable que le 7ème PCRD (2007-2011) subventionne les dépenses de formation et d'infrastructures de recherche et développement, à la fois pour les réacteurs de Génération III, et au moins trois filières de 4ème Génération à même de conduire à des réalisations industrielles à moyen terme : les deux filières de réacteurs à neutrons rapides refroidis au sodium et gaz, et la filière à très haute température.

L'approche française pour les réacteurs de 4ème Génération

La France a défini, en mars 2005, sa stratégie de développement des réacteurs de 4ème Génération, lors d'une réunion du Comité de l'énergie atomique présidée par les ministres chargés de l'industrie et de la recherche. Objectif précis, la mise en service au plus tard en 2020 d'un prototype de réacteur rapide a été demandée par le Président de la République, début janvier 2006.

La priorité est donnée aux recherches sur les réacteurs rapides au sodium ou au gaz, des réacteurs à haute température à neutrons rapides devant toutefois être préparés dans la perspective de « l'économie de l'hydrogène ».

Des sauts technologiques sont à effectuer pour faire des progrès sensibles par rapport aux réacteurs de la génération Phénix ou SuperPhénix. Des innovations sont attendues pour simplifier l'architecture du réacteur par l'intégration de certains dispositifs, pour améliorer l'inspection, la maintenance et la réparation en service et utiliser des gaz comme l'hélium ou le dioxyde de carbone supercritique pour la conversion de chaleur. La construction d'un prototype de réacteur rapide au sodium d'une puissance de quelques centaines de MWe et d'un coût estimé à 1,5 milliard €, est à décider en 2015, pour une entrée en service en 2020. Suivant les enseignements de son exploitation, la construction d'une tête de série sera possible en 2035 pour une entrée en service en 2040.

Le développement des réacteurs à neutrons rapides refroidis au gaz comporte une étape supplémentaire mais débouche sur un calendrier voisin. De nouveaux matériaux réfractaires stables à des températures supérieures ou égales à 1000°C, sont à mettre au point pour les combustibles qui doivent de surcroît pouvoir être retraités, et les structures du cœur (céramiques), ainsi que pour les circuits d'hélium à haute température et les turbines à gaz, qui sont un tronc commun de la R&D . De même des démonstrations de sûreté sont indispensables, notamment pour la gestion d'une éventuelle dépressurisation du cœur. La construction d'un réacteur expérimental de démonstration technologique REDT de 50 MW thermiques est jugée indispensable par le CEA, pour un coût de 500 millions €334. La décision de construire un prototype de réacteur à neutrons rapides refroidi au gaz est prévue pour 2018, avec une mise en service en 2025. Le lancement de la tête de série pourrait intervenir en 2035 pour une entrée en service en 2040.

Jusqu'en 2012, il est prévu un développement parallèle des deux filières sodium et gaz, qui se justifie par la similitude des questions à résoudre dans le domaine de la conception des systèmes, de la science des matériaux et des procédés pour le recyclage du combustible. À cette date, il devrait être possible de déterminer si la fiabilité des matériaux céramiques est suffisante pour engager la définition détaillée du réacteur REDT.

Le développement des réacteurs de 4ème Génération est d'autant plus important que ces réacteurs offrent des possibilités de transmutation des actinides mineurs.

Les progrès sur les méthodes de séparation acquis dans le cadre des recherches réalisées en application de la loi du 30 décembre 1991 relative aux recherches sur la gestion des déchets radioactifs, permettent l'extraction groupée, d'une part des produits de fission destinés au stockage définitif, et, d'autre part, de l'ensemble des actinides mineurs et du plutonium, selon le procédé GANEX335. En aval, les réacteurs à neutrons rapides permettront de procéder à la transmutation des actinides mineurs. La première méthode consiste à recycler en commun l'ensemble constitué par l'uranium de retraitement, le plutonium et les actinides mineurs d'une manière homogène, dans des assemblages combustibles de composition identique. On peut au contraire utiliser l'uranium et le plutonium isolés comme combustibles et les actinides mineurs dans des assemblages spécifiques utilisés comme matériau de couverture du cœur.

Pour étudier ces différentes options, il est prévu en 2008-2012 une démonstration d'ensemble de GANEX dans le laboratoire Atalante. La séparation à l'échelle pilote et la fabrication de combustibles contenant des actinides mineurs sont prévues dans les installations de COGEMA à La Hague et les essais d'irradiation dans le réacteur à neutrons rapides refroidi au sodium de Monju au Japon.

Les avantages et les inconvénients respectifs du gaz et du sodium

L'expérience acquise avec les réacteurs à neutrons rapides refroidis au sodium est un argument fort en faveur de leur sélection en tant que réacteurs de 4ème Génération.

La voie des réacteurs à gaz et tout spécialement à hélium offre toutefois des perspectives intéressantes à plusieurs égards336.

S'il est moins efficace comme caloporteur que le sodium, l'hélium offre, d'une part, l'avantage de faciliter, par sa transparence visuelle, l'inspection en service, la maintenance et la réparation, et, d'autre part, d'être également transparent aux neutrons, ce qui découple, dans une certaine mesure, la physique du cœur et l'état du caloporteur.

Ne changeant pas de phase dans toute la gamme de température considérée, l'hélium est en outre inerte chimiquement, ce qui réduit, dans des proportions considérables par rapport au sodium, la corrosion, la compatibilité avec les matériaux du combustible et les conséquences d'interactions éventuelles avec l'eau et l'air.

L'inertie chimique de l'hélium devrait permettre également la suppression du circuit secondaire qui, dans les réacteurs rapides au sodium, transfère la chaleur de la cuve au circuit eau vapeur alimentant la turbine. Une attaque directe de la turbine à gaz par l'hélium de refroidissement du cœur est même envisageable. Ces simplifications devraient permettre une diminution sensible des coûts d'investissement.

En outre, les simulations montrent qu'un réacteur à neutrons rapides refroidi au gaz devrait permettre d'incorporer deux fois plus d'actinides mineurs dans le combustible qu'un réacteur au sodium337.

D'où l'intérêt majeur du réacteur à gaz pour la transmutation, un domaine clé pour la gestion des déchets radioactifs.

Les moyens du CEA pour la recherche sur la 4ème Génération

Le CEA a pris en charge ces dernières années plusieurs grands chantiers, la bonne fin de chacun exigeant des moyens importants.

La microélectronique et les nanotechnologies constituent plus que jamais un de ses domaines d'excellence. Le CEA sera par ailleurs impliqué dans la construction et l'exploitation du réacteur d'étude de la fusion ITER. Les nouvelles technologies de l'énergie - hydrogène, piles à combustible, solaire photovoltaïque - représentent également un axe fort de recherche et d'expérimentation.

S'agissant du nucléaire, la mission du CEA comporte plusieurs dimensions.

Le CEA apporte une aide à l'étude d'innovations pour les réacteurs à eau légère, en particulier pour la mise au point de nouveaux combustibles, la simplification de l'architecture des réacteurs de petite taille, le renforcement de la cuve pour atteindre des puissances de 2000 MWe et le doublement voire le triplement du facteur de conversion de l'uranium pour le porter de 0,5 à 1,5%.

Les systèmes à neutrons rapides constituent un axe de recherche prioritaire, en raison du recyclage des déchets radioactifs de haute activité à vie longue et de l'utilisation optimale des réserves d'uranium qu'ils permettent.

Enfin, les technologies clés pour la fourniture de chaleur à haute ou très haute température pour l'industrie et la production d'hydrogène, constituent un troisième domaine.

Le budget annuel de recherche et développement du CEA consacré en direct aux réacteurs du futur est de l'ordre de 40 millions €, avec la répartition de 25% pour les réacteurs à neutrons rapides à caloporteur sodium, 45% pour les réacteurs rapides à gaz, 25% pour les technologies de la haute température et l'hydrogène et 5% pour les innovations relatives aux réacteurs à eau légère. Ce niveau de dépense prévu jusqu'en 2008 correspond aux engagements du Plan à moyen long terme du CEA. Il devrait augmenter en 2009 par la fusion des crédits de recherche sur la séparation-transmutation et de ceux des réacteurs de 4ème Génération.

Pour peser dans la recherche mondiale et conserver le rang de la recherche et de l'industrie françaises, le CEA estime toutefois qu'un niveau de dépenses directes de 100 millions € par an est indispensable.

Bien entendu, les dépenses réelles actuelles sont supérieures aux 40 millions € de dépenses directes, puisque s'y ajoutent les dépenses de logistique et les dépenses d'utilisation des grandes infrastructures de recherche comme les réacteurs expérimentaux et les laboratoires dits chauds. Au total, les dépenses annuelles totales du CEA pour la recherche sur les réacteurs du futur sont de l'ordre de 70 millions €.

Mais l'enjeu est bien aujourd'hui de les doubler, le plus rapidement possible.

Quant aux investissements nécessaires pour construire le réacteur REDT et les prototypes de réacteurs rapides au sodium ou au gaz, il conviendra de les financer, le moment venu, avec une implication forte des industriels et pour certains d'entre eux, dans un cadre international.

Les nouvelles applications de l'énergie nucléaire

L'industrie consomme non seulement de l'électricité mais également de la chaleur à des températures diverses.

Les industries consommant de la chaleur à des températures inférieures à 600-700°C, sont celles de la synthèse de l'urée, du papier et de la pâte à papier, le raffinage de pétrole, la désulfuration des huiles lourdes. Débouché potentiellement considérable compte tenu de la croissance des besoins en eau et de la sécheresse dans de nombreuses régions du monde, le dessalement de l'eau de mer requiert de la chaleur à des températures de l'ordre de 50-120°C.

Certains procédés des industries chimiques utilisent de la chaleur à haute température, comme la fabrication du styrène (700-900°C), de l'éthylène (700-950°C), la production d'hydrogène par vaporeformage du gaz naturel (700-1000°C).

La gazéification du charbon requiert de la chaleur à des températures comprises entre 900 et 1200°C. La production d'hydrogène avec des cycles thermochimiques ou par électrolyse nécessitera des températures élevées, de l'ordre de 900°C. [voir rubrique Hydrogène]

La valorisation de la chaleur que produisent inévitablement les réacteurs nucléaires et qui est rejetée sous forme de vapeur d'eau dans l'atmosphère ou dans les eaux de refroidissement, sera d'autant plus aisée que sa température sera plus élevée338.

Les réacteurs de 4ème Génération devraient ainsi, dans les prochaines années, élargir leurs applications au-delà de la production d'électricité.

PÉTROLE

Les crises de 1973 et de 1978-1980, les fortes hausses de 2004 et 2005 renforcent, à échéances de plus en plus rapprochées semble-t-il, les craintes sur l'avenir du pétrole.

Le montant réel des réserves disponibles et le fonctionnement des marchés suscitent des inquiétudes. L'évolution technique des autres secteurs énergétiques, gaz naturel, charbon, énergies renouvelables, voire nucléaire, hydrogène fait naître un espoir : la concurrence que subissent déjà le pétrole et les produits pétroliers dans certaines applications industrielles, est-elle en passe de s'étendre aux transports, le cœur de leurs applications ?

En dépit du pessimisme de certains observateurs, le « peak oil » - moment où la production décline, faute de pouvoir mettre en exploitation de nouveaux gisements - n'est pas une menace immédiate.

Sans compter les découvertes de nouveaux gisements, l'exploration et la production pétrolières ont fait des progrès considérables. Entre 1973 et 2003, la production pétrolière mondiale a ainsi augmenté d'un quart 339. Par ailleurs, du fait de la hausse des prix du pétrole, des ressources non conventionnelles pourront fournir un apport énergétique important.

En 2004, la première place dans la production d'énergie primaire mondiale était toujours occupée par le pétrole, avec 36,8% du total mondial. Certes son importance relative a diminué en trente ans, puisqu'en 1973, la part du pétrole était de 47,6%. Mais elle semble en passe de se rétablir, du fait de l'explosion des besoins de transports.

La demande mondiale actuelle de pétrole exercée par le seul secteur des transports est de l'ordre de 42 millions de barils par jour, soit 50% de la consommation de pétrole. On prévoit qu'elle augmente de 60% d'ici à 2025, pour atteindre plus de 67 millions de barils par jour à cette date340.

En définitive, la question des réserves est moins importante que celle de la domination du pétrole dans le secteur des transports, qui entraîne une dépendance inquiétante vis-à-vis d'un petit nombre de producteurs d'une zone géopolitique instable.

Les décennies récentes ont certes montré que les pays producteurs et l'industrie pétrolière ont toujours su répondre à l'augmentation de la demande. Il devrait en être de même à l'avenir. Les décennies récentes ont aussi, malheureusement, montré que les chocs pétroliers suscitent des efforts réels d'économie d'énergie mais n'ont pas encore interrompu le règne du pétrole.

Représentant un prélèvement accru sur la richesse nationale des pays non producteurs, le maintien du prix du pétrole depuis la mi-2005 au-dessus de 60$ le baril, doit être impérativement considéré comme l'opportunité certes coûteuse mais réelle - d'anticiper enfin l'après-pétrole.

L'épuisement des réserves de pétrole : une menace à relativiser

Selon BP, les réserves prouvées de pétrole ont augmenté de 50% entre 1983 et 2003, pour atteindre 1150 milliards de barils en 2003. En 2004, ce niveau est même monté à 1188 milliards de barils. En réalité, le rapport réserves prouvées/ production reste stable à 41-43 années depuis le début des années 1990.

Peut-on parler d'un épuisement proche des réserves de pétrole ?

Une théorie fait florès, celle du pic de Hubbert, qui date de 1956 et s'est appliquée avec succès au cas des États-Unis. Les raisons d'en contester le bien fondé sont nombreuses.

Les différentes notions de réserves

Les réserves prouvées sont les quantités dont les informations de la géologie et de l'ingénierie laissent penser avec une probabilité d'au moins 90%, qu'elles pourront être récupérées, à partir de gisements connus, dans les conditions économiques et techniques existantes. Pour les évaluations de 2004, le prix du pétrole correspondant est de 20 $/baril.

S'appliquant également à des gisements connus, le concept de réserves probables correspond aux quantités dont la probabilité de récupération est de 50% et les réserves possibles une probabilité de 10%.

Par sécurité, on utilise le concept de réserves prouvées qui s'avère toujours pessimiste. Dans la pratique, « les volumes extraits des gisements sont, à terme dans la plupart des cas, plus proches des réserves probables que des réserves prouvées initialement estimées lors des découvertes »341.

Un autre concept est celui des réserves déclarées par les compagnies pétrolières dans leurs rapports financiers. Selon les conventions en vigueur, les réserves déclarées correspondent aux réserves restant dans les gisements en production et aux gisements dont la mise en production a fait l'objet d'un plan d'investissement approuvé par l'ensemble des partenaires parties prenantes au projet.

Le pic de Hubbert, un calcul dépassé

Forgé par un géologue de Shell, M. King Hubbert, le « peak oil » désigne la date où la production pétrolière atteint un maximum avant de plafonner et de décliner. Le succès de cette théorie, fondée sur des calculs simples, vient du fait qu'en 1956, Hubbert a prévu avec succès le peak oil aux États-Unis pour 1970.

Selon des calculs voisins, les émules de Hubbert prédisent aujourd'hui le peak oil mondial pour 2010, à 90 millions de barils par jour pour une consommation mondiale de 80,6 millions de barils en 2004. D'autres le prévoient en 2025.

La date du pic de production pétrolière dépend en fait de nombreux paramètres, entachés de fortes incertitudes, que les modèles peinent à intégrer et à pondérer.

Quelle est la crédibilité réelle des informations sur les réserves ? Les réserves prouvées sont des informations stratégiques, à la fois pour les compagnies pétrolières et pour les pays producteurs, non seulement sur le plan technique mais aussi sur le plan financier. À la suite de la révision à la baisse de ses réserves en 2004 et 2005, Shell a payé le prix fort de ses errements, à savoir la stagnation du cours de ses actions alors que les autres compagnies voyaient les leurs s'envoler. Des manipulations comptables sur les réserves sont impossibles à organiser sur le long terme. Il n'y a pas lieu de mettre en cause gravement les montants des réserves prouvées.

Quels sont les progrès faits dans la récupération des réserves d'un même gisement ? L'industrie pétrolière a fait des progrès considérables dans les techniques de stimulation des puits anciennement en activité. L'injection de vapeur d'eau ou de CO2 permet de récupérer 50 % ou plus du pétrole contenu contre 30 % avec des techniques de pompage classiques. La priorité est donc logiquement à l'augmentation du taux d'extraction des gisements connus. De bonnes surprises sont même à attendre de nouveaux progrès technologiques.

Quels efforts réels sont effectués par les compagnies pétrolières pour découvrir de nouveaux gisements ? Les majors concentrant à l'heure actuelle leurs efforts sur la maximisation des gisements déjà en production et sur le développement de champs identifiés, on peut craindre un tassement des ressources et des tensions accrues sur les prix, à un terme de toute façon difficile à prévoir.

Peut-on prévoir avec précision l'évolution de la consommation de produits pétroliers ? Les prévisions de consommation de produits pétroliers souffrent de grandes incertitudes. De fait la croissance annuelle de la consommation, qui peut varier de 3 % par an (2004) à 1,7 % par an (prévision 2005), dépend étroitement de la croissance économique. En dépit de la domination écrasante actuelle des produits pétroliers dans les transports, les carburants de substitution de type biocarburants, CTL, GTL pourraient faire une percée plus rapide que prévu.

Des réserves d'au moins 100 années de production

Un relatif consensus existe sur le montant des réserves prouvées restantes qui, on l'a vu, représentaient environ 1200 milliards de barils fin 2004, soit 40 années de production au niveau actuel342.

Selon US Geological Survey, l'augmentation des taux de récupération permettra d'extraire 730 milliards de barils supplémentaires, soit 61% des réserves prouvées en plus. Plus les prix du pétrole seront élevés et plus les techniques de récupération pourront être sophistiquées, ce qui devrait encore augmenter les taux de récupération.

En outre, avec un prix du pétrole stabilisé à 25 $/baril, les bruts lourds343 deviendraient exploitables, ce qui apporterait 200 milliards de barils de réserves supplémentaires.

Par ailleurs, la probabilité de découvertes nouvelles est forte, dans des zones encore mal explorées comme la Sibérie ou la Mer Caspienne ou dans des fonds marins considérés jusqu'ici inaccessibles. Fondées sur des estimations géologiques, les réserves non encore découvertes sont estimées à 940 milliards de barils, soit 78% des réserves prouvées en plus.

Au total, les ressources en pétrole conventionnel représentent 2946 milliards de barils, soit presque deux fois et demie les réserves prouvées.

En faisant masse de l'ensemble des réserves de pétrole conventionnel, ce sont plus de 100 années de consommation au rythme actuel qui seraient assurées.

Enfin, exploitables avec des prix du pétrole de l'ordre de 35 dollars, les bruts extra-lourds du Venezuela et des sables asphaltiques du Canada rajoutent au moins l'équivalent de 600 milliards de barils.

Comme l'a dit avec humour le cheik Yamani, ancien ministre saoudien du pétrole, « l'âge de pierre ne s'est pas achevé par manque de pierres »344.

Les inquiétudes sur l'épuisement des réserves de pétrole sont en réalité moins fondées que les craintes que l'on peut avoir sur le fonctionnement des marchés et les espoirs sur les produits et techniques de substitution.

La concentration géographique des réserves, une menace plus grave que leur épuisement

La prédominance du Moyen Orient dans les réserves mondiales prouvées de pétrole, avec 62% du total, est connue de tous345, 346.

Il n'est toutefois pas inutile de savoir que l'Arabie saoudite détient, à elle seule, 22% du total mondial, l'Iran 11%, l'Irak 10%, les Émirats arabes unis 8%, le Koweït 8%347.

En dehors du Moyen Orient, c'est le Venezuela qui possède les réserves les plus importantes avec 6,5% du total (71 années de production), suivi de la Russie avec 6,1% (21 années de production).

L'Union européenne possède moins de 1%, les réserves britanniques ne représentant que 6 années de production dans les conditions et au niveau actuels. Avec moins de 1% des réserves mondiales, la Norvège n'a que huit années de production devant elle, à techniques et production constantes.

En Amérique du Nord, la part des réserves mondiales des États-Unis s'élève à 2,5%, du Canada à 1,4% et du Mexique à 1,2% 348.

Notons enfin que le Kazakhstan est, de tous les pays d'Asie centrale, le mieux doté en pétrole, avec 3% des réserves mondiales et 84 années de production, loin devant l'Azerbaïdjan (0,6% et 60 années de production). Quant au Turkménistan et à l'Ouzbékistan, beaucoup moins bien dotés en pétrole qu'en gaz naturel, leur potentiel ne dépasse pas 6 à 7 années de production au niveau de 2004.

La production pétrolière et ses enjeux

L'IFP estimait qu'à la fin de l'année 2004, la marge de sécurité du marché mondial était proche de 1 %. Une forte volatilité des prix du pétrole est donc probable, sur fond de hausse tendancielle, d'autant que la spéculation sur les marchés à terme aurait tendance à l'attiser.

La domination persistante des pays producteurs

L'OPEP contrôle aujourd'hui 41 % de la production mondiale de pétrole et détient 75% des réserves. Son influence se réduit-elle ou demeure-t-elle entière ? Les grandes compagnies pétrolières sont-elles parvenues depuis le premier choc pétrolier à desserrer l'étau ?

Regroupant depuis 1960 l'Arabie saoudite, le Koweït, l'Irak, l'Iran, le Venezuela, rejoints par le Qatar (1961), l'Indonésie (1962), la Libye (1962), les Émirats arabes unis (1967), l'Algérie (1969) et le Nigeria (1971), le bloc de l'OPEP bénéficie des coûts d'extraction les plus bas (3 $ le baril en Arabie saoudite contre 15-20 $ en offshore profond) et peut adapter son volume de production dans les délais les plus courts, jouant en conséquence un rôle essentiel d'ajustement à la hausse ou à la baisse.

Les pays producteurs non-membres de l'OPEP fournissent 60 % de la production mondiale par l'intermédiaire de compagnies nationales, réduisant ainsi les marges de manœuvre des supermajors - Exxon-Mobil, BP, Shell, Total, ChevronTexaco - qui excellent surtout désormais dans l'assistance technique aux producteurs, le raffinage et la distribution. Notons d'ailleurs que les grandes surfaces possèdent toutefois 57 % du marché en France.

Premier producteur mondial avec 506 millions de tonnes en 2004, l'Arabie saoudite a su augmenter de 16% sa production depuis 1994 et pourrait le faire encore plus substantiellement à l'avenir. Quant à l'Iran, c'est le troisième producteur avec 202 Mt.

La Russie, deuxième producteur mondial avec 318 millions de tonnes en 2004, possède des marges de production considérables, de même que le Kazakhstan qui a déjà multiplié par trois sa production entre 1994 et 2004.

Les États-Unis ont, pour leur part, vu leur production se réduire de 15% en dix ans, à 330 millions de tonnes, certes pour conserver des réserves stratégiques mais aussi en raison d'une chute de productivité de différents gisements. Le Mexique, 5ème producteur mondial avec 191 Mt, a augmenté sa production d'un quart en dix ans, au contraire du Venezuela (153 Mt) dont la production ne croît que très lentement. En Amérique latine, sur la base d'un niveau de production identique en 1994, le Brésil a multiplié par plus de deux sa production pour atteindre 76 Mt, tandis que l'Argentine voyait la sienne croître plus lentement à 38 Mt.

En Afrique, le Nigeria, le 9ème producteur mondial, a extrait 122 Mt en 2004, soit 26% de plus qu'en 1994, l'Algérie 83 Mt (+48% par rapport à 1994), la Libye 76 Mt (+13%), l'Angola 49 Mt (+81%), l'Égypte 35 Mt (-24%) et le Gabon 12 Mt (-29%).

La Chine est, de loin, le premier producteur d'Asie avec 174 Mt, tandis que la Thaïlande (40 Mt) et le Vietnam (21 Mt) dont la production est en essor, prennent le relais de celle de l'Indonésie (55 Mt) qui décroît.

Quant à l'Europe, elle peut compter sur la Norvège, 8ème producteur mondial avec 150 Mt (+16% par rapport à 1994), et, encore pour quelques années sur le Royaume Uni (95 Mt en 2004) qui a toutefois vu sa production chuter de 25% en 10 ans.

Une société française, 4ème entreprise pétrolière mondiale : Total

Avec un chiffre d'affaires de 143 milliards € en 2005, Total est l'une des cinq super-majors pétrolières mondiales, seulement devancée par BP, ExxonMobil, Shell et devant ChevronTexaco.

Présente dans toute la chaîne pétrolière, de l'exploration à la distribution, dans le gaz naturel, Total produit 2,6 millions de barils équivalent pétrole par jour et possède une activité chimique importante (20 milliards € de chiffre d'affaires). Total emploie 110 000 collaborateurs dans 130 pays.

Le raffinage, une industrie lourde importante en France

Couvrant environ 90 % des besoins nationaux, les 13 raffineries installées en métropole349 ont traité en 2004 86,8 millions de tonnes de pétrole. Cette industrie lourde, dominée par Total avec la moitié des raffineries, a un contenu en emploi réduit mais un poids économique et financier important.

Le coût d'une installation moderne avoisinant 3 milliards €, l'industrie du raffinage est une industrie très capitalistique qui se heurte à des difficultés croissantes d'acceptation sociale et environnementale. Le solde des échanges extérieurs de produits pétroliers est négatif, avec de fortes importations de gazole en partie seulement compensées par des exportations d'essence.

Très basses pendant une longue période, au point de compromettre l'avenir de l'outil de production, les marges de raffinage se sont rétablies à 30 € par tonne début 2006.

La diversification des approvisionnements de la France

Les 85,2 millions de tonnes de pétrole importées par la France en 2004 provenaient à 29,9 % de la Mer du Nord, 27,2 % du Moyen Orient, 22,5 % des pays de l'ex Union Soviétique, 12,1 % d'Afrique du Nord et 7,3 % du reste de l'Afrique.

Il est à noter que Total est le 2ème producteur du Moyen Orient et le 1er producteur d'Afrique.

Nécessaire pour la sécurité physique d'approvisionnement, la diversification géographique ne permet pas toutefois de limiter les évolutions des prix du pétrole, car le marché est un marché mondial.

Les stocks stratégiques de pétrole et de produits pétroliers

Le danger d'une rupture des approvisionnements de pétrole a été identifié dès la première guerre mondiale. Dès 1925, des stocks de réserves sont constitués en France. En 1968, les Communautés européennes, et, en 1974, l'Agence internationale de l'énergie de l'OCDE imposent cette précaution aux Etats membres, à raison, respectivement, de 90 jours de consommation intérieure moyenne et de 90 jours d'importations nettes.

Contrairement aux États-Unis ou au Japon, qui stockent principalement du pétrole brut, la France stocke à la fois du brut et des produits raffinés. La loi impose une obligation de stockage aux opérateurs privés350, à hauteur de 27% du volume mis à la consommation en métropole, soit environ 95 jours de stocks, et 20%, dans les départements d'outre-mer, soit 73 jours de stocks351. Des contrôles réguliers sont effectués, assortis d'amendes dissuasives.

Les stocks stratégiques sont répartis sur le territoire, de façon que chaque région dispose de 10 jours de supercarburants et 15 jours de gazole et de fioul domestique.

Ainsi, sont élargies les marges de manœuvre et de négociation du pays, en cas de crise pétrolière, de grève de la navigation ou de boycott politique352.

La domination du Moyen-Orient et des pays de l'ex-URSS sur la production

L'évolution récente du marché du pétrole est celle d'une dépendance toujours croissante des pays industrialisés vis-à-vis des pays producteurs, même si la nature de ceux-ci a pu changer.

Les efforts des compagnies pétrolières pour desserrer l'étau de la dépendance vis-à-vis du Moyen Orient sont considérables. Mais en dix ans, entre 1994 et 2004, la part du Moyen Orient dans la production mondiale a toutefois légèrement augmenté, passant de 30% à 31% du total. Grâce à l'abondance des gisements et à une productivité élevée des puits, les marges de progression de la production dans ces pays sont très grandes.

L'Amérique du Nord conserve le deuxième rang des régions productrices avec 17,6% en 2004, mais seul le Canada augmente sa production. Grâce à la mise en exploitation de gisements en eau profonde, l'Afrique a augmenté sa production de 32% en dix ans mais n'assurait en 2004 que 11,5% du total mondial, un montant voisin de celui de l'Asie Pacifique (10%).

En réalité, les pays de l'ex-URSS, Russie comprise, assoient peu à peu, à leur tour, une domination importante sur la production mondiale. Leur production s'est en effet accrue de 51% en dix ans, pour atteindre 14,8 % de la production mondiale en 2004.

En dix ans, entre 1994 et 2004, les États-Unis ont vu leur production baisser de 14% alors que leur consommation augmentait de 14%. Résultat, la consommation américaine était deux fois supérieure à la production en 1994 : elle est aujourd'hui trois fois supérieure. Aujourd'hui, les États-Unis importent du pétrole non seulement du continent américain mais aussi du Moyen Orient et d'Afrique de l'Ouest353.

Bien entendu, les États-Unis continuent d'opérer la ponction majeure sur le pétrole mondial, en accaparant 25% de la consommation mondiale en 2004, soit 20,5 millions de barils par jour354.

L'Union européenne a certes peu augmenté sa consommation (2%) de 1994 à 2004 mais sa production a chuté de 14%. Sa dépendance vis-à-vis du Moyen Orient a diminué mais l'Union européenne dépend désormais à hauteur de près de 43% de ses importations de la Russie et des autres pays de l'ex-URSS355. Seule consolation pour l'Europe, la Norvège a pu augmenter sa production de 18% alors que celle du Royaume Uni baissait de 24%.

Autre phénomène majeur, la montée de la consommation chinoise de pétrole.

La Chine a en effet plus que doublé sa consommation en dix ans, celle-ci atteignant 6,7 millions de barils par jour en 2004, un niveau qui reste toutefois encore trois fois inférieur à celui des États-Unis.

Dix ans plus tôt, la production chinoise couvrait à peu près la consommation nationale. En 2004, la consommation chinoise était deux fois supérieure à sa production. La Chine a, en conséquence, importé 3,4 millions de barils de pétrole par jour, en provenance du Moyen Orient (37%), d'Asie-Pacifique (24%), d'Afrique de l'Ouest (16%) et des pays de l'ex-URSS (11%).

Les achats de pétrole de la Chine ont sans aucun doute contribué à la hausse des prix du brut intervenue en 2005. L'évolution de la croissance chinoise est désormais un paramètre décisif de l'évolution des marchés pétroliers.

Les nouvelles technologies du pétrole conventionnel

Loin de ses débuts où le pétrole, découvert grâce à des affleurements, était exploité à quelques mètres de profondeur, l'industrie pétrolière est aujourd'hui une industrie de haute technologie.

Des avancées considérables ont été faites dans les techniques d'exploration, qui permettent aujourd'hui de découvrir, de représenter et d'évaluer, avec une grande précision, les gisements de pétrole.

Les techniques de production ont également avancé à pas de géant, permettant d'exploiter des gisements de plus en plus profonds, éventuellement situés sous des hauteurs d'eau de plus en plus grandes et avec des taux de récupération toujours plus élevés.

L'exploration, une science de plus en plus performante

Les conditions climatiques de nombreuses zones pétrolifères, leur éloignement des zones habitées, ainsi que la mise en œuvre de techniques de plus en plus sophistiquées par des personnels qualifiés, font que les coûts d'exploration par forage du sous-sol sont très élevés. En conséquence, les compagnies pétrolières et les sociétés de services pétroliers, comme Halliburton aux États-Unis ou Schlumberger, société d'origine française, se sont, dès l'origine, attachées à accroître et valoriser au mieux le stock de connaissances géologiques de façon à ne réaliser des forages d'exploration qu'à coup sûr.

Jusque dans les années 1930, ce sont les indices de surface qui déclenchaient l'exploration concrète des gisements par des forages. Mais dès cette époque, les sciences physiques furent mobilisées, notamment le sismographe qui date de 1914, le logging de puits, c'est-à-dire la collecte de données géophysiques, de 1924 et la sismique ponctuelle de 1930. Cet ensemble de données conduisait alors à des représentations à une dimension du sous-sol356.

Correspondant aux années 1940-1950, la phase suivante d'amélioration des techniques d'exploration a correspondu aux nouveaux acquis de la géophysique, aux méthodes de datation et aux progrès effectués dans les techniques classiques.

À partir des années 1960, les avancées de l'informatique et de la représentation du sous-sol, la diagraphie357, les analyses stratigraphiques, la sismique en trois dimensions (1983) puis la sismique 4D358 et le développement des forages directionnels permirent d'accroître sensiblement les performances de l'exploration.

Aujourd'hui, les bassins sédimentaires, où la présence de pétrole est la plus probable, et les réservoirs eux-mêmes sont modélisés en trois dimensions, de même que la localisation et les mouvements des fluides. Grâce à un couplage étroit de la géologie et de l'exploration pétrolière, les campagnes d'exploration sont plus rapides et moins coûteuses.

Ces progrès technologiques donnent une forte probabilité aux évaluations de réserves non encore découvertes dont le total s'élève à plus de 900 milliards de barils, soit trois quarts des réserves prouvées.

Les paris gagnés de la production offshore

Des progrès ont également été effectués pour l'extraction de pétrole en mer. L'offshore est un territoire très anciennement connu des compagnies pétrolières, puisque les premiers forages en mer ont été réalisés en 1923 en mer Caspienne et sur le lac Maracaïbo au Venezuela. Les années cinquante ont vu la mise au point des premières grandes plateformes dans le golfe du Mexique. Les années soixante-dix sont celles de l'exploitation des gisements de la mer du Nord359.

Les nouvelles technologies du pétrole ont permis que les records d'exploitation en mer profonde soient régulièrement battus. Les records d'extraction de pétrole en mer sont passés de 312 mètres de profondeur d'eau en 1978, à 752 m en 1991 (Brésil), 1650 m en 1997 (États-Unis), 1853 m en 2000 (Brésil) et à 2316 m en 2004 (États-Unis)360.

Grâce à des avancées techniques de tous ordres, près du tiers du pétrole consommé chaque année dans le monde provient aujourd'hui de zones immergées. Les coûts de développement des gisements à plus de 200 mètres ont été réduits d'un facteur 5. Même sous plus de 1000 mètres d'eau, les coûts techniques sont inférieurs à 10 dollars le baril.

Par ailleurs, une part très importante - 23% - des réserves prouvées de pétrole se trouvent en offshore et une part encore plus importante - 42% - des réserves prouvées de gaz naturel. Ceci conduit à repousser encore les limites techniques et à travailler sur l'offshore ultraprofond, c'est-à-dire les zones situées par plus de 1500 mètres d'eau.

Susceptibles de contenir des réservoirs géants comme ceux découverts au large de l'Angola, plusieurs grands bassins retiennent l'attention des géologues, comme les golfes de Guinée et du Mexique, le nord de la mer du Nord, les côtes du Brésil, de l'Australie et de la mer de Chine.

Après avoir résolu les problèmes d'exploration et de forage à plus de 1500 mètres d'eau, il reste à perfectionner les techniques de production.

Les plateformes utilisées jusqu'à 1200 mètres de profondeur d'eau appartiennent à la technologie dite « tension leg platform », où la plateforme qui repose sur de grands cylindres immergés, est accrochée au fond par des liens verticaux. Au-delà de cette profondeur, il faut utiliser la technique des plateformes flottantes FPSO « floating production storage and offloading », amarrées par une série de lignes d'ancrage obliques garantissant leur stabilité au-dessus du point d'extraction malgré le vent et les courants361.

En raison de leur longueur, les ancrages seront allégés grâce à l'utilisation de fibres synthétiques au lieu de chaînes métalliques. De même, le poids des tubes conducteurs pour les forages ou la production, est réduit par des matériaux composites.

Un autre problème difficile est celui de la température, de 4°C au-dessous de 1500 mètres de profondeur, alors que le pétrole, sort du sous-sol à 80 ou 100°C et doit être conservé aussi chaud que possible pour éviter le dépôt sur le tube de production de paraffines ou d'hydrates de carbone. Autre technique envisagée, la séparation, avant remontée, des différentes phases - eau, pétrole et gaz - nécessite la mise au point de séparateurs résistant à la pression de 300 bar que l'on trouve à 3000 mètres de profondeur.

Les gisements enfouis au-delà de 5000 mètres

La profondeur des gisements actuellement exploités ne dépasse pas 4500 mètres. Selon de nombreux géologues, d'autres réserves de pétrole ou de gaz existent à plus grande profondeur, vers 6000, voire 8000 mètres, dans des configurations géologiques particulières comme le piémont de chaînes de montagne362, les deltas de grands fleuves363, voire le sous-sol de bassins anciens364.

L'adaptation ou le renouvellement des techniques d'exploration et d'extraction actuellement utilisées s'impose donc, un thème de recherche dont l'Institut français du pétrole a fait une priorité stratégique365.

Parmi les problèmes techniques à résoudre, figurent non seulement la distance par rapport à la surface mais aussi l'augmentation des pressions et des températures du milieu rocheux366.

La sismique perd en efficacité à grande profondeur, ne délivrant que des images de faible qualité. La longueur des trains de tige et leur poids retardent les opérations de forage. Les trépans s'usent plus rapidement car les roches à forer compactées par une hauteur plus grande des terrains sont plus dures.

Des appareils résistant aux hautes températures doivent être mis au point pour les loggings ou diagraphies Les boues de forage, qui lubrifient le trépan, évacuent les débris de roches vers la surface et équilibrent la pression des fluides rencontrés en profondeur, devront être préparées avec une grande précision.

À moins de progrès techniques exceptionnels, les forages à très grande profondeur devraient être environ 10 fois plus coûteux367, ce qui réduirait l'exploitation des très grandes profondeurs à des gisements de très grande contenance.

La récupération du pétrole de plus en plus exhaustive

La quantité de pétrole récupérée des gisements en exploitation est de l'ordre de 35% de leur contenu total. La valorisation maximale d'un gisement suppose des techniques performantes pour les opérations de récupération primaire, secondaire et tertiaire.

Même à l'état liquide, le pétrole contient du gaz dissout qui se libère lorsque la pression de 200 à 400 bar du gisement est abaissée par les forages ou lorsque le fluide remonte à la surface. Il arrive fréquemment qu'un gisement de pétrole soit surmonté d'une zone contenant du gaz et se situe au-dessus d'un aquifère. Pour maximiser le taux de récupération primaire, il est impératif de régler la pression du réservoir et le débit des puits de façon à extraire simultanément et le plus longtemps possible le pétrole et le gaz dissout. Une bonne connaissance de la géométrie du gisement permet d'optimiser l'implantation des puits368. Des taux de récupération primaire de l'ordre de 25% ne sont pas rares pour les gisements de pétroles légers.

L'injection d'eau ou de gaz, opération de récupération secondaire, permet d'augmenter la quantité de pétrole récupérée. Injectée à la base du gisement, l'eau pousse le pétrole vers les puits. Injecté au sommet du gisement ou à sa base, le gaz fait monter la pression qui vide les pores de la roche. On réinjecte souvent le gaz naturel au lieu de le brûler à la torche. Ces techniques permettent couramment de récupérer 20% du gisement en plus.

La récupération tertiaire correspond aux opérations conduites lorsque les gisements arrivent en fin d'exploitation. On injecte alors des polymères, qui ont la même fonction que l'eau mais des performances meilleures, du CO2 qui diminue la viscosité du pétrole ou bien encore de la vapeur d'eau. On envisage aussi de faire brûler une partie du pétrole dans le gisement lui-même de manière à chauffer et pousser le pétrole à récupérer.

Une augmentation de 1% du taux de récupération sur l'ensemble des gisements exploités procurerait l'équivalent de deux années de la consommation actuelle369.

En tout état de cause, l'injection de CO2 dans le cadre d'opérations de stimulation de gisements EOR (Enhanced Oil Recovery) ou EGR (Enhanced Gas Recovery), représente l'opportunité la meilleure de stocker le dioxyde de carbone à des coûts acceptables. [voir rubrique séquestration du CO2]

Les pétroles non conventionnels

Les pétroles non conventionnels sont les bruts extra-lourds que l'on trouve en particulier au Venezuela et les sables asphaltiques dont les gisements les mieux connus sont ceux du Canada.

Les pétroles non conventionnels représentant 4 000 milliards de barils, on estime actuellement à 15% la part de ces ressources qui pourraient être récupérées, soit 600 milliards de barils, qui représentent 80% des réserves en pétrole conventionnel du Moyen Orient.

Les bruts extra-lourds du Venezuela et du Canada

Le pétrole extra-lourd du Venezuela est localisé principalement dans le bassin du fleuve Orénoque. Pour exploiter ces réserves estimées à 1300 milliards de barils, qui se trouvent entre 700 et 1000 mètres de profondeur, des technologies particulières ont dû être mises au point.

Des forages de plusieurs kilomètres de long ont été réalisés en réseau, de manière à drainer la structure complexe des réservoirs. Par ailleurs, du naphta est injecté pour diluer ces pétroles extra-lourds, faciliter leur remontée et leur transport jusqu'à une raffinerie située à 200 km de distance.

Deux installations sont en exploitation, associant la compagnie nationale du Venezuela et les sociétés Conoco-Phillips et Total.

500 000 barils par jour de ce mélange de naphta et de brut extra-lourd sont actuellement produits. Le taux de récupération, qui n'est actuellement que de 10%, pourrait passer à 40% avec une injection de vapeur370.

Le Canada possède également des gisements de bruts extra-lourds. Leur extraction fut réalisée initialement par des puits verticaux et aujourd'hui par des forages horizontaux. L'injection de vapeur permettra d'augmenter les taux de récupération.

Les sables asphaltiques ou bitumineux du Canada

Le principal gisement de sables asphaltiques ou bitumineux actuellement répertorié se trouve au Canada dans la région de l'Athabasca dans la province de l'Alberta.

Les réserves correspondantes sont estimées à 2000 milliards de barils. Une partie d'entre elles est d'ores et déjà exploitée, la production actuelle étant d'environ un million de barils par jour.

Les gisements de sables bitumineux se trouvant à proximité de la surface sont exploités selon la technique des mines à ciel ouvert. D'énormes camions ou des tapis roulants acheminent le sable pour traitement à l'eau chaude, le bitume étant récupéré par dilution dans du pétrole léger. Les deux tiers de la production canadienne sont réalisés par ce procédé, qui exige des grandes quantités d'eau, sa filtration après usage et la remise en place des sables prélevés.

L'autre procédé consiste en l'injection de vapeur d'eau par un puits horizontal et en la récupération du pétrole fluidifié par un autre puits horizontal se trouvant en dessous du premier. Un tel procédé nécessite de grands volumes d'eau et consomme beaucoup d'énergie. Les émissions de CO2 correspondantes ne pourraient être tenues pour négligeables dans le cas d'une exploitation massive de ces sables bitumineux. C'est pourquoi différents scénarios sont évoqués, comme l'utilisation de cycles combinés à gaz voire de mini-réacteurs nucléaires.

Les mécanismes de la hausse des prix du pétrole

Si la croissance de la demande est dans les deux cas essentielle, la hausse des prix du pétrole résulte aussi de la quasi-disparition des capacités excédentaires de production et celle des produits dérivés de l'inadaptation de l'offre à la demande371.

L'augmentation des prix du pétrole et des produits dérivés

En janvier 2004, le prix du baril de Brent était de 31 dollars. En janvier 2005, il atteignait 44,5 dollars, soit une augmentation de 43,5%. En août 2005, le cours du baril s'élevait à 63,95 dollars, soit une multiplication de 2,1 par rapport à janvier 2004, puis redescendait à 56,87 dollars en décembre 2005, soit une diminution de 11% par rapport au plus haut.

L'augmentation du prix du pétrole subie entre 2004 et 2005 est une augmentation certes très forte mais elle reste inférieure à celle des deux chocs pétroliers de 1973 et de 1978-1982.

Les prix du pétrole ont, en effet, été multipliés par quatre entre octobre 1973 et janvier 1974. Suite à la guerre du Kippour, le prix du pétrole était passé de 3 dollars par baril ($/b) en octobre 1973 à 11,65 $/b au 1er janvier 1974. Le phénomène fondamental survenu alors était que le pouvoir de fixation du prix du pétrole échappait désormais au cartel de compagnies pétrolières et revenait désormais au cartel de l'OPEP (fondée en 1960). De surcroît, l'emprise de l'OPEP fut accentuée par la reprise du contrôle de leurs ressources nationales par plusieurs pays producteurs.

Le deuxième choc pétrolier entre 1978 et 1982 correspond au doublement du prix du pétrole en plusieurs étapes. Ce doublement du prix du pétrole à 35 $/b a accentué le ralentissement de l'économie mondiale. En monnaie 2005, le prix atteint, fin 1979-début 1980, était supérieur à 80 $/baril.

Ultérieurement, les prix du pétrole ont diminué rapidement à environ 20 $/b, malgré les efforts de l'OPEP. Il s'est agi d'un véritable contre-choc pétrolier en 1998 qui a conduit à des prix très bas : le prix du pétrole est en effet revenu à 12 $/b. Ce niveau fut catastrophique pour les pays producteurs, dont les budgets dépendent pour certains aux 2/3 des revenus du pétrole.

La structure des prix des carburants à la production

Les prix des produits pétroliers correspondent à l'empilement de plusieurs coûts ou marges : les coûts de production, les prix de vente du brut, les marges de raffinage, les marges de transport et de distribution372.

Le coût de production du pétrole varie dans des proportions très grandes selon le gisement : 1 $ le baril pour les meilleurs gisements, contre 10 à 15 $/baril en offshore profond ou en Sibérie orientale.

Trois bruts sont cotés sur les marchés internationaux : le Brent (mer du Nord) coté à Londres, le Dubaï (Moyen Orient), et le WTI (West Texas Intermediate) coté au Nymex de la bourse de New York.

Le prix de vente du brut est formé de deux façons distinctes. Le prix sur le marché spot dépend de la qualité du brut, du volume, de la date et du lieu d'enlèvement. Les contrats de gré à gré portent sur la qualité du brut, la durée de l'engagement, les volumes et l'indexation des prix.

Pour les producteurs, le paramètre important est la marge amont, c'est-à-dire la différence entre le prix de vente du brut et les coûts de production augmentés des impôts à la production. Dans certains pays, la marge amont est fixe et définie avec le pays hôte 373.

À côté des marchés physiques du pétrole, existent les marchés financiers, qui sont des marchés de « pétrole papier » permettant de couvrir les risques. Sur ces marchés, les principaux types de contrat sont les contrats à terme et les produits dérivés et les opérateurs sont les compagnies pétrolières et les grands consommateurs. Le montant des transactions sur ces marchés de couverture est quatre fois supérieur à celui des transactions physiques.

Au prix du pétrole s'ajoutent les marges de raffinage pour calculer le prix de marché des produits pétroliers. La marge de raffinage est de 20 à 30€ par tonne. Avant 2000 les marges de raffinage ont été trop faibles pour garantir un niveau suffisant d'investissement.

Les marges ont augmenté depuis le début de la décennie (1999 : 11,3 € / t ; 2003 : 21 € /t ; 2004 : 29 € /t), afin de permettre la prise en compte des contraintes réglementaires européennes et des modifications de la demande (hausse de la demande de gazole, qui entraîne des importations de gazole et des exportations de SP). Les capacités de production de gazole sont alors en tout état de cause insuffisantes en France, ce qui conduira les raffineurs à modifier leurs installations.

Les prix de vente des produits pétroliers comprennent aussi les marges de transport et de distribution. Ces marges correspondent aux frais d'acheminement vers les stations service et aux coûts de commercialisation et sont de 0,05 - 0,06 € / litre. Il faut noter par ailleurs que les grandes surfaces ont, en 2003, réalisé 54 % des ventes de carburants en France. En tout état de cause, les marges de transport et de distribution sont en France inférieures à la moyenne communautaire.

Par le jeu des différentes marges et de la fiscalité, les prix à la pompe des carburants n'ont augmenté en moyenne que de 30% par rapport au début janvier 2004, c'est-à-dire beaucoup moins que les prix du pétrole brut374.

La fiscalité française sur les produits pétroliers

La fiscalité française sur les produits pétroliers comporte deux éléments : la TIPP (taxe intérieure sur les produits pétroliers) et la TVA (taxe sur la valeur ajoutée). La TIPP est assise sur le volume du produit considéré et varie selon la nature de celui-ci. La TVA s'applique sur le prix de base augmenté de la TIPP.

La TIPP, taxe assise sur le volume, est fixée, chaque année, par la loi de finances votée par le Parlement. En 2005, la TIPP, a été fixée à 0,59 € par litre pour le supercarburant sans plomb et à 0,42 € par litre pour le gazole375.

La TVA sur les produits pétroliers s'applique au prix de base augmenté de la TIPP. La TVA sur les produits pétroliers est aujourd'hui de 19,6 %. Avant le 1er janvier 2000, la TVA était de 20,6 %.

La part des taxes dans les prix de vente des carburants atteint toutefois 70 % en moyenne en France376. Mais les prix de vente en France ne sont pas supérieurs aux prix européens.

Les prix de base du carburant SP 95 sont, en France, inférieurs à la moyenne européenne, et, notamment, à ceux de l'Allemagne et de la Belgique, grâce à un outil de raffinage de qualité.

Les prix de vente TTC du gazole sont également inférieurs à la moyenne européenne.

La fiscalité sur les produits pétroliers et la TIPP flottante

Constituant la quatrième recette fiscale de l'Etat, la TIPP a rapporté 24,4 milliards (Mds) € à l'État en 2003377. La loi de finances pour 2006 prévoit un montant de recettes de 19,6 Mds € en 2006. Cette baisse de recettes s'explique par le versement de dotations de l'État aux collectivités territoriales, départements et en région en 2005.

La hausse des prix des produits pétroliers n'entraîne pas automatiquement une hausse des recettes fiscales de l'État. En effet, la hausse des prix de base des produits pétroliers entraîne généralement une diminution de la consommation, d'où une baisse du produit de la TIPP. En revanche, la TVA perçue sur la somme (prix de base + TIPP) peut, quant à elle, augmenter. Au total il peut y avoir une compensation TIPP - TVA et, au final, une baisse des recettes fiscales. En 2004, par exemple, aucune plus-value fiscale ne s'est produite378.

La TIPP flottante mise en place le 1er octobre 2000 s'est révélée d'une application complexe, coûteuse pour le budget de l'Etat et contre-productive en terme de politique énergétique.

La TIPP flottante a institué pour compenser l'augmentation de 24 à 35 $ / b du prix du pétrole début 2000. La TIPP flottante consistait en une modulation du barème de la TIPP (assise sur les volumes), venant annuler le surplus de recettes fiscales provenant de la TVA (assise sur le prix du carburant augmenté de la TIPP). La TIPP flottante portait sur les supercarburants, le gazole et le fioul domestique. En cas d'envolée des prix du pétrole de « brent daté », les barèmes de la TIPP étaient modulés à la baisse, à proportion du surplus de recettes fiscales de TVA appliquée à la consommation de produits pétroliers. La modification était effectuée si le prix moyen sur les deux derniers mois dépassait de 10 % le prix moyen sur le bimestre précédent.

La TIPP devait disparaître en cas de diminution du prix du pétrole conduisant à un prix inférieur à celui de janvier 2000. De fait, la TIPP flottante n'est plus appliquée depuis juillet 2002. En 2001, son coût pour les finances publiques a été de 200 millions €.

L'intérêt de la TIPP flottante est aujourd'hui souvent remis en cause. La complexité de la mesure n'est en effet pas négligeable en cas de volatilité forte sur les prix du pétrole. Par ailleurs, la TIPP pourrait empêcher la modification des comportements.

Pour atténuer l'impact de la hausse des prix du pétrole en 2005, d'autres mesures que la réactivation de la TIPP ont été préférées : engagements d'étalement des hausses et de répercussion immédiate des baisses ; reversement d'éventuels surplus fiscaux aux professions les plus touchées ; aides aux ménages les plus défavorisés (aide à la cuve) ; engagements d'augmentation des investissements dans le raffinage ; renforcement des aides fiscales en faveur des véhicules propres et de certains modes de chauffage.

L'avenir du GPL (Gaz de pétrole liquéfié)

Mélange de propane C3H8 et de butane C4H10, le GPL (gaz de pétrole liquéfié) est liquide à température ambiante sous la faible pression de 5 bar379.

En France, le GPL est obtenu à 97% en tant que fraction de tête de la distillation du pétrole, qui correspond au niveau de raffinage le plus élevé, et à 3% à partir du gaz naturel.

La percée du GPL sur les marchés résulte principalement pour des raisons environnementales du fait qu'à la combustion, ce carburant n'émet ni composés aromatiques ni plomb et très peu de composés soufrés.

La percée du GPL sur le marché automobile français a été plus lente que dans d'autres pays pour deux raisons principales.

Des investissements importants ont été consentis pour la création d'un réseau de distribution de 1800 pompes dans l'hexagone, pour un coût d'environ 200 millions euros. Mais la moindre couverture du territoire reste un handicap au développement du GPL. Il a fallu par ailleurs attendre la mise en place de dispositifs de sécurité multiples380 sur les véhicules pour supprimer les risques d'explosion et ouvrir l'accès des véhicules GPL aux parkings souterrains.

Fin 2005, la France comptait 170 000 véhicules GPL, la plupart fonctionnant en bicarburation essence-GPL381. L'Italie en comptait 1,2 million et les Pays-Bas un peu plus de trois cent mille.

Pour autant, les ventes de GPL seraient très inférieures aux capacités installées (1 million de tonnes par an).

Le GPL favorisé par des avantages fiscaux

Depuis 1996, le développement du GPL en France est favorisé par de nombreux avantages fiscaux.

Un crédit d'impôt de 1525 €, puis de 2000 € et actuellement de 3000 €, a été instauré pour l'achat d'un véhicule GPL, ce qui efface le surcoût entraîné par les dispositifs particuliers dont il est doté par rapport à un véhicule à essence ou gazole standard.

Les régions ayant reçu la possibilité de promouvoir les véhicules dits « propres », la carte grise a été exonérée de taxe partiellement ou totalement dans plusieurs départements382.

Le GPL fait l'objet d'autres mesures d'encouragement auprès des professionnels. Le véhicule GPL est en effet exonéré de la TVTS (taxe sur les véhicules de tourisme des sociétés). La TVA sur le GPL est récupérée à 100%.

Enfin, la TIPP sur le GPL est faible par rapport à celles des carburants standards383. En conséquence, vendu aux alentours de 0,75 €/litre, le GPL est un carburant attractif puisqu'il est environ deux fois moins cher que l'essence.

La réduction des émissions de CO2, nouvelle frontière du GPL

Promu dans le cadre de la lutte contre la pollution de l'air, le GPL doit aujourd'hui aborder l'étape de la lutte contre l'effet de serre. À cet égard, affichant clairement l'importance de la réduction des émissions de CO2 des véhicules automobiles, la loi de finances pour 2006 a fait rentrer le GPL dans le droit commun.

L'achat d'un véhicule fonctionnant au GPL continue de bénéficier d'un crédit d'impôt, qui est d'ailleurs augmenté, passant à 3000 € par véhicule. Mais ce crédit d'impôt est réservé aux véhicules dont les émissions de CO2 sont inférieures à 140 g/km.

De plusieurs dizaines de modèles commercialisés, le nombre de véhicules GPL pouvant bénéficier du crédit d'impôt au catalogue 2006 passe à moins de dix. La mesure a pour but d'inciter les constructeurs à faire progresser la technologie GPL vers une réduction des consommations.

Les véhicules hybrides : effet d'image ou solution à long terme ?

La technologie du moteur à combustion interne n'a pas fini de se perfectionner, notamment en termes d'économies d'énergie et de diminution de ses émissions de polluants atmosphériques et de gaz à effet de serre. On peut toutefois redouter que les diminutions de consommation et la réduction des émissions n'atteignent un palier, de plus en plus difficile à abaisser, à des coûts acceptables.

De son côté le véhicule électrique possède des avantages théoriques nombreux et conséquents. Non seulement le moteur électrique possède une capacité d'accélération remarquable384, mais il peut récupérer une partie de l'énergie de freinage, ne consomme pas d'énergie à l'arrêt et n'émet aucun gaz à effet de serre. Mais depuis plus d'un siècle, le développement de la voiture électrique se heurte au même obstacle : les capacités insuffisantes des accumulateurs et la difficulté de produire à bord l'électricité.

Afin de contourner les limitations intrinsèques du moteur à combustion interne et celles du véhicule tout électrique, le concept de voiture hybride est développé, dans le but de combiner leurs avantages. Cette voie est explorée par les constructeurs japonais Toyota et Honda, et plus récemment par le groupe PSA.

Les différents types de voitures hybrides ont été présentés et analysés par MM. Christian Cabal et Claude Gatignol, dans leur excellent rapport sur la voiture du futur, adopté par l'Office parlementaire d'évaluation des choix scientifiques et technologiques en décembre 2005385.

Si le concept du véhicule hybride est simple, sa réalisation est encore coûteuse. Sur le plan des principes, le moteur électrique alimenté par des batteries peut servir à démarrer le véhicule, à augmenter son accélération voire à propulser à lui seul le véhicule par exemple en centre ville. Le moteur à combustion prend le relais dès que la batterie ne peut plus alimenter le moteur électrique386. Lors des phases de décélération et de freinage, la batterie se recharge.

Quelques données simples permettent de mettre le concept de voiture hybride dans la perspective de la lutte contre l'effet de serre.

Par rapport à un véhicule à essence, l'hybridation permet une réduction très nette des émissions de CO2387. Le véhicule correspondant présente l'inconvénient d'être plus onéreux, en raison des équipements électriques dont il doit être doté388.

Mais pour obtenir une diminution des émissions de CO2 par rapport au moteur à essence, il est également possible d'utiliser le diesel, dont la consommation est inférieure de 20% à celle d'un moteur à essence.

D'où pour aller plus loin, l'idée mise en œuvre par le groupe PSA, l'un des leaders mondiaux du moteur diesel, de combiner le recours au diesel et l'hybridation389. Dans ce cas, la réduction des émissions de CO2 est encore plus grande que dans le cas d'un hybride essence390.

La combinaison d'un moteur thermique et d'un moteur électrique est en réalité une idée connue et utilisée depuis longtemps. Différents moyens peuvent être utilisés à cet égard. La question centrale est la mise au point d'un moteur susceptible de recharger en permanence et à moindre coût un ensemble de batteries alimentant un ou plusieurs moteurs électriques.

On peut se demander en effet si le moteur à combustion interne est le meilleur schéma technique. Des véhicules utilisant une turbine à gaz pour produire de l'électricité à bord, utilisée directement ou après recharge de batteries, ont déjà roulé avec succès.

En tout état de cause, toute source d'électricité pourrait remplacer un générateur actionné par un moteur thermique. La voie la plus prometteuse semble être celle de la pile à combustible. Mais si la construction des piles à combustible se révélait durablement non compétitive, l'utilisation selon des procédés renouvelés des hydrocarbures pourrait perdurer pendant de nombreuses décennies.

PILES À COMBUSTIBLE

Découvert en 1839 par William Grove, le principe de la pile à combustible consiste en la transformation directe d'hydrogène et d'oxygène en électricité, par leur réaction électrochimique sur deux électrodes distinctes séparées par un électrolyte. Le principe de la pile à combustible est l'inverse de celui de l'électrolyse, qui consiste à dissocier l'eau sous l'action de l'électricité.

Les premières applications pratiques des piles à combustible datent des années 1960 avec le programme spatial américain, qui a mis en œuvre des piles à combustibles embarquées pour la production d'électricité dans les capsules Gemini et Apollo.

Aujourd'hui, les piles à combustible, de par leur principe, représentent une solution technologique séduisante pour la cogénération stationnaire d'électricité et de chaleur ainsi que pour la production d'électricité stationnaire ou embarquée. Les piles à combustible n'émettent pas de gaz à effet de serre, leur rendement global (électricité et chaleur) est excellent et leur rendement électrique peut atteindre 60%.

De fait, leurs applications potentielles sont très nombreuses, allant de l'alimentation en électricité d'appareils électroniques portables à la cogénération d'électricité et de chaleur pour des utilisations collectives, en passant par la production d'électricité embarquée pour les transports.

Si la nature de l'électrolyte et la composition des électrodes peuvent varier selon les technologies, ainsi que la température de la pile à combustible, la réaction reste globalement toujours la même, à savoir : H2 + ½ O2 → H2O, accompagnée d'un dégagement de chaleur et de production d'électricité.

Les divers types de piles à combustible font l'objet de réalisations pilotes. Depuis 2001391, les efforts de recherche semblent conduire à l'émergence de trois technologies principales, les piles SOFC (Solid Oxide Fuel Cell) pour la cogénération de chaleur et d'électricité, la pile DMFC (Direct Methanol Fuel Cell) pour les applications portables et les piles PEMFC (Proton Exchange Membrane Fuel Cell) pour les transports.

Mais la commercialisation de l'ensemble des piles à combustible ne semble pas pouvoir être immédiate. Il reste en effet à lever de nombreux verrous technologiques. Le coût des piles à combustible doit aussi être réduit d'une manière drastique.

Les piles dédiées aux applications stationnaires

La production stationnaire d'électricité et de chaleur est un domaine essentiel d'application des piles à combustibles. Différentes technologies sont en cours de développement. L'une d'entre elles, la technologie SOFC (Solid Oxide Fuel Cell), semble avoir l'avenir le plus prometteur.

La pile à acide phosphorique PAFC (Phosphoric Acid Fuel Cell) utilise de l'acide phosphorique liquide à une température d'environ 200°C. La conduction dans l'électrolyte est assurée par des ions H3O+392. Réservée aux applications stationnaires pour des puissances allant de 200 kW à 10 MW, la pile PAFC est testée pour des applications de cogénération d'électricité et de chaleur.

La pile à carbonate fondu MCFC (Molten Carbonate Fuel Cell) fonctionne avec des sels fondus Li2CO3/K2CO3/Na2CO3 à une température de 650°C, les ions carbonates CO32- assurant la conduction dans l'électrolyte393. Les piles MCFC conviennent pour des applications stationnaires de forte puissance - entre 500 kW et 10 000 kW. Les difficultés à résoudre sont principalement la corrosion des matériaux de structure par les carbonates fondus et la réduction du temps de démarrage.

La pile SOFC (Solid Oxide Fuel Cell) semble aujourd'hui la plus prometteuse pour les applications stationnaires. L'électrolyte étant une céramique solide de type ZrO2-Y2O3, sa température de fonctionnement peut être de l'ordre de 750-1050°C394.

Ceci présente un double avantage. Le rendement de la pile SOFC est très élevé, de l'ordre de 80-90%, dont 50 à 60% pour l'électricité et de 30% pour la chaleur. Par ailleurs, compte tenu de cette très haute température, on peut utiliser directement le gaz naturel comme source d'hydrogène, le vaporeformage de celui-ci intervenant in situ. [voir rubrique hydrogène]

Les piles SOFC qui sont au stade du développement, pourraient développer des puissances importantes, comprises entre 100 et 1000 kW. Parmi les principaux problèmes techniques à résoudre figurent la tenue des matériaux, l'augmentation de puissance massique et la diminution du temps de démarrage.

Autre raison de leur intérêt, les piles SOFC peuvent être utilisées en fonctionnement inverse, c'est-à-dire pour la production d'hydrogène par électrolyse à haute température. Les matériaux utilisés pour la pile SOFC supportent les températures élevées qui permettent d'atteindre des rendements élevés pour l'électrolyse. [voir rubrique hydrogène]

On conçoit donc que les piles SOFC fassent l'objet de multiples recherches et puissent l'emporter à terme sur les piles à acide phosphorique ou à carbonates fondus.

Les piles spécialement adaptées aux applications mobiles

À l'opposé des piles à combustibles de forte puissance pour les applications stationnaires, se trouvent les piles à combustible pour les applications mobiles, c'est-à-dire pour l'alimentation d'appareils électroniques portables.

Les piles DMFC (Direct Methanol Fuel Cell), qui utilisent un électrolyte solide de type polymère perfluoré, ont une température de fonctionnement de 60-90°C. Ces piles présentent l'intérêt fondamental de pouvoir accepter le méthanol comme source d'hydrogène395. On peut dès lors imaginer de recharger la pile avec du méthanol liquide, à l'image de ce que l'on fait pour un briquet.

Le premier inconvénient des piles DMFC, négligeable compte tenu de la faiblesse des volumes en cause, est de conduire à l'émission de dioxyde de carbone. Deuxième inconvénient, les piles DMFC ont une puissance spécifique limitée. Leur troisième inconvénient, rédhibitoire pour leur commercialisation, résulte de l'utilisation d'un catalyseur très onéreux, le platine.

Compte tenu de ces limites, les piles DMFC pourraient être concurrencées par les piles PEMFC, si la miniaturisation de ces dernières était possible.

La pile à membrane échangeuse de protons PEMFC pour les transports

Avec une température de fonctionnement de 60 à 90°C, la pile à membrane échangeuse de protons PEMFC (Proton Exchange Membrane Fuel Cell) est d'une utilisation aisée dans les véhicules automobiles, pour les applications stationnaires de production de chaleur et d'électricité, voire dans les portables. C'est avec la pile SOFC (Solid Oxide Fuel Cell), la technologie promise sans doute au plus grand avenir.

Le précurseur des piles embarquées : la pile alcaline AFC

Les piles à combustible dites alcalines AFC (Alkaline Fuel Cell) utilisent la potasse KOH comme électrolyte, avec une température de fonctionnement comprise entre 50 et 250°C, selon les technologies. À la cathode, l'oxygène est réduit en ions OH-, avec capture des électrons provenant de l'anode par le circuit extérieur. La conduction dans l'électrolyte est assurée par les ions OH- qui transitent vers l'anode où l'hydrogène est oxydé en eau avec récupération des électrons qui transitent vers l'anode par le circuit extérieur396. Le platine et le nickel sont utilisés comme catalyseurs à l'anode, le platine, l'or ou l'argent à la cathode.

La pile alcaline a eu de nombreuses applications dans le spatial et les transports, pour des puissances de 1 à 100 kW. Son temps de démarrage est toutefois supérieur aux piles à membrane échangeuse de protons PEMFC. Une température élevée est nécessaire pour obtenir un bon rendement. L'utilisation d'un électrolyte liquide nécessite des précautions particulières. Enfin sa durée de vie est aujourd'hui jugée insuffisante par rapport aux autres types de piles, notamment les piles PEMFC.

Les avantages techniques importants de la pile PEMFC

Souvent décrite comme pile « acide à électrolyte polymère solide », la pile PEMFC met en œuvre l'oxydation de l'hydrogène à l'anode, un transfert des électrons par le circuit externe de l'anode vers la cathode, un transfert des ions H3O+ de l'anode vers la cathode via l'électrolyte à travers une membrane échangeuse de protons, et la réduction de l'oxygène à la cathode397.

Le catalyseur indispensable tant à l'anode qu'à la cathode est actuellement le platine. La membrane échangeuse de protons est de type polymère perfluoré. Les piles à combustible se présentent sous la forme « tout solide » d'empilements de cellules modulaires anode/électrolyte/cathode.

Si l'hydrogène utilisé comme combustible doit être très pur sous peine de détériorer rapidement la pile, en revanche l'oxygène peut être celui de l'air. La pile PEMFC est en effet insensible à la présence de dioxyde de carbone dans l'air.

Des applications potentielles multiples

Pouvant être de dimensions et de puissances très variables, les piles PEMFC présentent un éventail d'utilisations très étendu398.

On envisage en effet leur utilisation dans des appareils portables avec une puissance inférieure à 100 W.

Les piles PEMFC focalisent par ailleurs l'attention des constructeurs automobiles. Des piles de ce type sont en effet envisagées pour les automobiles particulières avec des puissances de 50 kW, ainsi que pour les bus, avec des puissances de 100 à 120 kW.

Les PEMFC pourraient également servir à la cogénération d'électricité et de chaleur pour le résidentiel, avec des puissances de l'ordre de 100 à 200 kW.

Les verrous technologiques et les surcoûts à supprimer

Entraînant le plus souvent des coûts rédhibitoires, différents verrous technologiques s'opposent, pour le moment, à la diffusion des piles à membranes échangeuses de protons399.

Les plaques bipolaires par lesquelles s'effectuent l'alimentation en hydrogène, l'évacuation de l'eau et la collecte des électrons sont à l'heure actuelle trop onéreuses. Il en est de même pour la membrane, dont la version la plus répandue, le Nafion, est à la fois peu performante, coûteuse400 et d'une durée de vie réduite.

D'où les études actuellement conduites sur les membranes polymères hydrocarbonées ou les polyimides sulfonés. Point critique pour le succès de la pile PEMFC, la durée de vie des membranes doit être sensiblement allongée, y compris à température élevée ou très basse, et en présence d'impuretés.

Enfin, le catalyseur nécessaire au bon fonctionnement des piles PEMFC, le platine dans l'état actuel des choses, se révèle trop coûteux. Les 50 à 100 g de platine nécessaires à la pile d'une automobile particulière représentent un coût de 1472 à 2944 €. De surcroît, la généralisation de cette technologie au seul parc automobile français consommerait, dans les conditions actuelles, la totalité de la production mondiale de platine401. Il convient donc de réduire fortement les quantités de platine utilisées ou de le remplacer par des alliages de métaux non précieux.

L'alimentation en hydrogène de la pile peut se faire, soit directement par de l'hydrogène stocké, soit par reformage à bord du véhicule.

Le stockage à 700 bar d'hydrogène embarqué est étudié par tous les constructeurs automobiles. Ce type d'alimentation permettra d'atteindre un rendement énergétique de 60%, soit deux à trois fois celui d'un moteur conventionnel.

Le reformage à bord du véhicule d'un hydrocarbure ou de l'éthanol chargé à la pompe est une autre solution étudiée principalement par Renault et Toyota. Réduisant le rendement énergétique à 45%, le reformage présente le double inconvénient, d'une part, de produire du monoxyde de carbone, qu'il faut éliminer en raison de sa toxicité, et, d'autre part, d'avoir un temps de réponse non négligeable lors d'un démarrage à froid 402.

Une filière industrielle émergente

Un grand nombre d'entreprises sont actives pour la conception et la construction des piles à combustibles. Leurs systèmes auxiliaires représentent également un enjeu industriel, en particulier les systèmes d'approvisionnement en hydrogène et en air (reformage éventuellement, filtration, compression), les systèmes de gestion des produits (eau, chaleur) et l'électronique de puissance.

S'agissant des piles à combustible elles-mêmes, les principaux fabricants sont BALLARD (Canada), UTC (États-Unis), SIEMENS (Allemagne) et, en France, HELION, filiale de Technicatome du groupe AREVA, et AXANE, filiale d'Air liquide.

L'avenir des piles à combustible repose sur la capacité de la recherche et de l'industrie à diminuer leur coût de fabrication dans des proportions très significatives et à fiabiliser leur fonctionnement dans la durée.

Les deux marchés principaux des piles à combustible sont, d'une part, le marché des applications stationnaires pour la cogénération d'électricité et de chaleur, et, d'autre part, l'automobile. Le développement du premier marché, probablement plus proche dans le temps, devrait exercer un effet d'entraînement sur le second marché, qui semble, pour sa part, plus étroit à court-moyen terme.

Les marchés des piles à combustible stationnaires

Différents marchés de niche semblent d'ores et déjà se constituer pour les piles à combustible stationnaires.

Ces équipements peuvent en effet commencer à rivaliser avec les groupes électrogènes pour des équipements de secours. Des piles peuvent également commencer à constituer une solution de cogénération de chaleur et d'électricité pour des ensembles immobiliers dotés d'un réseau de chaleur.

Des piles stationnaires pourraient aussi offrir des possibilités pour l'électrification de sites isolés, lorsque l'approvisionnement en gaz naturel est possible.

La multiplication des applications est, en tout état de cause, importante pour stimuler la recherche et créer les économies d'échelle indispensables à la baisse des coûts.

Les applications dans les transports

L'automobile représente l'autre grand secteur d'application potentielle des piles à combustible. La combinaison de batteries de forte capacité et d'une pile à combustible pour les recharger, en complément à la récupération d'énergie lors du freinage, permet la construction d'un véhicule tout électrique. Le tout électrique représente une simplification notoire par rapport au véhicule hybride qui possède en double de nombreux systèmes mécaniques et électriques.

La compétition pour la mise au point de piles à combustible pour les véhicules automobiles est lancée depuis plusieurs années.

Aujourd'hui, la plupart des constructeurs les ont incluses dans leurs programmes de recherche et d'études. En Europe, les constructeurs les plus actifs sont DaimlerChrysler et Volkswagen, aux États-Unis Ford et General Motors, en Asie Toyota, Honda, Nissan, Hyundai.

L'initiative prise en 2003 par l'administration Bush en faveur de l'hydrogène (HFI - Hydrogen Fuel Initiative) a donné une nouvelle dimension médiatique à ce domaine de recherche. Des crédits de 1,7 milliard $ sur une période totale de 5 ans ont été demandés au Congrès des États-Unis, afin de permettre que « la première voiture d'un enfant né en 2003 soit non polluante et propulsée à l'hydrogène »403.

La Californie n'avait pas attendu cette annonce pour se lancer dans une politique ambitieuse. La mise en place d'un réseau de distribution d'hydrogène sur les grands axes routiers (Hydrogen Highway Network) est l'un des axes de cette politique, la présence d'infrastructures étant jugée comme indissociable de la percée des véhicules à pile à combustible404. En tout état de cause, la Californie vise, à l'horizon 2010, la création de 50 à 100 stations livrant de l'hydrogène pour 2000 véhicules particuliers.

L'expérience menée par la régie des transports AC Transit d'Oakland montre que la diffusion des véhicules à pile à combustible pourrait commencer par les transports collectifs. Le coût élevé d'une pile à combustible est en effet plus facilement amorti sur un bus que sur une voiture particulière.

Un prototype de bus à pile à combustible a parcouru en 2004 plus de douze mille kilomètres, avec une disponibilité de 83%405. Pour autant, la durée de vie d'une pile à combustible, garantie pour le moment à 4000 heures, devra être multipliée par cinq pour être acceptable économiquement.

En tout état de cause, le coût d'investissement de la pile à combustible est crucial pour les transports collectifs, et, sans doute encore davantage pour les véhicules individuels.

Selon le CEA406, le coût d'une pile à combustible rapporté à sa puissance est de 6000 à 8000 €/kW.

Or le coût du kW d'un moteur diesel de bus est de l'ordre de 150 €/kW. Pour ce type d'application, le gain à obtenir est d'un facteur 50.

Pour une automobile individuelle, le défi semble encore plus difficile. Le coût de l'unité de puissance du moteur à combustion interne étant de 30 à 50 €/kW, il faut donc parvenir à diviser le coût de la pile au moins par un facteur 200 pour la rendre compétitive avec une motorisation classique.

Il est difficile de prévoir une date précise pour la commercialisation des automobiles dotées de piles à combustible. Pour le DOE, la commercialisation des véhicules à piles à combustible pourrait commencer vers 2010 et atteindre son maximum vers 2025407. Pour l'IFP (Institut Français du Pétrole), la commercialisation des piles à combustible n'apparaît pas possible avant 2020408. Renault l'envisage pour 2015-2020409.

RECHERCHE & COMMERCIALISATION : LES ÉTAPES CRITIQUES

La mise en place de nouvelles filières énergétiques, qui, dans la pratique, s'ajoutent aux filières en place plutôt qu'elles ne s'y substituent, suppose que de nombreuses conditions soient remplies.

Ces conditions forment une chaîne dont tous les maillons ont leur importance et conditionnent le succès de l'ensemble. Parmi ces conditions, on peut notamment citer une recherche scientifique et technique performante, des liens étroits entre la recherche et l'industrie, l'usage de la réglementation et la promotion de la normalisation, la formation, l'information du public et l'acceptation.

En tant que structures économiques fondamentales, les filières énergétiques ne peuvent évoluer et se diversifier qu'au prix d'investissements importants, en premier lieu de recherche. Les technologies actuellement opérationnelles - combustibles fossiles, nucléaire et hydroélectricité - ont des marges de progression et de renouvellement. Par ailleurs, les énergies nouvelles renouvelables n'ont pas encore atteint leur efficacité maximale. Des efforts de recherche sont donc nécessaires.

Plus encore que dans d'autres secteurs, la recherche dans le domaine de l'énergie requiert une liaison forte avec l'industrie. Disposer, comme en France, d'un appareil de recherche performant, devrait conduire à la consolidation ou à la création d'entreprises industrielles performantes.

Par ailleurs, depuis les premiers temps de la révolution industrielle, la réglementation est non seulement un moyen de protection des salariés des industries de l'énergie et des usagers, mais aussi une arme dans la concurrence internationale, dont le rôle peut être accru. Démarche volontaire des industriels, la normalisation revêt aussi une importance telle que la présence d'experts nationaux dans les instances internationales doit être systématisée.

Autre maillon essentiel, la formation d'ingénieurs, techniciens et artisans est la condition sine qua non de la pérennité des filières opérationnelles et de la diffusion sur le marché des nouvelles technologies de l'énergie.

Enfin l'information du public joue un rôle clé dans la diffusion de nouvelles technologies ou de nouvelles pratiques de consommation d'énergie. L'acceptation de nouvelles technologies par le public passe également par une information scientifique complète, dont on peut constater qu'elle est encore insuffisante dans notre pays.

La recherche : objectifs chiffrés et organisation

Définissant à la fois une période de quinze années de recherche et trois domaines précis à étudier - la séparation-transmutation, le stockage en formation géologique profonde, et le conditionnement et l'entreposage de longue durée -, la loi du 30 décembre 1991 a vu le Parlement définir et programmer dans le détail un effort de recherche spécifique.

Dans le même esprit, différents objectifs chiffrés ont été ultérieurement fixés par la loi dans le domaine de l'énergie. La loi de programmation du 13 juillet 2005 fixant les orientations de la politique énergétique revêt, à cet égard, une importance particulière. Un ensemble d'objectifs chiffrés faciliteront l'évaluation de son application, voire faciliteront sa modification si nécessaire. De surcroît, l'application de la loi s'effectuera dans une organisation nouvelle de la recherche, qui tend à accroître sa capacité de réponse à des défis concrets.

Une nouvelle pratique d'objectifs quantifiés

La loi de programmation du 13 juillet 2005 vise ainsi une diminution de 3% par an en moyenne des émissions nationales de gaz à effet de serre.

Placée au premier rang des priorités de la politique énergétique, la maîtrise de la demande d'énergie devra conduire à une baisse de l'intensité énergétique finale de 2% dès 2015 et de 2,5% d'ici à 2030. Les usages énergétiques dans le bâtiment, l'industrie et les transports devront donc voir leur efficacité s'accroître.

Deuxième priorité de la politique énergétique, l'approvisionnement énergétique devra être diversifié, sur la base du socle de la production nucléaire.

En application de la directive communautaire 2001/77/CE du 27 septembre 2001 relative à la promotion de l'électricité produite à partir de sources d'énergie renouvelables sur le marché intérieur de l'électricité, 10% des besoins énergétiques nationaux devront, à l'horizon 2010, être satisfaits à partir des sources d'énergies renouvelables. En particulier, l'objectif est fixé d'une augmentation de 50% d'ici à 2010, de la production de chaleur d'origine renouvelable.

La loi prévoit également l'agrément de capacités de production nouvelles de biocarburants, de façon à porter à 5,75% en 2010, la proportion en énergie de biocarburants intégrés à l'essence et au gazole. Cette incitation a rapidement porté ses fruits puisque les pouvoirs publics ont décidé d'avancer cet objectif à 2010.

Enfin la loi de programme du 13 juillet 2005 indique que l'État prévoit dans la programmation pluriannuelle des investissements la construction d'un réacteur nucléaire démonstrateur de conception la plus récente.

Le nouveau contexte institutionnel de la recherche

L'effort public de recherche et développement dans le domaine de l'énergie a représenté environ 1,4 milliard € en 2004, 64% de ce total étant représenté par un financement public et 36% par un financement en partenariat public-privé.

Les organismes publics de recherche impliqués dans l'énergie sont nombreux en France : l'ADEME (Agence de l'environnement et de la maîtrise de l'énergie), BRGM (Bureau de recherches géologiques et minières), CEA (Commissariat à l'énergie atomique), CNRS (Centre national de la recherche scientifique), CSTB (Centre scientifique et technique du bâtiment), IFP (Institut français du pétrole), IFREMER (Institut français pour l'exploitation de la mer), INRA (Institut national de la recherche agronomique), INRETS (Institut national de recherche sur les transports et leur sécurité), IRD (Institut de recherche pour le développement), IRSN (Institut de radioprotection et de sûreté nucléaire), LCPC (Laboratoire central des Ponts et Chaussée), etc. Les recherches sur l'énergie représentent une part importante voire exclusive de l'activité de chacun de ces organismes, le plus souvent dans le cadre de programmes à moyen-long terme négociés avec l'État.

En complément à ses partenariats avec le public, l'industrie conduit, par ses propres moyens, des programmes de recherche dont il est difficile de connaître l'ampleur, mais qui doivent être amplifiés. D'une manière générale, la recherche privée française, qui assure 52% de la dépense intérieure de recherche et développement, est en effet moins développée que dans de nombreux autres pays industrialisés, en particulier le Japon où les entreprises assurent 74% du financement, l'Allemagne (66%) et les États-Unis (64%)410. En 2003, La recherche-développement des entreprises françaises se classe au 4ème rang, avec un ratio de dépenses de recherche par rapport au PIB de 2,1%, après le Japon (3,2%), les États-Unis (2,6%) et l'Allemagne (2,6%)411.

Trois impératifs se sont imposés aux pouvoirs publics dans les années récentes : d'abord améliorer l'impulsion et la coordination du très vaste ensemble d'organismes publics travaillant sur des domaines distincts mais dont les interactions se renforcent ; ensuite favoriser le développement de la recherche privée ; et, enfin, renforcer les liens de la recherche publique et l'industrie afin de tirer un meilleur parti économique des résultats de la recherche.

Trois nouvelles instances ont cette mission, proposant, selon les priorités de la politique de recherche, des financements sur projets, aux équipes des organismes et des entreprises 412.

Créée en février 2005, l'ANR (Agence nationale de la recherche) a comme objectif la stimulation de la recherche amont, grâce au financement de projets public-privé. Les financements accordés sont de l'ordre d'un million € par projet.

Créée en août 2005, l'AII (Agence de l'innovation industrielle) a pour mission le soutien aux projets à finalité commerciale, notamment dans les nouveaux secteurs, ainsi que l'aide aux progra