Accueil > Documents parlementaires > Rapport d'information
Version PDF
Retour vers le dossier législatif

N° 2141 N° 135

____ ___

ASSEMBLÉE NATIONALE SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

TREIZIÈME LÉGISLATURE SESSION ORDINAIRE DE 2009 - 2010

____________________________________ ____________________________________

Enregistré à la présidence de l’Assemblée nationale Enregistré à la présidence du Sénat

Le 3 décembre 2009 Le 4 décembre 2009

________________________

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT

sur

La performance énergétique des bâtiments :
comment moduler la règle pour mieux atteindre les objectifs ?

Par MM. Christian BATAILLE et Claude BIRRAUX

Députés

__________ __________

Déposé sur le Bureau de l'Assemblée nationale Déposé sur le Bureau du Sénat

par M. Claude BIRRAUX, par M. Jean-Claude Étienne,

Président de l'Office Premier Vice-Président de l'Office

______________________________________________________________________________

Composition de l’office parlementaire d’évaluation
des choix scientifiques et technologiques

Président

M. Claude BIRRAUX

Premier Vice-Président

M. Jean-Claude ÉTIENNE

Vice-Présidents

M. Claude GATIGNOL, député Mme Brigitte BOUT, sénatrice

M. Pierre LASBORDES, député M. Christian GAUDIN, sénateur

M. Jean-Yves LE DÉAUT, député M. Daniel RAOUL, sénateur

députés

sénateurs

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Alain CLAEYS

M. Pierre COHEN

M. Jean-Pierre DOOR

Mme Geneviève FIORASO

M. Claude GATIGNOL

M. Alain GEST

M. François GOULARD

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Michel LEJEUNE

M. Claude LETEURTRE

Mme Bérengère POLETTI

M. Jean-Louis TOURAINE

M. Jean-Sébastien VIALATTE

M. Gilbert BARBIER

M. Paul BLANC

Mme Marie-Christine BLANDIN

Mme Brigitte BOUT

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

M. Marc DAUNIS

M. Marcel DENEUX

M. Jean-Claude ÉTIENNE

M. Christian GAUDIN

M. Serge LAGAUCHE

M. Jean-Marc PASTOR,

M. Xavier PINTAT

Mme Catherine PROCACCIA

M. Daniel RAOUL

M. Ivan RENAR

M. Bruno SIDO

M. Alain VASSELLE

SOMMAIRE

_________

Pages

SAISINE 7

INTRODUCTION 9

I. UNE TRIPLE RÉVOLUTION CULTURELLE 13

A. Concevoir mieux pour économiser l'énergie 13

B. Réaliser en s’astreignant au zéro défaut 15

C. Poursuivre un objectif de performance 16

1. La part du comportement des utilisateurs 17

2. Les limites du « calcul réglementaire » 18

3. Le risque du contournement 19

II. LES MARGES POSSIBLES DE MODULATION 21

A. Le refus de la facilité 21

1. Maintenir la contrainte sur l’ensemble des cinq usages 21

2. Conserver le coefficient de conversion de l’électricité 22

3. Compter les énergies renouvelables utilisées sur place 27

B. L’adaptation selon la localisation 27

1. Généraliser le modèle retenu par « Effinergie » 28

2. Intégrer le besoin spécifique du confort d’été 29

C. L’adaptation selon la taille et la destination 31

1. Ajuster la contrainte pour les petits logements 31

2. Interpréter la contrainte pour les bâtiments tertiaires 34

a) Une démarche axée sur la performance effective 35

b) La fragmentation du bâtiment par fréquence d’occupation 36

c) La vérification des critères objectifs de qualité du bâti 36

d) La mise en place d'un suivi des consommations 37

e) La publicité de la performance obtenue 38

f) La constitution en réseau des responsables de l'énergie 38

III. LE DÉFI DE LA MISE EN OEUVRE 41

A. Le passage à une diffusion de masse 41

1. L’effet d'illusion des expériences pilotes 41

2. Les contraintes du contexte institutionnel 42

Ø Les règles d’urbanisme 42

Ø Les marchés publics 43

3. La formation des professionnels 44

Ø La multiplicité des initiatives en cours 45

Ø L’intérêt de la double certification 46

4. L’implication des industriels 48

Ø Le camp de la résistance 48

Ø Le parti pris du volontarisme 50

B. L'adhésion du plus grand nombre 51

1. La sensibilisation 52

2. L'accompagnement 53

Ø Le conseil 54

Ø Le contrôle 56

Ø La sanction 57

3. Le financement 59

IV. L’IMPACT ÉCONOMIQUE 61

A. Le débat sur le surcoût 61

B. La consommation d’énergie 63

C. Les effets d'entraînement 64

1. La connexion avec la rénovation 64

2. Les pistes pour la recherche 65

a) Les matériaux isolants 65

b) Les réseaux de chaleur 66

c) La qualité de l’air intérieur 67

d) Les pompes à chaleur 68

e) Les plates-formes technologiques 69

3. L'ouverture de marchés extérieurs 70

V. LES FAUX DÉBATS THÉOLOGIQUES 73

A. La « guerre des Trois » 73

B. Le bilan carbone 75

C. Le contenu en CO2 de l’électricité 77

1. Les éléments de bon sens 77

2. La saisonnalité de la demande d’électricité 78

3. Le concept d’émission « marginale » 80

4. Les termes du quiproquo 81

5. Un raisonnement par l’absurde 82

6. Le concept d’émission « moyenne marginale » 84

7. Le lien avec la taxe sur le carbone 86

8. Le besoin d'un plafond d'émission de CO2 87

9. Un cadre clair pour des choix optimisés 89

CONCLUSION 91

RECOMMANDATIONS 93

EXAMEN DU RAPPORT PAR L’OFFICE 97

COMPOSITION DU COMITÉ D’EXPERTS 101

PERSONNALITÉS ENTENDUES ET VISITES EFFECTUÉES PAR LES RAPPORTEURS 109

Liste des personnes auditionnées 109

Comptes rendus des auditions (sélection) 115

Centre Scientifique et Technique du Bâtiment 115

Association « Effinergie » 117

M.Jean Carassus, professeur à l’Ecole des Ponts ParisTech 119

La Poste 121

M. Richard Lavergne, chargé de mission pour la stratégie « Energie Climat » 125

M. Francis Allard, directeur du LEPTIAB (Université de La Rochelle) 131

ALDÈS 136

M. Denis Clodic, directeur adjoint du Centre Energétique Ecole des mines de Paris 142

Personnes rencontrées lors des visites en France et à l’étranger 149

Comptes rendus des visites en France et à l’étranger 153

La « Maison écologique » de M. Bruno Comby 153

Visite de bâtiments « Effinergie » à Lyon et Saint-Priest 157

Rencontre avec Minergie à Fribourg (Suisse) 158

Visite des quartiers Vauban et Rieselfeld à Fribourg-en-Brisgau (Allemagne) 162

Visite du quartier Bedzed à Londres 166

Visite du centre de recherche de Schneider dédié au programme « Homes » 171

SAISINE

« Travaillez sans relâche à acquérir la sagesse, comme si vous aviez toujours à acquérir davantage. De plus, craignez de perdre ce que vous avez acquis. Celui qui ne progresse pas chaque jour, recule chaque jour »

Confucius

Mesdames, Messieurs,

Le présent rapport conclut une mission quelque peu exceptionnelle pour l'OPECST dont la vocation est traditionnellement d'étudier à froid des questions scientifiques ou technologiques dans une logique prospective. Cette fois, il s'est agi de travailler à chaud sur un domaine d'application pratique directe, où la dimension scientifique ou technologique n'entre pas nécessairement en jeu de manière déterminante.

En dépit de ce contexte d'urgence, vos rapporteurs se sont néanmoins attachés à poursuivre la démarche d'investigation la plus complète possible, en veillant à préserver dans leurs analyses la part revenant au développement technologique et scientifique. Une quarantaine d'auditions ont pu être organisées, et six visites sur place, moitié en France, moitié à l'étranger, ont permis de recueillir une précieuse expérience de terrain.

L’étude confiée à l’OPECST résulte d’une initiative du législateur : le principe en a été inscrit à l'article 4 de la loi du 3 août 2009 par un amendement adopté au Sénat le 28 janvier 2009. Une saisine de l'OPECST par la commission des affaires économiques de l'Assemblée nationale, en mars 2009, a permis de désigner vos rapporteurs le 6 mai 2009, et d'engager les travaux à partir du 18 juin 2009, en anticipant l'adoption définitive du projet de loi et sa promulgation.

La mission dévolue à l'OPECST concerne la mise en œuvre de la nouvelle réglementation thermique des bâtiments fixée par le même article 4 de la loi du 3 août 2009. Celle-ci fixe un plafond global de 50 kWh par mètre carré et par an, en énergie primaire, pour la consommation d'énergie relative à cinq usages : le chauffage, l'eau chaude, la ventilation, la climatisation, l'éclairage. Il s'agit pour l'OPECST de « proposer un niveau pertinent de modulation » pour cette norme.

La loi mentionne que cette modulation doit se faire « en fonction de la localisation, des caractéristiques et de l’usage des bâtiments », mais aussi en vue « d’encourager la diminution des émissions de gaz à effet de serre générées par l’énergie utilisée ». Par ailleurs, en visant l'alinéa introductif de l'article, elle indique que la modulation doit intégrer l'objectif de « susciter une évolution technologique et industrielle significative dans le domaine de la conception et de l’isolation des bâtiments et pour chacune des filières énergétiques ».

La mission confiée à l'OPECST comporte en outre deux aspects complémentaires. L'un concerne un élément d'analyse préalable, à savoir l'examen des « questions liées aux facteurs de conversion d’énergie finale en énergie primaire »; l'autre relève du besoin d'une évaluation globale afin de « mesurer l’impact économique de l’ensemble du dispositif ».

Pour mener à bien cette tâche, vos rapporteurs se sont entourés d’un comité d’experts comprenant pour moitié d’éminents spécialistes de la recherche sur l’énergie (MM. Claude Crampes, Pierre-René Bauquis, Jean-Paul Langlois, Christian Ngô) en compagnie desquels ils avaient déjà conduit une précédente mission, et pour moitié d’éminents spécialistes du bâtiment venus du PREBAT1 (MM. François Perdrizet et Jean-Paul Fideli), du CSTB2 (M. Jean Carassus) ou de l’Académie des technologies (MM. Yves Farge, Alain Mongon, Michel Frybourg).

MM. Claude Crampes, professeur d’économie à l’Université de Toulouse, et Jean Carassus, ancien directeur du département de sciences humaines au CSTB, représentaient la dimension des sciences humaines au sein de ce conseil scientifique.

Leurs conseils et avis ont été précieux pour appréhender rapidement une matière complexe, jusque là surtout maîtrisée par une petite communauté institutionnelle qui encadre l’évolution de la réglementation thermique depuis une vingtaine d’années. Mais les conclusions de vos rapporteurs n’engagent évidemment qu’eux-mêmes.

La formulation de celles-ci suppose au préalable la présentation du contexte d'analyse dans lequel s'opère ce resserrement drastique de la réglementation thermique voulu en 2007 par le « Grenelle de l'environnement », dont la modulation soumise à l’examen de l'OPECST doit adoucir les effets par trop excessifs. Ce contexte d'analyse est maintenant largement partagé au sein du monde professionnel du bâtiment, ainsi que l'a illustré la convergence des démarches présentées lors du salon international de la construction « Batimat » du 2 au 9 novembre dernier. Il ne s'agira donc que d'en rappeler les axes principaux.

Quant aux conclusions proprement dites, de vos rapporteurs elles s’organisent autour de deux refus et de trois convictions.

Les deux refus concernent d’une part, toute prise de position dans l'affrontement entre les filières énergétiques, et d’autre part, tout enfermement dans une approche partielle et partiale de la mesure des émissions de gaz à effet de serre.

Les trois convictions concernent :

î d’abord, l’absolue nécessité d’aller de l’avant dans la sobriété énergétique des bâtiments, au nom du bien-être des utilisateurs et de la lutte contre le changement climatique, ce qui suppose un saut qualitatif dans l’isolation et la ventilation ;

î ensuite, l'opportunité qu'offre la construction, plus libre de contraintes que la rénovation, de pousser l'effort dans cette direction le plus loin possible, et le plus vite possible, sous réserve d’une nécessaire maîtrise des coûts;

î enfin, le rôle crucial dévolu au dynamisme industriel et à la formation professionnelle dans cette évolution.

I. UNE TRIPLE RÉVOLUTION CULTURELLE

En s'engageant dans cette étude, vos rapporteurs n'étaient pas familiers du secteur de la construction, et le premier apport des auditions et des visites qu’ils ont effectuées a été de leur permettre de mieux prendre conscience des enjeux d'un passage à la basse consommation.

Il était en effet évidemment essentiel d'apprécier pleinement la portée de ces enjeux pour mieux comprendre les limites éventuelles des modulations envisageables.

De fait, le mouvement vers la basse consommation leur a semblé prendre la dimension d'une véritable révolution culturelle à trois égards : d'abord, la nécessité de faire une place bien plus importante aux travaux initiaux de conception; ensuite, le besoin d'amener les professionnels du bâtiment à intégrer la démarche, désormais courante dans le monde industriel, du zéro défaut; enfin, le basculement de l'ensemble du secteur dans une logique de recherche de la performance, et non plus seulement de respect d'une obligation de moyens.

A. CONCEVOIR MIEUX POUR ÉCONOMISER L'ÉNERGIE

Le premier réflexe qu'on peut avoir face à l'idée d'un abaissement drastique de la consommation énergétique des bâtiments consiste à craindre que cela ne soit pas possible, tant le nombre de paramètres à maîtriser pour atteindre cet objectif semble important.

Il faut évidemment renforcer l’isolation, qui consiste finalement à piéger de l’air immobile dans un maximum de couches indépendantes superposées dans le but de minimiser les transferts d’énergie par choc entre les molécules. L’isolation extérieure est considérée comme la plus efficace car elle élimine d’emblée presque tous les « ponts thermiques »3 en plaçant le bâtiment sous une sorte de cloche protectrice ; c’est une pratique encore peu développée en France, où l’on maîtrise plutôt l’isolation intérieure, alors qu’elle est courante en Suisse et en Allemagne.

Mais une isolation renforcée sur la base d’une construction classique ne saurait suffire. Elle se heurte du reste au phénomène physique qui veut que le surcroît d’isolation obtenu diminue avec le nombre de couches rajoutées : au-delà de 30 centimètres, les centimètres d’épaisseur supplémentaire diminuent la surface utile du bâtiment sans procurer un gain sensible pour l’isolation.

De fait, les visites des réalisations conduites par Effinergie à Lyon, Minergie à Fribourg en Suisse, ou par la ville de Fribourg-en-Brisgau en Allemagne, ont vite permis à vos rapporteurs de prendre conscience que la faisabilité des bâtiments à basse consommation d'énergie dépend d'une condition majeure : un très important effort de conception initiale.

Cet effort doit notamment porter sur trois points :

- D'abord, il faut adopter autant que possible une forme de bâtiment qui minimise les échanges thermiques avec l'extérieur : il s’agit d’obtenir le volume intérieur le plus grand possible pour la surface externe la plus réduite possible. L'idéal géométrique de ce point de vue est la sphère, dont la forme parallélépipédique la plus proche est le cube. Comme l'a expliqué M. Alain Liebard à vos rapporteurs, à partir d'une vue de dessus d'une construction en L, tous les retraits, toutes les ailes ne font qu’accroître beaucoup la surface d’exposition pour un faible gain en volume habitable. Les maisons performantes du point de vue énergétique ont fondamentalement un aspect un peu massif, sauf si l’invention des architectes parvient à compenser cet inconvénient par un effet d’optique; ainsi, sur le site Minergie de Cormeilles en Parisis, les toits sont posés par dessus l'habitacle isolé comme s'il s'agissait de structures extérieures décoratives.

- Ensuite, il est essentiel d’assurer une étanchéité à l’air la plus parfaite possible (on minimise la « perméabilité ») pour donner toute son efficacité à l’isolation. Cela suppose un effort de conception au niveau des méthodes de construction, pour atteindre la perfection de réalisation nécessaire, ce qui donne un intérêt nouveau à la préfabrication d’éléments, mais aussi à la qualité d’assemblage ; en outre, une coordination plus précise des corps de métiers (un esprit d’équipe) devient alors indispensable afin d’éviter que la finition du travail de l’un ne soit remise en cause par l’intervention de l’autre.

- Enfin, il s'agit de tirer le meilleur parti des apports naturels en énergie du site. Cela concerne l’exposition solaire, qui doit piloter le choix de l’orientation cardinale du bâtiment et l’inclinaison du toit, de façon à profiter du rayonnement solaire en hiver, et à s’en protéger en été. Cela concerne aussi l’orientation du bâtiment et de ses ouvertures par rapport aux vents dominants. Ainsi, on ne peut plus présupposer que l’entrée du bâtiment doive donner systématiquement sur la rue. Cela concerne enfin l’utilisation des ressources du sol, si la terre est suffisamment dense pour rendre possible un puits canadien4, ou si la proximité d’une nappe d’eau souterraine permet d’y brancher la source d’approvisionnement en calories d’une pompe à chaleur géothermique.

De fait, la préoccupation des apports naturels est singulièrement absente du discours des professionnels qui manifestent un grand scepticisme vis-à-vis de la possibilité de réaliser des constructions à basse consommation à des prix raisonnables, notamment lorsqu’il s’agit de petites maisons individuelles. Vos rapporteurs ont, à cet égard, été frappés par les argumentaires du cabinet Bastide-Bondoux, puis de l’entreprise Geoxia (propriétaire notamment de la marque « Maison Phénix »).

B. RÉALISER EN S’ASTREIGNANT AU ZÉRO DÉFAUT

La construction en basse consommation implique une deuxième révolution culturelle, qui concerne la qualité de la mise en œuvre. A l’image de la perfection technique que suppose la réalisation de l’imperméabilité de l’enveloppe, les métiers du bâtiment vont devoir, selon une formule souvent reprise par Yves Farge, changer d'étalonnage de précision, le millimètre se substituant au centimètre. La même idée est formulée différemment par Bruno Comby lorsqu’il signale que le traditionnel fil à plomb utilisé pour l'élévation des parois devra maintenant faire place à un niveleur à laser.

Cette évolution correspond en fait à un alignement du secteur du bâtiment sur le monde industriel, qui a dû procéder à une métamorphose similaire de ses procédés techniques à partir des années 70, sous la pression de la concurrence internationale. Le secteur automobile lui aussi, en son temps, a connu la nécessité de s’adapter à un mode de production donnant une importance accrue à la précision.

Tout se passe comme si la globalisation avait connu une forme d’approfondissement avec la préoccupation de la lutte contre le changement climatique et la tension sur les prix des énergies fossiles, au point d’atteindre le bâtiment alors que celui-ci faisait figure jusqu’ici de secteur « abrité » du commerce international, c'est-à-dire préservé de la nécessité de réaliser de forts gains de productivité pour s’adapter à la montée en puissance des économies émergentes.

C’est une forme de rattrapage qui doit donc s’opérer, dont la charge va peser pour beaucoup sur les hommes du secteur, plus que sur les machines, car les activités du bâtiment mobilisent essentiellement du travail artisanal, qui s’appuie sur des outils peu capitalistiques plutôt qu’il ne les sert. Les qualités requises pour exercer les métiers du bâtiment vont s’aligner sur celles devenues nécessaires dans le monde industriel : maîtrise des technologies, soin dans la mise en œuvre, capacité à travailler avec d’autres corps de métiers.

Il s’agira de les mettre en œuvre dans le contexte plus difficile d’activités exercées principalement à l’extérieur, ou dans des espaces ouverts.

Un effort de sensibilisation aux enjeux de la basse consommation, et une formation complémentaire aux procédures et techniques permettant d’atteindre un certain niveau d’exigence dans la prestation fournie, deviennent dès lors cruciaux pour les professionnels du secteur. Il est déjà engagé, et tous les acteurs concernés se mobilisent en ce sens.

En même temps, l’exigence de technicité et de qualité va transformer la nature des métiers du bâtiment, qui apparaîtront moins comme des activités d’exécution et plus comme des activités d’expertise. Cette image nouvelle, associée à l’avantage de contribuer très directement à la mise en place d’un mode de vie plus écologique, devrait susciter des vocations parmi les jeunes gens, et les associations professionnelles (CAPEB5, FFB6) soutiennent fermement l’évolution vers la basse consommation avec cet espoir.

C. POURSUIVRE UN OBJECTIF DE PERFORMANCE

L'image de l'imperméabilité rend compte de la nécessité d'une autre forme de révolution culturelle pour le secteur du bâtiment, à savoir l'objectif d'obtenir un résultat, alors que la réglementation thermique a imposé jusque là, de fait, une contrainte sur les moyens.

De ce point de vue, ainsi que les assureurs en ont fait la remarque à vos rapporteurs lors de l'audition du 4 novembre, la réglementation thermique va devoir suivre une évolution sur la voie de laquelle la réglementation acoustique l'a précédée. En effet, les écarts par rapport à la norme vont devenir aussi sensibles et mesurables que le sont les bruits dans le cas d'une isolation phonique non réglementaire. En l'occurrence, un dérapage de la facture énergétique, après une période initiale de fonctionnement satisfaisant, et en l'absence de toute évidente dérive dans le comportement de consommation, deviendra bien plus facilement repérable.

Cependant, la transition vers une réglementation axée sur la performance suppose une adaptation à trois niveaux :

• d’abord, il deviendra indispensable de mieux faire ressortir la différence entre la performance intrinsèque de l’enveloppe du bâtiment, et la performance atteinte en intégrant le comportement de consommation d’énergie des utilisateurs ;

• ensuite, le « calcul réglementaire », aujourd’hui instrument du respect conventionnel de la norme thermique, ne devra plus être considéré comme la seule manière de rendre compte de la performance intrinsèque de l’enveloppe ;

• enfin, il faudra parvenir à une véritable maîtrise du risque de contournement de la réglementation.

Ces trois problématiques méritent une attention particulière de la part de vos rapporteurs, car elles relativisent la portée de toute forme de modulation de la norme énergétique.

1. La part du comportement des utilisateurs

Chauffage entièrement géothermique, éclairage à partir de combustibles renouvelables, recours très économe à l'eau chaude sanitaire, l'homme des cavernes était un modèle de sobriété énergétique. A l'inverse, un homo sapiens sapiens d'aujourd'hui qui entretiendrait une température intérieure de 25°C, et prendrait trois bains par jour, dévoierait la performance énergétique de tout bâtiment construit à la norme de la basse consommation.

Ces cas extrêmes illustrent l'écart de consommation énergétique induit par un utilisateur sortant du comportement moyen à partir duquel toute norme thermique est établie.

Ce risque d'écart ne concerne pas a priori les normes de construction, qui visent exclusivement l'état technique du bâtiment au moment de sa livraison. Cependant la logique de maîtrise de la consommation d'énergie, et conjointement, de réduction des émissions de gaz carbonique, met en évidence le besoin de prendre en compte, au stade de la construction, le comportement des utilisateurs à deux niveaux :

- D'une part, la livraison d'un bâtiment à basse consommation ne saurait se concevoir sans la fourniture d'un mode d'emploi, voire sans l'organisation d'un suivi de maintenance; un contrat de suivi sur trois ans est ainsi prévu sur le site Minergie de Cormeilles en Parisis. Il convient par exemple d’expliquer que les fenêtres des bâtiments fortement isolés doivent être utilisées avec discernement : en hiver, leur ouverture est toujours possible mais pour quelques minutes, afin que la déperdition de la chaleur intérieure ne soit pas trop importante ; en été, l’ouverture des fenêtres est préjudiciable dans la journée, car elle crée une déperdition d’air climatisé, mais elle est intéressante la nuit aux heures les plus tièdes pour importer de la fraîcheur ; ce rafraîchissement nocturne ne fonctionne cependant plus en période de canicule.

- D'autre part, dans les cas où le respect de la norme énergétique par la seule configuration technique intrinsèque du bâti s'avère critique en raison des particularités d'utilisation du bâtiment, un « contrôle actif » de la consommation d'énergie doit permettre d'opérer une compensation. Cela concerne particulièrement les bâtiments tertiaires faisant l'objet d'une occupation intense, comme les hôpitaux, ou ceux fonctionnant avec des fréquentes entrées ou sorties depuis l'extérieur, comme les magasins ou les plates-formes de traitement du courrier de La Poste. Les potentialités d'économie réalisées par un « contrôle actif » sont au cœur du programme de recherche coopérative HOMES piloté par Schneider, qui a démontré que le gain obtenu par cette voie pouvait être du même ordre de grandeur que celui permis par un renforcement de l'isolation. Le « contrôle actif » implique une mobilisation particulière de l'exploitant du bâtiment, qui peut aller jusqu'à la création de la fonction spécifique de « gestionnaire de l'énergie » (Energy Manager).

En tout état de cause, la livraison d'un bâtiment à basse consommation devra comprendre la fourniture d'instruments de mesure et de supervision permettant au moins de suivre, au mieux de contrôler, la consommation d'énergie dans sa globalité et dans ses composantes.7

2. Les limites du « calcul réglementaire »

Il est frappant pour des personnes non familières du secteur du bâtiment de découvrir que ce qu'on appelle le « calcul réglementaire », c'est à dire la mesure de la performance énergétique telle qu'elle ressort d'une évaluation conventionnelle, tient lieu de guide exclusif pour certains choix techniques. Ainsi en est-il de la « ventilation simple flux »8, qui est privilégiée dans certaines constructions, a indiqué, lors de l’audition du 20 octobre 2009, M. François Rachlin, directeur du pôle technologie de Geoxia, du simple fait qu'elle consomme conventionnellement moins qu'une « ventilation double flux », et cela en dehors de toute considération sur la performance globale en matière de consommation d’énergie, puisqu’une ventilation « double flux », couplée avec un bâti fortement isolé en zone très froide, permet de réaliser une plus grande économie d’énergie.

A fortiori, le secteur des bâtiments tertiaires avec sa diversité, de l'hôpital au bureau, en passant par le hangar de réparation d’avions chez ADP, dépend entièrement pour sa mise en conformité de gabarits conçus a priori, dont il s'agit simplement, en l’état actuel de l’application du droit, de respecter les spécifications techniques pour assurer la conformité du bâtiment à la réglementation. L'audition des responsables du parc immobilier de La Poste a mis clairement en évidence l'écart qui existe entre le « calcul réglementaire » et la performance effective, notamment lorsque le bâtiment ne correspond à aucun des gabarits prévus.

Il paraît évident que le « calcul réglementaire », dans le meilleur des cas, c'est à dire lorsqu'il permet effectivement de prendre en compte le bâtiment tel qu'il est, ne peut au mieux assurer que le respect des conditions nécessaires à la performance à atteindre. Il ne garantit en rien que ces conditions soient suffisantes, et une réflexion toute simple en rend compte : le respect des préconisations de mise en œuvre des matériaux n'exclut nullement une imperfection dans la masse, ou la déformation d'un joint, qui vont affaiblir ponctuellement une couche d'isolation qui remplit parfaitement sa fonction protectrice sur la feuille de calcul.

Seul le résultat mesuré in fine compte véritablement dans une logique de performance, et le « calcul réglementaire » ne peut être qu'un instrument pour s'en rapprocher le plus possible.

3. Le risque du contournement

Il convient de souligner combien toute fixation d'un objectif exigeant de performance thermique reste théorique, si son contournement est conséquent. Le contournement, c'est-à-dire le fait de passer outre à la norme énergétique en ne respectant pas le plafond réglementaire, est une forme de modulation qui n'a nul besoin des conclusions d'une mission de l'OPECST pour s'organiser, et qui vide de son sens toute modalité officielle de modulation.

Les questions posées par vos rapporteurs aux différents professionnels rencontrés ont fait ressortir, d’ores et déjà dans le cadre actuel, des estimations de contournement très importantes, notamment pour le domaine de la construction des maisons individuelles : de l’ordre de 50% à 60%.

Le contrôle du respect de la norme thermique pour les maisons individuelles est certainement plus complexe que pour les opérations immobilières de taille plus importante, en raison de leur très grand nombre, quelque 150 000 chaque année, et de l’inexpérience des maîtres d’ouvrage concernés, qui sont le plus souvent des particuliers pour qui la construction représente un événement exceptionnel dans leur vie.

Le projet de loi « Grenelle 2 » prévoit qu’il incombe au maître d’ouvrage d’apporter la preuve que son bâtiment respecte la norme thermique. Il faut craindre que celui-ci, même si cette preuve est techniquement établie par un tiers, n’ait dans certains cas qu’un pouvoir de négociation limité face à ses prestataires pour obtenir une rectification de la construction, si un écart est constaté. La collectivité locale ou l’industriel faisant construire un bâtiment tertiaire peut bénéficier du désir des prestataires de préserver leur réputation face à un client qui pourrait être conduit plus tard à faire de nouveau appel à eux. Mais le particulier qui s’est endetté pour acquérir son terrain, puis construire sa maison, et qui n’a pas toujours la chance d’avoir affaire à des professionnels consciencieux, se trouve quelque peu désarmé pour faire rechercher et réparer les défauts de conception, une fois que l’ouvrage est livré. La visite effectuée par vos rapporteurs à Fribourg-en-Brisgau, en Allemagne, leur a appris le rôle déterminant qu’ont joué les services municipaux pour soutenir le particulier dans ce cas de figure.

Si le respect de la norme repose sur le maître d’ouvrage, il faut qu’il dispose lui-même du pouvoir de la faire respecter.

II. LES MARGES POSSIBLES DE MODULATION

Ces observations préliminaires déterminent le cadre d'analyse dans lequel se sont situés vos rapporteurs pour élaborer leurs recommandations relatives à la modulation de la future norme des 50 kWh par mètre carré et par an.

Ces recommandations s'organisent autour de trois idées : tout d'abord le refus de toute facilité pouvant encourager un certain immobilisme au regard du nécessaire progrès technologique; ensuite, la prise en compte des situations objectivement distinctes créées par les différences climatiques à travers le pays; enfin, la nécessité d'introduire une certaine souplesse dans certains cas présentant une difficulté particulière en raison de la taille ou de la destination du bâtiment.

A. LE REFUS DE LA FACILITÉ

Vos rapporteurs ont recueilli deux suggestions de modulation qui leur ont semblé peu opportunes, en raison de l'impact négatif qu'elles pourraient avoir sur les développements technologiques indispensables. Elles consistent à jouer sur le nombre d'usages pris en compte ou sur le coefficient de conversion.

Par ailleurs, ils considèrent que la production d'électricité à destination du réseau ne doit pas être prise en compte, à ce stade, par la réglementation thermique.

1. Maintenir la contrainte sur l’ensemble des cinq usages

Les cinq usages pris en compte ont été rapidement rappelés en introduction : le chauffage, l'eau chaude, la ventilation, la climatisation, l'éclairage. Pour être complet, il faut ajouter ce qu'on appelle les auxiliaires, c'est à dire les systèmes de commande qui complètent ces cinq fonctions, qui gèrent par exemple les mises en route programmées, et qui consomment de électricité. Les auxiliaires sont la plupart du temps comptés avec la ventilation.

L’Ademe a suggéré de réduire de cinq à trois, durant une période transitoire de quelques années, les usages pris en compte pour tenir le plafond des 50 kWh en retenant les trois usages thermiques (chauffage, eau chaude, climatisation) et en écartant donc temporairement l’éclairage et la ventilation. Une telle option permet de desserrer la contrainte à hauteur de 10 kWh.

Cependant il est clair que la réduction du nombre d’usages irait par trop à l’encontre de l’objectif d’une optimisation globale de la consommation d'énergie dans le bâtiment, qui est indispensable, car la lutte contre l'effet de serre concerne l'accumulation du gaz carbonique dans l'atmosphère, sans différencier sa source d'émission. C'est un souci de faisabilité qui a empêché jusque là de considérer d'emblée toutes les sources d'émission possibles.

Comme le CSTB l'a indiqué à vos rapporteurs, la prise en compte d’un nombre croissant d’usages constitue une tendance lourde de l'évolution de la réglementation : en 1988, celle-ci ne prenait en compte que le chauffage, l'eau chaude et les auxiliaires; en 2000, elle a intégré l'éclairage; en 2005, la climatisation. Elle devra inévitablement poursuivre l'extension de son champ à tous les appareils électroniques, comme c'est le cas déjà dans le cadre du label allemand Passivhauss, ne serait-ce que pour inciter à un meilleur contrôle des consommations liées à la mise en veille.

Une réduction du nombre des usages aurait pour effet de restreindre l'incitation à l'évolution technologique souhaitable aux seuls usages inclus dans l'enveloppe, et notamment le développement des pompes à chaleur en remplacement du chauffage électrique par convection. Elle biaiserait symétriquement l'évolution des consommations en faveur des usages exclus de l'enveloppe considérée, en encourageant notamment les systèmes de ventilation gourmands en énergie; cela inciterait par exemple à utiliser une ventilation « double flux » dans le sud de la France, où pourtant le besoin de chauffage se trouve déjà naturellement très réduit; le gain sur le chauffage serait donc loin de compenser, dans ce cas, le supplément important de consommation dû à la ventilation, ce qui rendrait le bilan énergétique global moins intéressant que celui obtenu avec une ventilation simple flux, pour un confort équivalent.

Enfin, la réduction du nombre d'usages aurait pour conséquence de limiter l'incitation technologique à développer des équipements intégrés assurant directement une coordination entre les fonctions, minimisant la consommation des auxiliaires et permettant de faire jouer le parasitisme énergétique, c'est à dire la récupération de calories déjà produites sur place : l'échangeur d'un système de ventilation à double flux, qui chauffe l'air entrant grâce à la chaleur récupérée sur l'air sortant, fournit une illustration emblématique de l'avantage de ce parasitisme pour les zones climatiques froides.

En tout état de cause, au delà de la volonté de maintenir un cadre favorable au progrès technologique, un obstacle juridique fort empêche de réduire le nombre d'usages considérés, à savoir le droit européen. La directive 2002/91/CE mentionne explicitement la ventilation et l'éclairage dans l'annexe fixant les éléments devant obligatoirement être pris en compte dans « la méthode de calcul de la performance énergétique des bâtiments ».

2. Conserver le coefficient de conversion de l’électricité

Le coefficient de conversion de l'électricité, qui rend compte de la quantité d'énergie primaire utilisée en amont pour produire un kilowatt heure d'électricité consommée par son utilisateur final, joue un rôle crucial dans les choix d'équipement pour les bâtiments, dès lors que la norme thermique, évaluée en énergie primaire, n'est plus différenciée en fonction des filières, comme c'était le cas jusqu'à ce que l'article 4 de la loi du 3 août 2009 en décide autrement.

En effet, le coefficient de conversion de l'électricité retenu par la réglementation9 s'élève à 2,58 tandis que les énergies alternatives consommées directement sur place, principalement dans des chaudières ou des chauffe-eau, puisque l'éclairage, la ventilation et la climatisation fonctionnent essentiellement à l'électricité, bénéficient d'un coefficient de conversion égal à 1. Le bois de chauffage est affecté quant à lui, dans le cadre du label « Effinergie », d'un coefficient de conversion spécialement avantageux de 0,6 pour inciter à son utilisation10.

Or, on admet conventionnellement qu'une famille de taille moyenne (quatre personnes) occupant un logement de taille moyenne (d'une surface SHON11 de 116 mètres carrés) consomme une énergie finale en eau chaude d’un peu plus de 21 kWh par mètre carré et par an, ce qui correspond à une consommation d’un peu plus de 21 kWh d'énergie primaire par mètre carré et par an pour un chauffe-eau à gaz, mais une consommation d’environ 55 kWh d'énergie primaire par mètre carré et par an pour un chauffe-eau électrique.

La seule consommation d'énergie électrique pour l'eau chaude dépasse donc en ce cas la nouvelle norme thermique en énergie primaire, ce qui remet radicalement en cause le mode de chauffage par « effet Joule »12.

Selon EDF, l'électricité n'assure en stock qu'un dixième des besoins d'énergie du chauffage domestique en France, et n'équipe qu'environ 30% des logements. Mais, en flux, la part des logements neufs choisissant le chauffage électrique n'a fait que croître depuis 2000, les deux tiers des logements collectifs optant pour un système à effet Joule, de même que la moitié des maisons individuelles ; c’est le cas aussi pour près de la moitié des bureaux. Cette évolution s'explique par un avantage de prix sensible par rapport aux systèmes à énergie fossile, au niveau de l'investissement, mais aussi au niveau des charges courantes, car les énergies fossiles sont devenues très chères.

La filière de l'électricité fait donc valoir le choc économique que représenterait pour elle l'éviction brutale des systèmes de chauffage à effet Joule dans les nouvelles constructions. Pour permettre une transition progressive en faveur des systèmes électriques technologiquement plus avancés, EDF a proposé d’appliquer temporairement un coefficient de conversion égal à 1 (au lieu de 2,58), pour la consommation électrique de chauffage de l’eau lorsque celle-ci fonctionne avec un ballon d'accumulation, système qui équipe onze millions de foyers en France actuellement, et qui présente l'avantage d'opérer une certaine forme de stockage d'énergie.

Cette solution est conforme au droit européen, et nos voisins allemands ont d’ailleurs ajusté à plusieurs reprises leurs coefficients de conversion au cours des dernières années. Elle permettrait à l’électricité utilisée à travers l’effet Joule, d’après EDF, de respecter la norme d’énergie primaire avec un écart ne dépassant pas 30% (65 kWh au lieu de 50 kWh).

Cependant, s'il est exact que le coefficient de conversion des sources d'énergie demeure un instrument de politique énergétique entièrement à la disposition des États, et que sa valeur peut être déterminée de manière discrétionnaire, il apparaît peu opportun d'en manipuler la valeur. Car celle-ci influence non seulement les investissements des consommateurs d'énergie, mais aussi ceux des producteurs des systèmes de chauffage.

Le coefficient de conversion de l'électricité renvoie à une réalité physique : la majeur partie de l'électricité est produite à partir de centrales thermiques, à combustible nucléaire ou fossile, et le procédé lui-même implique qu’environ les deux tiers de l'énergie mobilisée soient dissipés en chaleur; en outre, la distribution jusqu'à l'utilisateur final occasionne des pertes en ligne. Il est économiquement sain que la contrainte imposée au niveau de la consommation finale rende compte de cette réalité physique, qui constitue un levier pour une optimisation de l'allocation des facteurs, sinon à l'amont, du moins à l'aval, pour un renforcement de l'efficacité d'utilisation finale de l'électricité.

Du reste, deux éléments objectifs confirment que le chiffre retenu par la réglementation n'est pas aberrant :

- d'une part, le calcul du coefficient de conversion comme valeur moyenne des ratios de conversion des différentes sources d'électricité pondérés par leur poids dans la consommation finale (80% d'électricité nucléaire au rendement conventionnel d'un tiers, 10% d'hydroélectricité au rendement de 1, et 10% d'électricité fournie par des centrales thermiques à flammes avec un ratio de conversion constaté de 1,9) aboutit à un chiffre très voisin :

3*0,8 + 1*0,1 + 1,9*0,1 = 2,7

- d'autre part, le tableau des coefficients de conversion retenus dans les autres pays d'Europe montre une convergence vers une valeur comprise entre 2 et 3, la valeur retenue par la France étant en position moyenne :

D

GB

F

DK

NL

B

I

CH

2,7

2,65

2,58

2,5

2,5

2,5

2,4

2

En tout état de cause, il ne faudrait pas qu'une souplesse temporaire au bénéfice des producteurs de systèmes à effet Joule puisse être interprétée comme un encouragement à freiner les efforts de développement des systèmes de chauffage électrique plus efficaces. Comme l'a mentionné fort justement le CSTB, les équipements à effet Joule ne peuvent trouver leur marché que dans des pays à électricité peu chère, et cette caractéristique isole quelque peu la France en Europe, si l'on excepte le cas de la Suède, abondamment pourvue de ressources hydroélectriques. Le développement de systèmes plus efficaces ouvre au contraire des perspectives d'implantation large sur les marchés européens.

Deux voies technologiques sont d'ores et déjà opérationnelles pour ce gain d'efficacité : les pompes à chaleur, et les systèmes à énergie solaire thermique.

Les pompes à chaleur sont des équipements conçus pour capturer des calories disponibles dans une réserve de chaleur, appelée paradoxalement la « source froide », et les libérer dans l’espace à chauffer. La capture s’opère à l’aide d’un fluide dit « frigorigène », qui absorbe les calories au niveau de la « source froide » en se vaporisant, et les restitue dans l’espace à chauffer en se liquéfiant. Le cœur du dispositif est constitué par une sorte de pompe qui aspire le fluide, puis le comprime pour le liquéfier et en extraire ainsi les calories, un peu comme on expulserait l’eau d’une éponge.

L’atout essentiel des pompes à chaleur réside dans leur coefficient de performance (COP), qui mesure le rapport entre la chaleur importée et l’énergie utilisée pour alimenter le dispositif. Contrairement à ce qui se passe dans les appareils à effet Joule, l’électricité est utilisée ici avec un effet de levier : un peu d’électricité permet potentiellement, avec cette technologie, d’importer beaucoup de calories.

La source où l’on va puiser la chaleur, la « source froide », peut être située dans tout point de l’environnement suffisamment vaste pour conserver sa température en dépit de la capture des calories : l’air extérieur, le sous-sol. En ce sens, les pompes à chaleur sont des instruments permettant d’utiliser de l’énergie renouvelable, celle émanant du soleil ou du noyau terrestre.

Le coefficient de performance peut compenser, et au-delà, le coefficient de conversion : un COP « annuel »13 de 3 suffit pour rattraper le handicap de l'électricité en énergie primaire. D'un point de vue technologique, les pompes à chaleur qui utilisent l'air extérieur comme source de calories fonctionnent encore mal lorsque la température tombe en dessous de -10°C ; mais outre que des progrès sont en cours dans ce domaine, notamment en vue de récupérer les calories en abondance dans les eaux usées, il est possible d'installer un système branché sur une nappe phréatique à quelques mètres de profondeur. Les pompes à chaleur thermodynamiques, qui fournissent de l'eau chaude à partir d'un ballon d'accumulation, commencent par ailleurs à se diffuser pour l'équipement des maisons individuelles, bien qu'elles restent encore relativement coûteuses. Vos rapporteurs reviendront sur le problème de leur adaptation dans le cas des logements collectifs.

Les systèmes de chauffage à énergie solaire thermique fonctionnent comme une source complémentaire à l'électricité, mais aussi au gaz ou au bois. Si les conditions d'exposition sont favorables, ils peuvent permettre une économie pouvant atteindre jusqu'à 50% de l'énergie finale nécessaire. Selon les modèles, ils sont susceptibles d'alimenter aussi bien un circuit de radiateurs qu'un ballon à accumulation. Vos rapporteurs ont logé à Fribourg-en-Brisgau dans l’hôtel Victoria, où l’eau chaude est produite par un équipement solaire thermique couplé avec une chaudière à bois (pellets) ; ils ont pu constater que ce mode de production assure un niveau de confort très satisfaisant.

Les coûts d'investissement dans ces systèmes sont aujourd'hui sensiblement plus élevés que ceux de leurs concurrents à effet Joule, mais outre que les industriels peuvent anticiper des volumes de marché importants, puisque la direction prise par la réglementation thermique est irréversible, l'échelonnement de la mise en œuvre de la nouvelle norme thermique va concerner d'abord des clients susceptibles d'entrer plus spontanément dans une logique de rentabilité à moyen terme : les collectivités publiques et les entreprises, soumises à la nouvelle réglementation thermique dès le 1er janvier 2011, entrent en effet plus facilement dans la logique d'un investissement initial plus important contrebalancé ensuite par une minoration des frais d'exploitation.

Vos rapporteurs soutiennent donc que le coefficient de conversion de l'électricité, fixé à un niveau parfaitement justifié en ordre de grandeur, ne doit nullement être modifié, afin que ne soit pas relâchée la pression pour l'adaptation technologique des systèmes de chauffage électrique.

Néanmoins, pour l’avenir, ils souhaitent que chaque nouvelle programmation pluriannuelle des investissements de production (PPI), prévue par l’article 6 de la loi du 10 février 2000 (dite « Bataille »), et qui s’appuie sur un bilan préalable de l’ensemble des moyens de production de l’électricité, mette à jour le calcul des ratios de conversion pondérés, tel qu’évoqué précédemment. Il convient de rappeler que la PPI fait l’objet d’un rapport présenté au Parlement par le ministre chargé de l’énergie dans l’année suivant tout renouvellement de l’Assemblée nationale, c'est-à-dire tous les cinq ans.

Lorsque les progrès des énergies renouvelables auront permis, d’ici plusieurs dizaines d’années probablement, d’obtenir un résultat inférieur à 2,58 , alors ce résultat devra devenir le nouveau coefficient de conversion de l’électricité consommée en énergie primaire.

Le coefficient de conversion particulier attaché au bois ne vaut quant à lui, que dans le cadre du label « Effinergie ». L'arrêté du 3 mai 2007 précise bien « Exclusivement pour ce label ». Dans la mesure où la réglementation thermique s'inscrit dans un cadre plus général, fixé en premier lieu par la loi du 3 août 2009, cette particularité ne la concerne pas, et ne doit pas la concerner ; par souci de cohérence, le coefficient de conversion du bois doit donc rester à 1.

3. Compter les énergies renouvelables utilisées sur place

L'installation de panneaux photovoltaïques sur un toit, même lorsque ceux-ci sont directement raccordés au réseau électrique, est considérée comme une contribution au développement des énergies renouvelables. Certes, du point de vue des statistiques nationales mesurant les progrès de l'électricité solaire photovoltaïque en France, c'est le cas.

Du point de vue des flux monétaires, c'est en réalité un placement. C'est une sorte de produit financier dont l'achat est subventionné, et dont le revenu est garanti par l'Etat, à travers le rachat de l'électricité produite par EDF.

Mais tout cela n'a que peu de chose à voir avec la performance thermique du bâtiment qui sert de support aux panneaux photovoltaïques. De ce point de vue, les seules énergies renouvelables qui comptent sont celles qui contribuent à la production de chauffage ou d'eau chaude sanitaire.

Sinon, il suffirait de construire une épave thermique en la couvrant de panneaux photovoltaïques pour respecter la réglementation thermique ; ce ne serait qu'une affaire financière.

L'avènement de la maison à énergie positive doit respecter des étapes. Et la première étape doit permettre d’atteindre une performance énergétique intrinsèque, obtenue par la qualité de l'isolation et l'efficacité des équipements.

Vos rapporteurs souhaitent donc qu'on ne mélange pas les genres, et que seules les énergies renouvelables consommées sur place, y compris la part éventuelle d'électricité photovoltaïque utilisée pour alimenter les équipements du bâtiment, puissent, par leur apport direct, réduire la quantité d'énergie primaire prise en compte dans la réglementation thermique.

B. L’ADAPTATION SELON LA LOCALISATION

Si vos rapporteurs rejettent toute facilité risquant de freiner le développement d'équipements plus efficaces, en revanche ils considèrent comme indispensable la prise en compte des différences objectives de situation créées par les variations climatiques d'un bout à l'autre de notre pays. En l'occurrence, vos rapporteurs préconisent de reprendre les coefficients de correction définis par le label « Effinergie ». Mais la mise en place d'une réglementation thermique de basse consommation doit être aussi l'occasion de définir de façon plus spécifique les conditions du confort d'été.

1. Généraliser le modèle retenu par « Effinergie »

Le besoin de distinguer différentes zones climatiques (H1, H2, H3) pour l'application de la réglementation thermique était déjà pris en compte par l'arrêté du 5 avril 1988 définissant la RT 198814. Il s'est affiné à la faveur des versions suivantes de la même réglementation, puisque la RT 2005 prévoit huit zones climatiques. La zone H1 correspond aux départements les plus froids, la zone H3 aux départements du sud méditerranéen.

L'association « Effinergie » qui s'est constituée en mars 2006 dans le but de promouvoir, en France, la construction à basse consommation, et de développer un référentiel de performance énergétique des bâtiments, est à l'origine d'un label, défini par l'arrêté du 3 mai 2007, qui sert de référence pour la réglementation thermique à venir. Ce label reprend la division de notre pays en zones climatiques en le simplifiant, puisque seulement six coefficients correcteurs (a) de la valeur pivot des 50 kWh sont prévus.


Le label « Effinergie » ajoute un autre coefficient correcteur (b), tenant compte de l'altitude, dont le principe avait déjà été introduit par la RT 1988. Il distingue trois niveaux, et ce coefficient (b) reste à zéro en dessous de 400 mètres d'altitude, vaut 0,1 de 400 à 800 mètres, et 0,2 au dessus de 800 mètres.

La valeur plafond de consommation d'énergie primaire s'appliquant localement devient alors :

Cmax = 50 (a + b) kWh/m2/an

Vos rapporteurs ne peuvent qu'apporter leur appui à ce dispositif de modulation géographique et climatique qui s'appuie sur une expérience pratique de longue date. Les auditions ont du reste permis d'en confirmer la pertinence globale.

Des besoins d'ajustement ponctuel ont néanmoins été signalés à vos rapporteurs :

- le cabinet Bastide-Bondoux a signalé une distorsion de la RT 2005 dans la prise en compte de l’eau chaude sanitaire, qui induirait l’obligation un peu aberrante d’installer une isolation plus forte à La Rochelle qu’à Strasbourg;

- l'association « Energie et Avenir » a fait état d'une difficulté à tenir la norme corrigée des 65 kWh en Alsace-Lorraine (H1b). La correction pour cette zone a été alignée sur celle du Nord (H1a), bien que l'Alsace-Lorraine ne bénéficie pas de la modération climatique liée à la proximité de la mer.

L'analyse du cas de l'Alsace-Lorraine peut s'appuyer sur un élément de référence : la mise en œuvre de la basse consommation à Fribourg-en-Brisgau, qui se trouve tout juste de l'autre côté de la frontière. C'est une norme de 65 kWh qui y a été mise en œuvre, mais sur des bases de calcul peut-être un peu différentes.

En tout état de cause, vos rapporteurs souhaitent que les services techniques de la DHUP15 étudient de près ces deux cas, et prévoient les ajustements nécessaires, peut-être en redécoupant à la marge les zones climatiques du Nord-Est de la France, et en créant une zone limitrophe sur le Rhin à 70 kWh (a=1,4).

2. Intégrer le besoin spécifique du confort d’été

Sous nos latitudes, la période des mois ensoleillés est vécue de prime abord comme un moment agréable, comme le prouve le vocabulaire usuel à cet égard, puisqu’on parle du « beau temps », des « belles saisons ».

Il paraît donc naturel que la réglementation thermique se soit surtout focalisée jusque là sur la protection contre le froid, et que le confort d’été n’ait été considéré que comme une question annexe, pouvant être résolue à la marge, en adaptant des moyens principalement conçus pour le confort d’hiver.

De fait, la RT 2005 garantit le confort d’été du bâtiment à deux niveaux :

1°) En limitant les apports solaires par un plafonnement de la surface des baies vitrées ;

2°) En organisant le rafraîchissement de l’ambiance intérieure par deux moyens simples :

- d’une part, une ventilation puissante pour récupérer l’air frais extérieur produit par la baisse de température de la nuit ;

- d’autre part, une inertie thermique du bâti suffisante pour conserver cette fraîcheur le plus longtemps possible.

Cependant l’épisode de la canicule de 2003, qui a récidivé en Europe orientale et méridionale en 2007, montre qu’une telle approche ne peut plus être satisfaisante dans le cadre du changement climatique en cours. Comme l’a fait observer M. Denis Clodic, il n’est plus possible de fonder toute la stratégie du confort d’été sur un rafraîchissement nocturne de la température extérieure. Une gestion active de ce confort d’été doit être prise en compte dans la nouvelle réglementation thermique.

Elle peut reposer en pratique sur plusieurs principes :

- le branchement de l’aération sur un puits canadien ;

- le fonctionnement en mode inverse, réfrigérant, d’une pompe à chaleur ;

- la mise en route d’un équipement spécifique de climatisation.

La nouvelle réglementation thermique doit prévoir l'existence obligatoire de l’un ou l’autre des systèmes possibles de climatisation active, dans tous les bâtiments effectivement occupés au cœur de l’été.

Les bâtiments tertiaires qui, en raison de la nature de leur utilisation, sont fermés ou fonctionnent à effectif très réduit en juillet et août, peuvent évidemment être dispensés de cette obligation.

La question se pose du supplément d’énergie primaire nécessaire au fonctionnement de la climatisation active, et de la nécessité pour la norme thermique d’en tenir compte. A ce stade, il semble à vos rapporteurs que les épisodes de canicule, au cours desquels la température de la nuit finit par rattraper celle du jour, sont encore suffisamment rares pour que leur impact en termes de consommation moyenne annuelle demeure limité.

De surcroît, l’obligation de disposer d’un système de climatisation sous le maintien d’une contrainte de consommation d’énergie primaire devrait conduire à orienter les choix vers les solutions les plus efficaces. Le recours à un équipement spécifique de climatisation est relativement moins bien placé à cet égard, soit qu’il s’appuie sur une énergie fossile émettrice de CO2, soit qu’il contribue, au moment des canicules, à une congestion du réseau électrique (et aux éventuelles émissions de CO2 qui en résultent) ; le branchement sur un réseau de froid, solution collective plus intéressante, doit évidemment être privilégiée si elle est disponible.

C. L’ADAPTATION SELON LA TAILLE ET LA DESTINATION

En plus des différences objectives de situation liées à la géographie du climat, vos rapporteurs ont été amenés à prendre en considération les différences objectives créés par la taille et la destination des bâtiments. La taille du bâtiment constitue en effet un paramètre de différentiation forte de la consommation d’énergie au sein du secteur résidentiel, tandis que la destination du bâtiment, c'est-à-dire l’activité qu’il héberge et pour laquelle il a été spécialement adapté, crée des besoins énergétiques extrêmement variables au sein du secteur tertiaire.

1. Ajuster la contrainte pour les petits logements

Les auditions ont permis de constater un consensus sur les difficultés particulières qu’auront les logements de petite surface à respecter une réglementation thermique plus contraignante. Ces difficultés sont indépendantes des sources d’énergie retenues, et ne tiennent qu’à des considérations géométriques.

Trois arguments peuvent être avancés à cet égard :

- d’abord, une famille qui occupe une surface plus étroite n’en conserve pas moins les mêmes besoins en termes d’eau chaude et de ventilation, car elle se lave et respire tout autant ; de ce fait, la consommation d’énergie au mètre carré peut même croître lorsque le logement devient plus exigu ;

- ensuite, le rapport entre la surface de l’enveloppe extérieure d’un bâtiment et son volume intérieur croît lorsque sa taille se réduit16 ; l’efficacité d’une même épaisseur d’isolation diminue donc avec la taille du bâtiment, et par conséquent le besoin de chauffage nécessaire pour atteindre un même niveau de confort croît relativement lorsque la taille du logement se réduit ;

- enfin, la place prise par une certaine épaisseur d’isolation devient relativement plus importante lorsque la taille du bâtiment diminue ; ainsi, pour une surface construite au sol de 100 mètres carrés, qui correspond à un périmètre de l’ordre de 40 mètres pour un bâtiment cubique, une couche de 25 cm d’isolant retire environ 10 mètres carrés, c'est-à-dire l’équivalent d’une pièce. Pour une surface construite deux fois plus importante (200 mètres carrés), la même couche d’isolant ne retire à la surface habitable qu’un peu moins de 14 mètres carrés.

Les petites surfaces nécessitent donc un effort d’isolation relativement plus important, qui réduit relativement beaucoup plus la surface habitable ; cela signifie au total qu’une famille vivant déjà dans la promiscuité ne peut dès lors compenser le handicap involontaire de consommation énergétique trop élevée en eau chaude et ventilation qu’elle subit du fait d’une mesure de la performance au mètre carré, que par une exiguïté de son logement plus accentuée encore.

On conçoit qu’en ce cas la contrainte de la réglementation thermique doive être desserrée.

Au cours des auditions, la seule proposition concernant une méthode de modulation possible est venue de Geoxia, qui a suggéré de définir une valeur globale de consommation énergétique annuelle pour tous les logements, quelle que soit leur surface. Ce serait assurément là une méthode de correction très brutale, qui créerait d’autres inconvénients, en pénalisant notamment par trop les grandes surfaces.

Mais l’idée de définir une valeur pivot, centrée sur la surface moyenne des logements, autour de laquelle une correction symétrique serait opérée selon une pente « raisonnable », paraît judicieuse. On peut observer que ce principe est mis en œuvre par la réglementation thermique allemande (Cf. tableau suivant). Il consiste en fait à opérer une correction sur une partie allant de 20 à 40% de la valeur thermique cible.

En opérant une correction de même nature sur 40% de la valeur plafond des 50 kWh, soit une part de 20kWh, on obtiendrait, en prenant 100 mètres carrés comme surface moyenne, et en désignant par S la surface en mètres carrés du logement considéré, une formule du type :

C (S) = 30 + Q (S) Avec : Q (S) =

4000

100 + S

Les valeurs prises ici (100 m2 de surface moyenne, 4000 kWh de valeur pivot correspondant à une correction sur 40% de la valeur plafond) ne visent qu’à illustrer l’intérêt de cette approche. Elles seraient certainement à affiner, ne serait-ce qu’en précisant la nature de la surface prise en compte.

Mais on obtient ainsi une solution de modulation relativement simple, qui respecte en moyenne la valeur plafond des 50 kWh, et desserre la contrainte sur les petites surfaces, tout en ne la renforçant pas excessivement sur les surfaces les plus grandes.

Cette contrainte supplémentaire sur les grandes surfaces fonctionne d’ailleurs comme un mécanisme de solidarité, justifié d’une part, par le fait que les bâtiments de grande taille, pour des raisons exactement inverses à celles évoquées précédemment pour les bâtiments de petite taille, satisfont relativement plus facilement à une réglementation thermique exigeante, et d’autre part, par le fait que les logements plus grands sont acquis généralement par des ménages plus aisés, ayant donc les moyens de financer un effort supplémentaire d’investissement pour atteindre une meilleure performance énergétique.

Les modulations doivent bien sûr jouer de manière cumulative, et le plafond des 50 kWh doit être ajusté en fonction des considérations de climat et d'altitude précédemment évoquées. En ramenant tout sur une seule formule, on obtient :

Cmax = 50 (a + b) c (S) avec c (S) = 0,6 +

80

100 + S

La formule s'appliquerait aux logements, ce qui ne soulève aucune ambiguïté d'interprétation lorsque le bâtiment concerné est une maison individuelle, mais pose une difficulté lorsqu'il s'agit d'un immeuble collectif, car l'article 4 de la loi du 3 août 2009 mentionne les « constructions nouvelles », ce qui suggère que la réglementation s'applique à l'ensemble de l'immeuble.

Mais le même article indique que la nouvelle norme de consommation d'énergie primaire s'applique « en moyenne ».

De fait, au sein d'un grand immeuble, un appartement situé en façade nord, ou exposé aux vents dominants, sera toujours moins bien protégé du froid qu'un appartement donnant plein sud. Inversement, son confort d'été sera moins problématique.

Cela signifie que la nouvelle norme thermique s'applique d'abord et avant tout au bâtiment dans son ensemble; et c'est à ce niveau là que doivent évidemment être vérifiées les qualités d'imperméabilité et d'isolation indispensables à la réalisation « en moyenne » de la performance visée. Dans la mesure où le volume délimité par l’ensemble des surfaces exposées forme l’espace à protéger des échanges thermiques avec l’extérieur, la même démarche devrait s’appliquer aux ensembles de bâtiments mitoyens.

La formule de modulation proposée précédemment pourra alors s’appliquer en prenant en compte la surface moyenne des logements dans le volume délimité par l’ensemble des surfaces exposées.

Et c'est dans un second temps que la modulation proposée précédemment viendrait imposer un plafond de consommation au niveau de chaque appartement, en fonction de sa taille, essentiellement, en ce cas, pour corriger le biais induit par la manière de compter l'énergie consacrée à l'eau chaude et à la ventilation.

Cette démarche en deux temps présente l’avantage de respecter la lettre de la loi, tout en résolvant la complexité liée à l’inégalité de positionnement relatif des appartements dans un logement collectif, ou des maisons individuelles dans une structure en bande. C’est une manière de compenser l’absence de coefficient de forme, tel qu’il est pris en compte par la réglementation allemande.

2. Interpréter la contrainte pour les bâtiments tertiaires

Les bâtiments tertiaires, entendus au sens fonctionnel, c'est-à-dire les bâtiments à vocation non résidentielle, construits par des personnes aussi bien publiques que privées, recouvrent, comme on l’a déjà observé, un ensemble très diversifié d’immeubles conçus pour des utilisations multiples, et nécessitant des quantités d’énergie très différentes pour fonctionner : ainsi un hangar peut être opérationnel avec un simple éclairage, tandis qu’un hôpital consomme en permanence, jour et nuit, toute l'année, du chauffage, de l’eau chaude et de la ventilation ; les bureaux quant à eux, recourent au chauffage et à la climatisation de manière plus intense que les logements.

La maîtrise de la consommation d’énergie de cet ensemble très diversifié est d’ores et déjà complexe, et cette complexité ne va que se renforcer avec la mise en œuvre de la nouvelle réglementation thermique.

Deux éléments principaux vont accentuer cette complexité :

- D’abord, l’article 4 de la loi du 3 août 2009 impose aux bâtiments tertiaires la même norme qu’aux logements. Renseignements pris auprès de certains participants aux discussions du Grenelle de l’environnement, dont le projet de loi, puis la loi n’ont fait que reprendre les conclusions, c’est une forte volonté commune de simplification qui a conduit à étendre le plafond des 50 kWh au secteur tertiaire. Or, comme l’a fait observer le CSTB, rien dans les expérimentations en cours ne préparait à cette généralisation, car le label « Effinergie » préconisait seulement, pour les bâtiments tertiaires, catégorie par catégorie, un gain de performance de 50% par rapport au plafond de consommation énergétique prévu par la RT 2005, ce qui imposait déjà un effort d’ajustement conséquent ;

- Ensuite, le calcul réglementaire appréhende moins bien la performance énergétique dans le secteur tertiaire que dans le secteur résidentiel, du fait de la fréquence plus élevée des entrées et sorties (magasin), de la taille des ouvertures sur l’extérieur (hangar d’avions), ou de la fréquence très variable d’occupation (bureau, ou à l’inverse, salle de réunion). En outre, l’activité qui se déploie dans un bâtiment tertiaire est souvent moins routinière que celle d’un bâtiment résidentiel, et détermine de fait une part très substantielle de la consommation effective d’énergie. Des gabarits réglementaires de consommation sont définis par catégorie d’utilisation des bâtiments, mais l’audition des responsables de La Poste a bien illustré la difficulté à couvrir tous les cas de figure, puisqu’en l’occurrence les plates-formes de tri postal fonctionnent selon des rythmes hebdomadaires très particuliers, et ne peuvent être rattachées, dans le dispositif en vigueur, qu’au scénario « locaux non compris dans une autre catégorie ». La même audition a souligné l’écart du simple au double pouvant exister entre la performance effective et la simulation réglementaire. A toutes ces imperfections, le resserrement de la norme thermique va rajouter l’imprécision supplémentaire induite par le fait que les modèles de simulation sont mal calibrés pour des valeurs d’énergie faibles, ainsi que l’a fait observer à vos rapporteurs, un de leurs interlocuteurs de Minergie à Fribourg.

Dans le secteur tertiaire, il va s’agir donc de mettre en œuvre une norme extrêmement plus exigeante dans un contexte où les procédures suivies aujourd’hui pour maîtriser a priori la consommation d’énergie au stade de la construction demeurent très approximatives. De plus, l’obligation de respecter la norme va arriver très vite, puisque la loi a fixé son entrée en vigueur au 1er janvier 2011.

Nombre de leurs interlocuteurs ont indiqué officieusement à vos rapporteurs, que toutes ces conditions créaient une situation impossible à surmonter, car les différents gabarits réglementaires de consommation énergétique, modèles de référence définis par type d’utilisation des bâtiments sur lesquels se calent les calculs réglementaires, ne pourraient jamais être mis à jour à temps.

Mais cela signifie peut-être qu’il convient de développer une autre approche pour aborder la mise en œuvre de la réglementation, en plaçant au cœur de la démarche la recherche d’une performance effective, et non plus d’une performance simulée.

Vos rapporteurs rejoignent en cela une suggestion du « rapport Grzybowski », de fin juillet 2009, et proposent d’utiliser un mode d’emploi découlant des enseignements du programme de recherche coopérative HOMES, piloté par Schneider à Grenoble, dont ils ont pris connaissance lors d’une visite à Grenoble le 12 novembre 2009.

a) Une démarche axée sur la performance effective

Dans la mesure où la réglementation thermique est partie prenante de la lutte contre le changement climatique, on conçoit mal comment on pourrait se satisfaire d’une performance énergétique « faciale », consistant simplement à respecter la norme au niveau du résultat d’un calcul réglementaire. En fait, la seule performance qui vaut, est celle qui est mesurée a posteriori. Les méthodes à retenir pour maîtriser l'énergie sont celles qui sont les plus appropriées parmi les différentes possibles : l'optimisation de la structure du bâti (sa forme, son orientation), l'isolation, la qualité des équipements, la gestion active de l'énergie. Et s’il n’est pas possible d'atteindre la performance dans un premier temps, il faut se donner les moyens de converger vers l’objectif le plus vite possible.

Vos rapporteurs ont eu la satisfaction de voir cette philosophie formulée dans le rapport remis le 23 juillet 2009 par Serge Grzybowski, président de la société immobilière ICADE, chargé par M. Philippe Pelletier, président du comité stratégique du Plan bâtiment Grenelle, d’animer un groupe de travail sur la mise en œuvre du plan bâtiment Grenelle dans le secteur tertiaire privé (bureaux, commerces, logistique, établissements de santé, hôtels).

Le groupe de M. Grzybowski souhaite que « la réglementation soit performancielle, c’est à dire avec le moins de contrainte sur les moyens », dans le but de « favoriser le choix de solutions efficientes, avec le meilleur rapport technico-économique ». Et vos rapporteurs ne peuvent qu’apporter leur soutien à cette conception, dont le mode opératoire constitue d’une certaine façon la matière même du programme HOMES.

b) La fragmentation du bâtiment par fréquence d’occupation

Le programme HOMES, qui a pour objectif de promouvoir la gestion active de l'énergie dans les bâtiments, intègre intelligemment une analyse des conditions dans lesquelles cette gestion active contribue le plus à la maîtrise de l'énergie, par rapport aux approches d'amélioration du bâti (forme, orientation, isolation) ou des équipements.

Cette approche conduit à décomposer tout bâtiment en zones homogènes du point de vue de la fréquence d'occupation, pour chacune desquelles la solution optimisée de maîtrise de la consommation d'énergie est spécifique : les zones occupées de manière continue (les bureaux, par exemple) doivent prioritairement être optimisées du point de la qualité de leur bâti, car elles ont relativement moins à gagner à une action exclusive sur la gestion active de l'énergie; à l'inverse, pour des zones peu fréquentées (les hangars), la gestion de l'énergie est d'un intérêt bien plus grand que l'amélioration du bâti, car le confort des visiteurs occasionnels n'y est généralement pas une priorité.

Ainsi, dès le stade de la conception, la recherche de la performance énergétique doit s'inscrire dans une démarche d'utilisation optimisée des ressources, ce qui permet d'assurer une maîtrise au plus juste des coûts de construction.

c) La vérification des critères objectifs de qualité du bâti

Dans les zones où un effort sur le bâti est requis, la performance énergétique dépend de deux caractéristiques vérifiables : l'imperméabilité et l'isolation. La première se mesure avec le test de la porte soufflante17; la seconde peut être estimée à travers la vitesse de décroissance de la température intérieure, après une phase de chauffage qui a été interrompue.

Il va de soi que cette double vérification doit être obligatoire.

En fait, l'application de la norme des 50 kWh dans le secteur tertiaire doit s'interpréter comme l'obligation de faire en sorte que, pour toutes les zones du bâtiment à fréquence élevée d'occupation, l'enveloppe du bâti atteigne une qualité au moins équivalente à celle qui serait nécessaire pour une utilisation en mode résidentiel dans le cadre de la nouvelle réglementation.

Autrement dit, vos rapporteurs suggèrent que l'extension de la norme du secteur résidentiel, telle quelle, à l'univers très diversifié du secteur tertiaire, ne s’applique à la lettre qu’à tous les bâtiments, ou, à défaut, dans les constructions complexes, à toutes les parties des bâtiments, dont l'isolation est primordiale pour minimiser la consommation énergétique. Il va de soi, par exemple, que cette extension s’impose aux bureaux.

d) La mise en place d'un suivi des consommations

Il est indispensable que la réglementation oblige à ce que toute livraison d'un bâtiment tertiaire s'accompagne de la mise à disposition d'instruments pour assurer le suivi des consommations énergétiques, ainsi que le pilotage des équipements de contrôle afférents.

Comme l'ont fait observer les interlocuteurs du programme HOMES, ce monitoring ne consiste pas à fournir des informations sur tout ce qu'il est facile de mesurer, mais sur tout ce qu'il est pertinent de mesurer au regard des objectifs poursuivis, le premier de ces objectifs étant de respecter la norme thermique, indépendamment d'autres formes d'optimisation répondant, selon le cas, aux préoccupations du propriétaire, de l'exploitant ou de l'occupant.

L'optimisation globale de la performance peut nécessiter d'ailleurs le recours à un système logiciel spécifique, car elle ne s'obtient pas nécessairement par l'optimisation séparée de chacun des systèmes énergétiques.

La surveillance des instruments de monitoring relève de la fonction plus générale de « gestion technique des bâtiments ». Comme partie d'une tâche plus large, ou à titre principal, suivant l'importance du bâtiment, elle doit être confiée en pleine responsabilité à une personne bien identifiée, qui peut être un prestataire extérieur, comme c'est le cas au siège de l'ADEME à Angers.

La réglementation doit rendre obligatoire la désignation d’un « responsable de l'énergie » dans chaque bâtiment tertiaire devant respecter la nouvelle norme thermique.

e) La publicité de la performance obtenue

Afin d'exercer une pression pour optimiser la consommation globale d'énergie, une publicité du résultat global devrait être organisée, aussi bien en ce qui concerne l'énergie primaire que les émissions de gaz carbonique. Cette publicité pourrait prendre différentes formes : affichage sur place, et sur un site Internet officiel.

Pour les bâtiments privés, notamment ceux construits par des entreprises, cette publicité constituerait un indice visible d'engagement au service du développement durable, élément désormais essentiel de toute politique de communication; pour les immeubles publics, une bonne performance énergétique serait perçue comme un indicateur de rigueur de gestion.

M. Jean Carassus, qui représente le CSTB au sein du Conseil international du bâtiment, a signalé à vos rapporteurs qu'un dispositif de ce type était prévu en Australie, dans le cadre du National Strategy on Energy Efficiency (NSEE, point 3.2.2)18, à partir de 2010 : l'obligation devra s'étendre en trois phases, d'abord aux bâtiments tertiaires de plus 2000 mètres carrés, ensuite à l'ensemble des bâtiments publics, enfin à tous les bâtiments tertiaires, y compris les hôtels, les magasins, les écoles et les hôpitaux.

Le programme « Energy Star » aux Etats-Unis prévoit un dispositif de nature complémentaire appelé « Portfolio Manager », par lequel les responsables des bâtiments tertiaires mentionnent spontanément, sur un site Internet, la performance énergétique atteinte, afin d'obtenir en retour une information sur la position relative de leurs résultats au sein d'un groupe de référence formé de bâtiments similaires. Les meilleures performances sont rassemblées dans une liste d'honneur visible en ligne, voire sont récompensées par l'attribution d'un prix.

Ces mécanismes de publicité entretiennent une émulation qui permet de progresser vers la cible de performance énergétique, si elle n'est pas pleinement atteinte au stade de la construction. Les progrès potentiels vont alors résulter moins d'opérations de rénovation du bâti que d'un ajustement des équipements ou d'une exploitation des gains permis par une gestion active de l'énergie.

A cet égard, l'organisation d'échanges d'informations ne peut être que profitable.

f) La constitution en réseau des responsables de l'énergie

Leur visite au Japon, en novembre 2008, dans le cadre de leur précédent rapport sur la stratégie de recherche en énergie, a permis à vos rapporteurs de découvrir une forme d'organisation au service de la maîtrise d'énergie qui pourrait utilement être transposée en France.

Au Japon, toute entité occupant un bâtiment tertiaire (cela concerne particulièrement les usines) doit nommer un « Energy Manager », qui a un rôle de conseil auprès de la direction, et de formation auprès des employés. Sa qualification est sanctionnée par un diplôme national obtenu après une session de formation ou un stage de validation, selon son niveau d’expérience professionnelle. Son rôle est ainsi voisin de celui que joue, en Europe, le « correspondant Informatique et Libertés » pour la protection des données personnelles : référent intérieur et relais extérieur (pour les relations avec l'autorité nationale de contrôle – CNIL en France). Une certification nationale présente l’avantage de transformer ces « Energy Manager » en un réseau de diffusion des « bonnes pratiques » en matière d’économie d’énergie, puisqu'un organisme central, l’Energy Conservation Center (ECCJ), organise mensuellement des sessions de présentation d’une dizaine de cas intéressants d'amélioration de l'efficacité énergétique.

La DHUP et le CSTB pourraient s'inspirer de cet exemple pour animer un réseau des « responsables de l'énergie » français, qui deviendraient ainsi autant de relais pour une diffusion des « bonnes pratiques » en matière d'économie d'énergie dans les bâtiments tertiaires.

En conclusion, la mise en œuvre de la norme des 50 kWh dans le secteur tertiaire devrait viser une performance effective, en intégrant l’apport de la gestion active de l’énergie, et un suivi du résultat global obtenu. La seule contrainte vérifiable a priori concernerait l'enveloppe des zones d'occupation permanente, qui devrait atteindre le degré de qualité des logements. Une dynamique d’effort permanent d’optimisation de la consommation devrait s’engager à travers non seulement un monitoring de chaque nouveau bâtiment, mais encore des échanges de « bonnes pratiques » au sein d’un réseau des « responsables de l’énergie ».

III. LE DÉFI DE LA MISE EN OEUVRE

Dans la mesure où l'OPECST se trouve aussi chargé par l'article 4 de la loi du 3 août 2009 de : « mesurer l’impact économique de l’ensemble du dispositif », vos rapporteurs ont été amenés à s'intéresser d'une façon plus large aux conditions de la mise en œuvre de la nouvelle réglementation technique.

Leurs réflexions à cet égard visent à identifier les freins qui pourraient gêner la transposition à tout le pays, dans le cas général, de quelques expériences pilotes singulièrement réussies. Ces freins potentiels tiennent d'une part à différents éléments du contexte juridique, professionnel, industriel. Ils tiennent aussi à la nécessité d'obtenir l'adhésion du plus grand nombre à la révolution de la basse consommation d'énergie.

A. LE PASSAGE À UNE DIFFUSION DE MASSE

Il convient d'avoir bien conscience des raisons qui expliquent le succès des quelques expériences pilotes en matière de construction à basse consommation pour mieux analyser les conditions du succès d'une généralisation.

1. L’effet d'illusion des expériences pilotes

Vos rapporteurs sont intimement persuadés de l'intérêt de construire des bâtiments beaucoup plus économes en énergie. Et leurs visites en France et à l'étranger leur ont confirmé que cet objectif était réalisable.

Cependant ils ont aussi constaté que toutes les opérations immobilières qui leur ont été présentées étaient le fait d'un groupe de personnes extrêmement motivées, qui ont pu le plus souvent bénéficié d'un contexte particulièrement favorable :

- la possibilité de choisir un terrain approprié, permettant de tirer le meilleur profit des apports naturels; ainsi les quartiers Vauban et Rieselfeld sont situés, en zone ouverte, à la périphérie de la ville de Fribourg-en-Brisgau; de même, le quartier BedZed ne se situe pas par hasard à l'extrême bordure sud de la ville de Londres, dans une zone peu dense;

- un soutien appuyé des autorités locales, qui ont pu apporter non seulement un soutien financier particulier comme dans le cas des opérations Effinergie à Lyon, mais encore ont contribué à la visibilité publicitaire des projets, ce qui a eu pour conséquence de susciter un engagement spécifique de la part des prestataires; sans parler de la pression que ces autorités étaient en mesure d'exercer pour débloquer les situations contractuellement délicates, comme cela est arrivé à Fribourg-en-Brisgau;

- un engagement intéressé des professionnels, reposant sur une logique de pur investissement à moyen terme : le temps consacré au delà des pratiques habituelles, l'effort mis à trouver des solutions bien adaptées à tous les problèmes techniques rencontrés, ont été autant de contraintes exceptionnelles acceptées pour valoriser ensuite l'expérience acquise sur une référence incontestable.

Toutes ces conditions favorables ne se retrouveront plus nécessairement lorsque la généralisation de la construction à basse consommation mettra en lice des milliers de particuliers anonymes face à des prestataires aguerris, pour des opérations sans relief publicitaire, gérées au plus juste, avec le souci de minimiser les dépenses pour maximiser la marge dégagée.

2. Les contraintes du contexte institutionnel

Comme cela a été souligné, la réalisation d’un bâtiment à basse consommation suppose de reconsidérer la démarche de la construction, pour passer à une approche de conception globale, qui tire avantage de tous les atouts disponibles de l’environnement. Or le contexte institutionnel de la construction impose des contraintes parfois assez critiques pour la viabilité du projet ; il s’agit des règles locales d’urbanisme, pour les maisons individuelles surtout, et de celles encadrant les marchés publics, pour les bâtiments administratifs.

Ø Les règles d’urbanisme

Les anciens « plans d’occupation des sols » progressivement remplacés par les « plans locaux d’urbanisme » en application de la loi n° 2000-1208 du 13 décembre 2000 relative à la solidarité et au renouvellement urbains ont pour objet de « déterminer des règles concernant l'aspect extérieur des constructions, leurs dimensions et l'aménagement de leurs abords, afin de contribuer à la qualité architecturale et à l'insertion harmonieuse des constructions dans le milieu environnant »" (article L 123-1 du code de l'urbanisme).

Elaborés, puis approuvés dans le cadre d’une démarche large de consultation, ils sont l’expression d’un consensus local, démocratique.

Il peut arriver cependant que leurs prescriptions entrent en contradiction avec l’objectif de performance énergétique. Au cours des auditions conduites par vos rapporteurs, un architecte, M. Yorrick Mahé, a mentionné notamment l’obligation fréquemment mentionnée, pratiquement en tout point de France, de couvrir la maison par une toiture à double pente de 35° à 45°, et d’avoir des fenêtres moins larges que hautes ; ce qui renvoie au modèle finalement assez standardisé de la construction dite « traditionnelle ».

Or, l’obligation d’un toit à double pente interdit le recours à une toiture végétale, qui outre des avantages écologiques, présente un intérêt du point de vue de l’inertie thermique et de l’isolation phonique. Surtout, cette obligation empêche de bénéficier de l’économie de plusieurs milliers d’euros sur la construction que rend possible une toiture végétale. En libérant la contrainte financière pour le recours à des équipements énergétiques performants, cette forme de toiture rend la maison à basse consommation plus accessible pour les ménages à faible revenu.

De même, la prescription concernant des fenêtres moins larges que hautes empêche la mise en place de grandes baies vitrées permettant de maximiser la récupération des apports solaires.

Deux formes de souplesses ont d’ores et déjà été introduites pour mieux concilier les règles locales d’urbanisme avec la construction à basse consommation :

- d’une part, l'article 30 de la loi n°2005-781 du 13 juillet 2005 de programme fixant les orientations de la politique énergétique a prévu les conditions dans lesquelles le plan local d’urbanisme peut autoriser, dans la limite de 20%, un dépassement du coefficient d’occupation des sols, « pour les constructions remplissant des critères de performance énergétique ou comportant des équipements de production d’énergie renouvelable ». L'arrêté du 3 mai 2007 a défini les critères permettant d’autoriser ce dépassement. Ce « bonus de COS » est en vigueur, par exemple, à Castelnau de Médoc, en Gironde19 ;

- d’autre part, la ville de Paris a fourni, dans son plan local d’urbanisme de 2006, l’exemple du recours à des règles simplement morphologiques, concernant la hauteur, le volume, le retrait, ou encore les caractéristiques constructives (composition de façade, proportions des rez-de-chaussée) pour encadrer l’aspect des bâtiments neufs, qui devront s’intégrer au tissu existant en prenant en compte les particularités typologiques des quartiers, « sans conduire à un mimétisme architectural souvent qualifié de pastiche ».

Sans aller plus avant dans l’évocation de cette question complexe, vos rapporteurs appellent l’attention sur l’intérêt de ces dispositifs d’assouplissement pour la réussite d’un développement de masse de la construction à basse consommation.

Ø Les marchés publics

Au cours de l’audition du président de l’Association des Industries des Produits de Constructions (AIMCC), M. Jean-Marie Vaissaire, vos rapporteurs ont identifié une difficulté posée par les règles de marché public en ce qui concerne les appels d’offre pour la réalisation de bâtiments à basse consommation.

La construction d’un bâti dépourvu de défaut suppose en effet une bonne coordination entre les différents corps de métiers mobilisés, afin d’éviter que les travaux de finition des uns ne soient remis en cause par l’intervention des autres, Des petites entreprises qui ont l’habitude de travailler ensemble pouvant répondre par une offre commune à un marché de construction d’un immeuble administratif.

L’obligation d’une division par lots de l’ouvrage à réaliser fait cependant obstacle à cette démarche de coordination, pourtant potentiellement gage d’une prestation de meilleure qualité.

Vos rapporteurs ont évoqué la difficulté lors de leur visite du siège de l’ADEME à Angers, et M. Xavier Lefort, secrétaire général, a expliqué que l’ADEME avait procédé, pour la construction de la partie nouvelle de son bâtiment, qui atteint la performance du label « Effinergie », par un appel d’offres sur performance.

Cette procédure consiste à organiser la consultation à partir d’une définition des besoins exprimée sous forme d’exigences à satisfaire. Elle est dérogatoire au principe de l'intangibilité de l'offre qui régit les appels d'offres classiques, mais elle est autorisée si l’opération présente un caractère innovant. L’entreprise titulaire se trouve, en ce cas, en charge de la réalisation de l’ensemble du projet, et mobilise à cette fin les ressources qu’elle a présentées dans son offre. La bonne coordination des intervenants fait donc partie des critères de sélection.

L’expérience de l’ADEME conduit à observer que ce sont surtout de grandes entreprises de maîtrise d’œuvre qui répondent à ce type d’appel d’offre. Cependant l’outil juridique semble en ce cas bien adapté au besoin.

On peut s'interroger néanmoins sur la pérennité d'une solution reposant sur l'identification du caractère innovant du projet, dans la perspective d'une généralisation de la construction à basse consommation. A partir de 2013, il deviendra plus délicat d'invoquer ce caractère innovant pour des constructions qui n'auront comme particularité que de mettre en œuvre la réglementation thermique courante.

Une réflexion sur l'adéquation des règles de marché public à la généralisation de la basse consommation dans les constructions publiques sera donc, en tout état de cause, utile.

3. La formation des professionnels

Vos rapporteurs n’ont pas manqué de souligner, dans leur précédent rapport sur la stratégie de recherche en énergie, combien la formation était une composante indispensable à la diffusion des avancées technologiques, et la révolution culturelle de la construction à basse consommation fournit une illustration emblématique de cette analyse, car il ne sera pas possible de généraliser cette nouvelle approche de la construction sans son appropriation massive par les professionnels concernés.

Le besoin d’une intensification de l’effort de formation a du reste été identifié comme indispensable lors des tables rondes conclusives du Grenelle de l’environnement en octobre 2007 (engagement n°11). La loi du 3 août 2009 l’a traduit dans son article 6 qui concerne : « un programme pluriannuel de qualification et de formation des professionnels du bâtiment et de l’efficacité énergétique dans le but d’encourager l’activité de rénovation du bâtiment, dans ses dimensions de performance thermique et énergétique, acoustique et de qualité de l’air intérieur ».

Les auditions tenues par vos rapporteurs ont permis de constater que les différents acteurs du secteur avaient pleinement conscience de ce besoin, et que des efforts étaient déjà engagés en ce sens. La cible à viser en ce domaine, autant que faire se peut, doit être un système de double certification, celle des entreprises et celle des personnes, mis en œuvre depuis longtemps dans l'industrie, et particulièrement dans l'industrie nucléaire.

Ø La multiplicité des initiatives en cours

Le bilan des informations recueillies au cours des auditions montre que les initiatives en cours pour renforcer la formation des professionnels du bâtiment sont d'ores et déjà assez nombreuses :

• l'association « Effinergie » a signé une convention avec le ministère de l’Education nationale, qui a conduit à labelliser une douzaine de modules de formation spécifique sur la méthodologie de la « basse consommation » dans le cadre de BTS et de BAC professionnels;

• certaines structures de l’enseignement supérieur se sont déjà adaptées : l’Ecole des Mines d’Alès offre la possibilité d’obtenir un diplôme d’ingénieur par l’apprentissage sur le thème : « Conception et management de la construction » ; l’IUT de Marne la Vallée a créé une licence professionnelle « Bâtiment à basse consommation » ;

• le dispositif du FEEBAT (Formation aux Economies d'Energie dans le BATiment), mis en place en partenariat avec l'ADEME, prend son essor, et devrait accueillir 50 000 stagiaires au cours de l'année 2009. Il est financé par le mécanisme des certificats d'économie d'énergie, et s'appuie sur des centres de formation professionnelle habilités;

• il convient également de mentionner la mission confiée à M. Yves Farge, président du comité d'animation stratégique du Prebat, et membre de notre comité de pilotage, pour étudier la manière dont le système éducatif pourrait réorienter ses efforts dans ce domaine, notamment en participant à des plates-formes technologiques associant formation, démonstration, R&D et accueil d’entreprises20 ;

Un effort supplémentaire de l’Education Nationale serait certainement utile, car la demande pour la formation aux métiers du bâtiment augmente. D’après les informations parvenues à vos rapporteurs, le recrutement de professeurs pour les lycées professionnels ou techniques se tarirait, et certaines classes fermeraient dans ces lycées. Si c’est le cas, une mise en cohérence s’impose, peut-être sur le mode d’une amplification des partenariats avec l’association « Effinergie », ou avec d’autres acteurs, comme la branche française de « Minergie ».

Le ralentissement d’activité lié à la crise économique paraît une période propice pour suivre des formations professionnelles, mais il ne faudrait pas que les employés des entreprises mieux loties en commandes soient exclus du dispositif. C’est pourquoi la loi n° 2009 -1437 du 24 novembre 2009 relative à l'orientation et à la formation professionnelle tout au long de la vie, prévoit, à titre expérimental, jusqu’au 31 décembre 2011, dans les petites entreprises (moins de dix salariés), une prise en charge des rémunérations versées pour remplacer un collaborateur absent pour cause de formation.

Ø L’intérêt de la double certification

L’effort de formation s’accompagne logiquement d’un dispositif de certification, qui permet de valoriser commercialement la qualification acquise, en établissant un lien de confiance avec la clientèle. Lors des auditions, vos rapporteurs n’ont pas manqué de rappeler l’utilité de cet instrument de communication pour faciliter l’identification par le grand public des prestataires les plus performants.

Les deux principales organisations professionnelles du bâtiment se sont engagées résolument dans cette voie :

• la Confédération de l’Artisanat et des Petites Entreprises du Bâtiment (CAPEB) a mis en place, début 2009, le label « Eco-artisan », ouvert à l’ensemble des entreprises du bâtiment, qui habilite à fournir un conseil en matière d’efficacité énergétique, et reconnaît une aptitude à réaliser des travaux en contrôlant leur qualité; en octobre 2009, la CAPEB a confié la gestion de ce label à l'association Qualibat;

• la Fédération française du bâtiment (FFB) a annoncé, lors du salon Batimat de novembre 2009, le lancement du label « Pro de la performance énergétique » (FBF), qui sanctionne une qualification de métier certifiée par Qualibat ou Qualifelec, et l'engagement de respecter la charte « Bâtir avec l'environnement ». L'obtention de la mention "économie d'énergie" suppose que 10% des équipes de l'entreprise aient suivi l'un au moins des trois modules FEEBAT et qu'à l'échelle de l'entreprise, les 3 modules FEEBAT aient été suivis.

Vos rapporteurs ne peuvent que se réjouir d’initiatives qui vont jusqu’au bout de la logique de garantie de la qualité des prestations, puisque dans les deux cas, un lien est fait entre la certification des entreprises et la certification des personnes ; ce lien est en effet implicite dans le cas des artisans qui travaillent souvent seuls, ou en équipes réduites.

La pratique de la « double certification », celle des entreprises et celle des personnes, permet d’éviter les procédés consistant à mettre en avant un label collectif de compétence pour décrocher un contrat, et faire ensuite exécuter celui-ci par des ressources humaines inexpérimentées, voire employées en sous-traitance.

Inversement, la qualification d’une personne peut être relativisée par un contexte d’entreprise qui en réduit la portée pratique, du fait d’une mauvaise organisation, ou d’une gestion trop étriquée des tâches annexes de logistique.

Le monde industriel recourt depuis longtemps à la double certification, et le domaine de la maintenance des centrales nucléaires en fournit un exemple.

Ainsi, le « Comité français de certification des Entreprises pour la Formation et le suivi du personnel travaillant sous Rayonnements Ionisants » (CEFRI), qui a été créé en 1990 par les professionnels de l'industrie nucléaire, délivre, après audit, une certification aux entreprises de travail temporaire et aux entreprises prestataires auxquelles les exploitants de centrales nucléaires sont susceptibles de faire appel. Elle atteste du bon suivi sur le plan médical, de la formation à la prévention des risques et du suivi dosimétrique des travailleurs.

La certification des entreprises par le CEFRI est conditionnée par une certification personnelle de chacun des employés : ceux-ci doivent obtenir un certificat de formation à la prévention des risques, en particulier en ce qui concerne les risques dus aux rayonnements ionisants. Ce certificat ne peut être délivré que par un organisme de formation certifié par le CEFRI.

On retrouve ce dispositif de validation des compétences à deux niveaux, l’entreprise et les personnes, dans le domaine du contrôle des équipements sous pression, organisé par le décret du 13 décembre 1999. Celui-ci prévoit (article 21) que les habilitations des organismes d’inspection sont délivrées par le ministre chargé de l’industrie, sous réserve du respect de certains critères, dont l’obligation pour le personnel chargé des contrôles de posséder « une bonne formation technique et professionnelle. »

Déjà, les certifications de métiers accordés par Qualibat (décontamination amiante, traitement des bois en œuvre et des constructions, distribution de fluides médicaux, désenfumage naturel, métallerie feu, énergies renouvelables, travaux d'accès difficiles), et par Qualifelec (électrotechnique, électrothermie, antenne, éclairage public, courants faibles, maintenance installations électriques) reposent sur une vérification de la qualification du personnel, justificatifs ou diplômes à l'appui.

La pratique de la double certification ne manquera pas de s’étendre aux autres métiers du bâtiment. Ainsi, le syndicat de la menuiserie extérieure (UFME) a mis en place, en juin 2009, en partenariat avec le Bureau Veritas, une certification « Pose Portes & Fenêtres », qui sanctionne notamment l’engagement de l’entreprise bénéficiaire à assurer la transmission du savoir-faire et le suivi des compétences au sein de ses équipes de pose.

4. L’implication des industriels

Lors de leurs visites en Suisse, puis en Allemagne, vos rapporteurs n’ont pas manqué de demander à leurs interlocuteurs, qui bénéficiaient d’un recul d’une dizaine d’années au moins sur la mise en œuvre de bâtiments Minergie ou « Niedrigenergiehaus » (NEH), quel accueil les industriels de la filière de la construction avait réservé à ces initiatives.

Dans les deux cas, la réponse a été très claire : des protestations vigoureuses au départ, puis une adaptation technologique assez rapide, en quelques années. La visite d’une grande surface spécialisée dans les matériaux et équipements du bâtiment, à Fribourg-en-Brisgau, a permis de se rendre compte de l’abondance des solutions techniques à la disposition des constructeurs allemands aujourd’hui.

Ces éléments de comparaison européens ont permis à vos rapporteurs de prendre avec un peu de recul certaines récriminations très appuyées, qui heureusement, coexistent avec des attitudes beaucoup plus volontaristes.

Ø Le camp de la résistance

L’association Promotelec est une association créée en 1962 pour promouvoir les usages durables de l’électricité dans le secteur résidentiel. Elle regroupe l'ensemble des acteurs et représentants de la filière électricité, dont le groupe Atlantic, qui joue manifestement le rôle de fer de lance de l’association pour la discussion sur la future réglementation thermique.

Afin de préserver un espace pour le marché des systèmes à effet Joule, au moins à titre temporaire, jusqu’à ce que la pompe à chaleur thermodynamique soit opérationnelle pour les logements collectifs, Promotelec et Atlantic revendiquent une fixation à 1 du coefficient de conversion au bénéfice de l’eau chaude électrique, en plus d’une modulation selon la surface du bâtiment variant de 40 à 105%. Mais ce dispositif reviendrait pratiquement à pérenniser la réglementation actuellement en vigueur (RT 2005), et à effacer la prescription de l’article 4 de la loi du 3 août 2009.

Lors de leur visite du site d’Atlantic à Orléans, le 18 novembre 2009, vos rapporteurs ont été soumis à la pression une menace destruction d’emplois : l’usine qui fabrique sur place des convecteurs à effet Joule, à savoir une chaîne d’assemblage où l’on emboutit et peint des tôles, puis on monte des modules électrotechniques conçus ailleurs, occupe 250 salariés. Ils étaient implicitement montrés comme autant de victimes potentiels de la nouvelle réglementation thermique.

Le procédé utilisé paraît d’autant plus surprenant que, par ailleurs, le groupe Atlantic semble bien positionné stratégiquement : il produit des équipements aussi bien pour le gaz que pour l’électricité ; cette dualité serait même gérée, dans certains cas, a-t-on déclaré à vos rapporteurs, au niveau des usines, ce qui permet de faire basculer le personnel d’une chaîne de production à l’autre, lorsque la demande se déplace. Le groupe fournit manifestement un véritable effort pour faire progresser la technologie des pompes à chaleur et des chauffe-eau solaires ; de surcroît, il participe à un effort de recherche coopérative, dont la meilleure illustration constitue le centre d’expérimentation « Castor et Pollux », géré en partenariat avec l'Ademe, le CETIAT, le CSTB, l'Ecole des mines de Paris, l'INES, le Bureau d'études thermiques. Surtout, il dispose d’une couverture internationale solide, axée sur l’Europe de l'Ouest, mais aussi l'Europe Orientale, le Proche et Moyen-Orient ; au total, son circuit de distribution s’étendrait sur une centaine de pays.

Il paraît donc peu probable qu’il lui soit difficile d’adopter la stratégie d’adaptation utilisée par les industriels en Suisse et en Allemagne, consistant à exporter, vers les pays moins exigeants du point de vue de la réglementation thermique, les produits devenus plus difficiles à écouler dans le contexte national. Apparemment, d’après les retours d’information des expériences de construction par l’association « Minergie » en France, qui ont buté sur la difficulté de trouver des composants de qualité suffisante dans nos frontières, notre pays lui-même aurait été utilisé jusqu’ici par nos voisins plus avancés dans la réglementation thermique comme un marché de déversement.

Les protestations quant à la brutalité du changement imposé semblent en outre fort exagérées, car, outre que la mise en œuvre de la nouvelle réglementation dans le secteur résidentiel, cible principale du groupe, laisse encore, jusque fin 2012, un délai de trois années pleines pour s’adapter, il faut ajouter qu’un management clairvoyant aurait déjà dû entreprendre des réajustements stratégiques à partir de la présentation des conclusions du Grenelle de l’environnement, en septembre 2007 ; ce qui porte le délai d’adaptation objectivement disponible à cinq ans. En outre, dans une entreprise bien dirigée comme semble l’être Atlantic, des travaux prospectifs ont dû certainement constater la montée en puissance, depuis le milieu des années 90, en Europe particulièrement, des efforts pour mieux maîtriser la consommation énergétique dans les bâtiments ; la révolution environnementale qui s’est produite avec le Grenelle de l’environnement pouvait donc être anticipée par des professionnels quelques années auparavant.

Au, total, le délai d’adaptation dont va disposer le groupe Atlantic, en lui supposant la capacité d’anticipation d’une entreprise raisonnablement bien gérée, atteint presque une dizaine d’années. Il est très étonnant qu’une unité de production aussi exposée que celle d’Orléans n’ait pas bénéficié, sur ce laps de temps, d’un programme de montée en gamme.

De fait, le principal problème en question semble être la remise en cause de ce que, dans le vocabulaire de la fameuse « matrice stratégique » du Boston Consulting Group, on appelle la « vache à lait », c'est à dire le segment de la production qui dégage énormément de profit. Toute concession des pouvoirs publics, à titre de dispositif transitoire, ne conduirait qu'à déclencher à nouveau la force de frappe de l'appareil de communication du groupe pour réclamer un autre assouplissement temporaire au terme du premier.

Ø Le parti pris du volontarisme

L’analyse plus particulière de la situation du groupe Atlantic, justifiée par la vigueur de sa revendication, permet de mettre à jour les différents aspects du processus d’adaptation à laquelle la filière industrielle va, de toute façon, devoir faire face. Mais toutes les entreprises ne gèrent pas ce processus d’adaptation de la même manière, ne serait-ce que parce qu’elles ne subissent pas la contrainte de la future réglementation de la même manière.

Il convient ainsi d’observer que le groupe Aldes, auditionné le 15 juillet 2009, qui présente nombre de caractéristiques communes avec Atlantic, en termes notamment de stratégie de produits, de couverture internationale, même s’il est de taille un peu moindre (1400 salariés contre 4000 pour Atlantic), s’est au contraire montré très ouvert à une accélération de ses efforts d’adaptation technologique pour assurer la réussite du passage à la construction en basse consommation en France.

Vos rapporteurs se sont demandé ce qu’il en était dans le domaine de l’industrie des matériaux. C’est pourquoi vos rapporteurs ont auditionné M. Didier Roux, directeur de la recherche de Saint-Gobain, le 15 juillet 2009, et M. Jean-Marie Vaissaire, président de l’AIMCC, l’association des industries des produits de conception.

Tous deux ont fait part de leur forte volonté de participer au mouvement en cours, en soulignant l’importance que va revêtir le contrôle du résultat obtenu.

M. Didier Roux a cependant souligné que l’attention de son groupe était attirée plus du côté de la rénovation que du côté de la construction, en raison de la différence de taille entre les deux marchés (qui atteint un facteur 100).

M. Jean-Marie Vaissaire a souligné la préoccupation de ses adhérents de mettre en valeur les qualités environnementales des produits, par exemple la capacité du plâtre à assainir la qualité de l’air intérieur, en absorbant les bactéries et les formaldéhydes. L’AIMCC s’est par ailleurs engagée à alimenter un système de base de données (INIES) contenant des fiches de déclaration environnementales et sanitaires (FDES) pour chacun des matériaux, avec l’objectif de les recenser en totalité d’ici la fin 2012. Le but à terme est de pouvoir interconnecter cette base avec des outils logiciels de conception des bâtiments, permettant d’en optimiser a priori la performance énergétique et le confort.

Vos rapporteurs ont soulevé la question du prix des matériaux de construction, qui serait particulièrement élevé en France, selon la CAPEB. M. Jean-Marie Vaissaire a signalé que toute distorsion de cet ordre relèverait du contrôle européen de la concurrence, puisqu'en l'occurrence ce sont les règles du marché unique qui s'appliquent.

Au total, les contacts pris avec les milieux industriels ont plutôt confirmé le schéma décrit à vos rapporteurs par leurs interlocuteurs de Suisse et d'Allemagne: il existe des protestations, mais même les entreprises qui manifestent le plus de récrimination à l'endroit de la future réglementation thermique poursuivent un effort de recherche bien orienté.

Le message essentiel qu'envoie le monde industriel, c'est qu'il a besoin d'un cap clair, et d’un cadre réglementaire stable, pour apporter pleinement sa contribution à la réussite de la construction à basse consommation.

B. L'ADHÉSION DU PLUS GRAND NOMBRE

Une des réussites incontestables du « Grenelle de l'environnement » est d'avoir mobilisé à la fois l'ensemble de la population sur les enjeux liés aux économies d'énergie et à la lutte contre l'effet de serre, et l'ensemble des professionnels du bâtiment sur l'objectif de la construction à basse consommation.

Cependant, pour que la nouvelle réglementation thermique s'applique avec succès, il faut que la population arrive au même degré de conscience des enjeux que les professionnels. Car la mise en œuvre supposera de sa part des choix éclairés, et une vigilance sur la qualité des prestations.

C'est pourquoi cette mise en œuvre suppose une intervention publique à trois niveaux : la sensibilisation, l'accompagnement, le financement.

1. La sensibilisation

La politique de communication constitue un aspect essentiel de l'effort pour développer la construction à basse consommation.

En Suisse, les responsables de l'association Minergie passent une partie de leur temps à donner des conférences dans les salles municipales, une autre partie à répondre à des demandes de conseil au téléphone; M. Marc Tillmanns, le directeur de l'agence romande, a indiqué que l'assistance au téléphone prenait même une telle ampleur qu'il songeait à en faire une activité spécifique.

A Fribourg-en-Brisgau, Mme Beate Lorentz, responsable de la construction à la mairie, a expliqué que le déploiement du standard Passivhaus, qui allait bientôt devenir obligatoire dans la ville, puisque celle-ci se fait un honneur d'avoir toujours un niveau d'exigence supérieur à celui de la réglementation nationale, serait précédé d'une campagne de communication de plusieurs mois.

Reprenant cette même logique, l'association « Effinergie » s'est donnée comme mission de déployer une communication nationale sur ses projets, et manifestement elle a contribué à convaincre les autorités publiques de la faisabilité d'une généralisation de la construction à basse consommation.

Mais il paraît nécessaire, maintenant que le pas est franchi, d'aller beaucoup plus loin dans la communication et l'information, afin de toucher l'ensemble de la population.

Vos rapporteurs constatent qu'il existe déjà des structures chargées de cette mission aux statuts très différents :

- ainsi, les CAUE (Conseils d'Architecture, d'Urbanisme et d'Environnement), organismes départementaux d'information, de conseil, ouverts à tous, qui sont financés par une taxe sur les permis de construire. Ils assument une mission de conseil gratuit, au plus près de la demande, en assurant notamment des permanences en mairie;

- l'Agence locale de l'énergie du Grand Lyon, dont le directeur, M. Samir Boukhalfa, a accueilli vos rapporteurs pour une visite de bâtiments « Effinergie » le 10 juillet 2009, remplit également une mission de conseil, en assurant des permanences, sur rendez-vous, et par téléphone. Elle peut aussi réaliser gratuitement des analyses économiques et environnementales, en vue de réduire les consommations énergétiques par exemple.

- l’ADEME a créé à partir de l’automne 2000, dans le cadre du Plan National de Lutte contre le Changement Climatique, un réseau d’information de proximité, les « Espaces Info Energie » (EIE), en partenariat avec les collectivités locales, les organisations professionnelles et les associations. Ces EIE ont une fonction de conseil (par correspondance, par téléphone ou par contact direct, ou en assurant des permanences), et d'animation (participation à des foires, salons, organisation de visites d’installations). On en compte 230 à travers la France, qui accueillent au total 450 conseillers « Info Energie »; le nombre de ceux-ci doit être porté à 500 d'ici 2010.

Ces initiatives pertinentes correspondent à des structures ad hoc, manifestement très dynamiques si l'on se réfère à l'Agence locale de l'énergie du Grand Lyon, et vos rapporteurs pensent qu'il serait utile de s'appuyer sur leur expérience pour construire un maillage de relais d'information encore plus fin à l'échelle de l'ensemble du territoire national, en les fédérant, en les renforçant, en les complétant.

Si des ressources publiques doivent être mobilisées pour réussir la construction à basse consommation, c'est de ce côté là qu'elles doivent prioritairement être orientées : dans les actions d'information et de conseil au bénéfice de nos concitoyens.

2. L'accompagnement

Même bien informé et bien conseillé, le particulier est confronté à une importante difficulté sur le chemin de la construction d'une maison à basse consommation, c'est à dire sur l'atteinte de la performance requise par la réglementation thermique : le choix du maître d'œuvre. M. Bruno Comby l'a rappelé implicitement à vos rapporteurs lors de la présentation de sa « maison écologique » à Houilles, puisqu'il a dit avoir dû pratiquement tout concevoir ou même réaliser lui-même, jusqu'au puits canadien, en louant une pelleteuse pour quelques jours.

Mais tous les particuliers n'ont pas le talent de M. Comby, et doivent s'en remettre à un professionnel pour conduire la construction. S'ils n'ont pas eu la chance d'être aiguillés vers un maître d'œuvre consciencieux, ils risquent de se retrouver in fine avec une construction qui n'est pas à la norme, et que pourtant ils doivent occuper, car ils n'ont pas forcément les moyens de payer un logement d'attente. Ils se voient alors pénaliser deux fois : d'abord, parce qu'ils sont, bien malgré eux, en infraction; ensuite, parce qu'ils ne bénéficient pas des économies d'énergie, et donc de la réduction des charges courantes, que procure la conformité à la réglementation.

Bien des réponses sont formulées face à ce schéma présenté parfois comme exagérément pessimiste, notamment : que la liberté suppose la responsabilité, et qu'il faut se renseigner avant de choisir son prestataire; ou encore : qu'on peut toujours agir en justice en cas de clause contractuelle non satisfaite, voire en cas d'escroquerie.

Cependant ces considérations ne renvoient pas à la réalité d'un déséquilibre d'information21 extrême entre un particulier qui construit l'unique maison de sa vie, et un professionnel des chantiers; elles ne tiennent pas non plus compte de la lourdeur des procédures judiciaires, qui demandent certaines disponibilités en temps et en argent, ce dont les personnes modestes déjà accaparées par la vie quotidienne ne disposent pas. Les plaideurs de Racine étaient des rentiers oisifs.

Surtout, dans la mesure où le projet de la loi Grenelle 2 prévoit que c'est au maître d'ouvrage de fournir à l’autorité qui a délivré l’autorisation de construire une attestation de conformité établie par un tiers, le particulier qui va se retrouver, au terme des travaux, avec une construction qui, une fois vérifiée, ne respecte pas la norme, se trouvera pris au piège si son maître d'œuvre n'est pas coopératif.

Il est à craindre alors qu'il ne s'établisse un marché noir des attestations techniques de complaisance pour sortir de l'embarras bien des maîtres d'ouvrage.

En réalité, si le problème du déséquilibre fondamental entre le particulier et son maître d'œuvre n'est pas traité, la réglementation thermique risque au final de se trouver vidée de son sens pour une bonne part des constructions individuelles. Car, évidemment, les maîtres d'ouvrage du secteur tertiaire et du logement collectif seront autrement armés pour obtenir de leur maître d'œuvre le respect du contrat de construction, en particulier la clause relative à la performance énergétique.

Vos rapporteurs ont examiné plusieurs pistes envisageables pour compenser ce déséquilibre fondamental entre le particulier et son maître d'œuvre, sans être allés néanmoins jusqu'à opter pour l'une d'elles. Il appartiendra peut-être au Parlement de trancher dans le cadre de la discussion du projet de loi « Grenelle 2 ».

Ces trois pistes sont le conseil, c'est à dire l'intervention de l'architecte, le contrôle, c'est à dire l'intervention de l'administration, ou la sanction, c'est à dire l'intervention du juge, mais dans des conditions rapides.

Ø Le conseil

La loi du 3 janvier 1977 sur l’architecture établit au bénéfice des architectes un monopole de la conception architecturale des ouvrages soumis à permis de construire. L’architecte engage sa responsabilité professionnelle sur le projet qu’il a conçu. Il répond des désordres matériels liés à un défaut de conception. Lorsqu’il établit le projet qui fait l’objet de la demande de permis de construire, l’architecte s’engage également à respecter les règles de la construction. Le maître d’ouvrage peut choisir une autre personne pour diriger ensuite les travaux. Mais, en ce cas, l’architecte doit vérifier la conformité des ouvrages au projet architectural.

Le recours à un architecte apparaît donc comme une garantie de bonne fin, notamment lorsqu'il s'agit de respecter une norme thermique exigeante, car c'est alors à l'architecte qu'incombe la responsabilité de la mettre en œuvre.

A Fribourg-en-Brisgau, en Allemagne, nos interlocuteurs ont souligné le rôle clef joué par l’architecte dans le mouvement vers la construction à basse consommation, au niveau de la conception des bâtiments, comme au niveau de la surveillance des chantiers.

En France, le droit semble en apparence peu éloigné de ce modèle, sous réserve de deux différences majeures :

• d’abord, la dérogation du recours obligatoire à l’architecte pour les surfaces de moins de 170 mètres carrés ; ce qui met hors jeu pratiquement toutes les constructions des particuliers ;

• ensuite, la distance culturelle entre les architectes et les cabinets d’ingénieurs, qui conforte la vocation artistique pure des architectes, au détriment de leurs devoirs vis-à-vis de la sobriété énergétique.

A ce propos, on peut rappeler les premiers mots de la loi du 3 janvier 1977, qui fixe l’état d’esprit de la profession : « L’architecture est une expression de la culture. La création architecturale, la qualité des constructions, leur insertion harmonieuse dans le milieu environnant, le respect des paysages naturels ou urbains ainsi que du patrimoine sont d’intérêt public ». La sobriété énergétique n’est pas mentionnée, sauf peut-être à travers la « qualité des constructions ».

Vos rapporteurs se sont interrogés sur l'intérêt d'aménager la dérogation des 170 mètres carrés, fixée par décret, et ont auditionné à ce propos M. Alain Liébard, le 15 octobre 2009, et M. Yorrick Mahé, le 5 novembre 2009.

Vos rapporteurs ont ainsi pu vérifier que la profession n'est pas soumise à un « numerus clausus », et qu'en conséquence, il existerait une offre de services potentielle de la part de jeunes architectes, de surcroît véritablement motivés par la construction à basse consommation, si le marché des petites constructions s'ouvrait du fait de l'abaissement du plafond de dérogation. M. Alain Liébard a attiré notre attention sur le fait que cet abaissement devrait être coordonné avec le seuil de l'obligation de déclaration de travaux (20 mètres carrés), peut-être d'ailleurs en fixant les deux limites à 10 mètres carrés, afin de mieux couvrir le cas des verrières et vérandas, qui sont souvent très mal conçues d’un point de vue thermique.

Deux problèmes essentiels resteraient posés par cet abaissement du plafond de dérogation :

- d'une part, le risque de générer un surcoût lié à la rémunération de l'architecte. A cet argument, M. Didier Roux, lors de son audition du 15 juillet 2009, a opposé l'avantage des multiples économies potentielles que procure l'intervention d'un professionnel de confiance, en rejetant les devis exagérés, en évitant des malfaçons qu'il faut ensuite corriger;

- d'autre part, le besoin d'une coordination avec l'offre, par nature complète, des « constructeurs de maison individuelle », qui se placent sous le régime de la loi du 19 décembre 1990. En ce cas, le rôle de l'architecte se limiterait à une assistance à la maîtrise d'ouvrage, avec un rôle de conseil sur le choix du constructeur, ne serait-ce que pour écarter ce que la Fédération française des constructeurs de maisons individuelles appelle des « faux » constructeurs, se cachant notamment derrière des imitations et des publicités mensongères22; l'architecte pourrait en outre apporter un concours technique à son client en cas de difficulté avec le constructeur.

Vos rapporteurs pensent que, dans ces conditions, l'implication des architectes constituerait plutôt un atout pour la réussite du déploiement de la construction à basse consommation.

Ø Le contrôle

A Fribourg-en-Brisgau, Mme Beate Lorentz, la responsable du service de la construction à la Mairie, s'est fortement impliquée dans le suivi des chantiers des quartiers Vauban et Rieselfeld, allant jusqu'à s'interposer en cas de conflit entre le maître d'ouvrage et son prestataire.

Tel est le modèle dont on pourrait s'inspirer en France, en réactivant la mission régalienne de contrôle dévolue aux directions départementales de l'équipement, qui semble, d'après des informations de première main recueillies auprès de fonctionnaires ayant assumé des responsabilités dans ces directions, remplie quelque peu à la marge aujourd'hui.

Cette mission de contrôle s’exerce par délégation d’une compétence reconnue au préfet en vertu de l’article L.151-1 du code de la construction et de l’habitation : « Le préfet et l'autorité compétente mentionnée aux articles L. 422-1 à L. 422-3 du code de l'urbanisme ou ses délégués, ainsi que les fonctionnaires et les agents commissionnés à cet effet par l'autorité administrative et assermentés peuvent visiter les constructions en cours, procéder aux vérifications qu'ils jugent utiles et se faire communiquer tous documents techniques se rapportant à la réalisation des bâtiments, en particulier ceux relatifs à l'accessibilité aux personnes handicapées quel que soit le type de handicap. Ce droit de visite et de communication peut aussi être exercé après l'achèvement des travaux pendant trois ans. »

Il s’agit en fait d’une compétence partagée avec le maire (autorité compétente visée par l’article L. 422-1 du code de l'urbanisme), mais les directions départementales de l’équipement seraient bien mieux placées pour relayer une action d’envergure nationale.

Ce réseau d'administrations déconcentrées pourrait en effet être investi d'une fonction globale de suivi de la mise en œuvre de la nouvelle réglementation thermique, amenant à effectuer des contrôles sur place, non seulement a posteriori, mais aussi durant les chantiers, et non plus sur un petit échantillon, mais presque systématiquement.

Cette implication beaucoup plus importante sur le terrain, orientée principalement vers le suivi des constructions de maisons individuelles, segment du marché le plus faible pour le respect de la réglementation thermique, irait de pair avec une mission évoquée précédemment, qui serait du reste confiée plus globalement à l'administration de l'équipement, et qui concernerait l'animation d'un réseau d'échanges de « bonnes pratiques » entre les responsables de l'énergie des bâtiments tertiaires, afin de les aider à converger vers la norme des 50 kWh, dans un contexte où beaucoup de ces bâtiments ne pourront atteindre cette performance du premier coup, au stade de la construction.

Il faudrait donc probablement que l'administration de l'équipement connaisse elle-même une véritable révolution culturelle, à l'échelle de celle que la nouvelle réglementation thermique impose à l'ensemble du secteur du bâtiment, et à l'ensemble des candidats à la construction.

Ø La sanction

La troisième piste explorée pour renforcer la position du particulier face aux professionnels, à côté du conseil de l'architecte et du contrôle de l'administration, consiste à prévoir une saisine simplifiée du juge sur des faits flagrants.

Dans cette perspective, il était indispensable d'étudier d'abord la solution que pourrait apporter la mise en jeu de la responsabilité décennale, et vos rapporteurs ont donc auditionné les représentants des assurances, sous l'égide de la Fédération française des sociétés d'assurances.

Vos rapporteurs ont été frappés par la qualité et la maturité des réflexions de ces interlocuteurs. Ceux-ci leur ont indiqué que le degré d'exigence de la future norme thermique, et en conséquence l'évidence avec laquelle un défaut de respect se manifesterait, puisque la baisse attendue sur les factures d'énergie devrait être substantielle, conduirait probablement le juge à considérer toute défaillance à cet égard comme un dommage rendant le bâtiment « impropre à sa destination », selon l'expression utilisée par l'article 1792 du code civil qui fonde la responsabilité décennale. Les défauts de performance thermique seraient ainsi probablement sanctionnés comme le sont déjà aujourd'hui les défauts de performance acoustique, car le niveau d'exigence est élevé dans ce domaine, et les résultats parfaitement mesurables.

Ils ont signalé du reste l'intérêt, pour les maîtres d'oeuvre, d'assurer un suivi en maintenance des nouvelles constructions, afin d'éviter une mise en jeu de la responsabilité sur un défaut de la construction alors que c'est un défaut d'entretien qui serait en cause.

Cependant la mise en jeu de la responsabilité décennale présente l'inconvénient d'une certaine lourdeur, liée notamment à ce qu'elle utilise la voie d'une procédure civile. Or, l'actualité, avec la discussion du projet de loi dit « HADOPI 2 » a mis en avant une procédure pénale simplifiée, avec juge unique, en cas de faits flagrants : l'ordonnance pénale.

Dans la mesure où certains éléments objectifs permettent de vérifier la qualité d'une construction à sa livraison, on pourrait imaginer que le maître d'ouvrage puisse disposer du moyen de provoquer la sanction pénale du maître d'oeuvre si ces éléments objectifs ne sont pas réunis au moment du contrôle technique effectué par un tiers. Ces éléments objectifs sont la perméabilité et l'isolation.

Comme cela a déjà été indiqué, la perméabilité se mesure par le test de la porte soufflante, d'usage courant en Suisse et Allemagne. L'isolation s'évalue, d'après nos interlocuteurs de Schneider travaillant sur le projet « HOMES », en suivant la décroissance de la température après une surchauffe intérieure du bâtiment.

En tous cas, la menace d'une sanction pénale rééquilibrerait le rapport de force entre le particulier et son maître d'oeuvre, lequel se trouverait plus enclin à effectuer les corrections nécessaires, à ses frais, si, après vérification par un tiers, la construction ne respecte pas la réglementation thermique. Ce dispositif permettrait au particulier de sortir du piège où l'enferme l'obligation d'attester lui-même le respect de la réglementation.

Sans aller jusqu'à préconiser la mise en place de ce dispositif pénal, vos rapporteurs tiennent à en signaler la possibilité si les dérives qu'ils craignent se réalisent, et dévoient l'application de la réglementation thermique, rendant de ce fait vides de sens les modulations qu'ils sont chargés de proposer.

En revanche, un abaissement même partiel du plafond de la dérogation du recours à l'architecte, une implication beaucoup plus grande de l'administration de l'équipement dans le suivi et le contrôle, et l'obligation de vérifier la perméabilité et l'isolation de toute construction à sa livraison, ne serait-ce qu'afin de pouvoir mettre en jeu plus rapidement la responsabilité décennale, semblent à vos rapporteurs indispensables pour la réussite du déploiement effectif de la construction à basse consommation.

3. Le financement

Le but premier, objectif, vérifiable de la construction à basse consommation est de réduire la facture de consommation énergétique des occupants, et de la réduire dans des proportions très sensibles, d'au moins 60% si on transpose simplement l'impact sur les consommations d'énergie primaire.

Le supplément de revenu correspondant va renforcer l'assise financière des particuliers qui s'endettent pour construire. A l'échelle de l'ensemble du mouvement de la construction, c'est à dire de plusieurs centaine de milliers d'opérations chaque année, voire de plusieurs millions si l'on considère le stock des prêts au logement, il en résultera un effet positif indirect (en théorie économique on dirait une « externalité »), à l'avantage du système bancaire : les défaillances de remboursement seront moindres, et les frais de gestion associés aux défaillances seront moindres aussi. En outre, le revenu supplémentaire dégagé suscitera une tentative de capture par les services commerciaux des banques, pour alimenter diverses formes de produits financiers : prêts à la consommation, plan d'épargne retraite, par exemple.

Ainsi, si l'on n'y prend garde, une partie des retombées positives de l'effort collectif pour développer la construction à basse consommation va se traduire par une amélioration des « produits nets bancaires », sans aucune contrepartie.

De là, l'idée d'impliquer les banques dans le dispositif, sous une forme toute simple : obtenir un relèvement du ratio habituellement retenu (1/3) entre le revenu et la mensualité de remboursement; et par là, permettre la distribution de prêts plus importants.

Un calcul de « coin de table » fixe les ordres de grandeur : la facture annuelle d'énergie (sur les cinq usages) d'un ménage est, au bas mot, d'environ 1000 euros; l'économie annuelle réalisée dans un logement à basse consommation, en tenant compte d'un éventuel surcoût des frais d'entretien des équipements, est donc d'environ 500 euros; cela représente une capacité de remboursement supplémentaire de 10 000 euros sur vingt ans, et une possibilité d'emprunt supplémentaire, au taux de 5%, d'environ 3000 euros.

C'est l'ordre de grandeur du surcoût d'une pompe à chaleur thermodynamique par rapport à un chauffe-eau électrique à effet Joule.

Ce dispositif permettrait donc d'aider à débloquer la situation des ménages à revenu modeste souhaitant construire leur maison, sans rien coûter à l'Etat, car il serait la contrepartie du gain que les banques retireront globalement de la mise en place de la nouvelle réglementation thermique. Du reste, il n'aurait pas besoin d'être mobilisé dans tous les cas, puisque la construction des maisons individuelles de surface plus grande génère des surcoûts d'investissement moindres.

Pour les ménages concernés, la conséquence serait qu'ils seraient privés, le temps du remboursement de l'emprunt, de la totalité de l'économie réalisée sur la facture d'énergie. En contrepartie, leur accès à la propriété serait préservé, de même que leur choix d'utiliser des équipements électriques performants.

Tout le dispositif repose sur la crédibilité de la construction à basse consommation, c'est à dire sur le respect effectif, au niveau du résultat, de la réglementation thermique. Il est donc incontestable dans son principe, et vertueux dans sa mise en œuvre.

Celle-ci supposerait l'implication des autorités de l'Etat, de l'Ademe, et des opérateurs d'énergie, dans une négociation avec les banques, en vue de signer, avec celles qui adhéreraient à la démarche, une convention encadrant ce petit effort supplémentaire demandé au moment de l'examen du dossier d'emprunt.

Vos rapporteurs pensent que la Banque postale, dont l'article L. 518-25 du code monétaire et financier dit qu'elle « propose des produits et services au plus grand nombre », ne pourra qu'accueillir volontiers cette invitation à participer à l'accès des ménages modestes au confort de la construction à basse consommation.

Du côté de l'Etat, de l'Ademe et des opérateurs d'énergie, l'engagement porterait sur l'atteinte effective de la performance prévue par la réglementation thermique. Cela supposerait un accompagnement des ménages dans le choix du maître d'œuvre, puis dans le contrôle de la bonne fin des travaux. On peut imaginer que la banque elle-même trouve un intérêt à participer à cet accompagnement.

En conclusion, le dispositif décrit permet de valoriser, au stade du prêt au logement, l'économie d'énergie résultant de la construction à basse consommation. Il ouvre l'accès des ménages modestes à cette construction, notamment en leur donnant les moyens d'acquérir des pompes à chaleur thermodynamiques. Il n'induit aucune charge pour les finances publiques, puisqu'il est financé par les gains implicites que la nouvelle réglementation thermique va procurer au secteur bancaire. Il conduit simplement à la mise en place d'un mécanisme d'accompagnement des ménages bénéficiaires, notamment pour l'étape critique du contrôle de la bonne fin des travaux, ce qui répond à une préoccupation fondamentale concernant la réussite du passage à la basse consommation.

Il existe un délai de trois ans d'ici fin 2012 pour le mettre en place.

IV. L’IMPACT ÉCONOMIQUE

Sur la base des remarques précédemment formulées, vos rapporteurs peuvent se risquer à une analyse de l'impact économique de la mise en œuvre de la nouvelle réglementation, en mettant en avant des considérations qualitatives, car il est difficile en la matière de réaliser des estimations quantitatives.

Il convient du reste d'observer combien il aurait été difficile de conduire un appel d'offres pour la conduite d'une étude économétrique dans le laps de temps imparti. Vos rapporteurs ont bien eu besoin des quatre mois d'auditions et de visites pour parvenir à se faire une opinion sur les recommandations à formuler pour la modulation, et ces données auraient été d'emblée indispensables pour définir le cadre de toute une simulation éventuelle. Cette tâche reste donc à achever pour autant qu'elle soit pertinente, compte tenu de la difficulté à prévoir les réactions des agents économiques concernés.

En tout état de cause, trois questions essentielles se posent d'un point de vue économique : le surcoût induit par les nouvelles méthodes de construction, le frein effectif mis à la consommation d'énergie, les effets d'entraînement potentiels d'un effort sur la construction.

A. LE DÉBAT SUR LE SURCOÛT

La question du surcoût induit par les méthodes de construction permettant d'atteindre la basse consommation était au cœur de toutes les auditions de vos rapporteurs, et les réponses recueillies se partageaient en deux groupes:

- tous les interlocuteurs déjà impliqués dans des réalisations pilotes ont mentionné une fourchette allant de 5 à 15%, en soulignant le rôle de l'effet d'apprentissage dans la diminution prévisible de ces chiffres. De fait, il est certain que toute équipe ayant participé à un premier projet à basse consommation se mobilisera de manière plus efficace sur le deuxième projet, et ainsi de suite, l'expérience permettant effectivement une meilleure maîtrise des coûts;

- certaines personnes (Bastide-Bondoux, Geoxia, Promotelec) ont mentionné un surcoût prohibitif, surtout pour les petites constructions.

Vos rapporteurs sont en définitive convaincus que le surcoût restera raisonnable dès lors que l'effort pour atteindre la basse consommation se fondera sur une approche véritablement nouvelle de la construction. Vos rapporteurs ont observé que les annonciateurs de prix prohibitifs raisonnaient toutes choses égales par ailleurs, en faisant comme s'il s'agissait simplement de renforcer un peu l'isolation, et en exagérant tous les obstacles à la prise en compte des apports naturels (contrainte sur l'orientation du bâtiment, masquage par les immeubles voisins).

De fait, la construction en basse consommation génère à la fois des dépenses supplémentaires et des économies qui tendent à les compenser. Ainsi, la visite de l'immeuble Vendôme à Lyon a montré, dans une situation de rénovation, que le renforcement de l'isolation permettait de raccourcir sensiblement le circuit de distribution du chauffage, et donc de réduire son coût d'installation, parce que les radiateurs pouvaient être placés à l'entrée des pièces, et non plus obligatoirement sous les fenêtres; en effet, dans un bâti à basse consommation, les fenêtres ne sont plus des points d'entrée du froid.

En tout état de cause, l'investissement dans la construction à basse consommation se veut fondamentalement rentable sur le moyen terme, en prenant en compte les économies réalisées sur les factures d'énergie. Cette économie est sensible, car l'ordre de grandeur du gain avoisine un facteur 10, avec une charge annuelle qui passe du millier d'euros à la centaine d'euros. Les ménages bénéficiant de ces nouvelles conditions de consommation énergétique se trouvent en outre prémunis contre les chocs de prix de l'énergie qui s'annoncent dans l'avenir, toutes énergies confondues, du fait de l'épuisement annoncé des ressources en hydrocarbures.

Cet avantage de moyen terme est contesté par les annonciateurs de surcoût prohibitif, mais en faisant des calculs partiels, qui ne se réfèrent qu'au prix des équipements, et non au prix global de la construction.

A l'inverse, les interlocuteurs allemands de Fribourg-en-Brisgau, qui s'appuient sur l'expérience de plus d'une décennie, ont signalé à vos rapporteurs que le raisonnement en termes de surcoût avait été abandonné après quelques années, le message sur le gain global à moyen terme l'ayant emporté, au point qu'il était désormais relayé par la publicité des constructeurs, qui se font désormais concurrence, à travers leurs annonces dans les journaux locaux, sur le terrain de la performance énergétique.

Vos rapporteurs pensent également que le surcoût initial, comme toute hausse du prix sur un marché, freinera un temps le mouvement de la construction, quelques années étant nécessaires avant de pouvoir profiter pleinement de l'effet d'apprentissage. L'approche performancielle dynamique qu’ils préconisent devrait minimiser cet effet de freinage pour le secteur tertiaire. Dans le secteur résidentiel, la construction des petites surfaces devrait être particulièrement handicapée, en raison des contraintes budgétaires des ménages présents sur ce segment de marché; et c'est pourquoi vos rapporteurs ont spécialement tenu à compenser, dans ce cas, la distorsion produite par un calcul réglementaire de la consommation maximale rapportée à la surface.

Pour les petites surfaces, un mécanisme de contrainte de liquidité, signalé par M. Eric Mazoyer, Directeur général de Bouygues Immobilier, pourrait contribuer néanmoins à limiter le freinage des constructions : tous les acheteurs potentiels de petits terrains constructibles devant anticiper un surcoût sur la construction à suivre de leur maison, ils restreindront leur offre de prix, ce qui induira une baisse globale de la valeur foncière en proportion du surcoût moyen de construction. Un phénomène similaire aurait déjà joué sur le prix des terrains après l'introduction de l'obligation d'adapter tout nouveau bâtiment tertiaire aux règles d'accès pour les personnes handicapées.

Pour conclure, vos rapporteurs signalent que M. Alain Maugard, ancien président du CSTB, observe volontiers que la hausse très importante des prix de l'immobilier, au cours des dernières décennies, n'a pas eu d'effet sensible sur le rythme des constructions.

B. LA CONSOMMATION D’ÉNERGIE

Les débats sur la construction en basse consommation occultent un fait assez important, qui n'a curieusement pas été relevé par les grands opérateurs de l'énergie (EDF, GDF-Suez) lors des auditions : la nouvelle réglementation thermique réduira globalement la demande qui leur sera adressée, indépendamment de la part de marché revenant à chacun. Et cette réduction sera substantielle, puisque la norme thermique sera diminuée d'un facteur 2,5 , ce qui reviendra à ramener la demande globale d'énergie à moins de la moitié (40%).

Il est vrai que cette rupture assez brutale n'impactera dans un premier temps que la construction, c'est-à-dire l'équivalent d'environ 1% du parc immobilier. Mais quelles que soient in fine leurs parts de marché respectives, les filières énergétiques qui n'augmenteront pas leur part de marché, toutes choses égales par ailleurs, d'un facteur 2,5 , tâche probablement hors d'atteinte en pratique, perdront du chiffre d'affaires sur ce segment.

Pour l'électricité, cette baisse de consommation intervient néanmoins au moment où se profile une nouvelle source importante de demande substituable, à savoir le développement prévisible du véhicule électrique.

Mais, à terme, un autre phénomène pourrait compenser partiellement la baisse de consommation d'énergie liée au confort intérieur des bâtiments : l'effet rebond, qui résulte de l'instauration, chez le consommateur, d'un certain laxisme permis par l'innocuité relative des dépenses de chauffage et de climatisation.

De fait, l'économie réalisée sur ces dépenses générera plus généralement un supplément de pouvoir d'achat, de l'ordre de 500 euros par an d'après nos calculs précédents, dont ce laxisme de consommation énergétique ne sera qu'une forme d'emploi parmi d'autres. En ordre de grandeur, le développement de la construction à basse consommation stimulera la consommation d'un millième de PIB après une dizaine d'années23.

Cependant, cet effet rebond ne saurait remettre en cause l'ordre de grandeur de la baisse de la demande d'énergie pour l'ensemble des bâtiments construits aux normes de basse consommation : une chute de plus de moitié (60%).

C. LES EFFETS D'ENTRAÎNEMENT

Le Grenelle de l'environnement se présente comme l'occasion de fournir de nouveaux relais de croissance pour l'économie. La diffusion des procédés de construction à basse consommation pourrait en particulier avoir des retombées favorables sur l'investissement et l'emploi, si elle contribue à accélérer l'effort de rénovation, et débouche sur l'ouverture de marchés extérieurs.

1. La connexion avec la rénovation

La rénovation n'entre pas dans le champ de la mission confiée à l'OPECST par l'article 4 de la loi du 3 août 2009, puisqu'elle fait très spécifiquement l'objet d'un article différent de la même loi (l'article 5). Cependant, à de nombreuses reprises au cours des auditions de vos rapporteurs, la question s'est posée des conditions dans lesquelles les efforts de formation ou d'innovation conduits dans le cadre de la construction pourraient servir à la rénovation.

A cet égard, deux observations ont été faites:

- d'une part, M. Jean Carassus, lors de son audition du 25 juin 2009, a indiqué qu'a priori, peu d'entreprises s'impliquaient simultanément dans ces deux activités, la rénovation étant plutôt le fait des petites structures, la construction celui des plus grandes; cependant, à la faveur de l'intense effort de formation à la basse consommation qui est en cours, les deux populations professionnelles devraient probablement partager leurs expériences;

- d'autre part, les produits de construction peuvent être utilisés en rénovation. Ainsi, la mise au point de matériaux isolants efficaces en couche beaucoup moins épaisse profiterait immédiatement aux deux activités. Par ailleurs, l'association suisse Minergie propose des « modules », éléments techniques dont elle certifie la qualité lorsqu'ils sont installés par des professionnels sous licence, qui sont conçus aussi bien pour la construction que pour la rénovation.

Ainsi un certain degré d'interdépendance existe entre la construction et la rénovation, et un lancement réussi de la construction en basse consommation, dans le cadre de la RT 2012, ne pourra qu'accélérer le programme de rénovation des bâtiments qui est prévu dans le cadre du Grenelle de l'environnement.

Ce programme très ambitieux prévoit de réduire la consommation moyenne d’énergie du parc des bâtiments existants d’au moins 38 % d’ici à 2020, ce qui revient à ramener le niveau de celle-ci de 240 à 150 kWh par mètre carré et par an en dix ans; à compter de 2013, il s'agira de réaliser 400 000 rénovations de logements chaque année, ce qui revient à hausser le rythme de rénovation au niveau de celui de la construction.

Dans ces conditions, il est probable que toute percée technologique réalisée dans le cadre de la mise en œuvre de la nouvelle réglementation de la construction trouvera un débouché complémentaire important sur le marché de la rénovation.

2. Les pistes pour la recherche

Vos rapporteurs n’ont pas perdu de vue, tout au long des auditions, la vocation première de l’Office, à savoir l’évaluation des choix scientifiques et technologiques. Ils ont ainsi identifié quelques pistes particulièrement intéressantes pour la recherche, dans le cadre de l’effort pour améliorer la performance énergétique des bâtiments.

Il ne s’agit pas d’enjeux de court terme pour la réussite de la construction à basse consommation, qui est tout à fait possible avec la technologie déjà disponible ; mais plutôt d’avancées scientifiques potentielles, susceptibles de faciliter les prochaines étapes de l’évolution engagée avec la RT 2012. Cinq thèmes de recherche semblent à vos rapporteurs mériter particulièrement l’attention.

a) Les matériaux isolants

La disponibilité commerciale de matériaux isolants plus performants faciliterait considérablement l’atteinte de la performance de basse consommation dans le cas de la construction de petites surfaces, ou dans le cas des rénovations obligeant à une isolation intérieure (immeubles haussmanniens).

Certaines offres actuelles se plaçant sur ce créneau technologique, les isolants minces multicouches thermo-réflecteurs, qui se présentent comme des couches de feuilles d'aluminium et de feuilles de plastique à bulles, suscitent pour le moins un débat quant à leur performance réelle.

Sur le conseil de Pierre-René Bauquis, vos rapporteurs ont auditionné le 25 juin 2009 les représentants de la société Interpipe, qui ont décrit une solution basée sur un produit microporeux, mise en point pour calfeutrer un oléoduc de Total posé au fond de la mer du Nord.

Les microporeux piègent l’air dans des minuscules alvéoles, d’un diamètre de l’ordre du dix millionième de millimètre, formées par les enchevêtrements d’une laine de verre très fine. On obtient ainsi un matériau composé de très peu de matière, donc autorisant très peu de conduction, qui entrave aussi les transferts de chaleur entre les molécules gazeuses. Conditionné sous pression réduite, ce type de matériau permet un gain d’efficacité dans l’isolation de l’ordre d’un facteur 7 par rapport à la laine de verre classique ou le polystyrène.

La commercialisation de ce produit, manifestement efficace puisque Total était satisfait du résultat, nécessiterait d’affronter un marché composé de millions d’acheteurs potentiels, alors qu’Interpipe a construit sa réussite sur le créneau de la fourniture de services très spécialisés à des grands groupes pétroliers. Lorsque la protection intellectuelle du produit sera assurée, l’entreprise estime néanmoins que les ventes pourraient se développer à partir du créneau de l’isolation des chauffe-eau.

b) Les réseaux de chaleur

Ainsi que l'indiquait le rapport de M. Henri Prévot24 de mars 2006, les réseaux de chaleur permettent de chauffer plus de la moitié des logements au Danemark, en Finlande, en Suède. Pour avoir été gênés par des travaux de voirie à proximité de leur hôtel à Helsinki, lors de leur précédente mission sur la stratégie de recherche en énergie, vos rapporteurs peuvent ajouter qu'en ces pays de grand froid et de verglas, on utilise même ces réseaux pour « chauffer la rue ».

A l'inverse, en France, les réseaux de chaleur restent encore peu développés, n'alimentant en calories qu'à peine 5% des logements (1,2 million). C'est donc à juste titre que, dans le cadre de la mise en œuvre du Grenelle de l'environnement, un « Fonds Chaleur » a été mis en place, en août 2009. Il a pour objectif de financer les projets de production de chaleur à partir d’énergies renouvelables (biomasse, géothermie, solaire…), jusqu'à hauteur de 60% des investissements nécessaires pour la partie réseau et sous-stations, tout en garantissant un prix inférieur à celui de la chaleur produite à partir d’énergies conventionnelles.

Cet effort bénéficie du soutien appuyé de l’association AMORCE, regroupant 360 collectivités territoriales particulièrement intéressées, dont vos rapporteurs ont auditionné le représentant le 2 juillet 2009.

Le parc des chaufferies représente une puissance installée de 18,5 GW. Cependant une dimension du développement possible des réseaux de chaleur reste peu évoquée, alors qu'elle est très fortement soutenue par Pierre-René Bauquis et Yves Farge. Elle résulte de l'observation qu’avec un parc de production d’électricité d’une puissance de l’ordre de 80 GW, la France dissipe chaque seconde l’équivalent de 140 GW de chaleur en pure perte25 ; il suffirait de convoyer cette chaleur sous forme d’eau chaude, ou mieux, plus tard, à travers des changements de phase de l’ammoniaque, pour la récupérer en milieu urbain.

Chauffage urbain à partir des centrales nucléaires

Source : Interpipe

Les progrès technologiques déjà réalisés permettent d’estimer que la perte de température n’excéderait pas 1°C par dizaine de kilomètres parcourus. Or beaucoup de grandes villes se trouvent à quelques dizaines de kilomètres de centrales électriques, nucléaires ou fossiles, et pourraient être raccordées ; seules Brest, Nice, Perpignan, Bayonne feraient exception.

La principale difficulté est de trouver, dans un contexte marqué par la réduction des consommations énergétiques, l'équation économique qui déclenchera les investissements nécessaires à la mise en place de ce qui permettrait d'augmenter d'un facteur 10 le potentiel d'offre de chaleur. Vos rapporteurs estiment que la question mérite néanmoins examen.

c) La qualité de l’air intérieur

Les progrès de l'isolation rendent les bâtiments très dépendants de leur système de ventilation, et l'étude des conditions permettant à l'atmosphère intérieure de rester parfaitement saine devient dès lors essentielle. C'est un champ nouveau d'investigation, alors que la qualité de l'air extérieur fait l'objet d'un suivi depuis l’émoi suscité par le smog très dense qui s’est abattu sur Londres de décembre 1952 à mars 1953. C'est pourtant de l'air intérieur que chacun respire pendant la majeure partie du temps. La qualité des ambiances intérieures, dont l’air est une composante, joue un rôle sur la productivité au travail.

Vos rapporteurs ont entendu à ce propos, le 9 juillet 2009, le professeur Francis Allard, chercheur au LEPTIAB, laboratoire universitaire situé à La Rochelle, qui s’occupe de la qualité des ambiances habitées, et étudie plus particulièrement le cas des micro-climats, des habitacles, et de l’habitat.

S’agissant des pistes de recherche principales, M. Francis Allard a mentionné la modélisation et le contrôle des flux d’air internes, en vue notamment d'accroître l'efficacité d'évacuation de l'air vicié; l’optimisation des systèmes de commande des équipements de ventilation en les pilotant à partir de capteurs analysant l'air; le perfectionnement des échangeurs, en mobilisant notamment la nouvelle technologie des microtubes; la mise au point de systèmes de piégeage des polluants utilisant les processus d'adsorption et de désorption; ou encore l'étude des techniques d'épuration de l'air sur la base de la photo-catalyse ou de la bio-catalyse.

Il est nécessaire que de tels efforts soient encouragés puisque l'exigence d'isolation des bâtiments ne pourra aller qu'en se renforçant.26

d) Les pompes à chaleur

La fixation d’une norme thermique unique évaluée en énergie primaire crée l’urgence sur deux pistes de développement des pompes à chaleur : d’une part, il s’agit de garantir la possibilité d’un fonctionnement en puisant les calories dans un air vraiment froid, vers -10 °C, sans risque de givrage ; d’autre part, il s’agit de finaliser la mise au point des chauffe-eau « thermodynamiques », c'est-à-dire des systèmes chauffant l’eau grâce à une pompe à chaleur et non par effet Joule, pour l’équipement des logements collectifs, en veillant notamment à éliminer tout risque de prolifération de la légionelle.

Vos rapporteurs n’ont pas retenu l’idée d’établir un moratoire sur la réglementation, afin de maintenir entière la pression devant conduire à ce que tous les moyens soient mis en œuvre pour progresser rapidement sur ces sujets critiques, la réussite ouvrant ensuite la perspective de marchés à l’exportation.

Cependant l’audition de M. Denis Clodic, Directeur adjoint du Centre « Energétique et Procédés » de l’Ecole des mines de Paris, le 17 septembre 2009, a mis en évidence d’autres pistes de recherche potentiellement fructueuses : d’abord, la modularité de la puissance des pompes, devant leur permettre de fonctionner à divers régimes, notamment pour qu’elles s’adaptent à la faiblesse du besoin de chaleur dans les logements bien isolés ; ensuite, l’hybridation, qui doit permettre de recourir de manière optimisée à différentes sources d’énergie ; enfin, ce qu’il appelle le « parasitisme énergétique », consistant à récupérer les calories encore disponibles dans un système qui vient de fonctionner : typiquement, cela représenterait un gain important d’énergie de pouvoir brancher la source froide d’une pompe à chaleur sur un flux d’eaux usées.

Le renforcement de l’exigence de la réglementation thermique devrait conduire à un renforcement de la filière française des équipements du bâtiment, si comme nos divers contacts l’ont montré, les industriels se mobilisent pour adapter l’offre et perfectionner les produits.

e) Les plates-formes technologiques

L’idée de mettre en place des plates-formes technologiques, où tous les acteurs concernés par l’enjeu de la construction à basse consommation pourraient entrer en dialogue pour mieux coordonner leurs efforts, résulte de l’analyse du besoin d’une approche système pour la recherche dans ce domaine. A l’image de l’automobile, le bâtiment est en effet un « système de systèmes ».

Cette idée constitue l’un des apports du rapport de l’Académie des technologies de mars 2008 sur l’efficacité énergétique des bâtiments. Elle est activement portée par Yves Farge, et a été inscrite comme un objectif dans l’article 6 de la loi du 3 août 2009, dite « Grenelle 1 » : « La France concourt à la création d’une plate-forme européenne sur l’écoconstruction, pour développer les recherches et promouvoir les différentes filières de bâtiments faiblement consommateurs d’énergie. »

Ces plates-formes auraient quatre missions principales : la formation des cadres (professeurs, ingénieurs, architectes, techniciens), la construction de démonstrateurs à vocation pédagogique, la validation des travaux de R&D, la création d’entreprises nourries des compétences rassemblées sur la plate-forme.

Il est envisagé de créer cinq ou six de ces plates-formes en France : l’INES, sur le site Technolac d’Aix-les-Bains – Chambéry, pourrait en animer une, qui aurait pour spécialité « L'apport d'énergie par la voie solaire ». Des discussions préliminaires sont en cours pour d’autres plates-formes, à Bordeaux d’abord, avec comme spécialité « Le bois dans le bâtiment », à Orléans ensuite, avec comme spécialité « Les apports d'énergie par la géothermie basse température ou profonde, et les réseaux de chaleur ». Il serait enfin utile de créer des plates-formes dans le Grand Ouest (Nantes ou Rennes), dans le Nord, et dans l'Est, par exemple à Strasbourg où, d’ores et déjà, de nombreuses expériences sont en cours.

Chaque plate-forme devrait constituer un attracteur fort sur l'ensemble du territoire pour ce qui concerne sa spécialité, à l’image des échanges qu’entretient l’INES avec l’ensemble des laboratoires qui travaillent sur l’énergie solaire en France. Elle serait prise en charge financièrement par les partenaires qui l’aurait créée (ministères, régions, collectivités territoriales, fédérations professionnelles, entreprises, organismes de recherche publique, universités, écoles, etc.). Le coût annuel en fonctionnement serait de l’ordre de 100 millions d’euros.

Vos rapporteurs ne peuvent qu’apporter leur soutien à cette démarche qui semble très pertinente, puisqu’elle favorisera notamment la différenciation géo-climatique des solutions expérimentées.

3. L'ouverture de marchés extérieurs

Les objectifs du Grenelle de l'environnement projettent la France au premier rang de la prouesse technologique dans le secteur du bâtiment, sinon au niveau de la performance énergétique, car les réglementations suisses et allemandes sont également très exigeantes, du moins au niveau de la masse immobilière concernée. Cet effort pour porter massivement toute la construction, et tout le parc existant, vers une consommation d'énergie moindre offre une perspective de demande considérable pour l'offre industrielle de matériaux et d'équipements technologiquement plus avancés.

Toutes les conditions sont réunies pour affiner la mise au point des produits sur une base nationale large, amortir les coûts de fabrication rapidement, et disposer donc des conditions les plus favorables pour s'ouvrir des marchés à l'exportation.

La conquête de marchés extérieurs n'est en effet jamais plus solide que lorsque l'assise nationale de la demande est importante. C'est une des clefs du succès de l'industrie allemande, ou encore du cinéma américain, d'appuyer l'exportation sur un marché intérieur fort.

De ce point de vue, l'incitation à sortir d'une spécialisation axée sur l'utilisation d'une électricité peu coûteuse, héritage du choix national fort fait au début des années soixante-dix d’une reconquête de l'indépendance énergétique grâce à l'énergie nucléaire, constitue une chance à saisir plus qu'un handicap.

La libéralisation du marché européen de l'énergie va en effet conduire inéluctablement à une disparition progressive de la spécificité française dans ce domaine, puisque la rente nucléaire historique, qu’elle que soit la voie choisie parmi les options ouvertes par le rapport Champsaur pour sa restitution aux consommateurs français, va se réduire au fur et à mesure du renouvellement des centrales aux conditions de marché27. D’une façon ou d’une autre, les prix français de l'électricité finiront nécessairement par s'aligner, d’ici quelques décennies, sur le niveau imposé par le marché unique européen.

C'est donc un intérêt d'ordre stratégique qui doit conduire les producteurs français d'équipements à réorienter leur offre vers des produits peu consommateurs d'électricité comme les pompes à chaleur, ou couplant ceux-ci avec des énergies renouvelables, comme les systèmes combinés à capteurs solaires thermiques. Le marché de tels produits s'étendra ainsi tout naturellement à tous les pays d'Europe ou du monde qui se lanceront à leur tour, après la France, dans des efforts de maîtrise de la consommation énergétique de leurs bâtiments.

Et la mondialisation de la lutte contre l'effet de serre, ainsi que la menace d'un regain durable de tension sur le prix des hydrocarbures fossiles, laissent augurer sans trop d'incertitude une généralisation progressive, sur la planète, de l'effort de maîtrise de l'énergie dans les bâtiments.

V. LES FAUX DÉBATS THÉOLOGIQUES

L’expérience de vos rapporteurs, et leur assise intellectuelle, ont constitué des appuis utiles pour la conduite de cette étude, dont l’objet touche à des domaines très sensibles, propices à la confrontation des passions idéologiques. Il a fallu souvent à vos rapporteurs, à la suite des auditions ou des visites, reprendre un peu de recul pour ne pas perdre de vue l’objectif essentiel, à savoir la double réduction des consommations d’énergie et des émissions de gaz à effet de serre, en préservant à la fois le confort des utilisateurs et l’indépendance énergétique du pays.

Vos rapporteurs ont en effet identifié trois problématiques dans lesquelles certains de leurs interlocuteurs ont essayé de les enfermer, souhaitant les faire entrer dans leur jeu d’intérêts : la concurrence entre les filières énergétiques, qui apparaît en fait comme une « guerre des Trois » ; l’urgence de faire prévaloir l’analyse de la construction à basse consommation en termes de « bilan carbone » ; et surtout, l’incidence des congestions du réseau électrique sur le contenu en carbone de l’électricité.

A. LA « GUERRE DES TROIS »

Il est frappant de constater combien la réglementation thermique est un champ d’affrontement des filières énergétiques : EDF et l’électricité, d’un côté, GDF-Suez et le gaz de l’autre. Ces deux champions disposent d’aides de camp à visage découvert : « Promotelec » pour l’électricité, « Energie et Avenir » ou l’AFG (Association française du gaz) pour le gaz ; mais aussi d’auxiliaires qui se sont manifestés pour être auditionnés, tout en conservant leur étendard dans leur poche.

Tous ces acteurs sont rôdés aux pratiques du lobbying, payent des cabinets spécialisés pour les assister, ont eu soin de placer à leur tête des dirigeants venus des arcanes du pouvoir, et connaissant bien les relais clefs et les arguments efficaces : cette situation est presque un cas d’école pour la théorie économique de la « recherche de rente », qui met en évidence l’intérêt objectif, pour les entreprises, dans certains cas, d’investir dans une action de communication visant à obtenir une situation réglementaire favorable, plutôt que de faire jouer uniquement leurs atouts sur le marché.

En l’occurrence, la saisine de l’OPECST fournit en elle-même un indice du niveau atteint par l’intensité des pressions exercées. Les deux commissions des Affaires économiques du Parlement, celle du Sénat, à l’origine de l’amendement définissant la mission de l’OPECST, et celle de l’Assemblée nationale, qui a demandé une saisine anticipée, ont jugé plus sage de confier la réflexion sur la modulation de la réglementation thermique à un troisième organe parlementaire pouvant reprendre l’analyse à froid, car la complexité de la question méritait une sérénité des débats qui avait fini par faire défaut.

Chaque acteur proteste de sa bonne foi en mettant en avant sa dimension multi-énergies ; chacun présente des tableaux de calcul réglementaire qui appuient sa thèse, pour ou contre telle ou telle forme de modulation, de manière imparable : il était vraiment indispensable de prendre le temps de resituer la question dans son contexte global, d’aller rencontrer des professionnels sur place, de visiter les principaux sites de référence à l’étranger, pour se constituer une opinion sereine au bénéfice de l’intérêt général.

Néanmoins, il convient d’observer que ce jeu d’affrontement ne met pas face à face seulement deux camps, mais trois ; il s'agit bien en effet d'une « guerre des Trois », car certains courants écologistes s’introduisent dans le débat pour manifester indirectement leur hostilité à l’énergie nucléaire, en souhaitant que la nouvelle réglementation thermique bride la part de l’électricité dans la consommation énergétique des bâtiments, quitte à ce que l’espace ainsi libéré pour d’autres énergies soit approprié par le gaz, et non pas nécessairement par des énergies renouvelables. Le paradoxe d’une posture qui favorise ainsi une énergie qui est manifestement, en France, plus émettrice de gaz à effet de serre que l’électricité, est résolu en poussant la thèse du contenu marginal en carbone de l’électricité, thèse qui renvoie à un autre débat théologique, analysé ci-après.

Tous les courants écologistes ne sont pas sur cette ligne, puisque les rapporteurs sont allés visiter, à Houilles, dans les Yvelines, le 7 juillet 2009, la « maison écologique » de M. Bruno Comby, qui a créé « l’Association des écologistes pour le nucléaire ». M. Bruno Comby a construit un bâtiment maximisant les économies d’énergie et les apports naturels, et utilisant un faible complément d’électricité pour la pompe à chaleur et l’échangeur double flux. Sa maison atteint ainsi une performance de 13kWh par mètre carré et par an, en deçà des exigences fixées pour les Passivhaus. Par rapport à une maison standard chauffée au gaz et conforme à la norme RT 2005, la consommation d'énergie est réduite d'un facteur 20 et les émissions de CO2 d'un facteur environ 200.

Pour ce qui les concerne, les rapporteurs sont convaincus de la nécessité d’aller de l’avant, autant que faire se peut, dans les économies d’énergie et le recours aux énergies renouvelables, et souhaitent que le choix de l’utilisation des énergies classiques (électricité, gaz, voire fioul) soit piloté exclusivement par une logique d’optimisation de la solution en fonction de la situation particulière du bâtiment, notamment au regard de la disponibilité de l'accès aux circuits de distribution.

Ainsi, en dépit de sa contribution indiscutable à l’effet de serre, le recours au gaz, en France, présente un véritable intérêt sous trois aspects :

- d’abord, le réseau de distribution du gaz, qui couvre environ 75% de la population, soit 45 millions d’habitants, 11 millions de ménages, et moins de 10 000 communes, est le résultat d’un effort de plusieurs décennies après la création de Gaz de France en 1946 ; Gaz de France a en outre construit les deux terminaux méthaniers de Fos-sur-Mer et Montoir-de-Bretagne amenant le gaz naturel liquéfié (GNL) ; l’accès au gaz a été ainsi une conquête nationale, c'est un investissement historique de la collectivité qu'il serait dommage de ne pas utiliser pleinement aujourd’hui ;

- ensuite, le gaz est une source d’énergie qui se stocke, procurant une sécurité d’approvisionnement, surtout pour l’hiver ; la France dispose ainsi d’une capacité de stockage souterrain équivalente à 28% de sa consommation annuelle, alors que celle de l’Allemagne ne représente que 22% et l’Italie 18% ; l’accès au GNL contribue également à la sécurité d’approvisionnement, et GDF-Suez en est le premier importateur en Europe avec une flotte de 15 méthaniers en exploitation, et 3 en construction ;

- enfin, le réseau de transport et de distribution du gaz conservera son importance stratégique au-delà de la disparition inéluctable du gaz fossile, puisque celui-ci pourra être relayé par le biogaz, ou par un mélange comportant de l’hydrogène. Le biogaz, énergie renouvelable sans contribution à l’effet de serre, peut s’obtenir par méthanisation des déchets ou par gazéification de la biomasse. En Allemagne, depuis décembre 2006, des opérateurs alimentent le réseau de distribution en biogaz. En France, l'AFSSET a rendu, en octobre 2008, un avis favorable pour l'injection de biogaz dans le réseau de gaz naturel.

GDF-Suez s'intéresse au gaz renouvelable, puisqu'il contribue notamment au projet Gaya de gazéification de la biomasse, qui vise à produire du « méthane vert ». Vos rapporteurs ont néanmoins été surpris de constater que l’argument de ce relais potentiel assuré par le biogaz, pourtant très convaincant pour toute personne consciente des contraintes de l’avenir, n’a pas été mis en avant par les responsables de GDF-Suez auditionnés. Cela traduisait peut-être le sentiment qu'il s'agit, en France, d'un dossier au trop long cours.

B. LE BILAN CARBONE

La lutte contre l’effet de serre n’a de sens qu’au niveau global, car c’est l’accumulation de gaz carbonique dans l’enveloppe atmosphérique terrestre qui provoque l’effet de serre. Ce constat donne toute sa pertinence au concept de « bilan carbone » ou « carbone gris », et à l’inverse, rend si étrangement décalé, comme on le verra ci-après, le concept d’émission « marginale » de CO2.

Le calcul d'un « bilan carbone » répond véritablement au besoin d’une approche globale, car il s’efforce de prendre en compte toutes les émissions de gaz carbonique associées à une activité, que ces émissions soient directes ou très indirectes.

Dans la mesure où la lutte contre l’effet de serre est une justification importante du basculement souhaité vers les bâtiments à basse consommation, le sigle BBC pouvant signifier aussi « bâtiments à bas carbone », il paraît assez logique que cette manière de raisonner en termes de « bilan carbone » s'applique assez rapidement à toutes les opérations pratiques de construction : on se demande alors quelles quantités d'émissions de gaz carbonique ont généré la fabrication de tels matériaux utilisés; quelles émissions additionnelles ont été provoquées par leur transport jusqu'au site de construction, puis par leur mise en œuvre sur place.

Cette préoccupation du contenu en « carbone gris » de tout élément ou de tout processus a marqué fortement la construction du quartier BedZed au Sud de Londres, qui s'est effectuée sous la bannière de l'organisation écologiste WWF (World Wildlife Fund), laquelle s'applique à promouvoir, de par le monde, le calcul de « l'empreinte écologique ». En pratique, des choix de conception ont été effectués en fonction de la disponibilité d'une offre locale, dans un rayon de quelques kilomètres autour du site, afin de minimiser les transports.

Une telle démarche poussée jusqu'à l'extrême risquerait de conduire au rejet des techniques de construction à basse consommation, voire au rejet de la construction elle-même, puisque après tout, une vie au grand air, sans toit et sans chauffage, permet d'éliminer bien des sources parasites d'émissions de gaz à effet de serre. M. Bruno Comby s'est penché sur la question du « bilan carbone » avant de se lancer dans la construction de sa « maison écologique ». Son calcul de « coin de table » lui a montré que les ordres de grandeur ne mettaient pas en péril, loin s'en faut, son projet.

Lors de la visite de vos rapporteurs à Fribourg, en Suisse, leurs interlocuteurs leur ont fait part d'études sur le contenu en carbone gris des matériaux utilisés, par rapport à l’économie d’émission de CO2 réalisée en fonctionnement grâce à un effort d’isolation; certaines concluraient que le bilan reste très positif tant que la couche d’isolant demeure en deçà d’une certaine épaisseur, de l’ordre de 60 centimètres, ce qui correspond à la plupart des cas. Pour ce qui concerne le bâtiment « Green Offices », où ils étaient accueillis, la mobilisation de matériaux à faible empreinte de carbone a permis un gain du simple au double, par rapport à une construction de type classique, ce gain équivalent aux émissions produites par un siècle de chauffage du bâtiment (un million de kWh).

En tout état de cause, il est évident que les difficultés à surmonter pour avancer sur la voie d'une généralisation de la construction à basse consommation sont déjà si nombreuses, qu'il paraît raisonnable de ne pas y ajouter la complexité des approches en termes de « bilan carbone », même si celles-ci méritent attention. A ce stade, il s'agit simplement d'éviter de faire des choix manifestement aberrants, en prenant en compte déjà les émissions de gaz à effet de serre dues au transport. Ainsi, il faut veiller à ne pas faire venir de trop loin les matériaux utilisés, sauf s'ils ont vraiment des propriétés exceptionnelles, ou si leur production de masse rentabilise un transport maritime.

Le dispositif public des « fiches de déclaration environnementale et sanitaire » (FDES), qui communique une information centralisée grâce à la base de données INIES, fournit d'ores et déjà des indicateurs d'énergie grise (exprimés en énergie primaire totale) et de carbone gris (en kilogramme équivalent CO2) pour un millier de matériaux et produits de construction. Par ailleurs, les fabricants des produits et équipements électriques produisent depuis plusieurs années des profils environnementaux produits (PEP).

Ces initiatives vont dans le bon sens, car, à terme, avec la baisse sensible de la consommation énergétique des bâtiments, il est clair que la minimisation du « carbone gris » incorporé, lié à l’énergie utilisée pour produire les matériaux de construction, les transporter, les mettre en œuvre, les recycler, revêtira nécessairement plus d’importance.

Vos rapporteurs estiment néanmoins qu'en ce domaine il convient d'avancer pas après pas, et que tous les efforts doivent converger d'abord vers la réussite de la généralisation de la construction BBC.

C. LE CONTENU EN CO2 DE L’ÉLECTRICITÉ

L’article 4 de la loi n° 2009-967 du 3 août 2009 de programmation relative à la mise en œuvre du Grenelle de l'environnement, qui a confié la présente étude à l’OPECST, mentionne, à propos de la norme des 50 kWh : « ce seuil sera modulé afin d’encourager la diminution des émissions de gaz à effet de serre générées par l’énergie utilisée. »

L’analyse de l’impact, sur les émissions de gaz à effet de serre, des diverses solutions technologiques retenues pour l’équipement des bâtiments neufs, fait donc pleinement partie de la mission dévolue à vos rapporteurs.

1. Les éléments de bon sens

L’analyse de prime abord en ce domaine veut que l’électricité, qui est produite, en moyenne, en France, à 90% grâce à des procédés n’induisant aucune émission de gaz carbonique, génère une émission de CO2 bien moindre que n’importe quel système direct de chauffage (une chaudière) utilisant des énergies fossiles : fioul, charbon, gaz, ce dernier émettant moins de gaz carbonique que les deux premiers.

En effet, la production d’une quantité d’électricité Q mobilise l’équivalent de trois fois sa valeur énergétique (3*Q), car on admet qu’une centrale thermique dissipe en chaleur les deux tiers de l’énergie mobilisée pour la production d’électricité, ce qui revient à considérer, pour simplifier le raisonnement, que le coefficient de conversion de l’électricité en énergie primaire est de 3.

Si la production d’électricité repose entièrement sur un combustible fossile, un chauffage par l’électricité émet l’équivalent de 3*Q de gaz carbonique, tandis qu’un chauffage sur place par chaudière avec le même combustible fossile n’émet que l’équivalent de Q. Autrement dit, un chauffage par l’électricité d’origine fossile dissipe trois fois plus de gaz à effet de serre qu’un chauffage par chaudière.

En revanche, si l’électricité n’est produite qu’à hauteur de 10% avec du combustible fossile, cette part de production d’électricité émettrice de gaz carbonique se réduit à 10%*3*Q, soit 30%*Q, c'est-à-dire environ un tiers de l’énergie Q nécessaire au chauffage direct du bâtiment par une chaudière. Donc, un chauffage par l’électricité en France dissipe trois fois moins de gaz à effet de serre qu’un chauffage par chaudière utilisant de l’énergie fossile.

Ainsi, en France, contrairement a ce qui prévaut dans la plupart des autres pays membres de la Communauté européenne, l’usage de l’électricité dans les bâtiments permet de mieux assurer le respect du protocole de Kyoto. Il n’y a qu’un chauffage à partir d’énergies renouvelables qui soit plus efficace encore pour limiter les émissions de gaz carbonique.

Le raisonnement est rendu un peu plus complexe, mais non pas invalidé, en cas de prise en compte plus fine du rendement des équipements. Ainsi, avec une pompe à chaleur d’un coefficient de performance de 3, compensant le coefficient de conversion de l’électricité, l’émission de gaz carbonique par rapport à un chauffage direct par énergie fossile est réduite à 10% *Q seulement, donc dix fois moindre, alors qu’elle est trois fois moindre avec des convecteurs à effet Joule.

2. La saisonnalité de la demande d’électricité

Cependant, l’analyse de bon sens qui précède, valable au niveau des données agrégées sur une période d’une année, rend mal compte des fluctuations de la demande d’électricité avec les saisons.

De fait, si certains besoins énergétiques sont à peu près réguliers au cours de l’année, comme ceux générés par les équipements ménagers (machine à laver) et les équipements de loisir (télévision), d’autres besoins énergétiques sont très concentrés sur la période d’hiver, et c’est le cas spécialement du chauffage. D’autres besoins énergétiques s’intensifient nettement en hiver comme le séchage du linge, à cause de l’absence d’alternative en plein air, ou l’éclairage, du fait du raccourcissement des jours jusqu’à Noël.

Or la mobilisation plus intense des capacités de production d’électricité qui en résulte, lorsque cette source d’énergie est utilisée, induit une concentration saisonnière du recours aux centrales thermiques à flammes, que ce soit sur le territoire national ou plus largement dans l’espace européen, si l’on inclut la fourniture d’un appoint d’électricité à partir d’importations. En effet, le parc français de production d’électricité sans émission de gaz à effet de serre est sous dimensionné par rapport à l’appel maximum de puissance en pointe de consommation.

Le rapport au Parlement sur la programmation pluriannuelle des investissements de production d’électricité pour la période 2009-2020 mentionne ainsi (p.44) que le niveau maximal historique de consommation nationale instantanée a été atteint lors d’une vague de froid le 7 janvier 2009, et s’est élevé à 92,4 GW. Les informations fournies en ligne par RTE (« Données de production réalisée ») montrent que cette demande instantanée maximale a été satisfaite par une mobilisation à hauteur de 59,4 GW du parc nucléaire et de 13,5 GW du parc hydroélectrique ; le solde de 19,5 GW a été couvert par une production thermique à flammes, moitié sur le territoire français, moitié dans les pays voisins (part importée).

De là, l’intérêt d’établir un contenu en gaz carbonique de l’électricité consommée pour chacun des usages possibles, de manière à rendre compte d’une façon objective du fait que ces usages mobilisent, de manière plus ou moins importante, une production complémentaire d’électricité à partir de centrales thermiques à flammes.

L’évaluation de cette intensité relative du besoin d’appoint hivernal par usage a été effectuée dès 2005 par l’Ademe, et rappelée dans le cadre d’une note de synthèse rédigée conjointement en 2007 par l’Ademe et RTE, à partir d’un traitement des données historiques de la période 1998-2003. Les résultats, mesurés en grammes de CO2 par kWh, sont les suivants :

Le contenu en CO2 de l’électricité selon les usages (en g /kWh)

Usages

Chauffage

Eclairage

Autres usages

intermittents

permanents

Contenu moyen

180

100

60

40

Plage de variation

130 – 260

60 -150

40 – 90

20 - 72

Parmi les « autres usages », on décompte comme « intermittents » certains usages résidentiels comme la cuisson, le lavage et le fonctionnement des équipements ménagers, informatiques ou audiovisuels, ainsi que les usages tertiaires et industriels autres que l’éclairage. Ils ont une consommation qui suit la courbe de charge globale et se voient donc attribuer un contenu en CO2 à peu près égal à la moyenne nationale, à savoir environ 60 g/kWh.

Les usages « autres » considérés comme « permanents » génèrent une consommation en phase avec la production « en base », et correspondent :

- dans le contexte résidentiel à la production d’eau chaude, et de froid (réfrigérateurs) ;

- dans le contexte tertiaire, à la climatisation ;

- dans le contexte productif, aux consommations de l’agriculture, des transports, du secteur BTP et des armées.

3. Le concept d’émission « marginale »

Au cours des auditions, quatre interlocuteurs (Ademe, Energie et Avenir, GDF-Suez, DHUP) ont abordé la question des émissions de gaz à effet de serre d’une manière paradoxale, en soulignant l’existence d’émissions « marginales » très importantes qui seraient induites par l’électricité.

Leur démarche d’analyse s’organise en trois étapes imbriquées :

1°) le constat, au fur et à mesure que le parc électrique s’étend, du besoin accru de centrales thermiques à flammes pour faire face aux pointes de demande d’énergie ; ce point est incontestable, et GDF-Suez se limite à cette observation ;

2°) le calcul des émissions de CO2 dites « marginales » qui en résultent du fait de l’électricité ; la DHUP en reste à ce stade, et en déduit l’absence de pertinence, pour l’électricité, d’une modulation de la norme des 50 kWh en fonction des émissions de gaz à effet de serre, ce qui revient en quelque sorte à neutraliser ce paramètre du dispositif législatif, sauf pour le « bois énergie » et les réseaux de chaleur et de froid ;

3°) la préconisation d’une prise en compte de ces émissions de CO2 dites « marginales » pour orienter l’achat d’équipements de chauffage dans les constructions nouvelles, associée à la proposition de créer un observatoire d’évaluation du « contenu marginal » en CO2 des énergies par type d’usages, pour renforcer l’assise de cette préconisation. C’est la position de l’Ademe et de l’association « Energie et Avenir », laquelle représente les installateurs de chauffage utilisant l’eau comme vecteur.

Ces tenants de l’approche « marginale » évoquent volontiers les travaux réalisés par l’Ademe et RTE sur le contenu en CO2 de l’électricité dans un document conjoint d’octobre 2007 intitulé : « Le contenu en CO2 du kWh électrique : Avantages comparés du contenu marginal et du contenu par usages sur la base de l’historique ». La Direction de RTE a rappelé que cette note, rédigée à la demande des pouvoirs publics, visait à offrir des éléments de comparaison des deux méthodologies, chacune d’entre elles répondant à des objectifs distincts.

Il est indispensable de rappeler les termes précis utilisés dans cette note pour cerner le sens du concept de « contenu marginal »:

« L’approche marginale cherche en priorité à évaluer les conséquences de décisions qui peuvent être prises au cours des années à venir. Les enjeux à l’échelle de la France portent sur les usages de l’électricité (orientations en terme de chauffage, renforcement des mesures de maîtrise de la demande d’électricité, évolutions des modes d’éclairage,…) et sur l’offre de production (mise en chantier d’EPR supplémentaires, développement des énergies renouvelables, évolution du parc de cogénération). Leur ampleur, de l’ordre de quelques dizaines de TWh par an, n’est pas de nature à bouleverser de fond en comble le système énergétique français. »

On voit qu’il s’agit de fournir un indicateur en vue d’affiner le pilotage de la politique énergétique du pays, du point de vue global de la tension entre l’offre et la demande d’électricité, dont le contenu marginal en CO2 constitue effectivement un reflet judicieux, et non pas d’orienter directement les investissements des agents économiques pour la lutte contre l’effet de serre.

Or, l’article 4 de la loi du 3 août 2009 mentionne l’obligation d’une modulation visant à « encourager la diminution des émissions de gaz à effet de serre ». La perspective du législateur est bien celle du Protocole de Kyoto, et concerne la nécessité de modifier le comportement des agents économiques.

4. Les termes du quiproquo

La proposition de retenir le « contenu marginal en CO2 » pour introduire une modulation dans la réglementation thermique aboutirait donc à poursuivre l’objectif de la lutte contre l’effet de serre avec un instrument inapproprié, non qu’il soit mal conçu en lui-même, mais parce qu’il vise une autre fin.

Cet indicateur rend en effet compte d’une tension instantanée, survenant au plus délicat moment de l’année pour ce qui concerne l’ajustement de l’offre et de la demande d’électricité.

Et il est vrai qu’un investissement nouveau dans un équipement de chauffage électrique, quel que soit le moment de l’année où il est effectué, s’interprète comme une unité marginale supplémentaire du parc des appareils électriques, qui va accroître d’autant les tensions sur la demande d’électricité en hiver, et donc contribuer au recours aux centrales thermiques à flammes ou à des importations d’électricité produites par ce procédé fortement émetteur de gaz à effet de serre.

Mais, du point de vue de l’effet de serre, ce n’est pas l’émission marginale supplémentaire de CO2, que cette unité supplémentaire de chauffage va induire lors des pointes de consommation d’hiver, qui est significative : c’est l’émission totale supplémentaire de gaz carbonique produite tout au long de l’année.

Car l’effet de serre, phénomène à l’origine du changement climatique selon les analyses du GIEC, est produit par l’accumulation progressive de gaz carbonique dans l’enveloppe atmosphérique, et non pas par les poussées instantanées d’émission de gaz carbonique constatées ici ou là à la surface de la terre : une poussée exceptionnelle d’émission forte suivie d’une longue période d’émission réduite peut être, de ce point de vue, bien préférable à une émission régulière plus soutenue, si, au total, c'est-à-dire en moyenne sur la période considérée, l’enveloppe atmosphérique voit ainsi s’accumuler en son sein moins de gaz carbonique.

C’est donc le critère de l’émission moyenne de CO2, rendant compte de la somme cumulée des émissions instantanées28, qui mesure adéquatement la contribution d’une source à l’effet de serre, et non pas l’émission marginale calculée à un moment donné.

Il existe pourtant une configuration théorique particulière où l’effet de serre serait sensible à une émission instantanée : elle correspondrait au cas où cette émission surviendrait alors que toutes les autres sources potentielles d’émission de CO2 sur la terre auraient disparu. En ce cas, cette émission isolée instantanée causerait un dommage planétaire ; un dommage marginal, au sens où il résulterait lui-même d’un petit changement, mais qui risquerait néanmoins, à lui tout seul, de faire basculer le système climatique vers un autre équilibre source de bouleversement majeur, si ce système était justement parvenu à un état critique.

Cependant, aujourd’hui, les émissions de CO2 des équipements de chauffage sont loin d’intervenir dans un monde débarrassé de toutes les sources de gaz à effet de serre : le quasi milliard de véhicules automobiles29 continuent toujours à dégager des gaz d’échappement chargés de carbone, et 85% de l’électricité mondiale est produite à partir de centrales thermiques à flammes sans aucun dispositif de capture du gaz carbonique.

Par conséquent, c’est bien l’émission moyenne d’une source de CO2, quelle qu’elle soit, qui mesure aujourd’hui le mieux sa contribution à l’effet de serre.

5. Un raisonnement par l’absurde

Diverses situations mettent en évidence les conséquences assez paradoxales du raisonnement en termes d’émission « marginale », s’il fallait effectivement le mettre en œuvre pour réduire les sources de gaz carbonique.

Ainsi, aucune centrale de production d’électricité à l’arrêt n’émet de gaz carbonique, que sa source d’énergie soit renouvelable, fossile ou nucléaire. En revanche, sitôt qu’elle fonctionne, une centrale thermique à flammes émet du gaz carbonique tandis qu’une centrale à énergie renouvelable ou une centrale nucléaire continue à ne pas en émettre.

Il existe donc une émission « marginale » de gaz carbonique, c'est-à-dire une contribution supplémentaire instantanée à l’effet de serre, qui est liée à la mise en service d’une centrale thermique à flammes tandis que cette émission « marginale » reste nulle lors du lancement d’une centrale à énergie renouvelable ou d’une centrale nucléaire. Le raisonnement en termes d’émission « marginale » de gaz carbonique conduit donc, s’il est poussé jusqu’au bout, à prôner la disparition des centrales thermiques à flammes.

L’extension de cette analyse à la réalité du fonctionnement des centrales à énergie renouvelable intermittente plaide pareillement pour la disparition de celles-ci. Cela concerne les centrales éoliennes et solaires, à l’inverse des centrales hydrauliques, hydroliennes, marémotrices ou géothermiques, qui bénéficient d’une certaine régularité de fonctionnement.

En effet, l’arrêt des centrales éoliennes ou solaires du fait des variations du vent ou de l’éclairage diurne crée un besoin de production électrique de substitution, pour assurer la continuité de fourniture de l’électricité ; les centrales thermiques à flammes, lancées dans le pays même ou à l’étranger via un circuit d’importation, sont parfois le seul moyen pour apporter cette électricité de substitution. En ce cas, les centrales éoliennes ou solaires sont à l’origine d’une émission « marginale » de gaz carbonique, celle justement due aux centrales thermiques à flammes mises en route pour prendre leur relais.

Une note d’information du 15 février 2008, publiée conjointement par le MEDAD et l’ADEME, intitulée « L’éolien contribue à la diminution des émissions de CO2 » indique : « Une analyse de l’ADEME des données du RTE montre que les émissions de CO2 évitées par l'éolien sont de 300 g/kWh ». Cela signifie inversement que, lorsque la production éolienne s’arrête, l’ensemble du parc compense cette défaillance par une augmentation de production qui génère une émission de 300 g/kWh. C’est là une estimation de l’émission « marginale » causée par l’intermittence des éoliennes.

Un raisonnement exclusivement en termes d’émission « marginale » de gaz carbonique conduit donc au bannissement aussi bien des centrales thermiques à flammes que des centrales éoliennes ou solaires dont les intermittences ne peuvent être compensées sans recours à une production thermique de substitution.

De fait, un parc de production d’électricité éliminant tout risque d’émission « marginale » de gaz carbonique devrait en toute logique se constituer uniquement de centrales nucléaires et de centrales à énergie renouvelable régulière (hydrauliques, hydroliennes, marémotrices ou géothermiques), pour une capacité de production totale calée sur la pointe maximale de consommation annuelle.

D’après les données mentionnées précédemment, un effort d’investissement pour l’installation d’une capacité supplémentaire de l’ordre de 20 GW serait nécessaire pour placer la France dans cette situation, en étendant le parc nucléaire, ou en relançant le programme d’usines marémotrices interrompu après l’expérience pourtant réussie de La Rance, car les autres formes d’énergie renouvelable ne pourraient fournir, en l’espèce, qu’une contribution limitée.

La thèse d’un relèvement de la capacité de production d’électricité peu émettrice de carbone au niveau de la pointe de consommation a été défendue par M. Bernard Bigot, lorsqu’il était encore Haut Commissaire à l’énergie atomique, lors de son audition par vos rapporteurs dans le cadre de leur précédent rapport au nom de l’OPECST30. Cette thèse met en valeur la possibilité du stockage des excédents d’énergie qui en résulteraient, à travers une production massive d’hydrogène par électrolyse.

Le raisonnement en termes d’émission « marginale » du gaz carbonique invite donc logiquement au soutien de tout projet d’extension du parc nucléaire, solution qui élimine à la source l’intensité de la congestion provoquée par la pointe de consommation d’électricité en hiver.

Cette conséquence est certainement paradoxale pour ceux qui souhaitent créer un organisme dédié au suivi du contenu « marginal » en CO2 de l’électricité, pour mieux faire oublier qu’un parc nucléaire constitue un atout dans la lutte contre le changement climatique.

6. Le concept d’émission « moyenne marginale »

L’incrimination de l’émission moyenne au lieu de l’émission marginale, si elle fournit une base plus solide pour introduire une modulation de la réglementation thermique, ne suffit néanmoins pas pour faire complètement justice du raisonnement marginaliste qui se trouve implicitement derrière le souhait d’orienter les choix d’investissement des agents économiques : il s’agit bien de trouver un indicateur qui rende compte de l’impact « marginal », sur les émissions de CO2, de l’installation d’un équipement de chauffage supplémentaire, en comparant les cas où il fonctionne avec l’électricité ou avec une énergie fossile.

Pour identifier cet indicateur, il est commode de se donner quelques points de repère chiffrés, en simulant, par exemple, le cas d’un achat d’équipement de chauffage.

Les calculs sur les données historiques, rappelés dans la note précédemment mentionnée, aboutissent à une émission moyenne de CO2 de 180 g/kWh pour un chauffage électrique. Ce chiffre intègre l’effet de congestion du système de production d’électricité qui se produit en hiver, et qui conduit au lancement de centrales thermiques à flammes.

La consommation finale d’électricité dans le secteur du bâtiment est de 289 TWh en 2008 selon le bilan électrique de 2008. L’équipement en électricité de 100 000 nouveaux bâtiments résidentiels à la norme BBC d’une surface moyenne de 100 mètres carrés induit une consommation supplémentaire d’environ 200 GWh d’électricité finale, soit de l’ordre du millième.

L’installation de ces unités supplémentaires de chauffage électrique ne modifie pas la contrainte sur la production de base d’électricité, qui n’émet pas de CO2 ; mais la congestion causée par la pointe de demande d’hiver est accrue. L’appel à une production par le moyen de centrales thermiques à flammes augmente alors d’un millième, et l’électricité produite à ce moment là émet donc un millième de CO2 en plus.

Cette même note précédemment mentionnée estime à environ 600 g/kWh le contenu marginal en CO2 de l’électricité utilisé pour le chauffage. Ce chiffre passe alors à 600,6 du fait du millième de congestion supplémentaire.

Si l’émission moyenne de CO2 sur l’année est de 180 g/kWh, tout se passe comme si la période de congestion durait une fraction de l’année égale à 180 / 600. La nouvelle émission moyenne de CO2 augmente donc d’un millième, et passe à environ 180,2 g/kWh.

Ce chiffre représente l’émission moyenne marginale pour 100 000 constructions neuves.

Il s’agit de comparer cette valeur à la situation d’un équipement du même parc supplémentaire avec un système alternatif fonctionnant à l’énergie fossile.

La DHUP a confirmé que, pour les énergies combustibles, les approches moyenne et marginale donnent les mêmes résultats pour le calcul du contenu en CO2, dans la mesure où la technologie utilisée reste homogène dans le temps, à la différence de ce qui se passe dans la production d’électricité.

L’arrêté du 15 septembre 2006 relatif au diagnostic de performance énergétique fournit les chiffres suivants, nettement supérieurs à 200 g/kWh, sauf pour le bois :

Gaz naturel

234 g/kWh

GPL

274 g/kWh

Fioul domestique

300 g/kWh

Bois

13 g/kWh

Cette analyse montre donc que :

1°) Toute comparaison des différentes sources d’énergie pour ce qui concerne la performance en émission de CO2 doit se faire au niveau de l’émission moyenne marginale, et non au niveau de l’émission marginale, car celle-ci ne prend pas en compte la réalité mécanique de l’effet de serre.

2°) L’émission moyenne de l’électricité, même lorsqu’elle intègre l’augmentation de l’émission marginale induite par un déploiement important d’appareils de chauffage électrique (100 000), demeure très en deçà de l’émission moyenne des systèmes utilisant les énergies fossiles.

7. Le lien avec la taxe sur le carbone

La conférence des experts sur la contribution Climat et Énergie, instance présidée par M. Michel Rocard, a rendu son rapport le 28 juillet 2009. La conclusion de ce rapport contient la phrase suivante :

« Un chauffage électrique classique n’émet aujourd’hui pas plus de CO2 qu’un chauffage au gaz. Mais cette performance devrait être accrue par une réforme tarifaire qui rende les utilisateurs d’électricité plus attentifs aux économies qu’ils peuvent faire en modulant leurs comportements aux heures de pointe de consommation. »

La formulation retenue prend clairement le contre-pied de l’approche en termes d’émissions marginales : c’est bien l’émission totale sur l’année qui est considérée, et si l’avantage de l’électricité à cet égard n’est pas fortement souligné, du moins l’impact relativement plus défavorable du chauffage au gaz est-il clairement rappelé.

La conférence des experts sur la contribution Climat et Énergie, dont la perspective était justement la lutte contre le changement climatique, s’est donc bien appuyée sur une analyse en termes d’émission moyenne, prenant en compte le fait que, même si le chauffage constitue un usage très saisonnalisé, le facteur de conversion se trouve compensé par la dimension fondamentalement complémentaire, en France, de la production d’électricité par le moyen de centrales thermiques à flammes.

La conférence des experts a par ailleurs formulé une conclusion cohérente avec cette observation, en rappelant que la taxe sur le carbone avait vocation à n’intervenir que dans un champ complémentaire à celui du mécanisme communautaire des quotas d’émission : or le secteur de la production d’électricité se trouve au premier chef concerné par ce mécanisme, et doit même être le premier, avant tous les autres secteurs, à expérimenter le dispositif de la vente aux enchères des quotas en 202031. Le rapport des experts préconise donc de ne pas inclure l’électricité dans le champ de la taxe sur le carbone, ce qui aurait eu pour effet de superposer deux mécanismes de contrôle ; à l’inverse, la consommation directe de combustibles fossiles pour le chauffage se trouve évidemment concernée.

Si ce schéma de mise en œuvre de la taxe sur le carbone est effectivement retenu, en excluant de son assiette les appareils électriques et en y incluant les équipements à énergies fossiles, alors le mécanisme de formation des prix devrait directement contribuer à la bonne orientation, au regard de l’objectif de lutte contre le changement climatique, des choix d’investissement en matière de système de chauffage.

Il convient du reste d’observer la puissance des effets de marché dans ce domaine, puisque l’indexation du prix du gaz et du fioul sur le pétrole explique très largement, selon toutes les analyses recueillies, le déséquilibre fort qui est apparu, depuis 2000, sur le marché des équipements de chauffage des bâtiments neufs, en faveur des systèmes électriques.

8. Le besoin d'un plafond d'émission de CO2

Cependant la régulation par les prix, avec sa dimension aléatoire, ne saurait suffire pour véritablement atteindre les objectifs de la réglementation thermique, qui recoupent en fait les trois axes pour 2020 du plan européen « Energie-Climat », à savoir : une réduction des émissions de gaz à effet de serre, une amélioration de l'efficacité énergétique et une augmentation de la part des énergies renouvelables dans la consommation d'énergie.

La fixation d'un plafond d'émission de gaz carbonique permet de mieux garantir le respect de ces trois objectifs dans le secteur du bâtiment.

A cet égard, il convient d'observer, en premier lieu, que la possibilité d'introduire dans la réglementation thermique une limitation des émissions de gaz carbonique est ouverte par la directive 2002/91/CE, puisque le dernier alinéa de l'article 3 précise : « La performance énergétique d'un bâtiment est exprimée clairement et peut contenir un indicateur d'émission de CO2 ». La proposition de nouvelle directive en discussion va encore plus loin dans ce sens, puisqu'un accord intervenu le 17 novembre 2009 entre le Parlement européen et le Conseil des ministres a conduit à y introduite un objectif de « zéro émission » à l'horizon 2021, même si l’exemple britannique, ainsi que vos rapporteurs l’ont compris lors de leur visite à BedZed, montre que ce concept de « zéro émission » est quelque peu problématique.

Deuxièmement, la fixation d'un plafond d'émission de gaz carbonique contribue à une véritable amélioration de l'efficacité énergétique, dans la mesure où elle interdit l'arithmétique trompeuse résultant du comptage en négatif, dans le bilan des consommations énergétiques, de l'électricité produite par le bâtiment. Ce comptage en négatif permet de considérer comme performantes de véritables épaves thermiques, simplement parce qu'elles disposent de larges surfaces d'accueil pour des capteurs photovoltaïques raccordés au réseau électrique. Comme ce comptage en négatif ne peut pas s'appliquer aux émissions de gaz carbonique, l'obligation de respecter un plafond d'émission garantit que les maisons dites « à énergie positive », respectent véritablement la réglementation thermique.

Troisièmement, un plafond d'émission de gaz carbonique contribue au développement des énergies renouvelables en faisant barrage aux solutions « tout gaz », de même que la fixation d'un plafond unique en énergie primaire pour l'ensemble des consommations énergétiques a fait barrage à une solution « tout électrique », car une pompe à chaleur mobilise de fait l’énergie renouvelable disponible sous forme de calories dans la source froide. Un tel plafond est donc l’équivalent d'une obligation d'utiliser sur place des énergies renouvelables pour alimenter les équipements du bâtiment, aucune énergie classique ne permettant ainsi de faire l'impasse sur cette contribution essentielle à la lutte contre le changement climatique.

Un calcul simple, basé sur un profil moyen des distributions de consommation indiqué par l'Ademe, montre qu'un plafond à 5 kilogrammes par mètre carré et par an contraint plus fortement les solutions « tout gaz ».

Maison individuelle avec chaudière à gaz

USAGES

Energie primaire

(kWh/m2/an)

Energie finale

(kWh/m2/an)

Contenu CO2

(g/kWh)

Emission

(g/m2/an)

Eau chaude

25

25

234

5850

Chauffage

15

15

234

3510

Ecl. & ventil.

10

4

70

280

TOTAL

50

-

-

9640

A l'inverse, un équipement « tout électrique » intégrant un chauffe-eau solaire assurant 60% du besoin grâce au soleil, et utilisant une pompe à chaleur qui compense le coefficient de conversion (COP annuel de 2,58) dispose d'une marge confortable par rapport à ce plafond de 5 kg/m2/an.

Maison individuelle avec chauffe-eau solaire et pompe à chaleur

USAGES

Energie primaire

(kWh/m2/an)

Energie finale

(kWh/m2/an)

Contenu CO2

(g/kWh)

Emission

(g/m2/an)

Eau chaude

25

10

70

700

Chauffage

15

15

180

2700

Ecl. & ventil.

10

4

70

280

TOTAL

50

-

-

3680

Vos rapporteurs préconisent donc la fixation d'un plafond d'émission de gaz carbonique de 5 kilogrammes par mètre carré et par an, sous deux conditions :

1°) appliquer à ce plafond toutes les modulations prévues pour la norme des 50 kWh, notamment en fonction du climat, de la taille, de la destination;

2°) exclure du comptage des émissions toutes celles qui proviennent d'énergies renouvelables, ce qui concerne particulièrement le bois, et le biogaz, seul ou en mélange éventuel dans le gaz naturel. Le plafond devient ainsi un dispositif incitatif au développement du biogaz.

9. Un cadre clair pour des choix optimisés

En proposant d'imposer un plafond global annuel d’émission de CO2, vos rapporteurs visent à la définition d'un cadre équilibré, optimisé pour la lutte contre le changement climatique, et laissant aux agents économiques la possibilité de faire les meilleurs choix d'investissement en fonction des contraintes locales.

Les rapporteurs s’inscrivent en faux contre la démarche visant à introduire une prise en compte des émissions marginales de CO2 pour le pilotage des investissements en équipements de chauffage, préconisant que les études à venir s’efforcent à l’inverse de mesurer les émissions moyennes marginales impliquées par ces choix d’investissements.

Ils considèrent que la création d’un observatoire dédié à l’étude du contenu marginal en CO2 constituerait une mauvaise utilisation des ressources publiques compte tenu des autres priorités dictées par la mise en oeuvre de la nouvelle réglementation thermique, notamment en termes d’information préalable et de contrôle, qui vont nécessiter des initiatives plus urgentes.

En revanche, ils considèrent que la programmation pluriannuelle des investissements de production (PPI), qui conduit à faire un bilan de l’ensemble des moyens de production de l’électricité, doit mettre à jour les calculs du contenu en gaz carbonique du kWh consommé, en opérant une distinction par usage, et en explicitant les valeurs « moyennes » et « marginales », afin notamment de rendre disponibles toutes les données nécessaires pour une évaluation en valeurs « moyennes marginales ». En vertu de l’article 6 de la loi du 10 février 2000 (dite « Bataille »), la PPI doit faire l’objet d’un rapport présenté au Parlement par le ministre chargé de l’énergie dans l’année suivant tout renouvellement de l’Assemblée nationale, c'est-à-dire tous les cinq ans.

La mise en place d’un cadre réglementaire exigeant au regard des émissions de CO2 est compatible, dans le contexte économique modifié par le marché des quotas d’émission et par la taxe sur le carbone, avec l’organisation d’une incitation forte à la diffusion du progrès technologique, préoccupation absolument essentielle, qui doit figurer au cœur de la mise en œuvre de la nouvelle réglementation thermique, en ce qui concerne tant l’isolation préalable des bâtiments, que l’efficacité énergétique des équipements.

CONCLUSION

Vos rapporteurs ont été saisis d'un dossier suscitant de fortes polémiques : ils se sont attachés, en utilisant les méthodes d'investigations habituelles de l'OPECST, à base d'auditions, de visites sur site en France, de déplacements dans les pays disposant d'une expérience intéressante, d'élargir leurs perspectives pour mieux saisir le sens des enjeux en cause.

C'est la raison pour laquelle, partant d'une question assez ciblée sur la modulation de la norme thermique en vigueur à partir de 2011 dans le secteur tertiaire, et 2013 dans le secteur résidentiel, ils ont été amenés à revisiter l'ensemble du processus d'introduction, puis de déploiement, de la construction à basse consommation.

Les recommandations de vos rapporteurs sont nourries de la conviction que ce processus est profondément souhaitable, et parfaitement réalisable sous réserve d'un immense effort collectif, que l'administration de l'Équipement devra accompagner jusque sur le terrain.

Elles sont tournées vers l'avenir, et s'organisent autour de deux préoccupations fondamentales :

Ø d'abord, tout le processus doit contribuer véritablement à la lutte contre l'effet de serre, ce qui justifie la fixation d'un plafond d'émission de CO2, et la préconisation, pour le secteur tertiaire, d'une démarche axée sur la performance mesurée;

Ø ensuite, tout cet effort collectif constitue une formidable occasion de stimuler le progrès technologique, et la communauté professionnelle du bâtiment devrait pouvoir se féliciter, d'ici quelques années, de ce que sa forte mobilisation, tout au long de la filière, se traduise par la diffusion de ses produits et de ses procédés en Europe et dans le monde.

L'ambition de ce rapport est de demeurer le plus longtemps possible une référence pour ces deux objectifs essentiels.

RECOMMANDATIONS

A. LA MODULATION DE LA NORME THERMIQUE

1. Le coefficient de conversion d'énergie finale en énergie primaire de l'électricité n'a pas à être modifié.

2. La réglementation doit fixer un plafond d’émission de gaz carbonique de 5 kg par mètre carré et par an. Ce plafond est modulé suivant les mêmes règles que celui relatif à l’énergie primaire. Il ne concerne pas les émissions de CO2 dues aux énergies renouvelables.

3. La production d’énergie ne doit pas être comptée, par la réglementation, en déduction de la consommation d’énergie, si elle n’est pas consommée sur place.

4. La modulation selon la localisation et l’altitude doit se conformer à celle prévue par le label « Effinergie », sous réserve de deux ajustements à trouver autour de La Rochelle et en Alsace.

5. Par mesure de précaution contre le réchauffement climatique et les canicules, il convient d’imposer que toute construction nouvelle destinée à être occupée en période d’été possède un dispositif de réfrigération active.

6. La réglementation devra intégrer une modulation en fonction de la surface pour les bâtiments résidentiels, selon la formule préconisée par le rapport. Dans les immeubles collectifs, la formule s’applique à la surface moyenne des appartements pour définir la performance requise de perméabilité et d’isolation du bâti, avant de s’appliquer à chaque appartement.

7. Tout logement individuel nouvellement construit doit comporter un dispositif autonome pour le suivi de la consommation énergétique des équipements destinés au chauffage de l’air et de l’eau, à la ventilation et à la réfrigération. Les consignes de bonne utilisation doivent figurer dans un manuel fourni à la livraison du bâtiment.

8. L'obligation d'une consommation maximale d'énergie primaire dans les bâtiments tertiaires et publics à partir de 2011 doit s'entendre comme imposant une isolation et une ventilation équivalentes à celles qui permettraient de respecter cette contrainte dans tous les volumes fermés de ces bâtiments, s’ils étaient utilisés pour un usage d’habitation.

9. La consommation effective d’énergie primaire dans les bâtiments publics et tertiaires devra faire l'objet d'une surveillance régulière grâce à l'installation, au cours de la construction, d'un minimum de dispositifs de mesure. Chaque bâtiment devra avoir son « gestionnaire de l’énergie », consulté sur l’impact en matière d'économie d’énergie de tout aménagement des conditions de production ou de travail.

10. L’administration de l'Équipement devra animer le réseau des « gestionnaires de l’énergie » afin de favoriser la diffusion des bonnes pratiques de l’amélioration de la performance énergétique « mesurée » des bâtiments.

B. LA MISE EN œUVRE DE LA NOUVELLE RÉGLEMENTATION

11. Une réflexion doit être engagée pour évaluer la manière d’exploiter au mieux les souplesses possibles dans les règles d’urbanisme et les règles des marchés publics en vue de favoriser le déploiement de la construction à basse consommation d’énergie.

12. L'effort de formation des professionnels du bâtiment sur les conditions de l'efficacité énergétique doit être poursuivi et amplifié, l’Éducation nationale devant apporter une active contribution à la formation initiale.

13. Les métiers des bâtiments doivent viser, au delà des initiatives déjà engagées, à mettre en place un système lisible de « double certification », au niveau des entreprises et au niveau des personnes.

14. Le réseau des « Espaces Info Energie » doit bénéficier d’un soutien visant à renforcer son maillage pour assurer une meilleure couverture du territoire.

15. Une réflexion doit être conduite sur l’abaissement du plafond de la dérogation de l'obligation du recours à l'architecte, en prenant en compte la nécessité d’une mise en cohérence avec le plafond de l'obligation de déclaration de travaux.

16. La profession des architectes doit être replacée sous la tutelle du ministère en charge de la construction, une double tutelle conjointe avec celle du ministère de la culture étant assurée pour les activités architecturales directement liées à la préservation du patrimoine.

17. L'administration de l’Équipement doit réactiver les compétences à sa disposition pour s’engager dans une action d’accompagnement, sur le terrain, des maîtres d’ouvrage réalisant une construction de bâtiments à basse consommation.

18. La réglementation doit prévoir l’obligation d’un contrôle de la perméabilité et de l’isolation des espaces fermés du bâtiment, à sa livraison par le maître d’œuvre.

19. Une réflexion doit être conduite sur la mise en place d’une sanction pénale en cas de refus du maître d’œuvre de prendre à sa charge les défauts de perméabilité et d’isolation à la livraison.

20. Une négociation doit être engagée avec les banques afin de mettre au point un mécanisme permettant l’octroi de prêts au logement plus importants, en considération de la capacité de remboursement supérieure qu’autorise une facture d’énergie plus réduite. Le dispositif doit prévoir un soutien des ménages concernés pour le contrôle de la bonne fin des travaux.

C. LES PARAMÈTRES DU CALCUL RÉGLEMENTAIRE

21. A l'occasion de toute nouvelle programmation pluriannuelle des investissements de production d’électricité prévue par l’article 6 de la loi du 8 févier 2000 relative à la modernisation et au développement du service public de l’électricité, un nouveau calcul de coefficient de conversion de l’électricité finale en énergie primaire doit être effectué, selon la méthode des ratios de conversion pondérés illustrée par le rapport, pour prendre en compte les progrès de la part de l’électricité obtenue à partir des énergies renouvelables dans la consommation nationale d'électricité. Si le résultat est inférieur au coefficient de conversion en cours, il doit être arrêté comme la nouvelle valeur du coefficient de conversion

22. Toute nouvelle programmation pluriannuelle des investissements de production prévue par l’article 6 de la loi du 8 févier 2000 arrête également les contenus moyens et marginaux en CO2 de l’électricité liés aux différents usages, et les compare aux contenus en CO2 des énergies fossiles.

D. LES PISTES DE RECHERCHE

23. Un programme de recherche doit mobiliser l’expérience du monde industriel pour mettre au point des matériaux d’isolation plus efficaces pour des épaisseurs moindres.

24. L’État doit mobiliser en urgence des moyens spécifiques pour soutenir les progrès technologiques sur les systèmes de pompe à chaleur.

25. Les efforts de recherche permettant une meilleure connaissance des phénomènes jouant dans la qualité de l’air intérieur doivent être accentués.

26. Une étude doit être engagée pour évaluer les conditions dans lesquelles la chaleur évacuée par les centrales thermiques pourrait alimenter des systèmes de chauffage urbain.

27. Quelques plates-formes technologiques regroupant tous les acteurs publics et privés intéressés doivent être mises en place pour fédérer les efforts en matière de formation, de capacité de démonstration, de recherche et développement, de création d’entreprises.

EXAMEN DU RAPPORT PAR L’OFFICE

2 décembre 2009

M. Claude Birraux, député, rapporteur, Président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), a rappelé que l'étude résultait de l'article 4 de la loi de mise en oeuvre du Grenelle de l'environnement, qui a fixé une norme pour la performance énergétique des bâtiments à 50 kWh par mètre carré et par an en énergie primaire. A la suite d’un amendement initialement proposé par M. Bruno Sido, sénateur, rapporteur de la commission de l’économie au Sénat, et complété par MM. Marcel Deneux et Daniel Raoul, sénateurs, tous trois membres de l’OPECST, ce même article a confié à l'OPECST la mission d’étudier les conditions de modulation de cette norme, afin notamment d'encourager la diminution des émissions de gaz à effet de serre.

M. Claude Birraux, député, rapporteur, Président, a expliqué que M. Christian Bataille et lui-même, désignés pour cette mission, ont suivi les méthodes de travail de l'OPECST, qui permettent de prendre un certain recul par rapport à des questions faisant débat. Ils ont engagé une large réflexion sur les conditions de la construction des bâtiments à basse consommation (BBC), qui les a conduits en divers points de France, mais aussi en Suisse, en Allemagne et en Angleterre. Au total, en quatre mois de travail intense, ils ont conduit une quarantaine d'auditions.

Les recommandations finales sont dominées par deux préoccupations : d'une part, la nécessité de profiter de l’obligation d’une forte baisse de la consommation d'énergie dans les bâtiments pour faire progresser l'offre technologique ; d'autre part, la réduction des émissions de gaz à effet de serre.

M. Claude Birraux, député, rapporteur, Président, a souligné que les progrès de l’offre technologique avaient pour principal enjeu d'ouvrir des marchés à l'exportation. Cela justifie de ne pas modifier le coefficient de conversion de l'électricité en énergie primaire. En effet, ce coefficient de 2,58 est certes un handicap pour les équipements électriques classiques, mais aussi un stimulant fort pour le développement technique et industriel des pompes à chaleur. Il a indiqué qu’il fallait faire attention aux mesures transitoires en faveur des technologies obsolètes, qui risquaient de ne déboucher en fait que sur d’autres mesures transitoires, et pour finir, par donner le temps à des industriels étrangers de venir conquérir le marché français avec des technologies avancées.

M. Claude Birraux, député, rapporteur, Président, a expliqué aussi que deux autres types de modulation devaient être refusés : premièrement, la réduction temporaire du nombre d’usages pris en compte parmi les cinq déjà couverts par la réglementation actuelle : chauffage, eau chaude, ventilation, climatisation, éclairage; deuxièmement, la possibilité de compter en déduction l’énergie produite par le bâtiment, s’agissant en particulier de l’électricité photovoltaïque reversée au réseau.

M. Christian Bataille, député, rapporteur, a indiqué que la priorité absolue de réduction des émissions de gaz à effet de serre a conduit les rapporteurs à proposer de compléter la contrainte de 50 kWh par mètre carré et par an en énergie primaire par une contrainte de 5 kg par mètre carré et par an en émission de CO2 cette double contrainte étant équivalente à une obligation de recours aux énergies renouvelables. La fixation d’un plafond d’émission de CO2 est une mesure permise par l’article 3 de la directive 2002/91/CE.

Il a par ailleurs confirmé la pertinence des modulations en fonction de la zone climatique ou de l’altitude déjà proposées par l’association « Effinergie », qui joue un rôle précurseur dans la construction à basse consommation. Par mesure de précaution contre les canicules, dont le risque devient plus grand avec le changement climatique, il a mentionné l’intérêt d’établir l'obligation d'un système de climatisation active dans les bâtiments destinés à être occupés en été.

Il a évoqué les contraintes particulières subies, en matière de chauffage et de ventilation, par les petits logements pour justifier une équation de modulation en fonction de la surface du bâtiment, qui impose aux grandes surfaces des restrictions plus fortes afin d'assouplir la contrainte sur les petites surfaces, tout en préservant le respect de la norme en moyenne, ainsi que le prévoit la loi.

S’agissant des bâtiments tertiaires (magasins, hangars, bureaux, hôpitaux), M. Claude Birraux, député, rapporteur, Président, a expliqué que la future réglementation devrait s’appliquer à eux en performance réelle mesurée, et non pas seulement par simple conformité à un calcul réglementaire, lequel conserverait néanmoins son intérêt en tant que calcul préalable de conception. Un processus d’échange des «bonnes pratiques» entre les gestionnaires de l’énergie des bâtiments de catégories similaires devra permettre de converger vers la performance cible, si celle-ci, comme ce sera probable dans nombre de cas, est véritablement hors de portée au stade de la construction. La performance réelle mesurée doit prendre en compte l’apport d’une gestion optimisée des appels d’énergie, dite gestion active de l’énergie, dont le projet d’envergure européenne Homes, piloté par Schneider, a montré qu’il pouvait permettre un gain complémentaire du même ordre de grandeur que celui obtenu par l’isolation du bâti.

Soucieux de la bonne mise en oeuvre de la nouvelle réglementation, les deux rapporteurs ont appelé à une vérification systématique de l'étanchéité à l'air des espaces fermés à la livraison d’une construction, et à une double certification, des entreprises et des personnes, pour les professionnels du bâtiment. Ils ont suggéré divers mécanismes renforçant la position des particuliers maîtres d’ouvrage vis-à-vis de leur maître d’oeuvre, afin qu’ils puissent obtenir effectivement de celui-ci une bonne finition des travaux garantissant la performance prévue par la nouvelle réglementation.

Ils ont signalé enfin la nécessité pour l'administration de l'équipement de se mobiliser fortement sur le terrain pour accompagner le déploiement de la construction à basse consommation, qui va devenir désormais la norme.

M. Claude Gatignol, député, a dit son étonnement et sa satisfaction devant la capacité des rapporteurs à s’extraire d’une question étroite pour en saisir plus largement les enjeux. Il a confirmé la pertinence d’une modulation en fonction des situations climatiques, soulignant que les villes de Cherbourg, dans la Manche, et d’Aurillac, dans le Cantal, sont souvent les points les plus froids de France. Il a observé qu’une isolation très poussée des constructions rendait nécessaire de porter un soin particulier à la ventilation, et à l’étude de la qualité de l’air intérieur. Il s’est interrogé sur le risque que les contraintes de géométrie qui s’attachent à la recherche d’une minimisation des déperditions de chaleur conduisent à multiplier des bâtiments d’aspect massif, peu esthétique. Il a demandé si les rapporteurs avaient examiné les conditions de l’équilibre économique du développement des réseaux de chaleur. Il s’est félicité enfin que le rapport confirme que l’électricité fait partie des énergies peu carbonées.

A propos de la modulation climatique, M. Claude Birraux, député, rapporteur, Président, a observé que le point le plus froid de France est la ville de Mouthe dans le Haut-Jura (moins 40°C en 1985). Il a indiqué que la carte de modulation climatique proposée par l’association « Effinergie » a fait l’objet d’un consensus parmi toutes les personnes auditionnées. M. Christian Bataille, député, rapporteur, a ajouté que la transition entre les zones climatiques limitrophes ainsi identifiées demeurait relativement progressive.

S’agissant du renouvellement de l’air, M. Claude Birraux, député, rapporteur, Président, a indiqué que les constructions très isolées ne se concevaient pas sans un système de ventilation double flux, qui aspire l’air frais extérieur, et parallèlement, expulse l’air vicié intérieur. Au passage, un échangeur permet de récupérer les calories de l’air sortant pour réchauffer l’air entrant. Dans le quartier BedZed de Londres, ce système est mû par la force mécanique du vent combinée avec la convection naturelle, grâce à un dispositif de haute cheminée pivotante, transposé des techniques de séchage des grains utilisées par les brasseries du Kent. M. Christian Bataille, député, rapporteur, a ajouté que les systèmes de ventilation à double flux procuraient un air sain et décontaminé, mais qu’il fallait apprendre, pour en profiter, à n’ouvrir les fenêtres qu’à bon escient.

S’agissant de l’aspect d’un bâtiment à basse consommation, les deux rapporteurs ont assuré que leurs visites, notamment celle du lotissement des Hauts de Feuilly à Saint-Priest, leur ont permis de constater que des maisons passives pouvaient être parfaitement agréables à vivre.

M. Claude Birraux, député, rapporteur, Président, a beaucoup insisté sur le travail initial de conception globale que suppose la performance énergétique des bâtiments.

M. Christian Bataille, député, rapporteur, a indiqué qu’il lui restait une interrogation au terme de cette étude sur la construction à basse consommation ; elle concerne la durabilité des bâtiments concernés, sachant que les maisons construites au dix-neuvième siècle ont prouvé leur capacité à résister au temps.

En ce qui concerne les réseaux de chaleur, M. Claude Birraux, député, rapporteur, Président, a indiqué que le rapport soulignait leur intérêt, et mettait en valeur la contribution potentielle de la récupération de la chaleur dissipée par les centrales thermiques. La faisabilité économique nécessite néanmoins des études plus approfondies.

M. Jean-Claude Etienne, sénateur, Premier vice-président de l’OPECST, s’est félicité qu’un sujet d’étude apparemment si pointu ait pu prendre appui sur une analyse d’ensemble du dispositif de construction à basse consommation. Il a approuvé la volonté de créer des conditions accélérant le développement du recours aux énergies renouvelables et à la biomasse, notamment en maintenant inchangé le coefficient de conversion de l’électricité consommée en énergie primaire. Se référant à l’expérience acquise auprès d’un membre de sa famille spécialiste des séjours près des pôles, il a confirmé la pertinence des analyses se référant aux caractéristiques géométriques d’un bâtiment pour minimiser ses déperditions de chaleur, en mentionnant le savoir empirique développé à ce propos par les esquimaux, à travers la construction des igloos ; ceux-ci ont une forme sphérique qui maximise l’espace intérieur en minimisant la surface d’échanges extérieurs. En outre, la glace réfléchit l’énergie radiante intérieure. Enfin, M. Jean-Claude Etienne s’est déclaré tout à fait favorable à l’idée des plates-formes technologiques, et a souhaité connaître les axes de recherche poursuivis.

M. Claude Birraux, député, rapporteur, Président, a signalé qu’on lui avait rapporté qu’un igloo permettait une telle protection que, même s’il y faisait en réalité une température inférieure à zéro degré, les personnes qui viennent de l’extérieur, dans le blizzard, à une température de – 50°C, éprouvent une brusque sensation de chaleur en y entrant. S’agissant des plates-formes technologiques, l’idée défendue initialement par l’Académie des technologies dans son rapport de 2008 sur « L’efficacité énergétique des bâtiments » consiste à reproduire sur d’autres axes de recherche, comme les réseaux de chaleur, la construction en bois, le regroupement d’acteurs universitaires, scientifiques et industriels que l’Institut de l’énergie solaire (INES) a réussi à opérer, à des fins de formation et d’innovation, sur le technopôle « Technolac » d’Aix-les-Bains – Chambéry.

A la suite de cet échange, les recommandations proposées par les rapporteurs ont été adoptées et la publication du rapport a été autorisée.

COMPOSITION DU COMITÉ D’EXPERTS

Pour les accompagner dans leurs analyses et réflexions, vos rapporteurs se sont appuyés sur un comité de spécialistes venant de divers horizons, disposant d’une compétence et d’une expérience soit dans les questions de l’énergie, soit dans les questions de la construction :

M. Pierre René Bauquis, Professeur à l’Ecole du pétrole et des moteurs

M. Jean Carassus, Professeur à l’Ecole des Ponts - ParisTech

M. Claude Crampes, Professeur d’économie à l’Université de Toulouse

M. Yves Farge, Président du comité d’animation stratégique du PREBAT

M. Jean-Paul Fideli, Secrétaire permanent adjoint du PREBAT

M. Michel Frybourg, Membre de l'Académie des technologies

M. Jean-Paul Langlois, Président de l’Institut pour la maîtrise des risques

M. Alain Mongon, Membre de l'Académie des technologies

M. Christian Ngô, Président du cabinet Edmonium Conseil

M. François Perdrizet, Président du comité des signataires du PREBAT

Les membres de ce comité ont été invités à participer aux auditions, et à certaines visites. Une courte biographie présente ci-après chacun d’eux. Vos rapporteurs tiennent à les remercier tous pour leur disponibilité et la qualité de leurs apports.

Mais, comme cela a été précisé en introduction, si le comité d’experts a fourni une aide utile pour la conduite de l’étude, vos rapporteurs assument seuls, et pleinement, la responsabilité des conclusions du rapport.

Pierre-René BAUQUIS

Né en 1941, Pierre-René Bauquis est diplômé de l'Ecole Nationale Supérieure de Géologie (Nancy 1964) et de l’Ecole Nationale Supérieure du Pétrole et des Moteurs (1966) en section Economie et Gestion. Après cinq années passées à l'IFP (Institut Français du Pétrole) comme ingénieur économiste et comme enseignant, il a travaillé trente années dans le groupe TOTAL. Outre vingt années de responsabilités dans le domaine du gaz naturel, Pierre-René Bauquis a été successivement directeur Mer du Nord (1989-1992), directeur Stratégie et Planification du groupe (1992-1994), puis directeur Gaz, Electricité et Charbon (1994-1995). Il a passé les dernières années de sa carrière (de 1995 à fin 2001) comme conseiller auprès du Président du groupe TOTAL, Thierry Desmarest.

En retraite depuis janvier 2002, il est, depuis cette date, professeur associé à l’ENSPM, et professeur auprès de l'association TOTAL Professeurs Associés ; depuis janvier 2004, il est expert auprès de la commission Energie-Environnement de l’Académie des Technologies. Il enseigne l’économie énergétique dans de nombreuses écoles et universités en France et à l’étranger (Algérie, Chine, Indonésie, Russie, etc …)

Il est en outre membre de plusieurs conseils d'administration (Fondation TOTAL, Aluxia Fund, Climate and Energy Fund, OSEAD), ainsi que de nombreuses associations professionnelles ou scientifiques.

Il est l’auteur de plus de cinquante articles sur l'économie du pétrole, du gaz et de l'énergie. Il est co-auteur de deux livres sur l’économie des hydrocarbures, d’un livre sur l’énergie nucléaire, d’un livre sur les géosciences, et d’un livre sur les ondes.

Jean CARASSUS

Né en 1948, Jean Carassus, diplômé de HEC et docteur de 3ème cycle en économie, a un long parcours professionnel entièrement consacré au secteur de la construction et de l’immobilier.

Il a commencé sa carrière au sein du secteur public, dans le service des affaires économiques et internationales du ministère de l’Equipement, puis la direction de la construction du même ministère, où il a été notamment chef du bureau de l’économie de la construction.

Il a ensuite assuré la gérance d’un important parc de logements sociaux, chez un promoteur et bailleur privé, « Logement Français », filiale du groupe AXA.

Puis il a été nommé directeur du département « Economie et sciences humaines » du Centre scientifique et technique du bâtiment (CSTB), où il a d’abord mené des travaux sur le système sectoriel de la construction, avant de se spécialiser dans le bâtiment et l’immobilier à haute performance énergétique et environnementale. A ce titre, il a dirigé, dans le cadre du PREBAT32, la réalisation de l’étude « Comparaison internationale : Bâtiment et énergie », publiée en décembre 2007, qui a mobilisé pendant deux ans plus de cinquante ingénieurs, économistes et sociologues de douze pays différents.

M. Jean Carassus est aujourd’hui consultant, spécialisé dans le bâtiment et l’immobilier durables, et professeur à l’Ecole des Ponts ParisTech, responsable du cours « Economie et gestion de la construction ». Au sein du Conseil international du bâtiment (CIB), il coordonne le groupe de travail « Energie et environnement construit ».

Il est l’auteur de plusieurs ouvrages sur la socio-économie du secteur du bâtiment, dont : « Economie de la filière construction » (1987), « Construction : la mutation, de l’ouvrage au service » (2002), et en collaboration : « Partenariat Public Privé et bâtiment en Europe : quels enseignements pour la France ? » (2005).

Claude CRAMPES

Né en 1948, Claude Crampes, titulaire d’un doctorat en science économique, est actuellement professeur à l’Ecole d'Economie de Toulouse et directeur de recherche à l'Institut d'Economie Industrielle (Université Toulouse 1 Capitole). Cet Institut se donne comme objectif de mettre à la disposition des décideurs privés et publics les outils les plus pertinents de la recherche économique dans de nombreux secteurs, dont l’énergie.

Les publications de Claude Crampes, très nombreuses, sont consacrées, pour une partie, à l’économie des droits de propriété intellectuelle (brevets, marques de commerce, droits d'auteur, etc.) et pour une autre partie, à l’analyse des industries du gaz et de l'électricité, marchés de l’énergie, marchés de capacités et réseaux de transport et distribution. Il rédige aussi des chroniques événementielles touchant à ces questions dans des magazines.

Il a travaillé comme consultant pour l’ancien Commissariat du Plan, ainsi que pour la Banque mondiale, et a été membre du Comité national de la recherche scientifique.

Yves FARGE

Physicien né en 1939, Yves Farge a été le premier directeur du laboratoire LURE à Orsay, laboratoire français de rayonnement synchrotron ; il a dirigé le groupe de travail européen qui a conçu le projet de synchrotron européen ESRF, en fonctionnement aujourd’hui à Grenoble.

Il a créé et dirigé la Mission scientifique et technique au ministère de la Recherche, avant de devenir directeur de la recherche et du développement du groupe Pechiney de 1984 à 1998. Il fut ensuite conseiller de Catherine Bréchignac, directrice générale du CNRS de 1998 à 2000, puis consultant.

Il a joué un rôle significatif dans la création, à Marne la Vallée, de l’Université et du Polytechnicum, qui regroupent quinze établissements d’enseignement supérieur et de recherche.

De 1991 à 1997, il a présidé le comité d’industriels européens IRDAC, qui conseille la Commission européenne en matière de recherche et de développement technologique (European Industrial R&D Advisory Committee). Depuis trois ans, il est président du Comité « recherche et technologie » (CoRet) de la Région Centre, qui conseille l’exécutif de la région dans sa politique de R&D.

Il a présidé le Conseil scientifique de l’ADEME de 1996 à 2002, et le comité consultatif du Centre scientifique et technique du bâtiment (CSTB) de 1999 à 2008. Il est, depuis trois ans, président du Comité d'animation stratégique (COSA) du PREBAT.

Membre de l’Académie des technologies, dont il préside le Comité des travaux, il a joué un rôle important dans le groupe de travail qui a produit le rapport de l’Académie sur « L’efficacité énergétique dans les bâtiments » (2008).

Il est l’auteur d’un ouvrage en physique des solides, et d’une centaine d’articles scientifiques.

Jean Paul FIDELI

Né en 1959, Jean-Paul Fideli est Ingénieur en chef des travaux publics de l’Etat.

Au sein du ministère de l’Equipement, il a été successivement acteur de la conception des aménagements d’espaces publics, notamment des questions d’interfaces « routes et bâtiments » en milieu urbain, conseiller en gestion et management, responsable du service urbanisme de Corse-du-Sud.

Entre 1988 et 1996, il a été responsable de constructions publiques, d’abord pour le compte du ministère de l’Education nationale (extension et rénovation des Universités de Nanterre, de Cergy Pontoise..), ensuite pour celui de la Mission interministérielle des grands travaux de l’Etat (rénovation du musée des Arts et Métiers).

Au sein du MEEDDM, il est aujourd’hui Secrétaire permanent adjoint du Programme national de recherche et d’expérimentation sur l’énergie dans le bâtiment (PREBAT).

Michel FRYBOURG

Né en 1927, Michel Frybourg est Ingénieur général honoraire des Ponts et Chaussées.

Après un début de carrière en Picardie dans les services de l’équipement, il a pris en 1963 la responsabilité du Service des études et recherches sur la circulation routière.

Il a créé, et dirigé de 1968 à 1982, l’Institut de recherche sur les transports, devenu INRETS, puis enseigné après 1983 au CNAM et à l'Ecole Nationale des Ponts et Chaussées.

Il est membre fondateur de l’Académie des technologies.

Jean-Paul LANGLOIS

Né en 1948, Jean-Paul Langlois, est diplômé de l’Ecole Centrale de Paris (1971). Il débute sa carrière d’ingénieur en 1972 au CEA au sein de l'équipe d'ingénierie du projet Phénix, puis du projet Superphénix.

Toute sa carrière s’est déroulée depuis au CEA. Il a été successivement ingénieur à la Direction de la planification des programmes du CEA (1976-1979), chef du Bureau d'évaluation technico-économique des procédés (retraitement et déchets) au sein de la Direction d'études sur le retraitement, les déchets et la chimie appliquée (1980-1982), conseiller technique au Cabinet de l'administrateur général du CEA (1982-1984), conseiller technique au Cabinet du Ministre de la recherche Hubert Curien (1984-1986), adjoint au Président de l'Office de robotique et de productique (1986-1988), chef du département du Budget au sein de la Direction financière du CEA (1988-1991), adjoint au directeur des réacteurs nucléaires en charge de la gestion (1991-1997), chef d’un département d’exploitation de neuf installations nucléaires de base (1998-2003), directeur Qualité Sûreté Sécurité au sein de la Direction de l’Energie Nucléaire (2003-2007).

En mars 2007, à la demande de l’Administrateur Général du CEA, il crée l’Institut de Technico-Economie des Systèmes Energétiques. Cet institut (I Tésé), regroupe une vingtaine de chercheurs, ingénieurs et économistes pour effectuer des comparaisons multi-critères (technico-économiques, environnementaux, sociétaux) entre systèmes énergétiques depuis la source primaire jusqu’au besoin final. L’objectif est d’éclairer l’orientation des programmes du CEA en identifiant les perspectives offertes par les différentes technologies.

En juillet 2009, il est nommé président de l’Institut pour la maîtrise des risques (IMdR).

Alain MONGON

Né en 1931, Alain Mongon est diplômé de l'Ecole supérieure d'électricité.

Il a débuté sa carrière en 1957 dans le service de l’instrumentation de la division d’EDF en charge de la conception et la construction de la centrale nucléaire de Chinon. Il a ensuite travaillé, en tant que responsable de l’instrumentation chez Saint-Gobain Nucléaire (SGN), puis à Eurochemic, l’usine européenne de retraitement des combustibles nucléaires de Mol en Belgique.

De 1967 à 1983, il devient directeur des services électriques de Péchiney Saint-Gobain, puis directeur « Energie » du Groupe Rhône-Poulenc. Ensuite, jusqu’en 1992, il est directeur délégué auprès du Président de Rhône-Poulenc, chargé des relations internationales.

Il a présidé l'Union des industries utilisatrices d'énergie (UNIDEN), la Commission Energie de l'Union des industries chimiques (UIC), ainsi que d’autres organisations sectorielles de l’énergie au niveau européen et international.

En 1993, il crée la société AMISA et collabore, de 1993 à 2007, aux activités du Conseil européen des Académies de technologies, Euro-CASE.

Membre fondateur de l’Académie des technologies, il a présidé le groupe de travail qui a produit le rapport de l’Académie sur « L’efficacité énergétique dans les bâtiments » (2008). Il anime actuellement le groupe de travail « Energie et Urbanisme » qui organise dans diverses régions de France des « Ateliers » sur le thème « Vers une ville post-carbone ».

Christian NGÔ

Né en 1948, Christian Ngô est ancien élève de l’Ecole normale supérieure de Saint Cloud, agrégé de chimie et docteur ès sciences.

La première partie de sa carrière a été consacrée à la recherche fondamentale, dans le cadre de laquelle il a rédigé plus de 200 publications. Il a été successivement assistant, puis maître-assistant à la Faculté des sciences d'Orsay (1971-1978), physicien au Département de physique nucléaire de Saclay, responsable d'un groupe travaillant sur la physique des ions lourds (1978-1987) et physicien au Laboratoire national Saturne (1987-1991).

En 1991, il s’oriente vers le domaine de la recherche appliquée, ce qui l’a amené à prendre trois brevets ; il est chef du Service de physique électronique au Léti de 1992 à 1997.

En 1997, il occupe des postes plus fonctionnels en devenant adjoint du directeur de la stratégie et de l’évaluation du CEA, chargé de l’évaluation scientifique (1997-2000), secrétaire du Conseil scientifique du CEA (1997-2000), chef du Service des études économiques du CEA (1997-1998), conseiller de l’Administrateur général (2000) avant de revenir à des postes plus opérationnels : directeur scientifique de la Direction de la recherche technologique (2001-2002) puis directeur délégué à la prospective (2002-2003).

À partir de 2003, il a été directeur scientifique au Cabinet du Haut Commissaire à l’Énergie Atomique et délégué général d’ECRIN (« échange et coordination recherche-industrie »). Il a quitté le CEA en 2008 pour créer la SARL Edmonium Conseil.

Il est auteur ou coauteur de nombreux ouvrages dont : « Physique quantique » (Dunod), « Physique statistique » (Dunod), « Physique des semi-conducteurs » (Dunod), « L’énergie » (Dunod), « Déchets et pollutions » (Dunod), «Soleil » (Fayard), « Le Soleil » (Le Cavalier bleu), « Quelles énergies pour demain » (Specifique Editions), « L’hydrogène » (Omniscience), « Demain, l’énergie » (Dunod), « Our Energy Future » (Wiley) et un livre actuellement sous presse « Physique nucléaire » (Dunod).

François PERDRIZET

Né en 1941, François Perdrizet est Ingénieur général honoraire des Ponts et Chaussées.

Après l’Ecole polytechnique et l’Ecole nationale des ponts et chaussées, il a poursuivi une activité de recherche en mathématiques à l’Université Paris 6. Docteur en mathématiques, il a été professeur à l’Université de Metz de 1971 à 1974, et professeur assistant à l’Ecole polytechnique de 1971 à 1984.

Parallèlement, il a assumé, depuis 1971, différentes fonctions au sein du ministère de l’Equipement : ingénieur d’arrondissement autoroutier, responsable d’urbanisme, directeur départemental de l’Equipement.

Il a été directeur général du Port de Marseille de 1993 à 1995, directeur de l’Ecole nationale des travaux publics de l’Etat de 1995 à 2000, directeur de la recherche au ministère de l’Equipement de 2000 à 2006.

En retraite depuis octobre 2007, il remplit des missions d’animation de la recherche et de l’innovation pour le compte du MEEDDAT, puis du MEDDEM, notamment au sein du PREBAT, dont il préside le comité des signataires (COSI).

Il est l’auteur de plusieurs articles sur des sujets scientifiques, ou sur le management et la qualité.

PERSONNALITÉS ENTENDUES ET VISITES EFFECTUÉES PAR LES RAPPORTEURS

LISTE DES PERSONNES AUDITIONNÉES

20 mai 2009

• EDF

M. Bertrand Le Thiec, Directeur adjoint des Affaires publiques

M. Rodolphe Poiroux, département Réglementation thermique

M. Michel Matheu, département Contenu en CO2 du kWh

M. Olivier Hartmann, département Efficacité énergétique

4 juin 2009

• ADEME

M. Matthieu Orphelin, Directeur du Cabinet du Président

M. François Moisan, Directeur de la recherche

11 juin 2009

• Association « Energies et Avenir »,

M. Hervé Thelinge, Président

M. Patrice Hennig, GDF-Suez, Chef de projet

M. Jean-Yves Moreau, Cabinet Cohn & Wolfe

• Association Promotelec

M. Claude Monmejean, Président

M. Pierre-Louis François, Président du groupe Atlantic

M. Benjamin Ferniot, Cabinet Tilder, Directeur Associé

M. Hugues d'Antin, Cabinet Tilder, Consultant

• Centre Scientifique et Technique du Bâtiment

M. Bernard Delcampes, Président

M. Jean-Christophe Visier, Directeur du département Energie

18 juin 2009

• GDF-Suez

M. Henri Ducre, Directeur de la Branche Energie France

M. Eric Heitz, direction des Relations institutionnelles

Mme Valérie Alain, direction des Relations institutionnelles

M. Anthony Mazzenga, Chef de projet Prospective bâtiments

M. Patrick Arnaud, Responsable de la mission Efficacité énergétique

• Cabinet « Bastide Bondoux »

M. Jacques Bondoux

M. Thomas Villard

• Association « Effinergie »

Mme Catherine Bonduau, Directrice

M. Jean-Claude Coiffard, Trésorier

25 juin 2009

• M. Jean Carassus, Professeur à l’Ecole des Ponts ParisTech

• Association française du gaz

M. Daniel Paccoud, Délégué général

M. Long Lu, Chef du service des Affaires publiques

• Société « Interpipe »

M. Philippe Marchal

M. Christian Geertsen

2 juillet 2009

• La Poste

M. Dominique François, direction du Développement durable

M. François Duretz, Foncière PosteImmo

Mme Elisa Vall, Chargée des relations institutionnelles

• Association « Amorces »

M. Emmanuel Goy, Adjoint au Délégué général

• Direction de l'habitat, de l'urbanisme et des paysages

M. Etienne Crepon, Directeur

M. Jean-Pierre Bardy, Sous-directeur

7 juillet 2009

• Fédération des services énergie environnement (anciennement FG3E)

M. François Dupoux, Président

M. Jean-Claude Boncorps, Vice Président

M. Patrick De Beaurepaire, Délégué général

8 juillet 2009

• MEDDEM

M. Richard Lavergne, Chargé de mission pour la stratégie « Energie Climat »

9 juillet 2009

• LEPTIAB (Université de La Rochelle)

M. Francis Allard, Directeur

15 juillet 2009

• Groupe « ALDES »

M. Bruno Lacroix, Président directeur général

M. Damien Labaume, Ingénieur de recherche

• Saint-Gobain

M. Didier Roux, Directeur de la recherche

16 juillet 2009

• Confédération de l’artisanat et des petites entreprises du bâtiment (CAPEB)

M. Jean-Marie Carton, vice Président,

M. Dominique Proux, Chargé des relations publiques

• Association des industries des produits de construction (AIMCC)

M. Jean Marie Vaissaire, Président

17 septembre 2009

• Centre Energétique Ecole des mines de Paris

M. Denis Clodic, Directeur adjoint

• Comité de liaison des énergies renouvelables (CLER)

M. Gilles Lara, Président

M. Yannick Régnier, Chargé de projets

M. Olivier Sidler, Cabinet Enertech

30 septembre 2009

• Fédération française du bâtiment (FFB)

M. Philippe Lansard, Entrepreneur en bâtiment

M. Roland Fauconnier, Ingénieur

Mme Klervi Le Lez, Chargée des relations avec le Parlement

15 octobre 2009

• M. Alain Liebard, Architecte, Président de l’Observatoire des énergies renouvelables

20 octobre 2009

• Groupe « GEOXIA »

M. Gérard Le Flohic, Directeur général Maison individuelle

M. François Rachlin, Directeur du Pôle Technologie

29 octobre 2009

• Union française de l’électricité (UFE)

M. Robert Durdilly, Président

M. Nicolas Bouley, Délégué général

4 novembre 2009

• Fédération Française des Sociétés d'Assurances

Mme Annie Boudon, Responsable d'études

M. Alain Toublanc, AXA - département Construction

M. Hervé Leblanc, SMABTP - Responsable technique

M.Emmanuel David, Allianz - département Construction

5 novembre 2009

• M. Yorrik Mahé, Architecte

• Groupe « Windsor »

M. Jean-François Casagrande, Responsable du site Minergie de Cormeilles en Parisis

18 novembre 2009

• Groupe « Bouygues Immobilier »

M. Eric Mazoyer, Directeur général

COMPTES RENDUS DES AUDITIONS

(Sélection)

AUDITION DU CENTRE SCIENTIFIQUE ET TECHNIQUE DU BÂTIMENT
11 JUIN 2009

La présentation de M. Jean-Christophe Visier a permis tout d’abord de mieux connaître les analyses ayant abouti à la norme des 50 kWh prévue par le projet de loi « Grenelle 1 », qui s’interprête comme une généralisation du label BBC (bâtiments basse consommation). Il est ressorti plusieurs éléments clefs de ses explications:

- s’agissant des bâtiments tertiaires, le label BBC a prévu une diminution de 50% par rapport aux exigences imposées dans le cadre de la RT 2005. C’est donc par une extension simplificatrice que cette diminution de 50% s’est transformée au niveau du projet de loi « Grenelle 1 » en alignement sur la norme des 50 kWh. Cela justifierait de redonner au secteur des bâtiments tertiaires, dans le cadre de la « modulation », tous les ajustements déjà prévus dans la RT 2005, car ceux-ci sont nécessaires, en raison de la disparité des situations couvertes par cette catégorie; par exemple, un hôpital a des besoins d’eau chaude sanitaire très importants alors qu’un entrepôt n’en a pratiquement aucun; une école ou un bureau consomme moins de chauffage par unité de surface qu’un hôpital, car celui-ci fonctionne même le week-end ;

- s’agissant des logements, les concepteurs du label BBC avaient identifié le besoin de moduler la norme des 50 kWh en fonction de la densité d’occupation, de manière à prendre en compte l’augmentation de la consommation d’eau chaude, lorsque le nombre des occupants croît, alors que la quantité d’énergie nécessaire au chauffage ne dépend, pour l’essentiel, que de la taille du bâtiment. Le besoin de ventilation varie d’ailleurs lui aussi en fonction du nombre des occupants, puisque c’est le volume d’air effectivement respiré qu’il faut renouveler. C’est un choix politique de simplification qui a conduit à écarter toute modulation en fonction du nombre d’occupants, ce qui a pour effet d’accroître le surcoût de construction des logements de petite surface, qui correspondent le plus souvent à des habitations de familles modestes, utilisant l’espace de manière plus dense; les primo-accédants, qui occupent plutôt des petits logements, se trouvent ainsi plus spécifiquement pénalisés. Le biais défavorable aux petites surfaces fait l’objet d’une correction dans la réglementation au Danemark ;

- c’est bien l’anticipation que les systèmes électriques par pompe à chaleur arrivent à des performances similaires, en énergie primaire, aux solutions à énergie fossile (gaz principalement), qui a conduit à unifier la norme pour toutes les sources d’énergie;

- l’octroi d’un coefficient de conversion avantageux pour le bois (0,6) correspond à une transposition au niveau énergétique d’une volonté de valoriser la faible contribution de cette source d’énergie renouvelable à l’effet de serre; mais l’avantage ainsi conçu est excessif et mal adapté, car il encourage une utilisation peu écologique et peu efficace de cette énergie. Mieux vaudrait encourager le chauffage au bois en l’associant à un quota d’énergie supplémentaire par rapport aux 50 kWh.

M. Jean-Christophe Visier a observé au passage que le développement de l’électricité dans les systèmes de chauffage avait incité à des progrès dans l’isolation, dans la mesure où celle-ci se combine bien avec un système de chauffage bas de gamme de l’air, bénéficiant néanmoins d’une certaine souplesse d’emploi.

Il a fourni des arguments à l’encontre de deux approches de la « modulation » qui ont été précédemment suggérées aux rapporteurs:

- la réduction transitoire de l’application de la norme à trois usages irait d’abord à l’encontre du processus historique par lequel la réglementation thermique englobe de plus en plus d’usages afin de mieux tenir compte de leur interdépendance : typiquement, une ventilation peut servir de support à un système de chauffage. En outre, une limitation des contraintes à trois usages parmi les cinq retenus aujourd’hui (chauffage, eau chaude, éclairage, ventilation, climatisation) ne correspondrait plus au choix d’unifier le régime des logements et des bâtiments tertiaires, car ceux-ci notamment consomment beaucoup plus de climatisation et d’éclairage que d’eau chaude, à l’inverse des logements. Enfin, la France dispose d’une position industrielle avantageuse dans le domaine de la ventilation hygro-réglable, très économe en énergie de ventilation puisqu’elle ne se déclenche qu’en présence des occupants ; or , cette position avantageuse pourrait se trouver remise en cause par une focalisation de la contrainte de consommation sur le chauffage, car le système concurrent de la ventilation double flux consomme justement peu d’énergie pour le chauffage, et beaucoup pour la ventilation ;

- la fixation d’un coefficient de conversion plus favorable pour l’énergie utilisée par les systèmes de chauffage de l’eau par accumulation conduirait, s’il s’agissait d’une modification durable, à freiner l’effort d’innovation technologique dans ce domaine, alors qu’il existe une demande mondiale pour les systèmes de pompe à chaleur air-eau, dès que ceux-ci auront atteint une performance satisfaisante.

En revanche, M. Jean-Christophe Visier a retenu l’idée d’affiner (à défaut d’accentuer) la différentiation climatique dans la mise en œuvre de la norme entre les différentes zones du territoire.

S’agissant de la prise en compte des émissions de gaz à effet de serre, M. Jean-Christophe Visier s’est borné à constater le débat sur les quantifications marginales ou moyennes des émissions de l’électricité pour ce qui concerne le chauffage, mais a très clairement mentionné que le recours à l’électricité pour le chauffage de l’eau respectait mieux l’objectif de limitation des émissions de gaz à effet de serre.

Il a analysé la piste d’un calage de la réglementation exclusivement sur le critère des émissions de CO2, et a observé qu’elle risquerait d’entraîner une baisse de performance de l’appareil industriel français, qui serait inciter à ne plus produire que des appareils destinés au marché national, en se privant de la possibilité d’exporter ses technologies à l’étranger, car le modèle de consommation d’énergie français deviendrait alors très atypique dans le monde.

Il a en conséquence plaidé pour une détermination multicritères de la réglementation intégrant aussi les préoccupations relatives d’une part, à l’efficacité énergétique et d’autre part, au développement des énergies renouvelables.

AUDITION DE L’ASSOCIATION « EFFINERGIE »
18 JUIN 2009

Cette association a été créée en 2005 avec l’intention de transposer en France l’expérience suisse Minergie, et l’expérience allemande de la « maison des 3 litres » de BASF (elle vise à réduire, pour une maison moyenne de 100 m², la consommation à 3 litres de fuel par mètre carré et par an, ce qui permet une réduction des émissions de CO2 de 80 %). Presque toutes les régions (la Corse fait exception) ont adhéré à l’association, ainsi que la plupart des organismes impliqués dans l’efficacité énergétique des bâtiments. Diverses entreprises s’impliquent comme partenaires.

Le but de l’association est d’anticiper sur le terrain la mise en œuvre d’une construction plus économe en énergie, en promouvant un label « BBC », défini par un arrêté du 8 mai 2007 : il se cale sur la norme des 50 kWh pour les logements neufs, et la division par deux des objectifs fixés par la RT 2005 pour les bâtiments tertiaires. Effinergie intervient aussi dans la rénovation, avec un objectif de 80 kWh pour les logements, et d’un gain de 40% par rapport aux plafonds de la RT 2005 dans le secteur tertiaire.

Mme Catherine Bonduau, directrice de l’association, a mis l’accent sur la nécessité de renouveler l’approche usuelle de la construction pour atteindre la performance de la basse consommation : il ne s’agit pas d’ajouter des couches d’isolation sur un bâti classique, mais de concevoir dès le départ le bâtiment pour minimiser les consommations d’énergie. A ce titre, tous les atouts du contexte doivent être utilisés : l’orientation par rapport au soleil, mais aussi, par exemple, l’insertion dans un lotissement en bande avec uniquement des murs extérieurs en bout de bande. Le bâtiment doit aussi être conçu en fonction du système de chauffage choisi. Au niveau de la mise en œuvre, l’étanchéité à l’air doit faire l’objet d’une attention particulière ; la perméabilité ne doit pas dépasser 0,6 m3 par heure et par m² pour les maisons individuelles.

L’association vise à promouvoir un résultat sans préjugé des moyens technologiques pour l’atteindre. Ainsi le label « BBC » couvre en pratique des bâtiments utilisant divers matériaux de construction, du béton au bois, et tous types de chauffage, du convecteur au poêle à bois en passant par la pompe à chaleur ou la chaudière à gaz. Si un système n'est pas pris en compte dans les règles applicables de la réglementation thermique RT 2005 (exemple : poêle à bois, chauffe eau thermodynamique, puits canadien....), la procédure dite du « titre V » offre la possibilité de le prendre en compte : le maître d'ouvrage doit présenter en ce cas un dossier de demande d'agrément.

Au total, 10 000 logements sont en cours de certification par l’un des quatre organismes habilités à la délivrer : Cequami, Promotelec, Cerqual, Certivéa. Le secteur tertiaire n’est concerné qu’à hauteur d’une quinzaine de projets. D’ici la fin septembre, Effinergie sera en mesure de présenter un bilan de 450 projets menés à bien.

Ce bilan permettra d’affiner les estimations quant aux surcoûts induits par la « basse consommation ». D’ores et déjà, il est possible d’indiquer un surcoût de l’ordre de 5% pour les maisons individuelles, 5 à 10% pour les logements collectifs, 7 à 12% pour les bureaux. Pour les primo-accédants, le coût brut hors taxe des projets « Effinergie » est de l’ordre de 1000 euros le m² de SHON (surface hors œuvre nette). L’expérience accumulée précédemment par les maîtres d’ouvrage qui ont fait le choix de s’investir dans cette nouvelle façon d’aborder la construction a une influence directe sur le niveau du surcoût.

Mme Catherine Bonduau et M. Jean-Claude Coiffard n’ont pas su dire si le dynamisme d’Effinergie, et sa capacité manifeste à trouver un relais sur le terrain, correspondaient à la mobilisation d’une minorité motivée qui trouvait un cadre fédérateur pour exprimer sa confiance dans la possibilité de réaliser des constructions économes d’énergie, mais risquait de se heurter bientôt au conservatisme d’un milieu professionnel peu enclin à évoluer, ou s’il s’agissait de la manifestation avancée d’un mouvement annonciateur d’une évolution générale du monde de la construction en France.

En tous cas, tous deux ont souligné l’importance pédagogique de l’accompagnement des entreprises sur leurs premiers chantiers « BBC », et de l’action d’Effinergie au service des progrès de l’enseignement de la méthodologie de la « basse consommation » dans le cadre des BTS et des BAC professionnels. Une convention a été signée avec le ministère de l’Education nationale, qui a conduit à labelliser une douzaine de modules de formation spécifique.

AUDITION DE M. JEAN CARASSUS

PROFESSEUR À L’ÉCOLE DES PONTS PARISTECH
25 JUIN 2009

M. Jean Carassus, présentant les conclusions d’une mission qu’il a conduite, pour le compte du PREBAT, en vue de réaliser une comparaison internationale sur la prise en compte de l’efficacité énergétique dans les bâtiments, a mis en avant l’existence, dans le monde, de trois modèles d’approche de la maîtrise de la consommation d’énergie :

1°) un modèle germanique visant directement à la minimisation de cette consommation. En Allemagne, elle prend la forme extrême des PassivHaus, norme volontaire visant à réduite à moins de 15 kWh/m²/an en énergie primaire le poste de consommation de chauffage, et à 120 kWh/m²/an la consommation totale, y compris l’électricité spécifique; l’étanchéité doit être inférieure à 0,6 volume/heure. En Suisse, elle prend la forme de la norme volontaire Minergie qui vise à une réduction à moins de 42 kWh/m²/an en énergie primaire de la consommation totale hors électricité spécifique; compte tenu des écarts de mesure, la norme Minergie équivaut à peu près à l’objectif des 50 kWh français, et à la norme volontaire allemande des « maisons de 3 litres »;

2°) un modèle anglo-saxon obtenant indirectement une réduction de la consommation d’énergie à travers la poursuite d’un objectif de qualité environnementale, intégrant notamment la limitation des émissions de gaz à effet de serre. Il s’agit aux Etats-Unis de la certification LEED (« Leadership in Energy and Environmental Design ») applicable aux bâtiments tertiaires; au Royaume-Uni de la norme BREEAM (« Building Research Establishment Environmental Assessment Method »); au Royaume-Uni, une disposition récente impose l’élimination des émissions de gaz carbonique par les bâtiments à l’horizon 2016;

3°) le troisième modèle met l’accent sur la production locale d’énergie, en complétant l’isolation par une récupération d’énergie solaire : en Espagne, c’est l’énergie solaire thermique qui est récupérée pour le chauffage de l’eau; aux Etats-Unis (programme « Building America ») et au Japon (bâtiments préfabriqués « Mizawa Homes »), c’est l’énergie photovoltaïque.

En France, les trois pistes sont déjà mises en œuvre, à travers respectivement les réalisations de l’Association « Effinergie », la certification « Haute Qualité Environnementale » (HQE), et l’expérimentation des bâtiments à énergie positive (dans le cadre de la préparation d’une future norme thermique, à l’horizon 2020).

M. Jean Carassus a formulé trois observations s’agissant de la mise en œuvre de la construction visant à une maîtrise de la consommation d’énergie:

- d’abord, les collectivités régionales et locales jouent un rôle moteur dans le déploiement de cette nouvelle approche de la construction;

- ensuite, le surcoût de ce type de construction décroît sensiblement avec sa prise en main par les équipes professionnelles concernées; à noter qu’en Suisse, le label Minergie est refusé si le surcoût dépasse 10%;

- enfin, les professions impliquées dans la construction neuve (architectes, cabinets d’études, grandes et moyennes entreprises) sont assez largement distinctes de celles impliquées dans la rénovation (artisans), et bien moins nombreuses, ce qui rend envisageable d’encourager leur mutation rapide vers une nouvelle approche tournée vers la minimisation de la consommation d’énergie.

Le marché de la rénovation est énorme, puisqu’il concerne, en France, 17 millions de maisons individuelles et 7 millions d’appartements en copropriété ; il demeurera le champ d’activité privilégié des petites entreprises locales, les mieux à même de répondre à un besoin fondamental de différenciation de la demande en matière d’habitat. Les grands groupes comme Veolia ou EDF peuvent pénétrer sur ce marché, mais ils devront le faire en mobilisant des artisans sur le terrain, et de toute façon, pour prendre une part de marché limitée. En Ukraine, l’abandon du système soviétique, structuré autour de grands opérateurs nationaux, a suscité l’émergence spontanée d’une multitude d’acteurs locaux, mieux configurés pour répondre au besoin fondamental de différenciation.

M. Jean Carassus a du reste souligné l’adhésion spontanée des organisations professionnelles concernées au défi des 50 kWh, notamment la Fédération française du bâtiment (FFB) et la Confédération de l’artisanat et des petites entreprises du bâtiment (CAPEB), qui ont vu dans la marche vers la basse consommation une occasion de revaloriser les métiers, et les salaires, et ainsi de renouveler l’intérêt des jeunes pour cette filière. En particulier, le développement induit de l’activité d’assemblage de modules préfabriqués améliorera les conditions de travail. L’accent mis sur les pratiques de travail soignées et adaptées à l’environnement permettra en fait de renouer avec les méthodes de construction traditionnelles encore en vigueur au début du XIXe siècle.

M. Pierre-René Bauquis a observé la cohérence des caractéristiques nationales de la construction tournée vers la maîtrise de l’énergie avec les choix fondamentaux structurant la politique énergétique des pays concernés : les pays anglo-saxons se fixent des objectifs directs de réduction des émissions de gaz à effet de serre, parce qu’ils relancent la production d’énergie nucléaire; en Allemagne, le maintien d’une part prépondérante des énergies fossiles dans le bouquet énergétique rend cohérent la poursuite d’un objectif de réduction de la consommation d’énergie qui entraîne ipso facto une diminution des émissions de CO2.

AUDITION DE LA POSTE
JEUDI 2 JUILLET

M. Dominique François, qui appartient à la direction du développement durable du Groupe La Poste, a présenté un bilan, à fin 2008, du parc immobilier de La Poste, et des consommations d’énergie des bâtiments qui le composent.

Cette présentation a mis en évidence un parc très important (15 235 bâtiments pour près de 7,7 millions de mètres carrés au total), d’une composition très diversifiée, aussi bien au niveau de leur destination, puisqu’à côté des structures d’accueil commercial, des locaux administratifs, des 160 restaurants d’entreprise et des logements (ceux-ci le plus souvent situés au-dessus des bureaux de poste), on compte 2700 plates-formes de traitement du courrier et des colis, qu’au niveau de leur implantation géographique (de Dunkerque à Maripasoula, en Guyane), ou de leur taille (qui va du petit pavillon à l’équivalent d’une cathédrale).

Ces bâtiments comptent un grand nombre d’utilisateurs : 270 000 employés, et 2 millions de clients par jour ; ils sont en activité en moyenne cinq jours et demi sur sept.

Les brassages d’air sont importants, tant dans les locaux d’accueil du public que dans les plates-formes de traitement, qui sont maintenues en sur-pression, pour éviter l’entrée des gaz d’échappement des camions venant charger ou décharger les courriers ou les colis.

Ce parc fait l’objet en outre d’une forte restructuration dans le cadre de l’adaptation à l’ouverture croissante du marché postal à la concurrence (projet « Cap qualité courrier ») ; plus de 250 plates-formes sont en passe d’être construites, dont 6 vastes plates-formes industrielles inter-régionales.

La Poste prête une attention particulière aux progrès de l’efficacité énergétique dans la mesure où ses bâtiments consomment au total 2153 GWh d’énergie primaire par an (ce qui correspond en moyenne à 280 kWh par mètre carré et par an). Le chauffage se fait principalement au fioul ou au gaz ; les énergies renouvelables ne sont utilisées qu’à la marge.

Presque la moitié de la consommation d’électricité (qui représente les deux-tiers de la consommation totale d’énergie primaire) sert à l’alimentation des outils industriels. Les 54 000 caméras en service consomment à elles seules 2 GWh par an. Les plates-formes les plus mécanisées, utilisant des machines faisant 35, voire 70 mètres de long, ont de haut niveau de consommation d’énergie : jusqu’à 440 kWh et 680 kWh par mètres et par an.

M. François Duretz, Responsable du Pôle de Maîtrise d’Ouvrage en charge du développement durable à Poste-Immo, opérateur immobilier du Groupe La Poste, a expliqué que La Poste montrait un souci d’anticiper sur les progrès de la réglementation thermique, dans la mesure où elle s’impose de mettre en œuvre les contraintes de la norme BBC (au sens de la réglementation Thermique actuelle) sur ses constructions neuves dont le permis de construire est déposé après le premier janvier 2009. Néanmoins, cela concerne quasi-exclusivement les plates-formes de tri et de distribution, dites « industrielles », car les bâtiments plus classiques, locaux commerciaux, logements, bureaux administratifs, font pour l’instant l’objet de travaux de modernisation, d’adaptation, d’optimisation, de réaménagement dont l’amélioration énergétique est réalisée ponctuellement au titre des travaux du propriétaire. Au total, d’ici 2012, ces plates-formes vont correspondre à une surface construite nouvelle de 500 000 mètres carrés environ.

Or, la spécificité de ces plates-formes ne permet pas de leur trouver une correspondance convenable dans la classification des types d’usage prévus par la RT2005 (au chapitre VI de la règle Th-C) : en particulier, les catégories « stockage » et « industrie » sont inadéquates du fait de l’intensité de l’activité postale, avec un fonctionnement six jours sur sept, 24 heures sur 24 pour les plates-formes de tri mécanisée, 10 heures par jour pour les plates-formes de distribution, avec des niveaux d’apports thermiques internes spécifiques à l’activité.

C’est au scénario type intitulé « locaux non compris dans une autre catégorie » que les plates-formes ont donc été rattachées. Cette sélection amène à calculer les consommations sur une base de 10 heures par jour, 5 jours sur 7, en prenant en compte certaines caractéristiques complémentaires sur le fonctionnement des systèmes qui sont adoptées « par défaut » puisque rapportées à des scénarios dits « conventionnels ».

Les calculs effectués sur les six postes de consommation (car celui relatif aux équipements auxiliaires pour le chauffage et la climatisation est compté à part de la ventilation) exclut, ainsi que le prévoit la réglementation sur la notion de « process », les dépenses d’énergie dues directement ou indirectement à l’utilisation des machines industrielles, y compris le refroidissement de ces machines, le surplus d’éclairage visant à assurer un niveau suffisant de confort et de sécurité pour le personnel en travail de nuit (dans des locaux de grandes hauteur), le fonctionnement des salles informatiques, ou les activités de cuisine liées à la restauration.

M. Christian Bataille, rapporteur, a observé que cette restriction permettait utilement d’éviter un conflit entre les normes thermiques de la construction et les normes de droit du travail.

M. Duretz a indiqué que, dans ces conditions, la consommation d’énergie primaire (Cep) obtenue pour les plates-formes de tri et de distribution était de l’ordre de 80 kWh par m² et par an en moyenne, avec des variations selon les systèmes choisis et la situation géographique des constructions (de 68 à 112 kWh), soit donc nettement au dessus de la norme prévue par l’article 4 du texte de loi « Grenelle 1 ».

De surcroît, ce chiffre est obtenu dans des conditions minorantes, du fait de la limitation des scénarios conventionnels de référence.

La simulation d’un scénario plus représentatif de l’activité des plates-formes sur le modèle des « types d’usage conventionnels » de la RT2005, prenant en compte un fonctionnement sur 24 heures pour l’activité « tri », pourrait amener à doubler cette valeur, malgré un effort d’investissement conséquent pour se conformer aux prescriptions de la norme « BBC Effinergie » pour les bâtiments tertiaires (moins 50% par rapport aux valeurs de référence). Le retour d’expérience montre en effet que cet effort impose un surcoût de 8 à 10% ; M. Duretz a observé que ce surinvestissement était assez lourd pour un propriétaire qui verrait son locataire bénéficier seul du retour sous forme d’économie d’énergie, et que La Poste est amenée à cet égard à rechercher une adaptation contractuelle entre, d’un côté, sa filiale gérant le patrimoine et, de l’autre, les filiales l’utilisant.

S’agissant du volet de l’article 4 du projet de loi « Grenelle 1 » prévoyant « un seuil ambitieux de besoin maximal en énergie de chauffage des bâtiments », qui entre effectivement dans le champ de l’étude de l’OPECST, M. Duretz a mentionné le lancement par La Poste, courant premier semestre 2009, d’une centaine d’audits de consommation qui permettront de qualifier les références et, grâce aux études menées dans le cadre de la recherche d’un niveau « BBC », aider à l’évaluation des seuils. A ce jour les principaux enseignements sont les suivants :

- des premiers diagnostics de performance énergétique (DPE) entrepris sur des livraisons 2007 et 2008 dans le cas d’une construction standard (aux normes de la réglementation thermique 2005 sans label de performance énergétique), il ressort que l’énergie de chauffage pour une grande plateforme de tri varie entre 100 et 140 kWh par m² et par an (en énergie primaire). Une part de cette consommation est imputable au process ; elle n’a pas encore pu être identifiée dans l’état actuel des audits ;

- dans le cas d’une construction au niveau « BBC Effinergie », les calculs sur la base des scénarios conventionnels évoqués précédemment, qui tendent à sous-estimer les valeurs, aboutissent à des niveaux de consommation de chauffage de l’ordre de 15 à 20 kWh par m² et par an (en énergie primaire); avec une simulation de correction comportementale, en première approche et sous toutes réserves, on observerait un doublement, avec un niveau de l’ordre de 30 et 40 kWh par m² et par an (en énergie primaire), qu’il resterait encore éventuellement à moduler en imputant une part au process.

En conclusion, M. Duretz a insisté, d’une part, sur la difficulté pour les installations spécifiques de La Poste de trouver une correspondance dans les scénarios de la réglementation thermique, d’autre part, sur l’écart conséquent de la consommation en énergie primaire finalement calculée avec l’objectif d’une norme à 50 kWh, malgré l’effort d’investissement effectué pour respecter la logique préconisée par Effinergie.

A une question de M. François Perdrizet sur l’existence d’une stratégie de long terme de La Poste en matière d’efficacité énergétique de ses bâtiments, M. Duretz a répondu en signalant qu’elle était en train de se mettre en place sur le parc existant, que les audits permettront déjà de dresser un bilan de la situation de départ en septembre prochain, lorsqu’ils fourniront des données plus complètes ; dans les douze directions régionales de l’immobilier des dispositifs sont en cours de création pour suivre le patrimoine de manière plus rapprochée, et dans ce nouveau cadre, des inspecteurs du parc seront chargés, entre autres, de suivre l’évolution de la performance énergétique des bâtiments.

M. Pierre-René Bauquis a constaté qu’en dépit d’un programme de construction pouvant représenter 100 000 mètres carrés par an, il s’agissait d’une fraction minime du parc, de l’ordre du centième, et la masse de l’effort d’économie d’énergie devra immanquablement porter sur les bâtiments anciens.

M. Jean Carassus a observé que l’écart des chiffres mentionnés précédemment, 100 à 140 kWh d’un côté, 30 à 40 kWh de l’autre, était parfaitement en phase avec la norme « BBC Effinergie », qui impose un gain de performance de 50% par rapport au standard prévu par la RT 2005 ; mais il s’est interrogé sur la performance atteinte pour les usages autres que le chauffage. M. Duretz a indiqué qu’il apparaissait en fait assez facile, en veillant à la qualité de l’isolation, de jouer sur le besoin de chauffage, mais que le contrôle de la consommation pour l’éclairage et la ventilation était beaucoup plus complexe, notamment parce qu’il est indispensable de veiller au confort de travail et aux conditions sanitaires.

M. Dominique François a observé que la gestion du chauffage devrait dans l’absolu prendre en compte deux réalités : d’une part, la masse de courrier ou de colis apportée depuis l’extérieur après un long parcours en camion, puis enlevée vers l’extérieur alors qu’elle a pris la température intérieure, rend nécessaire un flux de chauffage compensatoire ; d’autre part, l’ouverture des portes de la halle maintenue en surpression conduit à d’importantes pertes de calories en hiver. Or une température d’au moins 18°C doit être assurée pour permettre aux employés de porter des tenues de travail pratiques.

M. François Duretz a confirmé que les calculs de consommation d’énergie se référaient à un volume clos, alors que l’objet même des plates-formes de tri ou de distribution est d’alimenter un ballet de camions venant se charger et se décharger à travers des ouvertures alternativement ouvertes, puis fermées. Les chiffres résultant de ces calculs théoriques sont donc biaisés par rapport à la réalité tangible des besoins de chauffage.

M. Dominique François a insisté aussi sur la contrainte pesant sur tout effort d’économie d’énergie touchant l’éclairage et la ventilation, dans la mesure où ces usages concernent directement les conditions de travail. Un léger surdimensionnement de la puissance d’éclairage à 300 lux est nécessaire pour assurer la sécurité des gestes, et maintenir l’éveil en travail de nuit. Toute panne de ce côté-là entraîne ipso facto un arrêt de la chaîne de traitement ; toute restriction imposée déclencherait immédiatement une protestation des représentants du personnel.

M. Yves Farges ayant demandé une estimation de la part représentée par les plates-formes dans le total du parc, M. Duretz a retenu le chiffre d’un quart : 2 millions de mètres carrés sur un total de 7,7 millions.

M. Pierre-René Bauquis a demandé si La Poste avait envisagé le déploiement d’un éclairage à basse consommation, sachant que celui-ci présente l’inconvénient de rendre nécessaire un supplément de chauffage en hiver, puisque les ampoules classiques à filament réchauffent l’air ambiant. M. François Duretz a évoqué la prise en compte d’appareils basse consommation dans les programmes neufs et dans les programmes de « relamping » ; sachant que des études techniques complémentaires sont en cours à ce sujet pour en optimiser la sélection afin de résoudre la problématique de gains d’énergie pas toujours substantiels du fait d’une demande de niveau d’éclairement supérieur et de besoins d’éclairage puissant en adéquation avec le process et les hauteurs sous plafond.

M. Pierre-René Bauquis s’est interrogé aussi sur la part d’énergie consacrée à la climatisation, et M. Dominique François a observé qu’elle était utilisée surtout dans les bureaux administratifs, mais pas dans les ateliers, où tout le dispositif de rafraîchissement est exclusivement mobilisé pour maintenir la température de fonctionnement des machines (en dessous de 33°C) ; les opérateurs des machines en profitent indirectement, mais supportent en pratique de travailler dans des atmosphères assez chaudes.

AUDITION DE M. RICHARD LAVERGNE

Chargé de mission pour la stratégie « Énergie Climat »

8 JUILLET 2009

M. Richard Lavergne a indiqué qu’au sein du MEEDDM, nouvelle dénomination abrégée du ministère dirigé par Jean-Louis Borloo, il travaille tout à la fois pour le Commissariat général au développement durable (Mme Michèle Pappalardo) et pour la Direction générale de l’énergie et du climat (M. Pierre-Franck Chevet). Il s’occupe des questions d’énergie et de climat qui sont dans le champ partagé de ces deux directions générales. Auparavant, entre 1995 et 2008, il était directeur de l’Observatoire de l’énergie et des matières premières, structure qui a disparu en tant que telle dans la réorganisation des administrations en charge de l’énergie et de l’environnement de juillet 2008 (elle a été éclatée entre plusieurs directions, la partie « statistiques » ayant été rattachée au Service de l’observation et des statistiques du Commissariat général au développement durable).

M Lavergne a insisté sur la dimension nécessairement conventionnelle de la comparaison entre formes d’énergies, le but étant de surmonter la très grande diversité de ces formes, de leurs services et de leurs externalités, pour être en mesure d’effectuer des analyses sur les évolutions, à l’image de celles qui sont possibles pour les grandeurs de la comptabilité nationale. Il s’agit notamment de disposer d’une base pour apprécier l’indépendance énergétique, l’efficacité énergétique, les émissions de gaz à effet de serre.

Du point de vue du consommateur final, il a distingué l’énergie utile, obtenue effectivement pour couvrir ses besoins, de l’énergie finale, qu’il achète, et qui est un peu plus importante en quantité que l’énergie utile, puisqu’une partie de l’énergie achetée est perdue du fait de l’imparfaite efficacité des appareils (rendement des chaudières et des moteurs, lumière par kWh consommée pour une ampoule électrique, etc.).

Du côté de la source, la notion d’énergie primaire, voire secondaire, est facile à comprendre lorsqu’il s’agit d’énergie fossile extraite du sol, d’électricité issue d’une centrale électrique thermique classique ou d’une raffinerie, entre autres, mais plus complexe pour d’autres formes d’énergie auxquelles nous n’avons accès qu’indirectement : ainsi en est-il des systèmes photovoltaïques ou hydrauliques, dont l’énergie est comptabilisée en électricité au sortir du système et non au niveau des photons ou de l’énergie potentielle ; de même, elle est comptée conventionnellement, au niveau international, avec un rendement d’un tiers pour l’électricité nucléaire (selon la méthode de l’équivalent primaire à la production), sans considération de l’efficacité réelle des centrales ni des apports du retraitement des combustibles ou de la surgénération. La même méthode conduit à retenir un rendement théorique de conversion de 10% pour l’électricité produite à partir de la géothermie.

M. Lavergne a souligné que la notion d’énergie primaire était bien adaptée pour étudier l’indépendance énergétique et les émissions de gaz à effet de serre, mais que l’efficacité énergétique, et donc l’effort d’économie d’énergie, se mesurait mieux à partir de l’énergie finale. Comme indiqué plus haut, en ce qui concerne l’électricité, il existe une grosse différence entre sa valorisation en énergie primaire ou finale : en énergie finale, l’apport de l’électricité est considéré comme si elle était employée entièrement pour l’alimentation d’un convecteur à effet Joule (soit 0,086 tep/MWh, tep signifiant tonne d’équivalent pétrole), alors qu’en énergie primaire, la prise en compte des facteurs de conversion et des pertes diverses conduit à une multiplication par un facteur 3,1 par rapport à son équivalent final.

L’usage de l’énergie entraîne forcément des « pertes » qu’on peut évaluer globalement à 36% dans un bilan énergétique « toutes énergies confondues », et qui correspondent soit à des consommations intermédiaires effectives (notamment le transport et la distribution), soit à l’imperfection des conventions de calcul retenues.

Chaque pays d’Europe a une signature bien particulière en ce qui concerne la structure de son énergie primaire, en raison de sa géographie et de ses choix historiques et culturels, la France ayant la caractéristique d’un fort potentiel d’énergies renouvelables, notamment en hydraulique et biomasse, et d’une importante production d’électricité nucléaire. En revanche, les structures de consommation d’énergie finale sont assez similaires d’un pays européen à l’autre, avec environ 45% de pétrole, 20% d’électricité, 20 à 30 % de gaz.

M. Lavergne a rapidement présenté le modèle de simulation mis au point pour évaluer l’impact d’ici 2020 des mesures du Grenelle de l’environnement sur le système énergétique français, en comparaison d’une évolution tendancielle sans mesures d’ajustement qui courrait jusqu’en 2030. Les données sont calées au départ sur celles constatées au 1er janvier 2008. A l’horizon de 2020, les investissements dans le captage et stockage du gaz carbonique n’auraient pas encore produit leurs effets.

S’agissant de la consommation d’énergie primaire, la simulation met en évidence une nette possibilité de rupture : baisse de 0,3% par an au lieu d’une poursuite de la croissance de 0,8% par an. Compte tenu de la permanence du parc nucléaire et hydraulique, le solde net d’exportation d’électricité peut doubler, passant de 60 à 120 TWh en 2020, au profit de nos voisins européens ; et le volume des importations de gaz est réduit d’un tiers.

Pour le calcul des évolutions en énergie finale, il faut ajouter diverses hypothèses d’évolutions structurelles, dont celles concernant la consommation dans le bâtiment, ramenée à 50 kWh par m² et par an dans la construction neuve dès 2012, et tendant vers cette valeur, pour l’ensemble du parc, vers 2050.

Au passage, M. Pierre-René Bauquis a souligné le caractère irréaliste d’un objectif de 50 kWh pour l’ensemble du parc en 2050, les possibilités d’isolation étant limitées pour une part importante des constructions anciennes (les immeubles haussmanniens, notamment). Il faudrait à tout le moins recourir à des méthodes d’économie de guerre, comme la réduction autoritaire de la taille des logements, en contraignant les ménages à se regrouper, pour parvenir à cette division par cinq de la consommation moyenne d’énergie primaire en quatre décennies. Le recours compensatoire aux énergies renouvelables pour atteindre optiquement l’objectif ne serait qu’un leurre, dans la mesure où il ne permettrait aucun progrès sur le terrain de la diminution des gaz à effet de serre, but fondamental poursuivi.

La norme des 50 kWh/m² en énergie primaire se traduit dans les scénarios « Grenelle » présentés par M. Lavergne par une consommation finale de l’ordre de 20 kWh/m² d’électricité comptabilisée en énergie finale dans une construction chauffée entièrement à l’électricité, et de l’ordre de 36 kWh/m² d’énergie finale dans une construction utilisant le gaz pour le chauffage et l’eau chaude sanitaire, l’électricité étant de toute façon incontournable pour la ventilation et l’éclairage (environ 9 kWh/m² d’énergie finale dans les deux cas).

Au total, la simulation décrit la perspective d’une rupture de consommation pour l’énergie finale plus accentuée encore que pour l’énergie primaire : baisse de 0,4% par an d’ici 2020 au lieu d’une croissance de 0,9% par an.

A une interrogation de M. Claude Birraux, rapporteur, sur la possibilité d’atteindre cet objectif de 50 kWh dans la construction neuve, M. Lavergne a répondu en rappelant l’appréciation positive du CSTB sur la faisabilité d’un tel effort, et la possibilité de « desserrer la contrainte » par un recours accru aux énergies renouvelables non raccordées au réseau, non comptabilisées dans l’enveloppe de consommation. Il a estimé que l’évolution de la réglementation thermique serait très défavorable au chauffage au fioul, mais présenterait plutôt un avantage pour l’électricité, car l’intérêt économique des convecteurs ou des pompes à chaleur est renforcé dans un contexte d’isolation plus poussée permettant une forte diminution du besoin de chauffage ; mais le besoin de lissage des pointes de consommation d’électricité rend indispensable le recours aux « smart grids », réseaux et compteurs intelligents.

D’ores et déjà, sous le régime de la réglementation thermique actuelle et dans la situation de l’immobilier récent, avant la crise économique, le fioul comme combustible de chauffage est évincé de la plupart des constructions nouvelles, au profit du gaz et surtout de l’électricité (environ 75% des nouveaux logements, contre moins de 50% il y a environ dix ans).

M. Pierre-René Bauquis a observé que toute remontée de la part de marché du gaz s’accompagnerait d’une augmentation des émissions de gaz carbonique. S’agissant par ailleurs de l’origine du déclin du chauffage au fioul, il a souligné son coût relatif très élevé, du fait de son utilisation concurrente comme carburant automobile. M. Lavergne a signalé cependant une nette amélioration récente dans le rendement des chaudières pour ces deux types d’énergie, notamment avec les chaudières « très basse consommation » à condensation.

M. Lavergne a mentionné que les difficultés éventuelles de mise en œuvre des mesures d’économie d’énergie avaient été prises en compte dans le cadre d’une simulation dite de « Grenelle différé », prévoyant le cas d’un décalage de dix dans l’atteinte des objectifs. A l’horizon de 2020, des circonstances favorables pourraient survenir, comme la diffusion plus rapide que dans le scénario « Grenelle central » des véhicules électriques, venant compenser un retard dans les progrès de l’efficacité énergétique au niveau des bâtiments.

A la remarque de M. Claude Birraux, rapporteur, sur l’hypothèse d’une mise en œuvre de la norme des 50 kWh/m² plus rapide que prévue, sur cinq ans, grâce à une réglementation exigeante, M. Lavergne a répondu en soulignant la condition nécessaire d’un très fort engagement politique, à divers niveaux : recherche et développement, formation, incitation, etc. Il a été cité en particulier la suggestion d’un spécialiste des énergies renouvelables visant à mieux impliquer le ministère de la Culture, tutelle de la formation des architectes, dans la logique de l’efficacité énergétique et du développement durable. Certains architectes très sensibles aux questions énergétiques revendiqueraient d’ailleurs un changement de tutelle de leur profession, pour faire progresser plus vite la cause des économies d’énergie dans le bâtiment.

S’agissant du coefficient de conversion de la consommation finale d’électricité en énergie primaire (ou réciproquement), M. Lavergne a présenté deux approches : l’une diachronique, visant à essayer de donner une assise physique à ce coefficient de conversion, en suivant l’évolution temporelle d’un ratio mesurant la quantité de combustibles utilisées pour produire une certaine quantité d’électricité ; l’autre synchronique, fondée sur une analyse comparative des coefficients de conversion adoptés dans les différents pays d’Europe. Ce coefficient de conversion a été utilisé dès les années 90, dans le cadre de la préparation de la réglementation thermique, avec la volonté ambitieuse de prendre en compte à la fois l’efficacité énergétique et la sécurité d’approvisionnement. Certains commentateurs souhaitent même ajouter la prise en compte des émissions de CO2, ce qui fait beaucoup pour un seul coefficient.

La comparaison synchronique permet de constater la relative convergence des facteurs de conversion retenus dans les pays d’Europe, en dépit de la variété des structures d’approvisionnement en énergie primaire ; M. Lavergne a néanmoins observé que les données statistiques qui fondent le calcul du coefficient dans les États membres sont souvent bien moins étayées que les données utilisées en France, où la structure de collecte et de traitement statistique s’appuie sur une expérience de trente ans, par exemple s’agissant de l’autoconsommation de l’électricité par les entreprises industrielles. D’une façon générale, la collecte des données a eu tendance à se dégrader ces dernières années car elle est rendue plus complexe par le foisonnement des sources et par l’ouverture des marchés de l’énergie qui crée un souci de confidentialité chez les opérateurs en concurrence.

L’approche diachronique consiste à prendre en compte ce qui est calculable. En l’occurrence, le ratio entre l’électricité thermique classique produite et l’énergie utilisée à cet effet est calculable dans le cas des centrales thermiques ; on peut s’en tenir dans ce cas uniquement aux énergies fossiles (gaz, charbon, fioul), ou englober aussi le cas de la production d’électricité par combustion de ressources renouvelables (biomasse, déchets) ; de fait, les ratios obtenus demeurent dans ces deux cas très proches, et très voisins de 2,58 tout au long des années 90 ; ensuite, ils plongent pour atteindre en 2007 respectivement 2,2 (avec ENR) et 1,9 (sans ENR), l’origine de cette baisse étant multiple (amélioration du rendement des centrales, meilleure qualité des combustibles utilisés, substitutions d’énergie au profit du gaz, notamment en cogénération, etc.) ; M. Bauquis a notamment indiqué que les progrès de la cogénération ne pouvaient être invoqués qu’à tort, car la chaleur récupérée ne peut pas être assimilée à de l’électricité ; quant au développement des centrales à cycle combiné, il demeure marginal en France (on compte une grosse unité de 800 MWe, appelée DK6, près de Dunkerque).

A l’horizon 2020, l’augmentation de la part des énergies renouvelables dans la production d’électricité par centrales thermiques devrait conduire à une remontée du ratio (ratio « thermique » avec ENR) aux environs de 2,5, à moins d’un progrès technique supplémentaire non pris en compte.

Le calcul d’un ratio à partir d’une pondération des coefficients pour l’ensemble des sources d’électricité, y compris hydraulique, éolienne et nucléaire (ratio « synthétique ») aboutit à un chiffre voisin de 2,7 pour 2007, car le ratio pour la production nucléaire est de 3 (rendement théorique de 33%) avec une pondération de 80%, le ratio de l’électricité d’origine renouvelable est de 1 avec une pondération de 10%, le ratio de l’électricité d’origine fossile est de 1,90 avec une pondération de 10% :

3*0,8 + 1*0,1 + 1,9*0,1 = 2,7

Bien qu’aboutissant à un chiffre voisin du coefficient de conversion allemand, ce dernier mode de calcul présente l’avantage de fournir une indication synthétique de l’efficacité de la production d’électricité33, mais son application pour le calcul de l’énergie primaire consommée à la source ne correspondrait guère à une réalité tangible, dans le cas de l’électricité d’origine nucléaire, hydraulique, solaire ou éolienne. En outre il a le défaut de ne pas être représentatif de l’évolution des émissions de CO2.

M. Lavergne a souligné la valeur significative plus importante du ratio calculé à partir du cas réel de la production d’électricité par les centrales thermiques classiques (ratio « thermique »), qui permet directement de transformer la consommation finale d’électricité en une valeur d’énergie primaire mesurant un impact en termes d’émissions de gaz à effet de serre et d’indépendance énergétique si on exclut les énergies renouvelables (via les importations induites d’énergies fossiles). Un inconvénient est que ce ratio ne s’applique qu’à environ 10% de l’électricité consommée en moyenne annuelle ; par contre, il devient plus légitime pour analyser l’électricité « de pointe » utilisée notamment l’hiver pour le chauffage électrique, et pour estimer les émissions de CO2 correspondantes. M. Lavergne ajoute que ceci relève d’une analyse complexe et encore controversée qui pourrait être confiée à une mission d’« observation des émissions de CO2 dues aux usages de l’électricité » qui n’existe pas officiellement pour l’instant.

Il a conclu en observant la double signification, à la fois réaliste et volontariste, du coefficient de conversion d’électricité finale : d’un côté, il renvoie à la réalité d’un processus de production consommant une énergie primaire, de l’autre, c’est un instrument de politique énergétique en matière d’indépendance énergétique et de limitation des émissions de gaz à effet de serre.

MM. Pierre-René Bauquis et Christian Ngô ont observé que l’électricité d’origine nucléaire desserre les contraintes de l’indépendance énergétique et du changement climatique ; que, dès lors, la convention consistant à lui appliquer, de fait, le ratio « thermique » au lieu d’un ratio de 1, par exemple, aboutit donc au résultat absurde de pénaliser une source d’énergie qui permet d’atteindre les objectifs ultimes de la politique énergétique, tout en encourageant l’usage des énergies fossiles dans les foyers, ce qui va à l’encontre de ces objectifs ultimes.

AUDITION DE M. FRANCIS ALLARD
DIRECTEUR DU LEPTIAB (UNIVERSITÉ DE LA ROCHELLE)

JEUDI 9 JUILLET

M. Francis Allard a expliqué qu’il appartenait à un laboratoire universitaire situé à La Rochelle, qui s’occupe de la qualité des ambiances habitées, et étudie plus particulièrement le cas des micro-climats, des habitacles, et de l’habitat. Il est par ailleurs président de la fédération européenne des associations d’ingénieurs climaticiens qui regroupe 28 associations nationales et 110 000 ingénieurs en Europe, ce qui le rend très sensible aux préoccupations des praticiens.

Il a par ailleurs resitué dans son contexte, en quelques points clefs, la demande sociale actuelle en faveur d’un bâti durable et sain.

Les émissions de gaz à effet de serre ont augmenté de 22% entre 1990 et 2004 dans le secteur des bâtiments (chiffre du Centre Technique Interprofessionnel sur la pollution atmosphérique - Citepa). En Europe, l’énergie est à la source de 90% de ces pollutions. Et les inflexions correctrices ne pourront porter leurs effets au mieux qu’au bout de plusieurs dizaines d’années.

En France, le bâtiment est le premier consommateur d’énergie finale (44%), et se trouve à l’origine de 40% des déchets. Il produit aussi 20% des gaz à effet de serre contre 36% en moyenne en Europe. Le logement résidentiel consomme les deux tiers de l’énergie utilisée par le secteur du bâtiment, et les trois-quarts de cette consommation résidentielle sont employés au chauffage, y compris le quart uniquement consacré à conditionner l’air de renouvellement.

La politique européenne dans le bâtiment paraît très volontariste dans le reste du monde. En France, l’objectif d’une diminution par quatre de la consommation moyenne d’énergie primaire, qui implique des efforts d’isolation, devrait faire de la ventilation le premier poste de consommation d’énergie dans le bâtiment.

Les atteintes potentielles à la santé du fait d’une ambiance polluée dans l’habitat ont été recensées par le rapport EnVIE (Co-ordination Action on Indoor Air Quality and Health Effects) de février 2009 : le radon qui déclenche des cancers des poumons, le benzène qui engendre la leucémie, les particules issues des combustions, dont celles transportées par la fumée de tabac, qui favorisent les maladies cardio-vasculaires, et les composés organiques volatiles (VOC), qui causent l’asthme et des allergies ; parmi ces derniers, le formaldéhyde (formol) qui émane de très nombreux produits d’usage courant (mousses isolantes, laques, colles, vernis, encres, résines, papier, produits ménagers, pesticides, bois agglomérés et contreplaqués) est reconnu comme cancérigène à forte dose.

Les molécules de formaldéhyde s’introduisent en quantité d’autant plus grande dans l’air intérieur qu’elles s’attachent à des matériaux généralement poreux, qui ont une surface d’emprise effective bien plus importante que la surface totale des parois intérieures de l’habitat : elles ont donc tendance à « désorber », c'est-à-dire à se répandre dans le volume intérieur, pour y homogénéiser leur concentration.

L’effet sur la santé est conséquent, car en Norvège, environ 25% des enfants sont asthmatiques, et on considère qu’il existe une probabilité forte que cette situation a un lien avec la qualité de l’air intérieur, car la vie dans les sociétés modernes conduit à respirer en atmosphère close (habitat ou habitacle) environ 80 à 85% du temps.

M. Francis Allard a souligné que l’intérêt des autorités politiques pour la qualité de l’air extérieur (depuis l’émoi suscité par le smog très dense qui s’est abattu sur Londres de décembre 1952 à mars 1953) n’avait du reste pas d’équivalent pour l’air intérieur, alors que celui-ci est respiré pendant la majeure partie du temps, et qu’il est en moyenne plus pollué que l’air extérieur, la meilleure preuve en étant que l’aération d’un local consiste justement à y faire entrer de l’air extérieur.

La qualité des ambiances intérieures, dont l’air est une composante, joue un rôle sur la productivité au travail, ainsi que l’ont mis notamment en évidence les travaux de Bill Fisk (2003), de l’université de Berkeley, ou du Finlandais Seppanen (2005). Une incidence significative a été démontrée, sur la base d’échantillon couvrant des milliers d’individus, s’agissant des employés de bureau, ou des enfants en situation d’apprentissage scolaire.

Si, pour un bâtiment tertiaire, on ramène le coût actualisé de l’enveloppe à la valeur 1, on considère alors que la facture de l’énergie couramment consommée atteint environ 10, et que le coût total de l’ensemble des travailleurs utilisant le bâtiment est de 100. Dès lors, il apparaît bien plus efficace économiquement d’investir dans la qualité de l’ambiance intérieure, pour garantir la productivité des travailleurs, que dans les économies d’énergie.

A tout le moins, l’effort de réduction de la demande énergétique primaire dans l’habitat doit donc s’accompagner d’une amélioration globale de la qualité environnementale des bâtiments et des quartiers, sans concession à la qualité de l’air ou au confort des occupants. Dans ce contexte de diminution forte des besoins d’énergie, les réseaux d’eau chaude se justifient moins, et l’air de ventilation devient le vecteur énergétique principal, pour le chauffage comme pour la climatisation.

La qualité de l’air intérieur suppose un contrôle des polluants présents dans l’air extérieur, domaine dans lequel les connaissances progressent ; on peut par exemple parvenir à filtrer les particules de grande taille. Elle dépend aussi de la nature des matériaux utilisés et de leurs émissions ; à cet égard, comme les processus adsorption et de désorption sont réversibles, on peut concevoir des systèmes de piégeage, utilisés dans les sous-marins. La qualité de l’air intérieur est mise en cause aussi par les bio-effluents produits par les occupants.

La France ne consacre que des ressources limitées à ces domaines de recherche. Elle a bien créé un Observatoire de la qualité de l’air intérieur ; M. Francis Allard est membre de son conseil scientifique ; mais cet organisme a pour apport de fournir des données uniquement ; il peut confirmer le mauvais état de l’air intérieur en France.

S’agissant des pistes de recherche prioritaires, M. Francis Allard a mentionné, en premier lieu, la modélisation et le contrôle des flux aérauliques, qui visent à prendre en compte la réalité des micro variations locales de pression ; car les systèmes de ventilation actuels ne permettent d’avoir une emprise au mieux que sur environ 60% de l’air intérieur. La mesure de la performance des systèmes de ventilation fait maintenant l’objet d’un consensus international : on distingue l’efficacité de renouvellement d’air et l’efficacité de ventilation. En France, les stratégies d’apport d’air extérieur conduisent simplement à modifier le mélange entre air frais et air vicié, et ont une efficacité de ventilation de l’ordre de 1 ; dans les pays scandinaves, ces stratégies sont basées sur le déplacement des masses d’air : l’air frais est amené au niveau du plancher à vitesse très faible, et l’air vicié en hauteur ; cela permet d’évacuer plus efficacement les polluants dont la concentration est double dans l’air chaud qui monte ; l’efficacité de ventilation est alors de l’ordre de 2. Les systèmes par déplacement commencent à se répandre dans les grands volumes comme les aéroports ; on les reconnaît aux diffuseurs situés au niveau du sol.

En Europe, alors que la réglementation tend à devenir performancielle dans le domaine de la consommation d’énergie, elle demeure prescriptive s’agissant de la qualité de l’air intérieur, même si on constate une grande dispersion des prescriptions d’un pays à l’autre. Cela a pour effet de freiner l’innovation, car les progrès techniques ne sont pas mis en valeur par des normes figées. Fort heureusement, la concertation européenne progresse dans le domaine de la mise au point d’indicateurs, éléments indispensables pour avancer dans la voie d’une réglementation performancielle. Ces indicateurs concernent l’efficacité intrinsèque des systèmes de ventilation, leur efficacité énergétique et la qualité de l’air intérieur. Actuellement, la qualité de l’air intérieur reste mesurée, faute de mieux, par le taux de gaz carbonique, critère imparfait pour la santé puisqu’un air chargé en CO2 demeure respirable, mais critère pertinent pour l’hygiène ; il s’agit d’affiner en mesurant le taux de concentration des différents types de particules, comme cela a été fait dans l’automobile, avec la difficulté soulevée par le jeu des interdépendances entre les particules. La teneur en eau peut servir d’indicateur aussi, car elle entre en ligne de compte pour le développement des moisissures, et la durabilité des matériaux.

Les recherches concernent aussi l’amélioration des systèmes de commande des équipements de ventilation. Typiquement, un déclenchement automatisé leur permet un fonctionnement plus efficace, puisqu’ils peuvent être ainsi mis à l’arrêt si le local est vide de toute personne : les systèmes hydro-réglables sont ainsi calés sur la teneur en eau. Cependant un pilotage trop restrictif des besoins de ventilation peut finir par détériorer la qualité de l’air intérieur ; d’où l’exploration de critères de pilotage plus fins : le taux de concentration de gaz carbonique pour la régulation des salles de réunion, par exemple ; mais cela suppose la mise au point de capteurs fiables, qui ne dérivent pas dans le temps.

Parallèlement, des efforts sont faits pour alimenter les systèmes d’aération avec de l’énergie récupérée, selon une démarche de parasitage par rapport aux systèmes de chauffage ou de climatisation notamment.

Des progrès techniques sont en cours sur les échangeurs ; ils reposent notamment sur l’adaptation de la nouvelle technologie des microtubes, développée au départ pour faciliter certaines manipulations de laboratoire. Une autre voie utilise le phénomène d’absorption et désorption des polluants par un matériau constituant une roue, qui se déplace de quelques tours par heure.

En dépit de la mise en œuvre depuis décembre 2006 du règlement européen REACH sur les procédures d’information relatives aux substances dangereuses, on est loin encore de connaître les propriétés des matériaux vis-à-vis des phénomènes d’absorption et de désorption des polluants. Ces phénomènes relèvent d’une réactivité dite « hétérogène » des polluants. Mais il existe par ailleurs une réactivité dite « homogène », qui se manifeste au coeur de la masse d’air intérieur, du fait d’un rayonnement actinique, comme la lumière solaire, d’une forte concentration instantanée locale, ou d’une rencontre fortuite avec des molécules développant des affinités particulières avec les polluants. M. Francis Allard a cité l’exemple d’un problème rencontré dans un sous-marin, où l’on avait constaté la présence absolument inexplicable de formaldéhyde dans un compartiment, avant de comprendre que des précurseurs chimiques apparaissaient dans un autre compartiment, puis achevaient leur transformation durant leur parcours dans les conduits d’aération, jusqu’à l’endroit où cette circulation les amenait à se concentrer dans leur forme complète.

D’un point de vue épidémiologique, il est très difficile d’isoler le facteur de la qualité de l’air intérieur, car il joue souvent pour de faibles quantités sur des très longues durées. A ce jour, on n’est parvenu qu’à établir certaines valeurs seuil de concentration pour assurer la protection des travailleurs, mais pour des durées d’exposition courtes; il n’existe pratiquement pas de données disponibles sur l’effet des expositions longues de concentration faible (sauf une étude anglaise confirmant les méfaits du tabagisme passif).

M. Francis Allard a rappelé que, pourtant, le syndrome du bâtiment malsain est bien identifié : il se manifeste généralement dans un grand bâtiment hébergeant une activité tertiaire, et se caractérise par le constat d’un taux absentéisme élevé, de plaintes répétées de maux de tête, de mal-être général. La cause très probable en est la mauvaise qualité de l’air intérieur, mais il est difficile de l’isoler par la mesure d’un paramètre. La mise en place de l’Observatoire de la qualité de l’air intérieur permet désormais d’accumuler des données devant permettre à terme de progresser dans la connaissance de ce genre de phénomène. Les études scientifiques s’appuient sur des scénarios s’efforçant de modéliser des probabilités d’exposition à des polluants sur longue période, puis de calculer l’intégrale des concentrations respirées par les individus.

M. Claude Birraux, rapporteur, a observé qu’on retrouvait là les problématiques connues de l’étude des faibles doses.

Evoquant l’épuration, M. Francis Allard a indiqué qu’elle constitue le stade ultime de l’effort pour maîtriser la qualité de l’air intérieur. Elle s’impose dans les environnements clos comme les sous-marins, fonctionnant avec de l’air recyclé. Le monde industriel a su développer des procédés d’épuration utilisant des réacteurs solide-gaz, mais généralement pour maîtriser un seul polluant ; l’opération est beaucoup plus complexe lorsqu’il s’agit d’éliminer parallèlement un grand nombre de polluants. Il existe des procédés d’une portée générale, comme la photo-catalyse, basée sur l’oxydation, mais leur universalité même fait qu’ils risquent de créer accidentellement de nouvelles molécules plus dangereuses encore que celles qu’il s’agit d’éliminer. De là, la raison pour laquelle les industriels qui travaillent sur ces pistes depuis longtemps ne parviennent pas au stade de la commercialisation. La voie alternative de la bio-catalyse, basée sur l’emploi d’enzymes « gloutons », paraît séduisante, mais pose d’autres problèmes, car il faut nourrir les enzymes, et les maintenir au sein du filtre.

En conclusion, M. Francis Allard a dit son sentiment que les progrès dans l’isolation des bâtiments iraient de pair avec la place croissante du vecteur air dans l’équipement thermique, au détriment du circuit d’eau chaude, qui impose l’entretien d’un double réseau pour la ventilation et le chauffage. Le vecteur eau demeurera néanmoins intéressant pour une distribution d’énergie sur un groupe de bâtiments, qui mobilise une certaine puissance, quitte d’ailleurs à ce que le vecteur air retrouve ensuite son rôle principal au niveau de chaque bâtiment.

Un effort technologique important est donc nécessaire pour porter la maîtrise du vecteur air au niveau des besoins. Cela suppose des études avec une approche large, s’efforçant d’appréhender les phénomènes très en amont. En attendant des connaissances plus précises, il convient de s’entourer de précautions élémentaires ; cela concerne par exemple les nano-matériaux utilisés dans les isolants à base de billes de silice, dont on ignore encore les lois de diffusion.

L’épuration prendra le pas sur la ventilation lorsque la hausse du prix de l’énergie sera telle que les constructions viseront à l’isolation complète.

M. Pierre-René Bauquis s’est interrogé sur le risque d’une pollution diffuse induite par une isolation extérieure des bâtiments qui consisterait en un dépôt d’une couche de polymères, à l’occasion des ravalements. M. Francis Allard a indiqué que l’inconvénient d’une telle solution tiendrait en fait plutôt à la faible durabilité de la couche face à l’agression de l’eau, des chlorures, des carbonates. Une approche consistant à favoriser la carbonatation des parois extérieures, de manière à en accroître l’étanchéité en comblant les micro-porosités, paraît plus prometteuse.

AUDITION D’ALDÈS
15 JUILLET 2009

M. Bruno Lacroix, PDG d’Aldès, entreprise familiale qui a conquis une position de leader français (avec la moitié du marché) et même européen dans le domaine des équipements de ventilation pour le bâtiment, a d’emblée insisté sur la volonté innovante de son groupe, signalant qu’il entretenait une cellule de recherche de 13 personnes (sur un total de 1400 employés en 2009) chargée notamment de suivre l’évolution de la réglementation et des techniques constructives en France et à l’étranger pour proposer de nouvelles technologies répondant à ces nouveaux besoins ; puis un bureau d’études de 25 personnes les transforme en produits.

La ventilation par renouvellement d’air, c'est-à-dire par dilution des pollutions, permet de traiter les diverses émanations dues aux matériaux de construction et de mobilier, à la cuisine, aux produits ménagers (composés organo-volatiles - COV), aux manifestations de la vie (gaz carbonique, méthane, humidité). Sa version mécanique existe en France depuis une réglementation de 1969 ; elle a été introduite par le CSTB en réaction au constat de l’inefficacité de la ventilation naturelle dans les bâtiments HLM, où l’humidité et la condensation généraient des moisissures ; elle était déjà utilisée dans les pays scandinaves depuis la fin de la seconde guerre mondiale.

Le débit de ventilation doit être ajusté pour concilier le besoin de renouvellement de l’air avec le besoin de chauffage de l’air entrant. En 1982, la réglementation a abaissé brutalement le niveau requis du débit de renouvellement, permettant de réaliser une économie automatique de chauffage. Pour maintenir l’efficacité de la ventilation, Aldès a proposé en 1984 un système à modulation de débit en fonction de l’humidité : ce dispositif hygro-réglable équipe aujourd’hui la moitié des systèmes de ventilation en France.

Le recours à la ventilation se justifie par le fait que la qualité de l’air extérieur est supérieure à celle de l’air intérieur. L’utilisateur n’a pas la perception du besoin de ventilation ; l’appréciation humaine de la qualité de l’air n’est possible qu’en arrivant de l’extérieur. En conséquence, il est illusoire de laisser aux individus la main sur le pilotage de la ventilation, sauf éventuellement pour évacuer les odeurs de cuisine ; un dispositif automatique est donc indispensable dans la plupart des cas.

La ventilation constitue un élément clef de la santé, du confort, et de la consommation de chauffage. La chaleur et l’humidité favorisent la prolifération des moisissures et des acariens qui déclenchent des problèmes d’allergie et d’asthme.

Le poids de la ventilation dans la consommation totale d’énergie pour le chauffage s’est accru à l’occasion du passage de la réglementation thermique 1988 à 2005, jusqu’à atteindre 47% dans les appartements collectifs chauffés à l’électricité, contre 18% pour le chauffage proprement dit, en raison des progrès imposés sur la perméabilité de l’enveloppe, qui est passée de 1,7 à 0,8 m3/h/m². La diminution de la perméabilité permet en effet de réduire la ventilation parasite, qui mobilise un besoin supplémentaire de chauffage.

La ventilation va prendre plus d’importance encore avec la prochaine réglementation thermique, imposant une consommation d’énergie primaire de 50 kWh/m²/an contre 120 à 180 kWh/m²/an aujourd’hui, et dont le label « Effinergie » constitue une préfiguration. L’enveloppe devra être plus étanche encore, correspondant à un « Ubât »34 permettant un gain de - 15% à - 30%  par rapport à la RT 2005 : cela correspond à des fenêtres en double vitrage piégeant une couche d’argon, à une épaisseur de laine de verre dans les murs et le plancher (sur dalle flottante) passant de 10 cm à 15 cm (R supérieur à 4,535), cette même épaisseur dans les combles passant de 20 cm à 30 cm (R supérieur à 7,5). Cette enveloppe correcte peut s’obtenir sans difficulté particulière avec les technologies commercialement disponibles aujourd’hui.

La dalle flottante permet une isolation phonique supérieure, en absorbant les bruits d’impact, surtout lorsqu’elle est utilisée entre les niveaux d’étages.

La prochaine réglementation prévoit un bâti avec une perméabilité inférieure à 0,6 m3/h/m², ce qui suppose une enveloppe fabriquée de manière soignée ; cette qualité d’enveloppe présente l’avantage de minimiser les besoins de chauffage, mais entraîne l’inconvénient d’une gestion plus complexe du confort d’été, en raison du risque d’accumulation de chaleur excédentaire ; cette chaleur excédentaire peut être en partie absorbée si l’inertie thermique du bâtiment est accrue, par exemple en privilégiant une isolation par l’extérieur ; elle peut être aussi évacuée grâce à un sur-débit de ventilation, ou encore par une pompe à chaleur utilisée en mode réfrigérant.

Dans les régions ensoleillées du Sud de la France, les protections solaires sont indispensables. Dans les territoires d’Outre-mer, où les températures oscillent de 27°C à 35°C entre la nuit et le jour, il n’est possible de descendre en dessous de la température ambiante à l’intérieur d’un bâtiment qu’avec une climatisation, consommant peu d’énergie si l’enveloppe du bâtiment est isolée et bien étanche et si l’extraction de chaleur est effectuée par une pompe à chaleur. Celle-ci peut d’ailleurs être alors couplée à la production d’eau chaude, pour maximiser l’efficacité d’utilisation de l’énergie.

L’article 5 de l’arrêté du 24 mai 2005 prévoit une valeur maximale pour la température intérieure : la « température intérieure conventionnelle » (Tic), qui est calculée en adoptant des données climatiques conventionnelles pour chaque zone climatique. Mais sa valeur très élevée est facilement respectée.

M. Damien Labaume a présenté une série de simulations de consommation d’énergie primaire sur les cinq postes de la réglementation thermique, en combinant toutes les hypothèses d’équipement au niveau de la ventilation (autoréglable, hygroréglable, double flux), de l’eau chaude (ballon électrique, solaire, thermodynamique), du chauffage (convecteur, PAC, chaudière à condensation), soit au total une trentaine de combinaisons possibles. Ces simulations prennent en compte différents degrés d’isolation illustrés par une variation du coefficient Ubât de 0,4 à 0,2, c'est-à-dire une performance améliorée de -20% à -60% par rapport à la situation de référence de la RT 2005. Par comparaison, les maisons passives des « Hauts de Feuilly » à Saint-Priest, visitées par les rapporteurs, ont un Ubât de 0,2.

Il apparaît que, dans la zone H1b, où la consommation d’énergie primaire de référence est de 65 kWh, en raison du climat plus froid, aucune combinaison ne permet de respecter la norme avec un Ubât de 0,4. Certaines combinaisons deviennent viables à partir d’un Ubât de 0,3, et leur nombre va croissant avec l’amélioration de l’étanchéité du bâti.

Dans la zone H3, correspondant au Sud de la France, où la consommation d’énergie primaire de référence est de 40 kWh, et où l’essentiel de l’énergie consommée sert à la production d’eau chaude, il s’opère une nette différentiation entre la solution du chauffe-eau électrique, qui ne permet pas, et loin s’en faut, de respecter la norme, et les autres solutions (chaudière, solaire, thermodynamique) qui permettent de l’atteindre grâce à un effort sur l’isolation.

La simulation complémentaire d’un apport d’énergie photovoltaïque pour des surfaces croissantes de 10 m², 20 m², 30 m², montre que toutes les combinaisons peuvent, grâce à cet artifice, devenir viables par un simple jeu de compensation arithmétique, mais sans que la priorité de l’économie d’énergie soit respectée. M. Bruno Lacroix a estimé que la réglementation devrait réserver la prise en compte de l’apport d’énergie photovoltaïque au cas de bâtiments déjà très bien isolés qui visent le standard de la maison à énergie positive.

M. Christian Ngô s’interrogeant sur la robustesse de la performance énergétique, en faisant l’analogie avec l’automobile dont les qualités sont conservées sur cent mille kilomètres, M. Bruno Lacroix a renvoyé la question aux fabricants pour ce qui concerne la durabilité des matériaux (vitrage, laine de verre), et a observé par ailleurs que tout équipement de chauffage fait l’objet d’un contrat d’entretien, à l’exception notable des convecteurs électriques. Les ballons d’eau chaude subissent une usure qui est la même quelle que soit la technologie de chauffage. Les corps de chauffe des chaudières doivent être changés au bout d’une dizaine d’années. La robustesse des réfrigérateurs donne une idée du faible entretien qu’imposent les pompes à chaleur. En tout état de cause, une combinaison d’équipements maximisant les récupérations de chaleur engendre probablement une charge financière d’entretien moindre qu’une accumulation de systèmes indépendants faisant l’objet de contrats séparés.

M. Christian Bataille, rapporteur a évoqué l’intérêt de chiffrer le coût d’une maintenance globale permettant de conserver les qualités d’origine du bâtiment.

S’agissant de l’impact des différentes solutions sur l’effort initial d’investissement, M. Bruno Lacroix a présenté un calcul effectué par un cabinet d’études sur une situation réelle d’une maison moyenne (98 m²) à Ormes en Saône-et-Loire, (zone H1c), qui aboutit à une mensualité plus élevée de 30 euros (sur un montant total de 600 euros environ) pour la solution de chauffage par effet Joule dans un bâti aux normes RT2005, par rapport à une solution de chauffage par pompe à chaleur dans un bâti BBC. La différence tient notamment à la possibilité de profiter d’un plus important prêt à taux zéro dans le second cas. L’ajout d’un dispositif photovoltaïque, même en conservant une enveloppe BBC et le bénéfice consécutif du bonus sur le prêt à taux zéro, creuse à nouveau l’écart mensuel à l’avantage de la solution par pompe à chaleur, cette fois de 60 euros.

M. Bruno Lacroix a synthétisé le résultat des simulations précédentes en prenant le cas d’une maison individuelle moyenne de 98 m² sur deux niveaux, avec une bonne isolation (Ubât de 0,3) qui serait située successivement dans les trois zones climatiques H1b, H2a, H3. S’attachant à étudier la manière dont son équipement pourrait permettre de satisfaire à la norme BBC de consommation d’énergie primaire, il montre que l’utilisation de convecteurs électriques pour le chauffage n’est pas possible dans les deux zones froides sans l’apport compensatoire d’énergie photovoltaïque ; qu’en revanche, elle constitue une bonne solution, y compris en termes économiques, pour la zone chaude H3. Dans les deux zones froides H1 et H2, les deux systèmes à pompe à chaleur et à gaz se valent, du point de vue de la performance comme du coût.

S’agissant des progrès technologiques sur les équipements de chauffage, ils s’organisent autour de deux axes :

- d’un côté, une meilleure récupération de la chaleur de l’air extrait. Il s’agit de l’utiliser comme source chaude d’une pompe à chaleur, que ce soit pour chauffer l’air entrant, un circuit d’eau ou l’eau sanitaire ; si la ventilation est régulée mécaniquement, il faut coordonner la puissance de fonctionnement du compresseur de la pompe à chaleur (technique inverter);

- de l’autre, une utilisation plus complète des pompes à chaleur qui ne fonctionnent habituellement que 20% du temps à pleine puissance pour le chauffage de l’air ambiant. Il s’agit de les employer à temps perdu pour le chauffage de l’eau sanitaire.

Cela conduit à la mise au point d’une part, de VMC36 double-flux thermodynamiques, où une pompe à chaleur joue le rôle d’échangeur, et d’autre part, de systèmes 4 en 1 combinant chauffage, ventilation, climatisation, et production d’eau chaude.

En réponse à une remarque de M. Jean-Paul Fideli sur l’appréhension suscitée par une complexité de moteurs et de tuyaux faisant figure d’usine à gaz, alors qu’un convecteur électrique est un outil simple et intuitif, M. Bruno Lacroix a rappelé par analogie les performances atteintes en téléphonie mobile, grâce au progrès technique, sur la fiabilité, le nombre des fonctionnalités et la miniaturisation, ; il a dit sa confiance dans une évolution similaire pour les équipements combinés de ventilation et de chauffage, dès lors qu’une dynamique de marché s’enclenchera.

S’agissant de la ventilation double-flux avec échangeurs passifs, on parvient dès aujourd’hui à récupérer jusqu’à 90% des calories de l’air extrait. Par ailleurs, on enregistre des progrès sur les chaudières à micro-génération, et les chauffe-eau solaires à appoint thermodynamique.

En conclusion, M. Bruno Lacroix a estimé que le label BBC, qui préfigure la future réglementation RT2012, peut être mis en œuvre sans difficulté. Le coefficient de conversion de 2,58 en énergie primaire n’est pas pénalisant pour les équipements de chauffage électrique, puisque les simulations montrent que toutes les solutions technologiques sont en pratique compatibles avec la norme des 50 kWh, y compris en particulier les convecteurs pour la zone H3 ; à l’avenir, il paraît inéluctable que l’électricité conservera une place importante dans le chauffage des bâtiments, mais à travers le développement du recours aux pompes à chaleur.

Pour les logements, la généralisation de la norme des 50 kWh par la RT 2012 sera d’autant plus facile que l’horizon de mise en œuvre concrète, compte tenu des délais de construction, se situe en 2014 au plus tôt. Cela laisse aux industriels un délai très suffisant pour une montée en puissance sur l’offre commerciale d’équipements thermodynamiques. Il s’est vendu 150 000 pompes à chaleur l’an dernier en France.

En revanche, les solutions d’équipements de chauffage pour les bâtiments tertiaires sont loin d’être au point, et il y a un paradoxe à imposer l’application de la norme dès 2010 à ce secteur alors qu’il y est moins préparé que le secteur du logement.

La nécessité d’un recours à la ventilation pour compenser l’étanchéité bien meilleure de l’enveloppe des bâtiments peut s’envisager sans risque, car le taux de panne des équipements VMC est très faible, leur durée de vie excédant sans problème quinze à vingt ans.

L’appareil industriel français pourra suivre sans difficulté l’extension de la demande pour ces équipements, car plusieurs producteurs nationaux sont en concurrence, Aldès occupant la moitié du marché. Cette concurrence permet de tenir les prix.

Dans le cadre de ses efforts pour poursuivre l’amélioration de ces équipements, Aldès participe aux recherches sur la qualité de l’air intérieur.

S’agissant des surcoûts induits par le passage à une construction BBC, il est de l’ordre de 10 à 12%, mesuré en valeur nominale, au niveau d’un calcul brut sur les tarifs, mais à 5% en valeur réelle, au niveau des réponses aux consultations de marché ; cela indépendamment de la prise en compte de tout avantage fiscal ; dans le secteur du logement, ce surcoût devrait disparaître d’ici 2014 du fait du processus d’apprentissage par les constructeurs et des effets de série au niveau industriel.

Ce mouvement sera piloté par les sociétés de construction de logements collectifs et de maisons individuelles, qui investiront dans les efforts de formation nécessaires. Par effet d’entraînement, la construction en mode diffus suivra, certes avec un décalage.

La concurrence devrait résorber les comportements frauduleux consistant à majorer les prix pour récupérer les aides fiscales accordées aux particuliers. Par ailleurs, les limites techniques constatées sur les premières installations d’équipements thermodynamiques devraient être surmontées rapidement grâce au progrès technique stimulé par l’extension du marché. Pour sa part, Aldès continuera à accompagner les installateurs et à suivre les opérations sur les chantiers, de manière à ne laisser aucune contre-référence.

La mise en œuvre de la norme des 50 kWh va dynamiser le marché français des équipements thermodynamiques, ce qui permettra à la France de conquérir une position forte dans ce domaine au niveau mondial. La France va en effet se trouver en mesure de dépasser très vite le parc des constructions à basse consommation réalisé jusqu’à présent dans d’autres pays comme la Suisse et l’Allemagne. A l’inverse, les convecteurs vont demeurer des produits franco-français, puisque leur recours se justifie essentiellement par le faible coût relatif de l’électricité en France.

Une fois que le développement du marché de la construction BBC sera bien engagé, et deviendra obligatoire lors de la mise en application de la RT2012, il serait judicieux de reporter l’avantage fiscal du prêt à taux zéro (PTZ) sur les constructions de maisons passives, selon une logique incrémentale d’accompagnement de la demande, par étapes, vers une performance énergétique toujours plus grande.

Pour favoriser ce mouvement, il serait contreproductif d’introduire, dans le cadre de la mise en œuvre de la loi « Grenelle 1 », une modulation de la norme des 50 kWh qui aurait pour effet de rétablir une différenciation par sources d’énergie. Si l’électricité se trouve, à court terme, pénalisée à travers l’impact négatif sur le marché des convecteurs, lesquels conservent néanmoins un intérêt en zone chaude, elle devrait retrouver inéluctablement une importance croissante à travers le développement des équipements thermodynamiques, pour le chauffage, la ventilation, la climatisation, l’eau chaude.

En revanche, il serait certainement utile d’affiner à la marge la modulation climatique, et surtout d’introduire une modulation compensatrice en faveur des petits logements, du fait de la pénalité que leur vaut un comptage de la consommation d’eau chaude par mètres carrés.

AUDITION DE M. DENIS CLODIC
DIRECTEUR ADJOINT DU CENTRE ENERGÉTIQUE ECOLE DES MINES DE PARIS

17 SEPTEMBRE 2009

M. Denis Clodic a rappelé en préalable que le CEP Mines Paristech s’occupait non seulement de mesurer la performance des équipements, mais aussi d’améliorer leur conception.

Il a reconnu que l’objectif d’une consommation des bâtiments en énergie primaire de 50 kWh/m².an était ambitieux, très en deçà du niveau effectivement atteint aujourd’hui, qui varie, selon la zone climatique, de 120 à 360 kWh/m².an mais qu’il constituerait un aiguillon utile pour le développement technologique.

Ce développement passe par la mise en œuvre du dispositif du pompage de chaleur, dont il a observé qu’il se combinait avec toutes les sources d’énergie, gaz et fioul comme électricité, sous la forme, dans ces deux derniers cas, d’un équipement hybride correspondant à une évolution technologique différente de celle conduisant à la cogénération.

Les progrès de l’isolation thermique devraient réduire le besoin de chauffage d’une maison moyenne à une puissance voisine du kW, alors qu’une chaudière à gaz est dimensionnée pour délivrer une puissance de l’ordre de 35 kW, et une pompe à chaleur une puissance de 6 à 8 kW. Ce décalage important va conduire à l’obsolescence de toute une gamme d’équipements, mais devrait stimuler aussi un effort d’innovation, qu’il s’agit d’encourager par l’animation du tissu industriel concerné. Comme l’offre en équipements de faible puissance est peu développée à l’échelle internationale, l’industrie française pourrait trouver sur ce créneau l’occasion de développer un avantage compétitif.

Le passage aux systèmes à faible puissance rend indispensable le recours au stockage d’énergie sous forme d’eau chaude pour lisser la consommation des apports de chaleur. Dans le cas des systèmes électriques, ce stockage contribue en outre à diminuer les pointes de demande à l’échelle macroéconomique, celle de l’ensemble du réseau.

Par ailleurs, la variation saisonnière des besoins de chauffage, pour faire face à des températures extérieures oscillant entre -7°C et +14°C, implique la gestion d’une amplitude de puissance allant de 1 à 10. Cette amplitude peut s’obtenir de trois manières : le stockage, la répartition de puissance, la vitesse variable.

La vitesse variable est beaucoup plus complexe à mettre au point pour les dispositifs utilisant la compression, comme les pompes à chaleur, que pour les simples moteurs électriques qui assurent par exemple le fonctionnement des ventilateurs. Cela suppose le recours à un certain type de moteur électrique, l’introduction d’une interface permettant d’ajuster la fréquence, et une lubrification particulière du compresseur. Les industriels japonais et coréens ont une offre viable dans ce domaine, alors qu’elle est inexistante en Europe et aux Etats-Unis. Cette avance est pour partie la conséquence de l’expérience acquise pour conquérir le marché du Pacifique, où la fréquence du courant varie selon le pays concerné.

Pourtant la France, avec l’avantage dont elle dispose grâce à son électricité peu émettrice de gaz à effet de serre, est particulièrement bien placée pour développer une production industrielle de pompes à chaleur à vitesse variable, y compris sous la forme d’équipements hybrides. Du reste, l’hybridation devrait permettre, à terme, le dépassement de la confrontation entre les différentes filières énergétiques.

L’effort d’économie d’énergie dans les bâtiments devrait conduire à une substitution progressive des systèmes à résistance électrique par les pompes à chaleur.

Mais l’effort sur les équipements ne suffit pas, car c’est une approche globale des questions thermiques qui doit prévaloir. C’est une dimension déjà intégrée sur le marché de la construction préfabriquée. Dès lors, la diversité des situations à traiter lorsqu’il s’agit de particuliers construisant leur maison individuelle, cas dans lequel il n’est pas possible d’optimiser le système énergétique de manière ad hoc, doit donc conduire à définir, comme l’a préconisé Olivier Sidler pour la rénovation, des solutions globales types, concernant à la fois l’étanchéité, l’isolation, les équipements.

M. Claude Birraux, rapporteur, soulignant l’importance cruciale des progrès à réaliser en matière de formation des architectes et aussi des installateurs, M. Denis Clodic a acquiescé, et ajouté à ces deux catégories celles des promoteurs immobiliers.

Il a mis ensuite l’accent sur trois dimensions de l’approche globale de la gestion de l’énergie dans les bâtiments :

- il a ainsi proposé de distinguer l’efficacité énergétique de la sobriété énergétique, notion plus étroite renvoyant aux techniques d’isolation et de protection solaire ;

- il a souligné aussi l’intérêt du parasitisme énergétique, par récupération secondaire de toutes les énergies disponibles, principe d’ores et déjà exploité dans les systèmes de ventilation à double flux ;

- il a enfin mis l’accent sur l’importance à venir du vecteur « air », et par conséquent de la qualité de l’air, qui appelle la mise en place de gaines aérauliques propres, aux ouvertures protégées par des filtres à air changés suffisamment souvent.

Or la pose et l’entretien de gaines aérauliques constituent un métier différent de celui de plombier, et c’est un métier encore mal maîtrisé en France. Au Japon, au contraire, les pompes à chaleur inversibles air/air intègrent d’ores et déjà les composants permettant de préserver la qualité de l’air.

M. François Perdrizet revenant sur la raison de ce basculement nécessaire du vecteur « eau » au vecteur « air », M. Denis Clodic l’a justifié par la diminution de la charge de chauffage induite par les progrès de l’isolation thermique, et a illustré cet argument en expliquant qu’il suffisait en théorie d’inviter un groupe d’amis chez soi pour chauffer d’un coup, par le rayonnement de la chaleur humaine, une maison « Passiv Haus » au retour des vacances d’hiver. La puissance des systèmes de chauffage à radiateur est disproportionnée pour les constructions bien isolées.

Du reste, l’expérience montre que le parc des 30 000 constructions « Passiv Haus » en Allemagne utilise exclusivement le vecteur « air » pour le chauffage, à l’exclusion du vecteur « eau », ce qui n’empêche pas l’existence d’une distribution d’eau chaude sanitaire.

La sur-puissance des systèmes de chauffage à eau chaude n’est pas contradictoire avec le recours à l’eau chaude comme vecteur de stockage à l’intérieur des équipements, pour accumuler l’énergie de manière à délivrer au moment adéquat la petite charge de chauffage nécessaire.

M. Claude Crampes ayant demandé si les « Passiv Haus » intègrent un système de gestion de la qualité de l’air, M. Denis Clodic a répondu qu’il n’avait pas pu recueillir d’informations sur ce point, mais qu’il s’attendait à ce que la démarche « Bottom Up » qui présidait au développement de cette forme de construction, conduirait bientôt ses promoteurs à aborder le problème. Au Japon, les réflexions sur ce sujet sont émergentes. L’Europe est en retard car elle a mis l’accent sur les économies d’énergie au lieu d’aborder la gestion de l’énergie d’une manière globale, en intégrant d’emblée le problème de la circulation et du renouvellement de l’air.

M. Christian Ngô a soulevé la difficulté d’obtenir un confort d’été dans une maison très isolée, puisqu’il n’est pas possible de mettre en œuvre la recommandation d’un humoriste qui préconiserait de la climatiser en y rassemblant des amis pour leur projeter un film terrifiant qui les glacent d’horreur et leur donnent des sueurs froides.

M. Denis Clodic a confirmé cette difficulté, en observant que la France a la chance d’être obligée de la traiter du fait de sa zone de climat méditerranéen, et de ses territoires d’Outre-mer. La réglementation a prévu une obligation en ce sens en imposant que la température intérieure conventionnelle doit être inférieure à 26°C (article 9 du décret du 24 mai 2006). La difficulté est cependant aggravée lorsque la température de la nuit converge vers celle du jour, comme cela s’est produit lors de la canicule de 2003.

Pour climatiser, il faut prévoir au moins une protection solaire, et une inertie thermique des parois, en installant par exemple une sur-paroi, qui ménage une lame d’air prisonnier immobile ; un toit bien isolé relaye moins la chaleur du soleil ; il faut aussi un système de ventilation qui puisse fonctionner selon un régime variable de 1 à 5 pour profiter au maximum du rafraîchissement de la nuit. Mais, en cas de canicule, l’inversion du fonctionnement des équipements de chauffage pour produire de la fraîcheur devient incontournable. Ainsi le bâtiment de l’organisation météorologique mondiale à Genève, très bien conçu pour maintenir un confort d’été tant qu’une différence de température entre le jour et la nuit se maintient, mais sans climatisation, devient rapidement invivable si cette différence s’estompe quelques jours de suite.

La pire des solutions en ce domaine consiste à recourir aux climatiseurs, et pour l’instant, la réglementation n’y fait aucun obstacle, ce qui rend la démarche française en matière d’efficacité énergétique peu crédible aux yeux des Allemands.

L’inclusion de la climatisation dans l’enveloppe globale des 50 kWh constituerait un début de régulation, sous réserve que la modulation géographique actuelle est très défavorable à la zone méditerranéenne à cet égard, car elle repose implicitement sur l’hypothèse que la climatisation consiste simplement à ouvrir les fenêtres. Or une dépense d’énergie est parfois indispensable pour créer un confort minimal de travail sous certains climats, comme l’illustre l’importance de la climatisation au Texas ou en Chine du Sud. Et l’ouverture de la fenêtre, même si elle pourrait être suffisante, n’est pas toujours possible à cause du bruit (centre ville) ou des risques d’intrusion (rez-de-chaussée).

M. Christian Ngô a observé que l’achat a posteriori d’un climatiseur était une manière de contourner la réglementation thermique des bâtiments, puisque celle-ci vise à imposer une consommation globale couvrant toutes les saisons. En prenant l’exemple d’une pompe à chaleur, il a noté aussi que le vecteur « air » permettait plus facilement de concevoir des systèmes réversibles. Il a regretté que les solutions techniques qui permettent d’assurer le confort tout en économisant l’énergie soient encore trop coûteuses.

M. Denis Clodic a souligné que la mise en œuvre de la réglementation devrait conduire à vérifier les qualités thermiques du bâtiment aussi bien en régime d’été qu’en régime d’hiver, d’autant qu’une dérive du climat fait désormais partie des hypothèses envisageables.

En ce qui concerne la technologie du chauffe-eau, M. Denis Clodic a estimé qu'elle serait stimulée par une stratégie d'étiquetage caractérisant l'efficacité énergétique de chaque produit, à l'instar de celle mise en place, par la réglementation européenne, pour les réfrigérateurs et les congélateurs, qui a permis une économie d'énergie de 50% en moyenne sur une période de cinq à sept ans. En l'espèce, il serait utile de prévoir une classe d'étiquetage (en kWh consommé par litre d'eau chaude fournie) hors d'atteinte pour les produits standards, car s'appuyant sur une pompe à chaleur, comme cela a été fait pour les sèche-linge; la pression des consommateurs tirent alors les performances vers le haut. En l'occurrence, une incitation serait ainsi créée pour développer non seulement la solarisation, mais aussi le parasitisme énergétique par récupération de la chaleur des eaux usées; avec cette dernière technique, la récupération de calories doit se faire le plus en amont possible, c'est à dire au plus près de la source, pour disposer d'un réservoir de chaleur à la température la plus élevée possible: mieux vaut ainsi un branchement sur les déversements d'eaux usées à l'intérieur de l'immeuble que sur les eaux d'égout.

Les progrès de la technologie du chauffe-eau nécessitent néanmoins une mise en cohérence de la réglementation sur deux points : la température minimale de stockage évitant une prolifération de la légionellose (supérieure à 55°C); la température maximale de sortie d'eau sans risque de brûlure (inférieure à 45°C).

La compétition sur l'efficacité énergétique des chauffe-eau ne peut que débloquer l'innovation technologique, en donnant toute leur chance aux énergies alternatives à l'électricité, qui ont déjà intégré la pompe à chaleur à leur offre, en combinant son fonctionnement avec celui d'un brûleur.

M. François Perdrizet s'interrogeant sur la fiabilité de la technologie de la pompe à chaleur, M. Denis Clodic a évoqué la difficulté majeure de la formation du givre au niveau du capteur externe de calories (l'évaporateur), qui a tué le développement commercial de cette technologie aux Etats-Unis, où l'usage très répandu des climatisations lui fournissait pourtant un terrain d'expansion favorable. Mais les produits japonais traitent correctement cette difficulté du givrage, qui peut être résolue par une conception soignée. En France, où cet effort de conception fait défaut, l'incertitude sur le risque de givrage nuit au développement de la pompe à chaleur; certains constructeurs le contournent en déclenchant des résistances de chauffage classiques en deçà d'un certain seuil de température, parfois à l'insu de l'utilisateur. Cette astuce a été mise à jour par une campagne de mesures très détaillées en cours au laboratoire de l'Ecole des mines, qui vise à évaluer la pertinence de la norme européenne 14511 définissant les conditions de mesure de la performance des chauffe-eau.

Cette norme européenne ne prend pas en compte la variabilité des charges thermiques. De ce fait, les performances réelles des pompes à chaleur sont généralement très inférieures aux performances mesurées conformément à la norme; mais les pompes à chaleur équipées d'un variateur de vitesse, prenant eux en compte la variabilité des charges thermiques, ont au contraire des performances réelles très supérieures. Du reste, en Allemagne, la fixation d'une valeur minimale du COP s'accompagne de l'obligation d'intégrer un compteur à la pompe à chaleur, de manière à ce que l'utilisateur puisse vérifier lui-même la performance réelle.

M. Claude Crampes a demandé si la technologie des variateurs de vitesse utilisée dans les produits vendus dans la zone du Pacifique était sous brevet. M. Denis Clodic a répondu qu'elle était au contraire ouverte, mais exploitée par les industriels européens uniquement sur les ventilateurs et les pompes, mais pas sur les compresseurs, car l'offre européenne est très faible dans ce domaine, uniquement représentée par le groupe danois Danfoss. L'Europe n’a pas d’entreprise intégratrice de niveau mondial dans le domaine des pompes à chaleur, les ventes s'y comptant en dizaines de milliers, alors que les concurrents américains, japonais, et maintenant chinois, s'appuient sur des marchés s'évaluant en millions d'unités vendues.

M. Claude Birraux, rapporteur, a demandé l’avis de M. Denis Clodic sur la capacité du tissu industriel français, et à défaut européen, de s’adapter aux nouvelles exigences de performance énergétique, en surmontant notamment le frein que représente le clientélisme potentiel des relations entre fournisseurs d’équipements et installateurs.

M. Denis Clodic n’a pas caché que le saut technologique à faire était important, et qu’il devrait impliquer toute la chaîne de valeur ajoutée. La production française a beau être fortement automatisée, elle concerne encore des produits assez basiques. En outre, il faudra revoir les méthodes de calcul des performances, qui ne sont plus adaptées pour des niveaux de consommation très faibles, pour les besoins de chauffage ou de rafraîchissement.

M. Christian Ngô se demandant si la complexité croissante des équipements ne va pas induire une disparition des petits artisans d’installation et de maintenance au profit des grandes entreprises, M. Denis Clodic a observé que les grandes entreprises ont aussi leur difficulté de formation interne, et de rigidité d’état d’esprit, parce qu’elles sont morcelées entre les corps de métier. Les acteurs les plus réactifs sont les bureaux d’études, et les intégrateurs offrant des produits finis (comme Maison Phénix). Pour les artisans, une évolution est possible, mais elle doit s’appuyer sur les canaux concrets de leur information, en particulier les courtes notices éditées par les fournisseurs de matériels (comme Point P).

La réhabilitation nécessite un effort combiné de plusieurs corps de métier, et c’est pourquoi il est question de créer le métier de « réhabilitateur » pour permettre la mise à niveau du parc des bâtiments anciens, de même que la création du métier de « plaquiste » a permis le développement du recours aux panneaux de placoplâtre en dépit de l’hostilité des plâtriers traditionnels.

Ainsi l’intégration comme la réhabilitation appelle la création de nouveaux métiers transversaux, qui devraient intéresser les artisans les plus dynamiques, qu’ils soient jeunes ou expérimentés. Ce dépassement des métiers traditionnels jouera un rôle plus important dans les progrès de l’efficacité énergétique des bâtiments que des efforts de formation menés au sein de chaque filière traditionnelle. Les électriciens se sont déjà orientés dans cette direction en s’ouvrant à de nouvelles compétences professionnelles. Les petites structures pourront certainement s’adapter beaucoup plus rapidement à cette nouvelle approche transversale, lorsqu’elles sont animées par des artisans motivés, que les grandes entreprises empêtrées dans leurs rigidités organisationnelles.

Sur une remarque de Claude Crampes relative à la plus grande fragilité des petites structures face aux tentations du clientélisme, M. Denis Clodic a observé que des mécanismes de contrôle professionnel pouvait toujours certifier les artisans, et qu’en outre un contrôle de la qualité du service fourni, certes a posteriori, était aussi possible, une norme simple et claire comme les 50 kWh étant particulièrement facile à vérifier à partir des factures de consommation d’énergie.

M. Denis Clodic a rappelé que le programme « Homes »37 avait été doté de plusieurs dizaines de millions d’euros pour aider l’industrie française, dont Schneider, à mettre au point des appareils de suivi des performances énergétiques.

PERSONNES RENCONTRÉES LORS DES VISITES
EN FRANCE ET À L’ÉTRANGER

Houilles (Yvelines), 9 juillet 2009

Visite de la « maison écologique » de M. Bruno Comby

Lyon et Saint-Priest, 10 juillet 2009

Visite de bâtiments « Effinergie »

Mme Marguerite-Marie Chichereau, Présidente de la Commission « Energie » de la Région Rhône Alpes

Mme Marie-Hélène Daronnat, Chargée de mission « Energie » à la Région Rhône Alpes

M. Samir Boukhalfa, Directeur de l'Agence locale de l'énergie du Grand Lyon (ALE)

M. Stéphane Rouvier, Chargé de communication de l’ALE

M. Frédéric Burellier, Architecte

M. Cédric Lentillon, ADEME - Rhône Alpes

A Saint-Priest :

M. Thierry Roche, Architecte urbaniste

M. Didier Larue, Architecte paysagiste

Fribourg (Suisse), 24 septembre 2009

Echange avec des responsables de Minergie

M. Marc Tillmanns, Directeur de l’agence Minergie romande

M. Manuel Bauer, Ingénieur énergéticien

M. Charles Magnier, Directeur de Prioriterre, Responsable de Minergie France

M. Conrad Lutz, Architecte

Fribourg-en-Brisgau (Allemagne), 8 octobre 2009

Visite des quartiers Vauban et Rieselfed

M. Jürgen Hartwig, Architecte

Mme Beate Lorentz, Responsable de la construction à la Mairie

Londres, 22 octobre 2009

Visite du quartier BedZed et rencontre de responsables de la construction

M. Madani Saw, Président de Bouygues Construction UK

M. Martin Townsend, Directeur de la norme BREEAM au sein du groupe BRE

M. Gideon Amos, Directeur de la Town and County Planning Association (TCPA)

Mme Morag Tait, Directrice associée du cabinet d'architectes Allford Hall Monaghan Morris

Grenoble, 12 novembre 2009

Rencontre avec l’équipe en charge du projet « Homes » chez Schneider

M. Jean-Pierre Chardon; Directeur délégué Affaires institutionnelles

M. Frédéric Vaillant; Directeur Innovation Technologique

M. Olivier Cottet; Marketing et Filières

M. François Bonnard; Système et partenariats

M. Patrick Beguery; Optimisation et simulation

M. Didier Pellegrin; Responsable du projet « Homes »

Discussion avec M. Enri Chabal, Architecte

Angers, les 18 et 19 novembre 2009

Visite du siège de l’ADEME

M. Matthieu Orphelin, Directeur de Cabinet du Président de l’ADEME

M. Xavier Lefort, Secrétaire général de l’ADEME

Mme Virginie Schwarz, Directrice Energie, Air, Bruit à l’ADEME

Mme Michelle Bernard, Chef du service des Affaires générales de l’ADEME

M. Cyril Petit, Chargé d'affaires au sein du Cabinet AREA ETUDES Nantes

M. Antoine Pellé, Chargé de projet au sein du Cabinet AREA CANOPEE

Orléans, le 19 novembre 2009

Visite du laboratoire « Castor et Pollux » de Promotelec

M. Claude Descombes, Directeur général de Promotelec

M. Pierre-Louis François, Président du directoire du Groupe Atlantic

M. Yves Lepelletier, Directeur Industrie du Groupe Atlantic

M. Uwe Brankamp, Directeur Marketing produits futurs du Groupe Atlantic

M. Emmanuel Caille, Directeur des sites Atlantic d'Orléans et de la Roche sur Yon

M. Jean-Dominique Masseron, Directeur du développement durable du Groupe Atlantic

M. Jean-Jacques Barreau, Consultant pour l'Union des maisons françaises

COMPTES RENDUS DES VISITES
EN FRANCE ET À L’ÉTRANGER

LA « MAISON ÉCOLOGIQUE » DE M. BRUNO COMBY
9 JUILLET 2009

Voici, en manière de compte-rendu, un extrait des informations publiées sur Internet par M. Bruno Comby, et reprises avec son accord, à propos de sa « maison écologique » construite à Houilles dans les Yvelines38.

«  (…) Nous souhaitons que notre maison écologique, aussi performante que possible thermiquement et sur le plan du confort, soit cependant facile à construire et surtout à faire construire par des entreprises et artisans utilisant des matériaux disponibles dans la plupart des grandes surfaces de bricolage (…). Dans la suite ci-dessous nous étudions donc une maison faisant l'objet d'une construction traditionnelle réalisable par des maçons et ouvriers ordinaires (ou bricoleurs du dimanche expérimentés), en faisant à différents niveaux les choix les plus judicieux (sans trop se ruiner quand même).

Notre maison écologique ressemble donc très fortement à une maison ordinaire (pratiquement aucune différence sur le plan visuel hormis quelques détails que seuls les spécialistes verront), qu’elle soit vue de l'extérieur ou de l'intérieur.

Elle est cependant dotée de particularités (listées ci-dessous) dont chacune lui donne un avantage thermique (que nous chiffrons ci-dessous) permettant, pour un surcoût raisonnable et facile à couvrir en réalisant soi-même une partie des travaux (cette question fera l'objet d'un autre document ultérieurement) d'améliorer grandement, comme nous allons le voir, les performances thermiques d'une habitation (maison ou appartement), allant jusqu'à multiplier par 3 (comme nous allons le voir) les performances thermiques du bâtiment.

Il est intéressant de remarquer que les choix ci-dessous améliorent non seulement les performances thermiques, mais aussi dans bien des cas le CONFORT et la QUALITE (tenue dans le temps) de l'habitation. Une maison écologique ainsi construite est plus stable thermiquement, a moins de courants d'air, ne présente pas de condensation sur les fenêtres, murs ou planchers (donc les papiers peints ne se décollent pas dans les angles), l'air y est plus pur (étant filtré par le système de ventilation écologique), etc. Il y a donc des gains (sans doute plus difficiles à chiffrer, mais bien réels) à d'autres niveaux que les économies de CO2 sur le chauffage, pour le confort et la santé.

La réglementation thermique en France a beaucoup évolué avec le temps (dans le bon sens) et une maison construite aujourd'hui consomme déjà environ 2 fois moins d'énergie à chauffer qu'une maison moins bien isolée construite dans les années 1970. Cela va dans le bon sens, mais il est possible de faire encore beaucoup mieux, comme nous allons le voir.

Nous prenons comme référence une construction classique conforme à la réglementation thermique actuellement en vigueur en France (RT 2005).

Cette habitation RT 2005 typiquement construite en France aujourd'hui comporte des murs en parpaings, des fenêtres à double-vitrage standard avec vitres 4/16/4, une isolation des murs par l'intérieur au moyen de 8 ou 10 cm de polystyrène et 1 cm de plâtre (…) et 15 cm de laine de verre de qualité standard sous toiture.

Nous étudierons le cas typique de notre maison écologique en région parisienne.

Les pertes thermiques d'une habitation standard (selon l'ADEME) se répartissent de la manière suivante :

- 30% de la chaleur s'échappe par la toiture

- 25% par les murs

- 20% par la ventilation

- 13% par les fenêtres

- 7% par le sol

- 5% par les ponts thermiques au niveau des planchers et des murs de refend.

Sans trop se ruiner il est possible d'agir sur chacun de ces niveaux pour minimiser les pertes thermiques de l'habitation, simplement en choisissant les bonnes méthodes de construction, de chauffage et de ventilation :

- Isolation sous toiture : avec 30 cm de laine de verre en deux couches croisées entre et sous chevrons équivalente à 45 cm de laine de verre ordinaire (…) au lieu de 15 cm de laine de verre ordinaire sous toiture, l'efficacité de l'isolant étant multipliée par 3, gain des 2/3 de 30%, soit 20%

- VMC double-flux : elle récupère 90% de la chaleur de l'air de ventilation, soit un gain par rapport au total des pertes thermiques de 90% de 20%, soit 18%

- Isolation des murs extérieurs de l'habitation : avec 10 cm de laine de verre performante ,(…) le gain sur l'isolation murale atteint 70% de 25%, soit 17,5%

- Vitrages à isolation renforcée (par rapport au double vitrage classique 4/16/4) par traitement qui retient les infra-rouges, et comprenant une lame d'argon entre les deux vitrages pour améliorer l'isolation, le surcoût par rapport au double vitrage classique est faible et permet un gain d'environ 30% sur les pertes thermiques par les fenêtres qui représentent 13% des déperditions thermiques habituelles d'une habitation ; gain de 30% de 13%, soit 4%

- Réduction ou suppression des ponts thermiques (…) : gain de 40% sur 5%, soit 2%

- Meilleure isolation des sols et du sous-sol : gain de 40% sur 7%, soit 3%

- Puits canadien : il permet la climatisation quasiment gratuite en été et un gain de 10% sur les pertes thermiques en hiver (environ la moitié des pertes thermiques par la ventilation) ; la moitié de 2% dans notre cas avec une VMC double-flux, soit 1%

Le gain total du fait des techniques de construction représente 65,5%39, ceci indépendamment du mode de chauffage ; soit, s'agissant d'un ordre de grandeur théorique, la possibilité de progresser d'un facteur 3.

Remarque : en hiver, dans notre cas, du fait de la présence d'une VMC double -flux (bien plus efficace) le puits canadien participe peu aux économies d'énergie (mais quand même un peu). Il permet cependant de gagner environ 1% sur la dépense énergétique globalel (ce qui est faible, mais pas négligeable) et de préconditionner l'air distribué qui étant à meilleure température améliore le confort, supprime tout risque de condensation même par temps froid en hiver et par temps chaud et humide en été. Le puits canadien permet surtout une climatisation gratuite de l'habitation en été.

Remarque : l'isolation par l'extérieur est une autre option possible. Cela permet de gagner au niveau des ponts thermiques, (gain supplémentaire possible maximum à ce niveau de 3%), mais il s'agit alors en général de polystyrène extrudé de 100 ou 120 mm d'épaisseur, moins performant thermiquement que notre isolation intérieure équivalente à 150 mm de laine de verre standard. Sauf à faire une double isolation (intérieure ET extérieure, ce qui surenchérirait nettement le prix de l'habitation) ce n'est donc pas intéressant (mais reste une option possible pour plus tard).

Remarque : le choix des briques plutôt que des parpaings permet de diminuer la consommation d'énergie au niveau des matériaux de construction par rapport aux parpaings. En effet un parpaing, c'est du ciment, et la fabrication du ciment consomme beaucoup d'énergie. Il faut environ 5 fois plus d'énergie pour fabriquer un parpaing qu'une brique.

Les économies d'énergie ci-dessus (facteur 3) de notre maison écologique ne dépendent aucunement du mode de chauffage : l'habitation consomme trois fois moins d'énergie que l'on se chauffe avec une pompe à chaleur ou au feu de bois (ce qui est vivement recommandé), à l'électricité (moins bien) ou pire encore (à cause des émissions de CO2, pas bonnes pour la planète) au gaz, au charbon..

EN L'OCCURENCE NOUS AVONS DECIDE DE CHAUFFER NOTRE MAISON AVEC UNE POMPE A CHALEUR. Comme nous avons la chance d'avoir de l'eau sous la maison (nappe phréatique à 19 mètres de profondeur) nous avons choisi une pompe à chaleur EAU/EAU qui donne le meilleur COP (coefficient de performance) pour un maximum d'économies d'énergie. Avec la pompe à chaleur (…) que nous avons choisie, le COP est de 6 (pour la pompe à chaleur toute seule) avec, dans notre cas, une eau à 14°C, produisant 14kW de chaleur pour chauffer la maison (et l'eau chaude sanitaire accessoirement) avec une consommation électrique de 2,33 kW, mais il faut rajouter 1 kW pour la pompe immergée au fond du puits qui remonte l'eau de -19 m à 0 m d'altitude avec un débit de 6m3/h et 200 W pour la pompe de circulation qui distribue la chaleur dans l'habitation). Le COP réel de l'ensemble en fonctionnement est donc de 14/2,33+1,2 = 4 (gain en énergie par rapport à un chauffage électrique classique, soit un coefficient s'appliquant globalement de 1 / 4 = 0,25)

En conjuguant POMPE A CHALEUR et TECHNIQUES DE CONSTRUCTION, le coefficient global devient : 0,25 x 0,345 = 0,086

NOTRE MAISON ECOLOGIQUE CONSOMME DONC 10 à 12 FOIS MOINS D'ENERGIE que la même maison construite conformément aux normes actuellement en vigueur.

MAISON POSITIVE EN ENERGIE : avec quelques mètres carrés de capteurs solaires photovoltaïques sur le toit, cette maison est capable de produire plus d'énergie qu'elle n'en consomme. Remarque n°1 : pour que cela puisse être le cas, il faut avoir gagné d'abord le facteur 10 ci-dessus, sinon la surface de panneaux nécessaires est trop grande. Les économies d'énergie restent donc l'objectif prioritaire.

EMISSION de CO2 : en France, l'électricité est nucléaire+ hydraulique à plus de 90% et chaque kWh d'électricité émet 10 fois moins de CO2 dans l'atmopshère que dans un pays comme le Danemark ayant largement recours au gaz et au charbon pour sa production d'électricité. Donc, par rapport à la même maison écologique construite au Danemark, la nôtre construite en France et chauffée à l'électricité ou par pompe à chaleur rejette 10 fois moins de CO2.

Remarque : du point de vue du CO2, le citoyen français standard chauffé à l'électricité est aussi performant que le citoyen Danois habitant dans la maison la plus écologique et la plus économe en énergie. Par rapport à une maison pas écologique construite au Danemark, notre maison écologique en France émet 100 FOIS MOINS DE CO2 DANS L'ATMOSPHERE (pour la même maison, à climat égal, même nombre de mètres carrés et d'habitants, toutes choses égales par ailleurs).

Ce résultat montre qu'il existe de grandes possibilités (avec les techniques de construction existantes, connues et abordables) pour les économies d'énergie dans la construction chez nous (facteur 10) et une marge plus importante encore pour réduire les émissions de CO2 provenant du chauffage des habitations dans le monde (réduction drastique d'un facteur 100 dans les pays non nucléarisés en conjuguant techniques écologiques de construction et électricité nucléaire).

CONSOMMATION D'EAU : en récupérant l'eau de pluie par une citerne ou en utilisant l'eau du puits plutôt que l'eau du réseau sur les WC, machine à laver, lave-vaisselle, douche, WC et l'arrosage extérieur, on divise la consommation d'eau du réseau au moins d'un facteur 10 également (le volume de l'eau de boisson et cuisson qui continuerait à être pris sur l'eau de la ville est faible, moins de 10% du total consommé).

EAU CHAUDE SANITAIRE : 4 à 5 m² de capteurs solaires sur le toit permettent de produire les deux tiers de l'eau chaude d'une famille typique en France. Le troisième tiers est généralement de l'électricité (pour les jours sans soleil). Dans le cas de notre maison écologique, nous disposons d'une pompe à chaleur (pour le chauffage) qui permet de transformer 1 calorie d'électricité en 3 calories pour l'eau chaude. Ce résultat est aussi bon qu'avec les panneaux solaires, nous avons donc décidé de ne pas installer de panneaux solaires et d'opter plutôt pour l'eau chaude par pompe à chaleur. Dans ce cas, ce qui revient au même du point de vue du bilan énergétique final, gagnant un facteur 3 sur le chauffage de l'eau chaude domestique (par rapport à un chauffe-eau électrique classique). En termes de CO2 cela n'économise pas grand chose vu que notre électricité (en France) émet de toutes façons très peu de CO2, mais c'est toujours autant de gagné en économies d'énergie. Les panneaux solaires (ou la pompe à chaleur) sont particulièrement intéressants pour lutter contre le réchauffement climatique, surtout lorsqu'ils remplacent un ancien chauffe-eau au gaz (ou au fioul) qui sont de gros émetteurs de CO2.

Tout ce qui est écrit ci-dessus correspond à des gains d'énergie à confort de vie égal (même température de 20°C dans la maison ou l'appartement, même consommation d'eau chaude, même quantité de plats cuisinés et de lessives à l'eau chaude, etc.). (…) »

VISITE DE BÂTIMENTS « EFFINERGIE » À LYON ET SAINT-PRIEST
10 JUILLET 2009

Cette visite a permis d’effectuer une visite techniquement accompagnée de plusieurs réalisations conduites en lien avec l’association « Effinergie » :

- d’une part, deux chantiers de performance énergétique dans la rénovation : une résidence située rue Vendôme40, et le siège de l’Association lyonnaise de logistique posthospitalière (ALLP)41 ;

- d’autre part, deux sites de basse consommation énergétique dans la construction : le lotissement des maisons passives des Hauts de Feuilly42, et le vaste bâtiment tertiaire du « Pôle Solère »43.

RENCONTRE AVEC MINERGIE À FRIBOURG (SUISSE)
24 SEPTEMBRE 2009

La visite avait pour objet de prendre contact avec des responsables du label Minergie, afin de recueillir l’expérience d’un effort de construction à basse consommation disposant aujourd’hui d’un recul d’une dizaine d’années, puisque le label a été lancé en 1998.

Quatre responsables du label ont participé aux échanges : M. Marc Tillmanns (directeur de l’agence Minergie romande), M. Manuel Bauer (ingénieur énergéticien), M. Charles Magnier (directeur de Minergie France) et M. Conrad Lutz (architecte). Ce dernier a conclu la matinée par une visite du bâtiment « Green Offices », où se tenait la réunion.

Minergie a fourni une assistance à la création d’Effinergie, et a été déçu de constater qu’une démarche sui generis s’est mise en place en France. Minergie s’efforce aujourd’hui de développer un label « BBC » sous son nom en France.

La différence entre Minergie et Effinergie se joue au niveau de la prise en compte, parmi les usages, de l’éclairage. En outre, la démarche Effinergie met surtout l’accent sur la maîtrise de la consommation thermique. Le label Minergie impose un système d’aération. L’étanchéité d’un bâtiment Minergie-P (passif) est mesurée sous une pression de 50 pascals, alors que la pression n’est que de 4 pascals pour Effinergie.

La différence entre Effinergie et PassivHaus se fait au niveau de la prise en compte de la consommation de l’appareillage électronique, avec une limite de 120 kWh au total en énergie primaire, et une limite spécifique de 15 kWh en énergie utile pour le chauffage.

Le label Minergie impose une performance en matière d’isolation, à travers une valeur maximale du coefficient de transmission thermique d'une paroi, noté ''U''. Celui-ci indique la quantité de chaleur qui se propage en 1 seconde, à travers 1 m² d'une couche de matériau, d'une épaisseur déterminée, lorsque la différence de température entre les deux faces est de 1 K (1 K = 1°C). Le coefficient de transmission thermique s'exprime donc en W/m²K. Plus il est élevé, plus la couche laisse passer la chaleur.

Avec Minergie comme avec PassivHaus, il s’agit d’une isolation extérieure, qui règle d’emblée les problèmes de ponts thermiques tandis que le label Effinergie autorise une isolation intérieure, plus délicate à mettre en œuvre.

Le développement de Minergie a reposé sur plusieurs éléments :

- d’abord un engagement des partenaires publics ; la réglementation de la construction est une compétence cantonale, et deux cantons, ceux de Zürick et de Berne, ont joué un rôle fondateur. Les cantons accordent une subvention en cas d’obtention du label ; ce soutien accordé initialement au label Minergie est maintenant passé au label Minergie-P. L’exigence de la réglementation fédérale a été relevée au niveau des performances de Minergie ;

- ensuite, le soutien des partenaires industriels ; ce soutien favorise l’adaptation plus rapide de la qualité des matériaux nécessaires aux performances à atteindre ; en contrepartie, l’association Minergie labellise des éléments de construction vendus séparément, dont la combinaison peut aider à obtenir le label sur un bâtiment ;

- des actions de sensibilisation et d’information, sous forme de conférences ou sous forme de conseils informels au téléphone. Les conférences sont organisées avec le soutien des autorités publiques ; M. Magnier en a donné aussi dans le cadre des organisations de l’ONU. Les appels téléphoniques de conseil représentent une charge de plus en plus lourde, M. Magnier évoquant le chiffre de 7000 appels par an. Minergie en est au point de réfléchir à la mise en place d’un centre d’appel pour faire face à cet afflux d’intérêt informel ;

- des actions de formation, à destination des ingénieurs des bureaux d’études et des architectes plus particulièrement.

Au total, le label Minergie atteint un stock de 13700 bâtiments depuis son lancement en 1998, et représente 25% du flux de constructions nouvelles en Suisse.

A propos du risque que le développement de la construction à basse consommation soit entravé par les réticences du monde industriel, M. Bauer a indiqué le rôle crucial de la réglementation, qui impose à la production de s’adapter. Il a indiqué que les entreprises pouvaient se trouver en situation difficile si elles ont un important volume en stock de produits devenus non conformes. Manifestement, elles finissent en ce cas par écouler à l’étranger cette production devenue obsolète en Suisse.

Les intervenants de Minergie, qui ont tous conduit des projets en France, ont signalé qu’ils avaient rencontré des difficultés de mise en œuvre à trois niveaux :

- d’abord, la qualité des équipements disponibles sur le marché français. Parfois, cette qualité tient à un problème de finition, et M. Bauer a cité le cas particulièrement évident des Velux, dont il avait besoin pour le site de Cormeilles en Parisis, et qui se sont révélés d’une performance insuffisante lorsqu’ils étaient achetés en France, alors pourtant qu’ils font l’objet d’une diffusion internationale ;

- ensuite, la maturité professionnelle des intervenants de chantier, bien meilleure en Suisse, tout d’abord du fait de la meilleure formation initiale par l’apprentissage professionnel, filière ouverte sur l’enseignement supérieur en Suisse ; d’autre part, en raison de la plus grande flexibilité du marché du travail, qui permet d’ajuster les effectifs mobilisés sous un contrôle direct, quitte à licencier en fin de chantier, alors qu’en France, un recours à la sous-traitance constitue presque une figure obligée, avec le risque d’une implication moindre des travailleurs ;

- enfin, l’insuffisant degré d’élaboration du travail de conception initiale. M. Magnier a dit sa surprise de la précision des travaux d’études de M. Lutz face à la pratique habituelle en France, où une part importante de la mise en œuvre est laissée à la discrétion des entreprises sur le chantier. M. Lutz a insisté sur l’importance de la phase préparatoire de la construction, sur plan, puis en atelier ; les opérations de chantier consistent dès lors surtout à assembler des éléments déjà équipés, en respectant une précision de l’ordre souvent du millimètre.

S’agissant de l’importance à accorder au contenu en carbone gris des matériaux utilisés, par rapport à l’économie d’émission de CO2 réalisée en fonctionnement grâce à un effort d’isolation, M. Bauer a fait état d’études contradictoires à ce sujet, dont certaines concluent que le bilan reste très positif tant que la couche d’isolant demeure en deçà d’une certaine épaisseur, de l’ordre de 60 centimètres, ce qui correspond à la plupart des cas. M. Lutz a observé que la minimisation du carbone gris incorporé revêtait relativement plus d’importance une fois acquise la possibilité d’abaisser sensiblement la consommation d’énergie courante. Dans le cas du bâtiment « Green Offices », la mobilisation de matériaux à faible empreinte de carbone a permis un gain du simple au double, par rapport à une construction de type classique, ce gain étant équivalent aux émissions produites par un siècle de chauffage du bâtiment (un million de kWh).

La visite du bâtiment « Green Offices » a permis de découvrir qu’en dépit de sa grande taille (1300 m2), il fonctionnait avec une petite chaudière à bois (pellets), de la puissance d’un réfrigérateur (12 kW), qui assure à la fois le chauffage et le complément d’énergie pour l’eau chaude, principalement produite par des capteurs solaires thermiques (7,5 m2). La consommation totale du bâtiment est inférieure à 10 kWh d’énergie primaire par m² et par an.

La construction a été réalisée principalement en bois. Les panneaux préparés en atelier ont été assemblés en cinq jours. Le sapin blanc utilisé pour la structure vient de la région et a été coupé « à la bonne lune » pour un séchage demandant moins d’énergie.

L’aération est assurée par une ventilation à double flux qui aspire l’air frais transitant par un puits canadien. Les apports solaires sont maîtrisés grâce à des stores remis automatiquement en position de repos deux fois par jour, pour éviter le maintien d’un réglage inapproprié. Les sanitaires sont biologiques : la cuvette est maintenue en dépression pour aspirer les odeurs, et la chasse d’eau est remplacée par le versement d’un peu de sciure ; celle-ci favorise la formation d’un humus très peu odorant, résultant de la dégradation microbienne, qui peut être réutilisé pour du jardinage.

La poursuite des échanges a permis de réfléchir aux conditions de la généralisation de la construction à basse consommation. M. Magnier, s’appuyant sur des analyses sociologiques, a indiqué que l’intérêt bien compris d’un effort supplémentaire d’investissement initial ne pilote pas toujours les accédants à la propriété, qui se laissent parfois guider par des réactions impulsives, dont savent profiter les promoteurs peu scrupuleux. En revanche, le désir d'imiter les classes sociales supérieures pourrait constituer un puissant moteur de généralisation du souci d’assurer la performance énergétique des maisons individuelles.

VISITE DES QUARTIERS VAUBAN ET RIESELFELD
A FRIBOURG-EN-BRISGAU (ALLEMAGNE)
8 OCTOBRE 2009

Cette visite à Fribourg-en-Brisgau, ville du Bade-Wurtenberg qui compte 220.000 habitants dont 30.000 étudiants, a été pilotée par l’architecte Jürgen Hartwig. Elle a permis de découvrir que, dans le domaine de l’efficacité énergétique des bâtiments, l’Allemagne ne s’investissait pas seulement dans la norme « Passivhaus », ou dans la maison « 3 litres » (30 kWh) de BASF44, mais aussi dans la construction à basse consommation « Niedrigenergiehaus » (NEH), à 65 kWh par m² et par an.

Un chiffre donne une idée approximative de l’avance de l’Allemagne dans ce domaine : on y a posé 40 millions de mètres carrés d'isolant en 2008 contre un million seulement en France.

L’hôtel « Victoria », où la délégation était hébergée, s’affiche lui-même comme une réalisation NEH. L’eau chaude y est produite par des panneaux solaires thermiques complétés par une chaudière à bois (pellets).

Cette norme de 65 kWh est tout à fait en ligne avec la norme Effinergie des 50 kWh reprise par la loi « Grenelle 1 » du 3 août 2009, à une modulation géographique près. En effet, l’Alsace proche, en zone H1b, se voit appliquer un coefficient de modulation géographique de 1,3 correspondant justement à 65 kWh.

Deux quartiers ont été construits à Fribourg selon cette norme : le quartier Vauban, et le quartier Rieselfeld, tous deux à l’extrémité de la ville, tous deux anciennement inhospitaliers, tous deux reconstruits autour d’une ligne de tramway ne laissant aucune maison à moins de 500 mètres, tous deux hébergeant aujourd’hui plusieurs milliers d’habitants (10000 à Rieselfeld, 5000 à Vauban) bénéficiant d’un cadre baigné de verdure. L’aménagement des espaces, comme les aires de jeux pour les enfants, a été défini en liaison avec des sociologues pour garantir un confort de vie : absence de barrières, courtes distances. La gestion locale fait une large place à la participation.

Le quartier Vauban a pris forme sur le site d’une ancienne base militaire quittée par les troupes françaises en 1992. Sa réhabilitation a commencé en 1996, grâce à une initiative écologiste (Jürgen Hartwig a fait partie du groupe de projet), dont la vie associative locale semble conserver l’esprit. Elle a duré dix ans. Les douze casernes restantes ont été transformées pour accueillir des activités de soutien social, comme du logement étudiant. L’une d’elles héberge une sorte de restaurant coopératif aux menus imposés, très fréquenté.

La construction du quartier Rieselfeld a commencé en 1998. Un grand nombre d’infrastructures publiques (écoles, médiathèque, aires de loisir) ont été aménagées pour rendre le cadre de vie agréable. L’uniformité apparente des habitations, raccordées à un réseau de chaleur, est masquée par des couleurs vives et variées et une végétation abondante.

Dans tous les cas, l’isolation des bâtiments se fait par l’extérieur, comme l’illustrent les échafaudages bardés à l’extérieur de sacs volumineux lorsqu’un immeuble est en travaux. Des panneaux photovoltaïques sont fréquemment installés sur les maisons individuelles, pas toujours en intégration au bâti, et sur les immeubles publics.

Dans le quartier Vauban, certains immeubles ont été construits selon la norme « Passivhaus » (moins de 15 kWh en énergie finale pour le chauffage), et l’un d’eux fonctionne avec un co-générateur d'électricité et de chaleur au gaz naturel (non subventionné au titre des énergies renouvelables). Cette machine construite par Sachs, anciennement fabricant de vélomoteurs, utilise un moteur à explosion silencieux. Elle produit l’électricité à un coût de revient très inférieur au prix de l’électricité en réseau, ce qui permet d’en revendre le surplus aux riverains, avec un petit bénéfice. La chaleur produite alimente les 1500 m² de surface habitable de l’immeuble, qui héberge vingt familles, alors qu'elle ne suffirait pas pour couvrir le besoin d'une seule maison classique.

La visite d’une zone d’exposition aménagée dans un bâtiment tertiaire à basse consommation très lumineux, montrant des équipements de chauffage et des couches d’isolation en coupe, ainsi qu’un déplacement dans une grande surface de matériaux de construction, ont permis de prendre conscience de la profusion des solutions techniques à la disposition des professionnels allemands du bâtiment pour réaliser des travaux de construction ou de rénovation à basse consommation. Un véritable tissu industriel de PME-PMI s’est mis en place depuis quinze ans en Allemagne pour accompagner le développement des bâtiments basse consommation.

Un échange avec Mme Beate Lorentz, responsable du service de la construction à la mairie de Fribourg, a été l’occasion d’analyser les conditions d’un déploiement réussi de la construction à basse consommation.

En premier lieu, Mme Lorentz a confirmé les réticences initiales des professionnels du bâtiment, qui présentaient comme impossibles les changements à opérer dans les modalités de la construction. Il fallait informer avant tout. Ce mouvement de résistance n’a duré que quelques années, et a fait place à une course à la performance vers la basse consommation, comme l'illustrent les encadrés publicitaires dans les journaux, où les promoteurs utilisent leur capacité à réduire la consommation du bâtiment comme un argument commercial. Le surcoût de la construction en basse consommation a été estimé à environ 3 à 5 % sur les premiers projets ; mais cette considération n’a plus joué après quelques années, lorsque les consommateurs se sont mis à comprendre le gain économique de moyen terme que pouvait représenter un investissement dans une maison à faible besoin énergétique.

L’engagement de la mairie, qui a joué un véritable rôle de contrôleur, a constitué un point clef du basculement vers les nouvelles modalités de construction, celle-ci ne s’occupant pas seulement du contrôle des plans au moment du dépôt du projet, mais aussi des inspections in situ en cours de chantier, comme l’a fait régulièrement Mme Lorentz. Elle a par ailleurs extrait de ses archives des plans corrigés en rouge de sa main montrant qu’elle rectifiait elle-même des calculs de performance énergétique.

La commune de Fribourg a instauré un régime d’amende en cas de dépassement de la norme des 65 kWh pour un bâtiment prévu pour être « Niedrigenergiehaus », mais en pratique aucun litige entre le maître d'ouvrage et le maître d'oeuvre n’est allé jusqu’au stade de la sanction. Un arrangement a toujours pu être trouvé, quelquefois grâce à une entremise ferme de la mairie.

Certains éléments du contexte facilitent le contrôle de la qualité de la construction :

- le test crucial de la porte soufflante, qui, permet de vérifier l’étanchéité du bâtiment prêt à être livré, ne coûte que 350 euros en Allemagne, du fait de la concurrence entre les nombreux cabinets techniques, au total près d’un millier, capables de le réaliser ;

- le droit fédéral n’impose pas une garantie décennale, mais permet en revanche au maître d'ouvrage de retenir un solde à payer, susceptible d’être versé cinq ans après la livraison du bâtiment, après un contrôle technique donnant satisfaction.

La commune se veut une sorte de laboratoire fédéral dans le domaine de la construction à basse consommation, et glisse d’un cran dans l’exigence (en imposant une nouvelle norme 30% plus basse) à chaque rattrapage de la réglementation nationale. A la suite de l’adoption en cours de la nouvelle Energieeinsparverordnung (EnEV 2009), présentée en avril 2009, qui prévoit elle-même une baisse de 30% des plafonds réglementaires, la prochaine étape pour Fribourg consiste donc dans le passage à la maison passive « Passivhaus », qui doit devenir effectif à partir de 2010-2011. La transition est préparée par une vaste campagne de communication et d'information. Les premières zones concernées seront celles où l’urbanisme facilitera le choix d’une orientation optimale du bâtiment. Le surcoût attendu est initialement de l’ordre de 10 à 15 %.

Les conversations avec Mme Beate Lorentz et M. Jürgen Hartwig ont conduit à identifier trois handicaps potentiels du système français par rapport à la situation allemande :

- premièrement, la distance culturelle entre l'architecte et l’ingénieur du bureau d'études. Cette distance a été bien perçue en France par l’association « Effinergie », qui confie la gestion de ses projets à des équipes pluridisciplinaires ;

- deuxièmement, la dérogation à l’obligation légale du recours à l’architecte pour les projets d’une surface inférieure à 170 m2 (obligatoire en Allemagne). Elle prive la construction des petites maisons individuelles d’une capacité de conception et d’invention, qui est encore plus nécessaire pour réaliser la basse consommation à un coût limité dans les projets de petite surface ;

- troisièmement, la rénovation est rendue complexe en France par les contraintes administratives. Une démarche d’un quart d’heure suffit en Allemagne pour satisfaire aux procédures préalables à l’installation d’un panneau solaire. Cette souplesse abaisse le coût de la prestation.

M. Jürgen Hartwig a beaucoup insisté sur l’enjeu social de l’efficacité énergétique des bâtiments, en soulignant le risque que des familles à faible revenu ne puissent faire face à leur facture énergétique lorsque les énergies fossiles, inéluctablement, deviendront à nouveau de plus en plus chères, du fait des contraintes sur leur offre mondiale.

Il a aussi plaidé pour un système souple, qui permette d’opter pour des solutions sur mesures (les contraintes en terme de chauffage dans le Nord de l’Europe ne sont pas les mêmes que celles du Sud) et s’étonnait à cet égard que le recours aux cellules photovoltaïques ne soit pas plus développé en France.

Il a fourni quelques données sur les énergies renouvelables, compléments indispensables à l’effort d’efficacité énergétique pour minimiser l’emprise des énergies fossiles :

- les éoliennes amortiraient leur énergie grise en six mois ; les panneaux photovoltaïques en deux à trois ans ;

- la capacité de production allemande de biogaz atteint 1,4 gigawatts répartis sur environ 4000 installations. La loi oblige désormais les opérateurs gaziers allemands à injecter une part de biogaz dans les circuits de distribution de gaz naturel.

VISITE DU QUARTIER BEDZED À LONDRES
22 OCTOBRE 2009

Le déplacement en Grande-Bretagne a eu pour objet d'une part de visiter le quartier BedZED (Beddington Zero Energy Development), d'autre part d'échanger avec des professionnels du secteur du bâtiment pour faire le point sur l'état d'avancement de la construction à basse consommation d'énergie en Grande-Bretagne.

La visite du célèbre quartier BedZED, situé à l'extrême sud de la ville de Londres, dans l'arrondissement de Sutton, a révélé qu'il s'agissait d'un ensemble de construction assez petit (une centaine d'appartements pour 250 occupants) et de nature plutôt expérimentale. A certains égards, c'est une sorte de pilote de démonstration militante de la révolution écologique, comme l'illustre le contenu du questionnaire proposé en fin de visite, et l'organisation tout à fait professionnelle de l'accueil (3000 visiteurs par an). Sa création en 2001 résulte d'une initiative privée, celle de l'architecte Bill Dunster en liaison avec l'association (Charitable Trust) écologiste Bioregional, qui entretient des liens particuliers avec l'ONG World Wide Fund for Nature (WWF), dont les travaux sur l'empreinte écologique des différents pays du monde, aux résultats un peu surprenants quant au classement relatif de la France par rapport au Royaume-Uni et à l'Allemagne, sont mis en valeur à travers des documents disponibles sur des présentoirs. Les appartements d'une taille relativement petite (100 m²), assez courante à Londres, sont occupés depuis 2002.

Les immeubles sont isolés par l'extérieur, avec une couche de laine de verre de 30 centimètres enfermée entre un premier mur en béton écologique, intégrant de la cendre issue des hauts fourneaux sidérurgiques, et un second mur en bois. Les fenêtres sont équipées d'un triple vitrage sur les façades au Nord, d'un double vitrage sur les façades au Sud.

La construction s'est faite en portant attention à la minimisation du carbone gris mobilisé (Embodied Carbon analysé sur le cycle de vie complet), et tous les matériaux utilisés ont été évalués à l'aune du nombre d'années au bout duquel l'économie en émission de gaz carbonique, réalisée en cours de fonctionnement des bâtiments, permettra de rééquilibrer le bilan global en carbone émis : 5 années pour le recours au béton, par exemple. Les montants des fenêtres sont en bois pour éviter le recours au plastique. Les évaluations tiennent compte du contenu en gaz à effet de serre des transports; le recours aux ressources disponibles dans la proche région a donc été systématiquement privilégié : la moitié des matériaux proviendrait d'entreprises situées dans un rayon de 30 kilomètres.

L'effort pour limiter les émissions de CO2 s'étend à l'organisation des transports, puisqu'un dispositif d'auto-partage permet de réduire d'un facteur 10 le nombre des véhicules nécessaires aux habitants.

La performance énergétique atteinte est tout à fait en ligne avec les normes habituelles de basse consommation, puisque l'énergie primaire consommée sur les usages de chauffage, de climatisation et d'éclairage ne dépasserait pas 48 kWh par m² et par an. Cela correspond à un gain de 90% sur la consommation d'énergie pour le chauffage, de 60% pour l'eau chaude, par rapport à la moyenne britannique.

La dimension expérimentale du site apparaît à travers deux échecs, l'un concernant l'utilisation d'une chaudière centrale à bois, l'autre un système d'épuration des eaux usées. La chaudière centrale à bois devait fournir deux tiers de chaleur et un tiers d'électricité, mais elle a été arrêtée suite à la faillite de la société de maintenance; elle a été remplacée par un chauffage au gaz, une partie importante de l'électricité consommée sur place étant par ailleurs fournie par des panneaux photovoltaïques. Quant au dispositif d'épuration de l'eau initialement prévu, fonctionnant grâce à une série de bassins de décantation, il a été abandonné lorsque son technicien bénévole a pris sa retraite; une station utilisant le principe du filtrage a pris le relais, et elle est en cours d'évaluation, l'option d'un raccordement au système public de gestion des eaux usées n'étant pas exclue à terme.

Deux dispositifs particulièrement intéressants sont mis en œuvre sur le site, l'un concernant la ventilation, l'autre le suivi des consommations :

1) Le système de ventilation fonctionne en double flux de manière passive en utilisant la force du vent ; il utilise un procédé hérité des techniques de séchage des grains dans les fabriques de bière du Kent (oatshouse). Il se traduit par l'installation sur les toits de grandes cheminées pivotantes comme des girouettes. A BedZED, ces cheminées décorées de couleurs vives sont devenues le symbole caractéristique du site.

2) Tous les appareils de mesure de consommations énergétiques sont regroupés dans un placard vitré situé au milieu des meubles de cuisine des appartements, afin qu'ils soient le plus souvent possible à portée du regard des occupants. Les premiers compteurs ainsi regroupés étaient au départ assez primitifs; aujourd'hui, ils prennent la forme d'élégants écrans d'affichage. La facilité d'accès aux mesures de consommation est considérée à BedZED comme la meilleure manière d'entretenir la préoccupation d'économie d'énergie des occupants.

Le projet BedZED constitue en soi un succès, puisque le prix de vente des locaux atteint désormais 1400 livres par m², soit plus du double du prix initial de construction. On peut néanmoins se demander quelle est la part, dans cette hausse de prix, correspondant à l'économie anticipée sur les factures d'énergie, et quelle est la part due à l'efficacité du marketing autour de l'opération.

Les échanges avec les professionnels du secteur ont permis de mieux comprendre les conditions dans lesquelles les autorités britanniques gèrent les avancées en matière d'efficacité énergétique des bâtiments.

Participaient à l'entretien : M. Madani Saw, président de Bouygues Construction UK; M. Martin Townsend, directeur de la norme BREEAM au sein du groupe BRE, équivalent approximatif du CSTB mais sous un régime d'association (BRE Trust); M. Gideon Amos, directeur de la Town and County Planning Association (TCPA), institution privée de soutien social vieille de plus d'un siècle ; Mme Morag Tait, directrice associée du cabinet d'architectes Allford Hall Monaghan Morris.

La simple mention des associations BRE et TCPA montre que l'amélioration de la qualité des bâtiments en Grande-Bretagne n'est pas seulement l'affaire du ministère compétent (Department for Communities and Local Government), mais dépend beaucoup de l'implication d'organismes privés à visée sociale et environnementale plus large.

Ce double niveau de gestion, au niveau national (Angleterre et Pays de Galles) et au niveau d'initiatives collectives, se retrouve dans la réglementation technique de la construction, qui combine un corpus de règles obligatoires (Building Regulations) et des labels privés (Certification Schemes) comme le BREEAM (BRE Environmental Assessment Method).

Le Code for Sustainable Homes, établi par le Gouvernement en avril 2007, définit un ensemble de normes techniques pour des constructions plus exigeantes en termes de protection de l’environnement. Initialement introduit comme un label facultatif (Voluntary National Standard), son application à toute nouvelle construction à des fins d’évaluation de la performance environnementale (rating against the Code) est requise depuis le 1er mai 2008.

Les règles obligatoires comprennent une partie imposant le respect de moyens en ce qui concerne les standards techniques et les procédures, et une autre partie concernant le respect d'objectifs de performance (Approved Documents) pour diverses fonctions (insonorisation, ventilation, résistance aux moisissures, sécurité de l'électricité); la consommation d'énergie fait l'objet d'objectifs de performance (partie L), en ligne avec les exigences de la RT2005. Si une performance est requise, tout moyen peut être mobilisé pour l'atteindre.

Une partie de ces règles obligatoires est fixée dans la loi, en l’occurrence le Building Act de 1984 tel qu’amendé par d’autres textes qui ont suivi ; une autre partie résulte d’arrêtés ministériels pris en application de la loi.

Le contrôle est effectué au niveau du dépôt du projet (Planning Submission) par les autorités locales, et durant les travaux en cours ou achevés par des Building Control Bodies, qui sont soit des services municipaux, soit des cabinets certifiés (Approved Inspectors).

La question de l’efficacité énergétique n’apparaît pas véritablement en tant que telle comme un enjeu de la réglementation de la construction en Grande-Bretagne. Mais deux problématiques voisines sont au cœur des réflexions :

- d’un côté, la nécessité d’une prise de conscience par les propriétaires qu’un effort d’efficacité énergétique est générateur d’un fort retour sur investissement. Mme Morag Tait a indiqué qu’à cet égard, si les progrès sont incontestables au niveau des projets d’une certaine taille, les particuliers sont encore loin d’adopter spontanément ce raisonnement ;

- de l’autre, la lutte contre l’effet de serre illustré par l’objectif d’une réduction à zéro des émissions de carbone pour les logements (homes) construits à partir de 2016 (en Angleterre et au Pays de Galle). Cet objectif est consigné dans un rapport de juillet 2007 : « Building a Greener Future: policy statement »45. Pour les bâtiments tertiaires (non domestic buildings), le même objectif a été annoncé pour 2019.

S’agissant de cet objectif de réduction des émissions de C02, MM. Martin Townsend et Gideon Amos ont indiqué que deux débats étaient en cours :

- d’une part, la réalité de ce que doit recouvrir la notion d'émission nulle (Zero Emission) n'est pas encore définie. Une vaste consultation publique est en cours jusque vers la fin 2009. Il s’agit d’adapter les parties L (Conservation of Fuel and Power) et F (Means of Ventilation) des Building Regulations. Le document de consultation prévoit l’atteinte de l’objectif par l’efficacité énergétique, mais aussi en excluant du bilan les émissions de carbone intervenant dans certains cas, en particulier les émissions sur place à faible débit, ou les émissions du fait du raccordement à un réseau de chaleur.

- d’autre part, les conditions de l'application d’une telle disposition restent à déterminer. A une norme nationale obligatoire sur tout le territoire, certains préféreraient un pouvoir décentralisé de décision d’application au niveau des communes. Cette seconde modalité plus souple pérenniserait la situation actuelle, où les collectivités locales les plus sensibilisées s'engagent déjà dans la voie de la réduction des émissions de carbone, mais par voie contractuelle, sans recours à la contrainte.

M. Martin Townsend a souligné combien le dispositif actuel combinant la fixation d’un cadre général de moyen terme avec des initiatives privées exploratoires préparant le terrain pour des progrès de la réglementation, était important pour inciter le secteur industriel à se préparer aux évolutions qui, à coup sûr, s’annoncent.

En réponse à une interrogation de M. Claude Birraux, rapproteur, sur la disponibilité en qualification nécessaire pour progresser sur le chemin de la basse consommation, MM. Madani Saw et Martin Townsend ont reconnu que beaucoup restait encore à faire à cet égard en Grande-Bretagne. Aucun programme de sensibilisation aux nouveaux enjeux de la construction n’a été mis en place, et la formation de base reste prise en charge principalement par deux structures associatives (Construction Skills et National Construction College) financées par les industriels du secteur, avec le concours de crédits publics nationaux et européens.

M. Christian Bataille, rapporteur, s’interrogeant sur le rôle respectif des architectes et des ingénieurs dans la construction en Grande-Bretagne, M. Madani Saw a observé qu’il devenait difficile d’attirer des jeunes ingénieurs de valeur vers le secteur de la construction, car tous les étudiants sont drainés vers d’autres secteurs plus lucratifs, et considérés comme plus prestigieux, comme le droit et la finance. En revanche, ceux qui sont recrutés disposent d’un avantage indéniable sur leurs homologues français : c’est la capacité à travailler dans une équipe pluridisciplinaire, qu’ils ont traditionnellement apprise dans le cadre de l’enseignement supérieur. Or cette dimension pluridisciplinaire est cruciale pour construire des bâtiments respectueux de l’environnement, le seul ingénieur ne pouvant appréhender tous les aspects de cette nouvelle forme de construction.

M. Gideon Amos a expliqué que l’intégration des enjeux d’environnement dans la construction se posait en termes différents en Grande-Bretagne et en France, en raison de la tension sur le prix du terrain à bâtir46. M. Madani Saw a précisé que celle-ci se répercutait au niveau du montant des loyers, notamment à Londres. Cependant l’inflation des prix constitue aussi un levier pour la construction, car un surplus à la vente d’un programme réalisé peut ainsi rapidement être dégagé, fournissant les moyens de financer de nouveaux programmes.

VISITE DU CENTRE DE RECHERCHE DE SCHNEIDER
DÉDIÉ AU PROGRAMME « HOMES »
JEUDI 12 NOVEMBRE 2009

Le groupe Schneider, né a la fin du XVIIIe siècle a longtemps produit de l'acier, et n'a amorcé un virage vers l'électricité qu'en 1975, avec une prise de participation dans la société Merlin Gerin, qui est devenu le pivot des activités du groupe à partir de 1981, suite a l'arrivée à sa tête de M. Pinault Valencienne. A partir de sa position dans les composants électriques, le groupe a reconfiguré sa stratégie pour se spécialiser dans la fonction de contrôle-commande des systèmes électriques, qui fait le lien entre la fourniture d'électricité et sa consommation finale.

Le projet HOMES s'inscrit dans le métier de Schneider, puisqu'il vise à optimiser la gestion de l'énergie dans les bâtiments. Figurant parmi les premiers des projets mis en avant par l'Agence d'innovation industrielle en 2006, il a obtenu l'agrément de la commission européenne en septembre 2007, et a démarré en septembre 2008, suite à la signature de l'accord de groupement entre les partenaires. Il bénéficie d'un concours financier de l'Etat français de 39 millions d'euros, dont 15 millions sous forme d'avances remboursables. Ce concours vaut pour une période de 48 mois, sous réserve que des solutions pilotes opérationnelles puissent être présentées au bout de 30 mois, faute de quoi le projet sera interrompu. Cette échéance de démonstration interviendra en mars 2011. Ce projet de recherche coopérative implique au total 13 partenaires scientifiques ou industriels, dont EDF et le CSTB. Quatre partenaires européens non français, dont l'électronicien hollandais Philips et le spécialiste allemand de la connectique Wieland sont associés sur une base d'autofinancement; cette configuration particulière, qui a facilité l'obtention de agrément par la Commission européenne, a complexifié la structure et la négociation de l'accord de groupement.

Les études d'ores et déjà conduites sur la gestion de l'énergie dans les bâtiments, qui ont conduit à l'audition de 600 propriétaires, exploitants ou occupants à travers l'Europe, ont permis d'identifier six leviers pour l'amélioration de l'efficacité énergétique par la gestion de l’énergie : la fragmentation de l'occupation, l'optimisation du pilotage, la maximisation des apports naturels, la recherche d'un optimum global, l’amélioration de la performance des équipements, l'assistance à la prise de conscience des utilisateurs (le monitoring).

L’amélioration de la gestion de l'énergie constitue l'une des quatre voies d'économie d'énergie dans les bâtiments avec l'effort respectivement sur la structure du bâtiment (sa forme, son orientation), sur son isolation, et sur la performance des équipements. Mais c'est la voie la plus efficace puisqu'elle permet une réduction de consommation de 50%, supérieure à celle possible avec l'isolation (45%), ou avec la performance des équipements (40%). Pour un bâtiment ancien consommant en moyenne 300 kWh par m² et par an en Europe, la mise en oeuvre combinée de ces trois voies permettrait ainsi en théorie, c'est-à-dire en l'absence de contrainte sur les ressources, de ramener la consommation à 50 kWh par m² et par an.

Parmi les six leviers de l’amélioration de la gestion de l'énergie, les deux plus efficaces sont de loin la fragmentation de l'occupation et le monitoring. La fragmentation de l'occupation consiste à caler l'utilisation des équipements énergétiques sur les moments et besoins liés à leur utilisation effective. La pire situation de ce point de vue est représentée par les salles de réunion de grande capacité, qui sont par définition utilisées la plupart du temps en deçà de leur capacité, et qui néanmoins sont souvent configurées pour bénéficier en permanence des niveaux de chauffage, de ventilation ou de climatisation maximaux. Le calcul réglementaire n'est par ailleurs pas conçu pour prendre en compte une régulation de leur consommation énergie en fonction de leur occupation effective.

L'apport de la fragmentation de l'occupation repose sur la décomposition d'un bâtiment par zone homogène, c'est à dire par pièce ou groupe de pièces correspondant à un même mode d'utilisation. Il apparaît ainsi clairement une possibilité d'arbitrage entre un effort sur l'isolation ou sur la gestion de l'énergie. Dans les zones peu fréquentées où le besoin de confort est moindre, comme les hangars, un effort sur l'isolation est bien moins efficace qu'un affinage du contrôle des équipements d'éclairage et de chauffage; à l'inverse, dans les zones d'occupation permanente comme les hôpitaux, le gain potentiel d'économie lié à un renforcement de l'isolation est très supérieur à celui que permettrait une optimisation du déclenchement des équipements énergétiques.

Le monitoring consiste à rendre accessible à l'utilisateur, en permanence, à travers un affichage (sur un « moniteur »), le résultat de sa consommation énergétique, de manière a l'inciter à ajuster son comportement. La mise en œuvre de cette solution suppose en amont une étude des paramètres auxquels l'utilisateur se montre sensible, et qui peuvent être différents selon son rapport économique et juridique au bâtiment : ainsi le propriétaire est soucieux de préserver sur le long terme la valeur et la rentabilité de son bien, l'exploitant vise la performance globale courante, l'occupant la minimisation de ses charges. Il ne s'agit pas de multiplier les affichages de résultats, mais de rendre très ergonomiques ceux qui sont véritablement les plus pertinents.

L'approche de l'efficacité énergétique par la fragmentation d'occupation tranche avec les habitudes professionnelles du bâtiment consistant à considérer toute construction principalement à travers le prisme de la décomposition par corps de métier. Pour la mise en œuvre du contrôle actif de la gestion d'énergie, c'est au contraire une conception fonctionnelle qui doit prévaloir, et celle-ci devrait être portée par des nouveaux corps de métier à vocation transversale :

- pour la construction, l'ingénierie énergétique en assistance à la maîtrise d'ouvrage, dont on ne dénombre aujourd'hui que 2000 à 3000 cabinets en Europe;

- pour l'exploitation, le management énergétique (Energy Manager) dont l'apport serait particulièrement intéressant dans la gestion des bâtiments tertiaires couvrant des fonctions multiples.

Une démonstration d'outils de monitoring a mis l'accent sur l'intérêt :

- d'intégrer le maximum de fonctions sur un même composant, par exemple la mesure de la température, de l'hygrométrie, du taux de gaz carbonique;

- de rendre le composant de mesure autonome en énergie grâce à un capteur photovoltaïque;

- de recueillir les informations de mesure par une communication sans fil (exploitant le protocole radio Zigbee) pour augmenter le potentiel du contrôle même sur le parc existant.

Schneider développe par ailleurs des outils de simulation, dont l'objectif est de surmonter la complexité des différents paramètres en jeu dans l'optimisation combinée du recours aux équipements énergétiques. En effet, un optimum global de fonctionnement du point de vue de la consommation d'énergie ne correspond pas, le plus souvent, à l'optimum sur chacun des équipements considérés indépendamment.47

1 Programme de recherche et d’expérimentation sur l’énergie dans le bâtiment, mis en place en 2004 à travers une structure de coordination entre cinq ministères et six agences publiques.

2 Centre scientifique et technique du bâtiment.

3 Les « ponts thermiques » sont les points de l’architecture créant un défaut dans l’isolation thermique.

4 Un « puits canadien » est un système de ventilation faisant passer l’air entrant par une canalisation enterrée à quelques mètres de profondeur, afin de le réchauffer préalablement au contact du sous-sol, lequel conserve la même température ambiante toute l’année. Le même système peut d’ailleurs servir à rafraîchir un bâtiment en période chaude ; on dit alors qu’il fonctionne en « puits provençal ».

5 CAPEB : Confédération de l’Artisanat et des Petites Entreprises du Bâtiment

6 FFB : Fédération française du Bâtiment

7 Les secteurs résidentiel et tertiaire répondent à deux logiques différentes s’agissant de la part du comportement des utilisateurs dans la performance énergétique : l'utilisateur du secteur résidentiel consomme l'énergie dans le cadre de ses libertés fondamentales sous une contrainte de revenu; l'utilisateur du secteur tertiaire consomme l'énergie le plus souvent dans le cadre défini par un règlement intérieur, qu’il soit employé, visiteur, usager ou client. Par conséquent, une optimisation de la performance par la gestion des comportements est envisageable dans les bâtiments tertiaires, tandis qu’elle dépend d’une autodiscipline dans les bâtiments résidentiels.

8 Une ventilation « simple flux » aspire l’air frais extérieur, en comptant sur les fuites aménagées dans le bâti pour évacuer l’air vicié intérieur. Une ventilation « double flux » gère, dans un bâti parfaitement imperméable, d’un côté, l’aspiration de l’air frais, de l’autre, l’extraction de l’air vicié.

9  Article 35 de l’arrêté du 24 mai 2006.

10  Cf. Le 5° c) de l'article 2 de l'arrêté du 3 mai 2007 définissant le label BBC 2005.

11  SHON : surface hors œuvre nette.

12  L’effet Joule, ainsi appelé d’après le nom du physicien anglais qui l'a étudié vers 1860, décrit le dégagement de chaleur produit par la circulation du courant électrique dans un matériau conducteur. Les systèmes électriques de chauffage basés sur cet effet se distinguent des « pompes à chaleur », évoquées plus loin, qui fonctionnent aussi à l’électricité, mais reposent sur un autre principe physique, bien plus efficace.

13 Le COP « annuel » rend compte du rendement réel de l’installation sur une saison entière. Il peut être très différent du COP théorique mesuré en laboratoire.

14 « RT 1988 », « RT 2000 », « RT 2005 », « RT 2012 » sont une manière usuelle de désigner les versions successives de la réglementation thermique. La « RT 2012 » est celle définie par la loi du 3 août 2009.

15 Direction de l’habitat, de l’urbanisme et des paysages, chargée, au sein du ministère de l’écologie, de l’énergie, du développement durable et de la mer, de la mise en place de la réglementation thermique.

16 Si le bâtiment a la forme d’un cube d’arête A, son volume vaut A3 et la surface de son enveloppe extérieure vaut 6 A2. Donc le rapport entre la surface de l’enveloppe extérieure et le volume vaut : 6 / A, et croît lorsque la valeur de A diminue.

17 Ce test consiste à remplacer une porte extérieure par une fermeture étanche comportant un puissant ventilateur. En déclenchant celui-ci, on crée alors une surpression intérieure, et la disparition plus ou moins rapide de cette surpression donne une indication sur l’importance des fuites d’air.

18 1Cf. http://www.coag.gov.au/coag_meeting_outcomes/2009-04-30/docs/National_strategy_energy_efficiency.pdf

19 Cf. http://www.mairie-castelnau-medoc.fr/index.php?page=plu.php

20 Le projet des « plates-formes technologiques » est présenté plus complètement un peu plus loin, dans la sous-partie C du IV intitulée « Les effets d’entraînement ».

21 En théorie économique, on dirait une « asymétrie d'information ».

22 Cf. http://www.ffcmi.com/contrat.html

23 Cela suppose qu’environ 4 millions de logements BBC aient été construits à l’horizon d’une décennie.

24  Cf. http://www.developpement-durable.gouv.fr/energie/publi/pdf/rapport-prevot.pdf

25  Ce chiffre s’obtient en retenant un rendement approximatif d’un tiers pour l’ensemble des centrales thermiques ; les centrales hydroélectriques, qui ne dissipent pas de chaleur, ne sont pas concernées.

26 L’Office parlementaire d’évaluation des choix scientifiques et technologiques a déjà eu l’occasion d’aborder de manière approfondie certains aspects de ce sujet à travers un rapport de Mme Marie-Christine Blandin, sénatrice : "Risques et dangers pour la santé humaine de substances chimiques d'usage courant : éthers de glycol et polluants de l'air intérieur. Evaluation de l'expertise publique et des choix opérés" (janvier 2008)

27 « Le coût de la fourniture d’électricité en base converge, par construction, vers le coût de développement du nucléaire du fait de la diminution mécanique de la part régulée assise sur le parc historique au fur et à mesure de son érosion et de l’augmentation concomitante de la part issue du renouvellement du parc nucléaire. », Rapport de la commission sur l’organisation du marché de l’électricité, présidée par Paul Champsaur, avril 2009, p.16.

28 Cette moyenne est calculée en fait à partir de l’intégrale (au sens mathématique) de la distribution des émissions instantanées sur une période de temps correspondant à un profil d’évolution complet, l’année paraissant en l’occurrence bien adaptée.

29 Ce chiffre sera atteint en 2011 selon l’Institut Polk : Cf. Polk View, mars 2008, « Planning Beyond a Billion », http://www.polk.com/TL/PV_20080320_Issue002_GlobalVIO.pdf

30 « Quelle stratégie pour la recherche en matière d’énergie ? », mars 2009, p. 81, p. 87, p. 276 et suiv.

31 Sur ce point, voir la synthèse proposée (page 114 et suivantes) dans le rapport de MM. Birraux et Bataille de mars 2009 sur la stratégie de recherche en énergie.

32 Programme de recherche et d’expérimentation sur l’énergie dans le bâtiment, géré à différents niveaux par MM. Yves Farge, François Perdrizet, Jean-Paul Fideli, autres membres du comité de pilotage.

33 Il permettrait éventuellement d’enregistrer, sous la forme d’une baisse du ratio, les progrès de l’efficacité énergétique globale résultant des progrès de la part des énergies renouvelables dans la production d’électricité (intégrées avec un rendement théorique de 1).

34 Selon l’article 15 de l’arrêté du 24 mai 2006, le coefficient Ubât caractérise l’ensemble des déperditions de chaleur par les parois et les baies du bâtiment. Il rend compte d’une transmission thermique désignée habituellement par un coefficient U exprimé en W/(m²×K). K est le symbole de la température en degré Kelvin.

35 La performance des isolants est caractérisée par la résistance thermique R, en ×K/W

36 Ventilation mécanique contrôlée

37 Homes est un projet lancé en 2006 avec le soutien de l’Agence d’innovation industrielle. Il vise à définir de nouvelles architectures pour le contrôle et la distribution de l'énergie dans le bâtiment. Il mobilise, derrière le chef de file Schneider Electric, tous les acteurs européens maîtrisant les technologies indispensables : Ciat, Edf, Philips Lighting, Somfy, ST Microelectronics, TAC, Delta Dore, Polyspace, Radiall, Watteco, Wieland, le CEA, le Centre scientifique et technique du bâtiment, et le laboratoire IDEA.

38 Cf : http://maison.ecolo.org et http://comby.blogspot.com. Dans l’extrait repris ici, les références à des produits commerciaux ont été supprimées.

39 20 + 18 + 17,5 + 4 + 2 + 3 + 1 = 65,5. Le coefficient global (évaluant la consommation énergétique effective par rapport à la situation de référence) est donc de 0,345.

40 Cf. http://www.grandlyonhabitat.fr/PDF/DP/dp_2009/dp_vendome_2009.pdf

41 Cf. http://www.ddrhonealpesraee.org/circuits/rhone_ain/08_RHONE-AIN_ALLP.pdf

42 Cf. http://www.groupemcp.com/prog-saint-priest-feuilly-2/index.html

43 Cf. http://www.polesolere.com/index.html

44 La combustion d’un litre de fioul dégage une énergie d’environ 10 kWh.

45 Cet objectif a été annoncé par la Communities Secretary Ruth Kelly en décembre 2006.

46 Le prix évoqué de 150 livres le mètre carré (un million et demi de livres par hectare) est cependant assez voisin de ceux pratiqués dans certaines régions de France.

47 Le programme est présenté sur Internet à l’adresse suivante : http://www.homesprogramme.com


© Assemblée nationale