Accueil > Documents parlementaires > Rapport d'information
Version PDF
Retour vers le dossier législatif

N° 2005 N° 84

___ ___

ASSEMBLÉE NATIONALE SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

treizième législature Session ordinaire de 2009 - 2010

__________________________________ ________________________________

Enregistré à la Présidence de l’Assemblée nationale Annexe au procès-verbal

Le 4 novembre 2009 de la séance du 4 novembre 2009

OFFICE PARLEMENTAIRE D’ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

Les incidences éventuelles sur la santé
de la téléphonie mobile

Par M. Alain GEST,

Député

TOME II

AUDITIONS PUBLIQUES

_________

Déposé sur le Bureau
de l’Assemblée nationale

par M. Claude BIRRAUX,

Président de l’Office

 

_________

Déposé sur le Bureau du Sénat

par M. Jean-Claude ÉTIENNE,

Premier Vice-Président de l’Office

SOMMAIRE

___

Pages

LES ANTENNES RELAIS À L’ÉPREUVE DES INQUIÉTUDES DU PUBLIC ET DES DONNÉES SCIENTIFIQUES

Audition publique, ouverte à la presse, du lundi 6 avril 2009 5

TÉLÉPHONIE MOBILE, TECHNOLOGIES SANS FIL ET SANTÉ : SORTIR DU MANICHÉISME

Audition publique, ouverte à la presse, du mercredi 10 juin 2009 71

LES ANTENNES RELAIS À L’ÉPREUVE DES INQUIÉTUDES DU PUBLIC ET DES DONNÉES SCIENTIFIQUES

compte rendu de l’audition publique, ouverte à la presse

du lundi 6 avril 2009

organisée par

M. ALAIN GEST, député de la Somme

SOMMAIRE

___

Pages

OUVERTURE DE LA SEANCE 9

M. Alain Gest, député, rapporteur de l’OPECST 9

Discours d’ouverture de M. Bernard Accoyer, Président de l’Assemblée Nationale 9

Propos introductif de M. Alain Gest, député, rapporteur de l’OPECST 12

PREMIÈRE TABLE RONDE : LES ANTENNES RELAIS ONT-ELLES DES EFFETS SANITAIRES ? 13

M. le professeur André Aurengo, chef du service de médecine
nucléaire de l’hôpital Pitié-Salpêtrière, membre de l’Académie de médecine. 13

M. Éric van Rongen, membre du conseil de la santé des Pays-Bas. 16

Docteur Pierre Souvet, président de l’association Santé Environnement de Provence. 19

M. Denis Zmirou-Navier, Professeur à la faculté de médecine de Nancy. 22

Débat 24

DEUXIÈME TABLE RONDE : FAUT-IL ABAISSER LES VALEURS LIMITES D’EXPOSITION ? 35

M. Bernardo Delogu, Chef d’unité à la Direction générale de la santé et des consommateurs de la Commission européenne. 35

M. Joël Solé, Directeur-adjoint du Cabinet de la Ministre de l’environnement de la région Bruxelles-capitale. 39

Débat 43

TROISIÈME TABLE RONDE : QUELLE GOUVERNANCE SOUHAITABLE ? 49

M. Jean-Marie Danjou, délégué général de l’Association française des opérateurs de mobiles. 49

M. Stephen Kerckhove, délégué général de l’Association Agir pour l’Environnement. 53

Mme Danielle Salomon, sociologue au Centre de sociologie des organisations. 56

Débat 61

CONCLUSION DE M. ALAIN GEST, DÉPUTÉ, RAPPORTEUR DE L’OPECST 70

Lundi 6 avril 2009

Présidence de M. Alain Gest

OUVERTURE DE LA SEANCE

M. Alain Gest, député, rapporteur de l’OPECST. Je remercie celles et ceux qui participent à cette audition. S’inscrivant dans la préparation d’un rapport que l’Office parlementaire des choix scientifiques et technologiques m’a confié, elle est la première des deux auditions publiques destinées à montrer que nous travaillons dans la transparence et que nous sommes ouverts à des points de vue différents sur un sujet d’actualité dépassant le cadre franco-français. Je vous prie d’excuser le président de l’Office, M. Claude Birraux, qui est en déplacement.

En votre nom, je remercie le président de l’Assemblée nationale, M. Bernard Accoyer, de sa présence : il porte un intérêt particulier aux problèmes qui seront évoqués aujourd'hui, notamment à leurs aspects juridiques, et je lui laisse le soin d’introduire nos travaux.

Discours d’ouverture de M. Bernard Accoyer, Président de l’Assemblée Nationale

M. le président Bernard Accoyer . C’est vrai, j’attache beaucoup d’importance aux travaux de l’Office parlementaire d’évaluation des choix scientifiques et technologiques en général, en particulier à ceux qui nous réunissent cet après-midi. J’ai été de ceux qui ont souhaité, au sein de la conférence des présidents, que l’Office – comme il y a quelques années – suive le débat né de l’inquiétude que suscitent les antennes de radiotéléphonie mobile. Je me félicite que l’Office, présidé par Claude Birraux, ait confié un rapport sur le sujet à Alain Gest, chez qui la détermination et la rigueur le disputent à l’objectivité et à l’équilibre, dans le souci constant de faire avancer le débat.

Les grandes évolutions scientifiques ont toujours, et à juste titre, suscité mille questions. Le progrès lui-même étant ambivalent, il doit être maîtrisé. Mais derrière les craintes qu'éprouvent nos sociétés confrontées à des transformations aussi profondes qu'incessantes, se niche aujourd'hui une défiance quasi systématique à l'endroit de la science et du progrès. Par ma présence ici parmi vous, je souhaite donc encourager le dialogue, la transparence, la prééminence de la raison, et les valeurs qui permettent de faire avancer nos connaissances pour mieux appréhender le monde. La téléphonie mobile illustre le fossé qui existe aujourd'hui entre une société postindustrielle, où les technologies de l'information et de la communication accroissent chaque jour nos moyens d'action, et une perception suspicieuse du progrès technologique. Cette inquiétude s'est trouvée fortement amplifiée dans l'opinion publique par de récentes décisions jurisprudentielles qui ont montré toute la complexité du sujet et toute la difficulté d'interprétation du principe de précaution, introduit en 2005 dans notre Constitution.

Aujourd'hui, plus d'un Français sur deux possède un téléphone mobile. Pour nombre de nos concitoyens, le portable est devenu un objet banal. Gage d'efficacité, de rapidité, de confort et, on l’oublie trop souvent, de sécurité, il est même, pour beaucoup d’entre nous, indispensable. La rançon de ce succès, c'est l'installation d'un grand nombre d'antennes, afin d'assurer la couverture optimale du territoire, réclamée par nos concitoyens et à laquelle les pouvoirs publics, comme les opérateurs, se sont engagés. Ces dix dernières années, les Français ont été spectateurs de cette prolifération d'équipements. On compte aujourd'hui plus de 47 000 de ces antennes relais utilisant le GSM. Elles s'ajoutent aux 23 000 stations UMTS et à l'ensemble de celles qui existaient déjà – destinées à la radiodiffusion, la télévision, la radio professionnelle – et qui émettent aussi des signaux radioélectriques. La question de l'interaction des radiofréquences, et des ondes électromagnétiques en général, avec le corps humain, est donc ancienne et la réponse dépend finalement de la confiance que l’on accorde aux scientifiques.

La multiplication des antennes, souvent perçue comme anarchique, a fait naître progressivement dans une partie de la population une inquiétude invoquée surtout à propos de la santé des enfants, mais aussi de celle des adultes. Des études existent, elles ont montré l'innocuité des antennes relais. La réglementation actuelle se fonde sur des valeurs limites d'exposition qui tiennent déjà compte d'un facteur de sécurité. Pourtant, les chiffres font toujours débat car les effets sanitaires de l'exposition aux champs électromagnétiques ne sont pas encore connus aussi complètement que nous pourrions le souhaiter. Le seront-ils d’ailleurs un jour ? Combien de temps faudra-t-il pour que les inquiétudes s’apaisent ? En tout cas, à ce jour, aucun risque n'a été scientifiquement établi.

Pourtant, malgré plus de dix ans d'articles scientifiques et de rapports pour les radiofréquences et plus d'un demi-siècle pour les champs électromagnétiques, la voix d'associations ou de simples citoyens se fait entendre de plus en plus fortement, pour dénoncer un risque redouté, voire ressenti, mais qui n’est pas établi. Les antennes contribueraient au développement de cancers tels que les tumeurs cérébrales ou les leucémies et de troubles fonctionnels comme des difficultés d'attention, des troubles de l'humeur ou du comportement. Certains de nos concitoyens en sont intimement convaincus. Mais conviction vaut-elle plus que raison ?

Lorsque nous parlons en scientifiques, nous acceptons que le savoir puisse revêtir différents degrés de certitude, que les théories les mieux établies voisinent avec des conjectures ou des hypothèses prometteuses. Nous savons aussi qu'existe un usage proprement scientifique du doute, qui, loin de paralyser la réflexion, permet de faire progresser la recherche. L’expertise scientifique est intimement liée au principe de précaution, mais à un principe dynamique, qui, loin de nous interdire d'agir, nous impose de poursuivre les expérimentations et les recherches pour mieux évaluer les risques et lever les doutes. Nos concitoyens, eux, attendent, des réponses claires et immédiates à leurs questions et à leurs incertitudes, des réponses que les scientifiques ne sont pas toujours en mesure de leur apporter, car jamais un scientifique ne se déclarera sûr à 100 %. C'est ce décalage entre le propre de la démarche scientifique et les doutes exprimés par l'opinion qui nourrit l'incompréhension, la méfiance, la crainte de courir un risque dont on n'est pas sûr qu'il existe.

Face à cette situation, quelle attitude devons-nous adopter ?

De toute évidence, nous devons être à l'écoute de ces préoccupations et tenter d'y répondre aussi précisément que possible, en sollicitant la recherche, chacun pouvant adopter ensuite la position et le comportement qui lui sembleront les plus justes.

Avant d'engager toute modification de la réglementation, nous, responsables politiques, devons aussi favoriser au maximum l'information, la transparence, l'explication et la concertation. C'est l'objet de la table ronde que le Gouvernement organisera, sur la question des antennes relais, le 23 avril prochain. C'est aussi tout l'objet de la démarche qui nous réunit aujourd'hui, engagée par l'Office, sous l'impulsion de la conférence des présidents de l'Assemblée.

En effet, le Parlement ne peut rester indifférent aux craintes, aux attentes ou aux espoirs de la société qu'il a pour vocation de servir. Il doit être, et il est, à travers l'Office parlementaire d'évaluation des choix scientifiques et technologiques, ce lieu de dialogue entre la science et la société, entre les experts scientifiques, les responsables politiques et la société civile. À vous, mesdames et messieurs les chercheurs, de redonner à nos concitoyens la soif de science, pour qu'ils puissent se forger leur propre jugement, loin des dogmes et des utopies, des polémiques et des pétitions de principe. À vous de communiquer la sérénité de celui qui sait, plutôt que le doute. À nous de savoir écouter les uns et les autres, de confronter les points de vue, de favoriser la réflexion collective, pour apaiser les tensions, de mener des évaluations indépendantes et, le cas échéant, de légiférer en toute connaissance de cause.

Car l'une des grandes revendications, une des plus légitimes, de la période contemporaine, c'est l'information, l'expertise et la transparence. Les citoyens veulent s'assurer que le pouvoir est justement exercé, que les décisions qui sont prises en leur nom l’ont été en toute connaissance de cause. Cette revendication est on ne peut plus légitime. Devant des citoyens toujours mieux informés, nous devons répondre de nos décisions et démontrer que ce n'est qu'à l'issue d'un long processus de consultation, d’évaluation, de débats, de réflexions, que la décision – la meilleure décision possible – a été prise. Pour autant, et c'est bien sûr la limite politique de ce débat, cette recherche de la solution la mieux éclairée qui soit ne doit pas ouvrir la voie à la déresponsabilisation du politique. C'est au pouvoir politique – et c’est son honneur – qu’il appartient de trancher, et les incertitudes scientifiques, irréductibles, ne doivent pas être le paravent derrière lequel se cachent nos hésitations ou, pire, nos lâchetés.

À nous parlementaires, il appartient aussi d’évaluer l’application de la loi, y compris la Charte de l’environnement et le principe de précaution, dans une société qui tend à oublier que rien n’est possible sans la confiance. Alors, mesdames et messieurs, provisoirement – et heureusement ! – à l’abri de la sonnerie de vos portables, je vous souhaite d'excellents travaux. (Applaudissements.)

Propos introductif de M. Alain Gest, député, rapporteur de l’OPECST

M. Alain Gest, député. Je rappelle brièvement que le Bureau de l’Assemblée nationale a mandaté l’Office parlementaire des choix scientifiques et technologiques – lequel m’a désigné le 19 novembre 2008 – pour réaliser une étude de faisabilité sur les conséquences éventuelles sur la santé de la téléphonie mobile. Mesurant d’emblée la difficulté de la tâche, j’ai abordé le sujet sans a priori et avec pragmatisme, en ayant conscience des attentes de nos concitoyens, mais aussi des élus qui rencontrent des difficultés sur le terrain quand il s’agit d’installer des antennes relais. Pour réaliser l’étude de faisabilité, j’ai rencontré des personnalités défendant différents points de vue, qui ont souligné le bien-fondé de continuer les travaux. C’est ainsi que mes collègues de l’Office ont décidé le 4 février dernier de procéder à la réévaluation de ses travaux antérieurs, notamment d’un rapport de 2002 sur l4incidences éventuelle de la téléphonie mobile sur la santé. Ils ont jugé essentiel que cette étude ait une dimension pédagogique et opportun que je recueille l’avis de spécialistes de sciences humaines. C’est pourquoi le groupe de personnalités qui me conseillent comporte, aux côtés des spécialistes scientifiques, un professeur de philosophie. Ce sont ces considérations qui inspirent les consultations que j’ai entamées depuis deux mois et la présente table ronde.

Les travaux de l’Office s’inscrivent dans une perspective de longue durée mais ils tiennent compte de l’actualité, en particulier des états généraux que prépare le Gouvernement. C’est pourquoi les trois tables rondes qui vont se succéder évoqueront les controverses que suscitent les antennes relais : leurs effets sanitaires éventuels, en particulier les phénomènes d’électrohypersensibilité dont les victimes, qui vivent à proximité, doivent, – même si le lien de causalité est l’objet de débats – être écoutées avec la plus grande attention ; l’opportunité, ou non, d’abaisser les valeurs limites d’exposition – elles résultent des recommandations de l’ICNIRP (International Commission on non-ionizing radiation protection), un organe d’experts qui étudient la protection contre les rayonnements non ionisants –, lesquelles peuvent varier au sein de l’Union européenne ; enfin, la façon de prévenir et de régler les conflits liés à l’installation des antennes.

PREMIÈRE TABLE RONDE :

LES ANTENNES RELAIS ONT-ELLES DES EFFETS SANITAIRES ?

M. Alain Gest, député. Au cours de cette première table ronde, nous allons entendre successivement le Professeur André Aurengo, chef de service à l’hôpital Pitié-Salpêtrière, membre de l’Académie de médecine et auteur de plusieurs études sur les champs électromagnétiques ; le docteur Éric van Rongen, membre du Conseil de la santé des Pays-Bas – à ce titre, il a supervisé le rapport TNO (Netherlands Organisation for applied scientific Research) publié en 2003 qui a appelé l’attention sur les effets des antennes relais sur certains individus – ; le Docteur Pierre Souvet, qui préside l’association Santé et Environnement de Provence, qui a organisé en 2008 un colloque sur les effets sanitaires des antennes relais ; enfin, M. Denis Zmirou-Navier, Professeur à la faculté de médecine de Nancy et à l’École des hautes études en santé publique et auteur d’un très important rapport publié en 2001, qui a servi de base à l’élaboration de la réglementation française sur les antennes relais.

M. le Professeur André Aurengo, chef du service de médecine nucléaire de l’hôpital Pitié-Salpêtrière, membre de l’Académie de médecine. Quelles sont les questions soulevées par les antennes de téléphonie mobile ?

Premièrement, les émissions des antennes et des portables peuvent-elles altérer l’ADN ? Les seuils de modification de l’ADN sont bien connus, ce sont les valeurs qui séparent les rayonnements ionisants et les rayonnements non-ionisants. Pour ioniser de l’eau, il faut à peu près 12 électrons-Volt et, pour casser une liaison covalente, c'est-à-dire une de celles qui structurent l’ADN, il faut 1 eV. Les liaisons de van der Waals, qui stabilisent la structure tertiaire de l’ADN, se cassent à 1/10e eV. Les antennes et les portables développent des énergies de 4/1 000 000è eV, c'est-à-dire 25 000 fois plus faibles. Se poser la question est déjà paradoxal.

Je mentionne deux études sur la génotoxicité pour montrer la difficulté de tels travaux. A propos de la première, publiée en 1998 par M. Phillips, le rapport Bioinitiative indique : « En dehors de l’étude de Phillips, il n’y a pas d’indication que les radiofréquences à des niveaux rencontrés à proximité des stations de base puissent entraîner des dommages de l’ADN. » L’étude procède à des expériences avec deux niveaux de transfert d’énergie à la matière, qui correspondent à une antenne d’une puissance respective de 4,5 Volts par mètre et de 14 Volts par mètre.

Specific Absorption Rate

813 MHz

836 MHz

2,4 MW/kg # 4,5 V/m

Lésions ADN diminuées

Lésions ADN diminuées

24 MW/kg # 14 V/m

Lésions ADN augmentées

Lésions ADN diminuées

Dans le premier cas, les lésions de l’ADN sont diminuées, qu’il s’agisse de 813 ou 836 Mégahertz. Dans le second, les lésions sont augmentées à 813 Mégahertz et diminuées à 836 Mégahertz. Tout cela est donc d’une crédibilité relativement modeste et l’on peut s’interroger sur la fiabilité des résultats de telles études et sur leur pertinence. Les conclusions du résumé du rapport Bioinitiative sont un peu abruptes.

En 2005, la publication de la deuxième étude, celle de Diem, a fait beaucoup de bruit. Elle tend à démontrer l’existence de cassures non thermiques, c'est-à-dire sans augmentation de la température, de l’ADN, de fibroblastes humains et de cellules de granulosa de rat, transformés par l’émission de portables à 1 800 Mégahertz. Cette étude a fait l’objet d’une tentative de réplication en 2007, parue dans le même journal Mutation Research sous la plume de M. Speit et de son équipe. L’échec de la réplication a conduit à une enquête et, en 2008, est paru dans Science un article très violent dénonçant initialement une fraude scientifique.

Plus globalement, les résultats de ce type d’étude sont contradictoires – les auteurs ne parviennent pas à répliquer leurs propres études – et incohérents. Les protocoles expérimentaux sont très différents et on ne saurait trop insister sur la nécessité de répliquer des études par des équipes indépendantes. Il ne s’agit pas d’une question de fraude – elle est heureusement rarissime – mais ces études sont très délicates car elles nécessitent une maîtrise à la fois de la biologie et de la physique, ce qui n’est pas courant. Certaines analyses procèdent à des compilations d’études, en les répartissant en fonction de leurs conclusions, ce qui n’a guère de sens dans la mesure où il y a des biais de publication, lesquels ont été prouvés de façon indiscutable. Ainsi, il n’y a pas d’étude positive.

Deuxième question : sur quoi se fonde la norme de 0,6 V/m, qui repose, apparemment, sur des bases scientifiques ? Cette limite, qui correspond à 1 milliwatt par mètre carré, a été proposée par le Docteur Oberfeld du département de santé de Salzbourg. Elle est explicitement fondée sur un article de Mann et Röschke qui montrait des altérations de l’électroencépahologramme et des mouvements visuels pendant le sommeil paradoxal pour des champs de 900 MHz, c'est-à-dire du niveau des portables, pour 500 milliwatts par mètre carré. Le Docteur Oberfeld proposait un facteur de sécurité de 500, c'est-à-dire 1 mW/m2. Le problème vient de ce que ces mêmes auteurs, qui ont republié une étude en 1998 avec des valeurs un peu plus basses, n’ont pas retrouvé les mêmes résultats. Ils justifient cet écart par la différence d’intensité des valeurs et reproduisent leurs expériences en 2000 en montant cette fois-ci jusqu’à 50 000 mW/m2. Ils ne retrouvent pas non plus l’effet qu’ils avaient cru déceler en 1996. Conclusion : la limite de 0,6 V/m est fondée sur un effet qui n’existe pas.

Troisième question : l’électrosensibilité est-elle une nouvelle maladie ? Les médias ont fait connaître les cas recensés. Je me réfère à deux études importantes : d’abord celle de Hietanen, en 2002, qui porte sur vingt sujets se déclarant électrohypersensibles. Il entreprend l’analyse de leurs symptômes en leur demandant de signaler leurs sensations dès qu’ils ressentent quelque chose, et, pour ce faire, les soumet soit à une exposition réelle, soit à une exposition nulle, les sujets l’ignorant. Les résultats de l’étude montrent l’apparition de symptômes divers, le plus souvent dans la région cervicale. Cependant, le nombre de symptômes rapportés était plus élevé en l’absence d’exposition que pendant l’exposition réelle. De plus, aucun des sujets n’était capable de distinguer l’exposition de l’absence d’exposition. Ce genre d’étude a servi à des compilations, comme celle qu’a publiée Rubin en 2005 à partir de 31 études et de 725 cas d’électrosensibilité. Sur le lot, il y avait 24 études négatives et il n’y avait aucune perception objective des radiofréquences. Et sur les sept restantes, deux n’ont pu être répliquées, trois étaient des artefacts statistiques et les deux autres donnaient des résultats incohérents. Sachant que l’homme ne dispose d’aucun système sensoriel lui permettant de ressentir les radiofréquences qui ne dégagent pas de chaleur, la conclusion est que l’électrohypersensibilité est une affection psychosomatique. C’est un point important parce que cela signifie que la prise en charge des personnes qui en sont atteintes doit être adaptée. L’élecrosensibilité peut constituer un handicap social majeur, qui peut s’accompagner d’une très grande souffrance psychique. Il est nécessaire que ces patients puissent être orientées vers les circuits qui sont les mieux à même de prendre en charge cette pathologie, ce qui n’est pas le cas actuellement.

Quatrième question : peut-on fonder des conclusions scientifiques fiables sur l’étude Bioinitiative ? Avant que notre collègue néerlandais n’en parle, je rappelle que, selon le Health Council of the Netherlands, le rapport Bioinitiative n’est pas une image objective et équilibrée de l’état des connaissances scientifiques actuelles et qu’il n’apporte aucun motif pour revoir l’appréciation actuelle des risques d’exposition aux champs électromagnétiques. L’ICNIRP et l’OMS ont refusé de commenter ce rapport car il ne s’agissait pas, à leurs yeux, d’un rapport scientifique.

J’en viens aux conflits d’intérêts. J’ai en effet été attaqué personnellement de façon désagréable et choquante à ce propos. On essaie de faire croire qu’il y aurait d’un côté des experts à la solde des entreprises et, de l’autre, des experts indépendants désintéressés. En ce qui me concerne, je suis certes membre du conseil scientifique de Bouygues, mais je ne suis pas rémunéré par Bouygues. Je donne également des conseils non rémunérés à l’Association française des opérateurs de téléphonie mobile. Je suis aussi membre du conseil d’administration d’EDF, mais je représente l’État et je ne suis pas rémunéré non plus. Depuis toujours, les entreprises et les autorités font appel à des experts patentés pour évaluer les risques pour la société de leurs activités, et c’est une bonne chose.

Aujourd’hui, les experts dits indépendants font appel à l’opinion pour créer un climat d’inquiétude. On peut se poser la question de ce que vaut cette « indépendance ». Les expertises collectives, qu’il s’agisse du rapport Zmirou, de l’AFSSE, du SCENHIR – le Scientific Committee on Emerging Newly Identified Health Risks, c'est-à-dire le comité scientifique de la Commission européenne – ont été unanimes à conclure qu’il ne semblait pas que les antennes de téléphonie mobile constituaient un risque particulier. Le seul risque établi est un effet d’échauffement : avec une antenne d’1 V/m, le transfert d’énergie vers un être humain adulte est de l’ordre de 1 mW. Or, au repos, chacun développe environ 100 000 mW. Si l’on fait la comparaison avec les portables pour lesquels aucun effet sanitaire n’a été établi pour un usage inférieur à dix ans, les antennes relais génèrent une exposition 100 à 100 000 fois plus faible. Autrement dit, vingt-quatre heures passées devant une antenne à 1 V/m correspondent à trente secondes de conversation au portable.

Pourtant, la peur se vend bien. Certains sites proposent une protection à la maison et au bureau, des consultations pour un évitement prudent – « nous vous suggérons un programme personnalisé, pour vous et votre famille, en tenant compte de vos préoccupations particulières et de votre environnement domestique » – ou encore la création d’intérieurs à bas champs – « nous pouvons vous aider à choisir et installer correctement des éclairages et appareils électroménagers … nous proposons des consultations avec des entrepreneurs en installations électriques »… Voilà ce qu’on peut trouver sur Internet. Ce sont les traductions de ce qui se trouve sur le site de Mme Cindy Sage qui est le principal auteur du rapport Bioinitiative. La référence est à votre disposition. Je juge plus les gens sur ce qu’ils écrivent que sur la façon dont ils gagnent leur vie, mais je signale aux moralistes dont la vision des conflits est totalement unilatérale qu’ils devraient être exhaustifs.

Que conclure ? L’exposition provient essentiellement des portables, et non des antennes. Comme l’a dit M. le Président, l’incertitude risque de durer longtemps. Les auteurs de l’étude Interphone n’ont déjà pas réussi à se mettre d’accord sur l’interprétation de leurs travaux... Une étude épidémiologique spécifique sur les antennes de téléphonie mobile est probablement impossible parce que les niveaux d’énergie sont trop bas, que les facteurs de confusion sont considérables et que la simple mesure de ce à quoi sont exposés les gens est impossible de manière rétrospective. On doit tout de même se demander jusqu’où peut aller la diabolisation de la science, de l’entreprise et du progrès. Plutôt que de continuer la chasse aux sorcières, il serait important de fixer des règles du jeu avec des associations responsables. (Applaudissements.)

M. Éric van Rongen, membre du Conseil de la santé des Pays-Bas. Je vais vous exposer l’étude TNO sur les expositions aux antennes UMTS, qui est très souvent citée en France, et celles qui ont suivi.

Le Conseil de la santé des Pays-Bas est un organisme consultatif du gouvernement à qui nous fournissons des avis sur une large palette de questions sanitaires. Les rapports sont rédigés par différents comités d’experts, dont l’un est consacré aux champs électromagnétiques.

Le premier objectif de l’étude TNO était de déterminer s’il y avait une relation de cause à effet entre les champs électromagnétiques et les symptômes subjectifs tels que les vertiges, les maux de tête et autres malaises ; le second d’évaluer la modification de la performance cognitive en cas d’exposition.

Les expériences ont porté sur deux groupes de sujets. Le premier était constitué de personnes présentant des symptômes qu’elles attribuaient au fait d’habiter près d’antennes relais – à l’époque où l’étude a été menée, il n’existait pas d’antenne UMTS. Le second était un groupe témoin ne comprenant pas de sujets souffrant de ces pathologies. L’expérience consistait à exposer les deux groupes à des champs électromagnétiques d’intensité variable – 900 MHz et 1 800 MHz pour les GSM, 2 100 MHz pour l’UMTS – ou non. Les sujets ignoraient évidemment à quel champ ils étaient exposés. Quatre sessions ont eu lieu, de trente minutes chacune, séparées entre elles d’un intervalle de vingt minutes. La première est en quelque sorte une session d’adaptation, sans exposition, pour maîtriser les appareils et les tests utilisés. Les sessions suivantes donnaient lieu à exposition, ou non, de manière aléatoire. L’exposition avait lieu dans une pièce protégée. Les champs choisis étaient relativement élevés. S’agissant des GSM, l’exposition était de l’ordre de 1 V/m, pour des limites de 41 et 58 V/m respectivement, donc en deçà des limites des fréquences attribuées aux fréquences GSM. Quant à l’UMTS, le champ était d’une puissance de 0,7 V/m, pour une limite de 61 V/m, soit, là aussi, bien en dessous de la limite autorisée.

Le bien-être des personnes a été évalué à l’aide d’un questionnaire renseigné avant et après les sessions, et des comparaisons ont été faites entre les résultats de l’exposition fictive et ceux de l’exposition réelle. Il y avait vingt-trois questions sur les sensations de vertige, de fatigue, de nervosité, d’augmentation du rythme cardiaque, de perte de mémoire… et les réponses variaient de 0 à 3, selon que l’on se sentait très bien ou vraiment mal. L’augmentation du score signifie donc une détérioration du bien-être.

Un rapprochement des résultats obtenus par les deux populations aux trois champs révèle qu’il n’existe pas, au sein d’une même population, de différence de bien-être significative entre les sujets exposés et ceux qui ne le sont pas, sauf pour le champ UMTS. Pour ce dernier, les notes sont significativement plus élevées en cas d’exposition réelle qu’en cas d’exposition fictive. S’agissant des fonctions cognitives, ont été testés le temps de réaction, la mémoire, l’attention visuelle, l’ouïe et la coordination entre l’œil et la main. Dans le rapport du TNO, aucune correction n’a été effectuée alors que les résultats présentés dans le rapport du Conseil de la santé ont été corrigés. Les résultats bruts révèlent des améliorations ou des dégradations qui ne sont pas clairement marquées, que ce soit pour les personnes avec ou sans symptômes. L’exposition à l’UMTS a donc un effet négatif sur le bien-être. L’ensemble de ces diverses observations peut être formulé également pour les personnes ne présentant pas de symptôme.

Le Conseil de la santé des Pays-Bas a été chargé de revoir l’étude TNO et il s’est aperçu d’un certain nombre de problèmes liés en partie à l’analyse des fonctions cognitives. Nous avons demandé que les tests correspondants soient revus. In fine, la seule variation significative est une perte de mémoire chez les personnes sans symptôme en cas d’exposition au champ UMTS. Encore peut-elle être l’effet du hasard.

En conclusion, l’UMTS semble présenter un effet légèrement négatif sur le bien-être aussi bien dans le groupe avec symptômes que dans l’autre groupe. En revanche, l’exposition au GSM n’a aucune incidence sur le bien-être, ce qui le met hors de cause.

Le Conseil de la santé estime que la validité du questionnaire sur le bien-être peut être sujette à caution. Provenant d’une étude sur l’hypertension, il n’était peut-être pas tout à fait approprié. Il n’a pas été validé par notre étude. Le conseil a recommandé que la validité du questionnaire soit vérifiée et corrigée.

Autre conclusion : il n’y a pas d’effet sur les fonctions cognitives. L’étude TNO constitue la première étude avec cette configuration. On ne peut de ce fait en tirer des conclusions fermes et définitives. Le Conseil a donc préconisé des études de suivi. La conception également peut être améliorée, mais c’était la première étude.

Des études ultérieures ont été réalisées. La première en Suisse a porté sur deux groupes, l’un des électrohypersensibles autodéclarés et l’autre de témoins, qui ont été exposés à des ondes UMTS d’1 V/m et de 10 V/m pendant quarante-cinq minutes à une semaine d’intervalle. La deuxième, réalisée au Royaume-Uni, a consisté à exposer les deux groupes à des ondes GSM et UMTS de 2 V/m pendant cinquante minutes, à un intervalle d’une semaine. La troisième a étudié des adolescents de quinze et seize ans et des adultes âgés de vingt-cinq à quarante ans, qui ont été soumis à des ondes UMTS d’1 V/m, comme pour l’étude TNO, pendant quarante-cinq minutes à une journée d’intervalle. La quatrième étude vient du Japon et a porté sur des individus présentant des symptômes liés à l’utilisation du téléphone mobile et des témoins qui ont été soumis à des ondes UMTS de 10 V/m, pendant trente minutes, à des intervalles au moins égaux à deux heures. Aucune d’entre elles ne fait état d’effets notables sur le bien-être ou les fonctions cognitives ou physiologiques. D’après les données disponibles, on ne peut pas conclure que les antennes aient des effets avérés. Il n’y a pas non plus d’explication, pour le moment, aux résultats divergents de l’étude TNO. Peut-être est-ce le fruit du hasard ou une conséquence de la conception de l’étude. Toute autre explication doit faire l’objet de recherches complémentaires (Applaudissements.)

Docteur Pierre Souvet, président de l’association Santé Environnement de Provence. Je suis un cardiologue de terrain et je dirige Santé Environnement Provence et Santé Environnement France. Il s’agit d’un réseau d’associations qui vient de publier l’étude sur la qualité de l’air dans les crèches et qui avait élaboré l’année dernière celle sur l’imprégnation des consommateurs de poisson du Rhône aux PCB (PolychloroBiphényles). Nous nous intéressons à la santé publique en général et mon éclairage est celui d’un médecin de terrain. Je n’ai pas participé à l’étude Bioinitiative et il me paraît particulièrement dangereux de penser que Mme Sage, M. Lai, MM. Hardell, Johansson, Friedman aient intérêt à vous cacher la vérité, comme l’a insinué mon collègue.

Nous sommes tous les jours au contact des patients et nous observons, c’est la raison de notre action, une augmentation des pathologies, notamment de cancers – il s’agit d’une véritable épidémie : 170 000 cas par an en 1980, 320 000 en 2005 –, des allergies, des maladies respiratoires, des troubles de fertilité – ne vous fiez pas au taux de natalité, c’est un mauvais indice ; il faut savoir que 14 % des couples consultent pour stérilité – et des troubles émergents tels que la sensibilité ou l’hypersensibilité chimique multiple que l’Etat de Washington a déclaré avoir mise en évidence au mois de mai dernier. Je vais vous parler projet de loi, directive car nous, médecins, professionnels de santé, revendiquons un rôle sociétal. Nous ne souhaitons plus n’être que de simples prestataires de soins. Notre but est bien de diminuer le nombre des pathologies par une action en amont, par la prévention. Il s’agit non pas de vivre plus vieux en souffrant de la maladie d’Alzheimer, mais de vivre vieux et en bonne santé. C’est la seule voie humaine, économique et sociale car il faut éviter la double peine : les gens malades ont plus de mal à trouver ou garder un emploi, et à acheter un bien.

Au cours des vingt dernières années, nous avons eu droit au nuage radioactif qui s’arrêtait aux frontières, au scandale de l’amiante – il nous a fallu vingt-sept années de plus que la Grande-Bretagne pour prendre des mesures à cause d’une succession de rapports rassurants émanant d’autorités sanitaires reconnues. Il y a eu aussi le distilbène, le chlordécone… si bien que la confiance des populations s’est tout simplement volatilisée.

Nous nous intéressons donc aujourd'hui aux effets sanitaires des ondes électromagnétiques, du type de celles produites par les micro-ondes, la téléphonie mobile, le WiFi, le WiMax… Pour nous, il est clair qu’une politique globale doit protéger les consommateurs et, plus généralement, la population.

Le problème majeur posé par les antennes vient de ce qu’il s’agit d’une pollution subie. Téléphoner des heures est un droit ; voir installer une antenne relais à vingt mètres de la chambre de vos enfants tout en vous entendant dire que tout va bien, c’est autre chose. C’est une pollution subie et permanente. Les études qui viennent d’être citées portent sur des expositions de quelques dizaines de minutes, à intervalle d’une heure ou à peu près… Autant de cas qui ne correspondent pas du tout à la réalité d’une exposition chronique. Or, en la matière, dix ans de recul, c’est peu ; et les études sur la téléphonie sont déjà inquiétantes.

Le terme de « norme », vous l’aurez compris, ne veut rien dire. En toxicologie, tout au plus, peut-on parler de valeurs guides. Sont-elles adéquates ? Elles sont thermiques et ont été fixées après avoir soumis un mannequin rempli de gel à des ondes pendant une durée de six minutes, limite à la capacité thermorégulatrice du corps humain. Les normes sont donc établies sur une base purement thermique, en comparant le corps humain à un mannequin rempli de gel, lequel n’a rien à voir avec un cerveau, a fortiori celui d’un enfant dans lequel, l’étude de Gandhi, qui n’a pas été contestée, l’a montré, la pénétration des ondes électromagnétiques est plus importante. Ces normes sont donc obsolètes.

Les patients, nous les côtoyons tous les jours, et nous n’accepterons plus de recevoir toujours plus de malades sans rien faire. On ne peut plus « créer » des malades que l’on pourrait facilement éviter. Les symptômes sont connus, ils viennent d’être décrits dans un cadre critique. Il est facile de s’en prendre à une seule étude, qui soulève des problèmes. Mais prenons le cas du rapport REFLEX commandé par l’Union européenne. Certes, sur les douze études, une a été contestée et retirée, mais les conclusions du rapport restent. L’étude TNO n’a pas été répliquée, c’est exact, mais bien d’autres éléments, provenant d’autres pays, appellent l’attention. Je rappelle qu’en France, il n’existe pas de formation continue des médecins aux problèmes de santé liés à l’environnement. Ce grand vide nous oblige à aller puiser dans les études internationales. Certains pays sont plus avancés que nous. Ainsi, les troubles – fatigabilité, céphalées, insomnie, dépression, troubles de la concentration, troubles cardiaques ou cutanés – qui sont exacerbés chez les électrohypersensibles, sont considérés comme un dommage en Suède. Ils sont en augmentation, de 3 % à 8 %.

S’agissant des effets biologiques, il n’y a pas eu qu’une seule étude sur les perturbations de l’électroencéphalogramme, mais plusieurs – notamment celle de Leif G. Salford – dont je pourrais vous fournir les références. Encore portent-elles sur des expositions courtes, et sur des adultes. Il subsiste beaucoup d’incertitudes. Je vous renvoie à l’étude sur les rats, dont la circulation cérébrale se rapproche de la nôtre, qui indique une rupture de la barrière hémato-encéphalique chez les rats exposés aux ondes d’un téléphone pendant deux heures par jour pendant cinquante jours. J’espère que l’extrapolation à l’homme n’est pas possible. Sinon on court à la catastrophe. On note aussi des effets sur le stress cellulaire, avec la production de protéines de stress qui se retrouvent chez les électrohypersensibles, sur le système immunitaire. On retrouve des mastocytes, les cellules qui libèrent l’histamine et provoquent la réaction allergique, des marqueurs biologiques d’inflammation, un nombre réduit des cellules NK, pour natural killers, et des lymphocytes T. Une diminution de la mélatonine chez le bétail soumis aux champs électromagnétiques a aussi été mise en évidence, et elle disparaît quand l’exposition cesse. Les animaux aussi sont-ils sujets à des troubles psychosomatiques ? La mélatonine est une hormone antioxydante importante. Elle contribue à réguler le sommeil, stimule les lymphocytes T et aide à lutter contre le cancer. Plusieurs études mettent ces effets en évidence : Altpeter, Bosch…

Venons-en aux effets génotoxiques. Nous ne savons pas comment l’ADN est altéré, mais des pistes sérieuses existent. Il ne s’agit pas forcément de réactions physiques, mais d’une cascade biologique qui provoque des modifications de la signalisation cellulaire, la création d’espèces réactives à l’oxygène. Peuvent aussi être affectés le système immunitaire, les protéines de stress et la production de mélatonine. Bref, il y a des réactions biologiques.

Tous ces éléments sont suffisants pour penser que l’exposition aux ondes électromagnétiques présente un danger pour la santé. On n’en connaît pas tous les mécanismes. Là-dessus, nous sommes d’accord. Mais l’attente d’un consensus total nous a déjà conduits à des désastres tels que l’amiante.

Quelles solutions envisager ? Il faut d’abord une politique globale de réduction de l’exposition aux ondes électromagnétiques. Il n’est pas question de les faire disparaître – le portable est utile à tout le monde – mais il faut faire preuve d’intelligence et de bon sens. Cette politique doit s’accompagner d’une information largement diffusée auprès du public, notamment des plus jeunes. Une révision des « normes » doit être opérée puisqu’elles n’ont pas été fixées à partir des effets biologiques chroniques. Le chiffre de 0,6 V/m a été avancé. Il s’agit d’un seuil raisonnable. Techniquement, le téléphone fonctionne : on le constate à Valence. Cela réduirait les radiations et le nombre de malades potentiels, sans les faire disparaître pour autant. Il faudrait respecter une distance minimum entre les émetteurs et les lieux de vie, notamment les écoles, et instaurer un droit pour les locataires. Nous sommes contre un droit qui crée des citoyens de seconde zone au-dessus du domicile desquels on installe parfois plus d’une dizaine d’antennes relais.

Ces mesures de précaution émanent-elles de quelques associations d’excités, d’experts internationaux américains, chinois, scandinaves, allemands, de médecins émotifs trop sensibles aux plaintes de leurs patients ? Le Parlement européen vient d’adopter le rapport Ries le 2 avril dernier, à une majorité digne d’une démocratie populaire : 559 voix contre 22. La France campe-t-elle sur un immobilisme coupable ? Eh bien, non ! Entre 2005 et 2009, il n’y a pas eu moins de quatre propositions de loi, dont trois sont ambitieuses, regroupant près de 10 % des députés et déposées par M. Brard, Mme Montchamp, M. Luca et M. Bouvard. Ces excellentes propositions, qui visent à réduire la puissance des émetteurs, à respecter des distances minimales et le droit des locataires, répondent aux préoccupations des médecins et des patients et nous les soutenons.

Le temps de la confiance doit revenir, et ce n’est pas en martelant : « Dormez bien, bonnes gens, tout va bien. » que la santé publique sera préservée. La décision des compagnies d’assurances européennes tendant à exclure de leur couverture les risques liés aux champs électromagnétiques a de quoi interpeller. À l’évidence, les assureurs font déjà jouer à leur manière le principe de précaution. Tous, citoyens, associations, élus, collectivités, législateur, médecins, et entreprises doivent agir. (Applaudissements.)

M. Alain Gest, député. Avec la réforme constitutionnelle que nous avons votée, les propositions de loi dont vous avez parlé ne resteront plus lettre morte.

M. Denis Zmirou-Navier, Professeur à la faculté de médecine de Nancy. Par souci de transparence, je précise que je suis professeur de santé publique à l’université Henri-Poincaré de Nancy, que je dirige le département environnement-santé au travail de l’École des hautes études en santé publique, que je préside actuellement la commission des risques pour l’environnement du Haut conseil de la santé publique et que je siège au conseil scientifique de la fondation Santé et Radiofréquences. Mais je ne m’exprime ici qu’à titre rigoureusement personnel.

À la question « les antennes relais ont-elles des effets sanitaires ? », ma réponse est oui. Sans doute vous laisse-t-elle interloqués. Mais il faut aller plus loin en se posant d’autres questions : de quels effets parle-t-on ? Les champs électromagnétiques en sont-ils la cause ?

Je rappelle très rapidement que les champs émis par les antennes et reçus sont de l’ordre de 0,1 à 1 V/m, exceptionnellement 3 ou 4 V/m, soit des niveaux très inférieurs aux limites adoptées en France sur la base des recommandations de l’ICNIRP, et aux ondes reçues pendant les communications téléphoniques. Notre excellent collègue Kundi, peu susceptible de sous-estimer les données scientifiques sur les effets des ondes électromagnétiques, écrivait lui-même que dix minutes au téléphone représentent, en cumul d’exposition, de l’ordre de quinze jours d’exposition à une antenne. Sans doute, ajoutait-il, sous-estimait-il l’écart.

Parallèlement, ceux qui se plaignent des antennes relais disent souffrir de maux de tête, de difficultés d’endormissement et de concentration, de froideur aux extrémités, de palpitations et de troubles de l’appétit. Ce sont tous des troubles subjectifs, mais ils sont sérieux et extrêmement handicapants. Je considère, comme l’OMS, qu’ils peuvent être qualifiés de problèmes de santé. Que redoutent les personnes vivant à proximité d’une antenne relais ? Le cancer, les maladies neuro-dégénératives… Sur ce point, aucune étude épidémiologique portant sur les antennes relais ne vient confirmer leurs craintes. Encore faut-il reconnaître que les chercheurs n’ont pas dépensé beaucoup d’énergie à explorer cette voie. Mais surtout, aucune des très nombreuses études expérimentales portant sur l’animal ne permet d’étayer l’hypothèse d’effets cancérogènes des champs électromagnétiques, au contraire, ni même d’effets co-cancérogènes lorsque des animaux sont exposés simultanément à des substances cancérogènes et aux champs électromagnétiques. Les études expérimentales, nombreuses elles aussi, sur le potentiel génotoxique de ces champs sur le matériel cellulaire sont toutes négatives, sauf deux qui proviennent du même groupe autrichien et qui sont des faux. Le doyen de la faculté de médecine de Vienne s’en est même excusé publiquement.

Les aspects subjectifs dénoncés sont-ils liés aux ondes électromagnétiques ? Je vous renvoie à une étude épidémiologique allemande publiée en février 2009 dans une revue de référence Occupational and environmental Medecine et à l’étude autrichienne de notre collègue Kundi. Parmi les études expérimentales sur des volontaires, y compris des sujets se déclarant hypersensibles, aucune n’a confirmé l’étude TNO, si souvent mise en avant, qui exonère les fréquences GSM, ce qui est systématiquement oublié dans le débat public. Aucune des quatre études de publication citées par M. van Rongen n’a retrouvé les résultats de l’étude TNO. En revanche, un très grand nombre d’études rappelées par André Aurengo, y compris sur des sujets hypersensibles, ont montré, d’une part, qu’ils réagissaient en effet beaucoup plus aux différents tests – palpitations, troubles cognitifs, moiteurs,… – que la population ne déclarant pas de symptômes ; d’autre part, qu’ils réagissaient indifféremment, qu’ils soient, ou non, soumis à un champ électromagnétique de quelque nature que ce soit. Ce ne sont donc pas les ondes électromagnétiques qui sont à l’origine de ces troubles. Il s’agit d’un état de fragilité, d’anxiété qui caractérise ces individus, à un moment de leur parcours personnel.

Cette très grosse étude épidémiologique allemande est publiée par MM. Blettner et Berg-Beckhoff. Le premier volet a porté sur 30 000 personnes qui ont accepté de remplir un questionnaire comportant des questions sur différentes manifestations de troubles possiblement associés dans la littérature scientifique à l’exposition aux ondes électromagnétiques et un indicateur assez standardisé de stress. Les personnes déclarant qu’elles habitent près d’une antenne relais – plus ou moins de cinq cents mètres – déclarent plus fréquemment des troubles. La distance n’est pas un bon indicateur d’exposition, mais ce n’est pas ainsi qu’il est perçu. Dans cette étude nationale qui porte sur les 50 000 antennes relais du territoire allemand – les antennes ainsi que les adresses ont été géo-codées –, si l’on associe la fréquence des troubles déclarés et la distance, il n’y a strictement aucune corrélation. Se déclarer proche, c’est déjà reconnaître que l’antenne fait peur.

La deuxième partie de l’étude est également très instructive. Sur 3 500 résidents urbains, la moitié a accepté que soient réalisées des mesures de champ dans leur chambre. Les valeurs maximales constatées étaient de 1,1 V/m et 90 % d’entre elles étaient inférieures à 0,1 V/m. Incidemment, cela prouve que, à de tels niveaux, la téléphonie mobile fonctionne. Les résultats sont de deux types : les gens qui ont un stress élevé déclarent des troubles plus fréquemment que les autres, mais il n’y a strictement aucun lien entre les troubles déclarés et les valeurs mesurées. Le lien n’est pas établi, ni dans les études épidémiologiques actuelles, ni dans les nombreuses études expérimentales disponibles.

L’étude de Kundi est actuellement la seule à avoir suggéré une association entre l’exposition aux antennes relais et certains troubles, à savoir la froideur aux extrémités et les maux de tête. À la demande d’une des associations, membre de l’instance de dialogue de la fondation Santé et Radiofréquences, j’ai, avec la présidente du conseil scientifique, Martine Hours, procédé à une analyse très détaillée de la qualité de ce bon travail. Néanmoins, il pèche sur un point important : il n’a pas pris en compte, dans l’analyse des données, le stress, l’état psychologique. Or il y a une énorme différence entre le ressenti de la menace des antennes relais et les troubles manifestés, selon que les personnes sont dans un état psychologique d’anxiété, de stress important ou pas.

En ce qui concerne les relations entre les communautés scientifiques et la société civile, c'est-à-dire le rôle de l’expertise, et les critiques quant à l’indépendance des experts, j’interviendrai au cours du débat car le sujet me tient à cœur.

Au-delà des données scientifiques, il n’en demeure pas moins qu’entre un cinquième et un tiers des citoyens ont peur des antennes. Il s’agit là d’un vrai problème de santé publique même s’il n’est pas lié aux ondes. Il tient au discours ambiant sur la menace virtuelle que représenteraient les ondes électromagnétiques. Les autorités politiques doivent, après avoir examiné sereinement les faits, prendre des dispositions. Il n’est pas question de désigner un bouc émissaire, mais de trouver des réponses sérieuses à une question sérieuse. (Applaudissements.)

Débat

M. Alain Gest, député. Selon une étude française de 2006 révélée la semaine dernière dans la presse, l’exposition aux ondes est maximale à 280 mètres de l’antenne relais en milieu urbain et à un kilomètre en milieu rural. Sans rien dire sur le danger, elle vient contrecarrer le seul point que j’ai trouvé pratiquement unanime autour de cette table. Que vous inspire-t-elle ?

M. André Aurengo. Cette information n’est pas un scoop puisqu’elle figure déjà dans le rapport de Denis Zmirou de 2001 sous la forme d’un schéma très clair.

M. Denis Zmirou-Navier. Cette source graphique est issue du rapport britannique de la Health Protection Agency.

M. Marc Cendrier. Je suis chargé de l’information scientifique à l’association nationale Robin des toits.

Si M. Aurengo nous dit n’être rémunéré ni par EDF, ni par Bouygues Télécom, son exposé reproduit strictement la version des opérateurs, en excluant tout autre effet que thermique. Or déclarer que les effets dits « spécifiques » ou non thermiques n’existent pas revient à supprimer purement et simplement une branche entière de la science qui existe depuis plus de 80 ans : le bioélectromagnétisme.

La présentation de M. Aurengo est orientée car il ne mentionne ni les rapports issus des travaux de M. Henri Lai et du professeur Carlo, ni le rapport REFLEX qui, à ma connaissance, n’ont pas été contestés et qui démontrent l’existence des effets génotoxiques des ondes. Il n’a pas non plus cité le Professeur Lennart Hardell, grand spécialiste qui participe à l’étude Interphone dont les conclusions sont parfaitement claires sur la réalité des effets cancérigènes. Il n’a pas parlé du groupe de scientifiques, dont fait partie le Professeur Belpomme, qui réalise actuellement une étude clinique détaillée sur l’électrohypersensibilité – EHS –, problème de santé qui s’accroît à très grande vitesse dans toutes les populations exposées à ce type d’émissions. C’est parce que l’EHS a été découverte récemment qu’aucun document scientifique n’a été publié à ce jour, mais cette étude fera l’objet d’une publication internationale.

M. André Aurengo. Les centaines d’études produites sur la génotoxicité doivent être répliquées par d’autres équipes, non parce que ces études sont malhonnêtes mais parce qu’elles sont difficiles. Il est toujours facile de sortir de son chapeau telle étude qui a montré telle chose !

Je laisse à M. Belpomme la responsabilité de ses allégations sur l’électrosensibilité : elles ne viendront qu’après tant d’autres, elles-mêmes démenties.

M. Éric van Rongen. Il y a un mois, le Conseil de santé des Pays-Bas a publié un rapport sur les champs électromagnétiques dans lequel sont abordées les preuves scientifiques concernant l’électrohypersensibilité des personnes habitant près des antennes relais. Sur la base des études réalisées, il conclut à l’existence d’un lien entre les symptômes et la croyance des personnes exposées, et non pas entre les symptômes et le fait d’être véritablement exposé. Des mécanismes psychosomatiques semblent donc être à l’œuvre et non pas forcément des effets biologiques réels.

Docteur Pierre Souvet. Il vous sera difficile d’éliminer toutes les études existantes sur la mélatonine, le stress cellulaire et autres : le « dormez bien bonnes gens » ne marchera plus bien longtemps !

Par ailleurs, quand vous passez une radio ou un scanner, vous ne ressentez pas les radiations et pourtant vous êtes irradié !

Enfin, nous sommes tous différents. Le problème n’est pas forcément celui du niveau d’intensité car, quand il augmente, certaines personnes le ressentent, d’autres pas. Chacun d’entre nous présentant des particularités et des faiblesses, il faut prendre l’homme dans son entier et ne pas simplement considérer un seul toxique. La médecine actuelle est trop monomaniaque : elle associe un effet à un symptôme. Or tout se combine : c’est le sens de notre action globale sur la santé et l’environnement.

M. Marc Filterman. J’ai travaillé à TDF et à France Télécom avant de faire dix ans de recherche sur les radars.

Les tenues de protection contre les hyperfréquences ont existé à partir de 1961 et les premiers morts remontent aux années cinquante. Lors d’un débat radiophonique, M. Bernard Veyret, du CNRS, a reconnu la nocivité des micro-ondes radar donc, automatiquement, celle des micro-ondes GSM. Le problème ne se pose donc pas en termes de distance, mais de niveau d’exposition, notamment de durée d’exposition, laquelle n’est jamais prise en compte, notamment dans votre rapport, Monsieur Zmirou.

Pour savoir si les valeurs actuelles sont nocives ou pas, je vous propose de placer des bornes dans les bureaux des experts qui prétendent qu’il n’y a aucun danger, et de les exposer à 41 Volts par mètre pendant une semaine ! J’avais d’ailleurs rédigé une proposition de loi en 2003 à ce sujet.

M. Alain Gest, député. 41 Volts par mètre sont le repère, pas le niveau d’exposition.

M. Marc Filterman. Évidemment, puisqu’une marge de sécurité est déjà appliquée.

Je connais une personne habitant en Suisse sous une antenne relais GSM dont les deux chiens sont morts à six mois d’intervalle. De même, les gens qui habitent sous ces antennes ne peuvent pas avoir d’oiseaux, par exemple.

Les durées de référence de l’ICNIRP sont systématiquement de 6 minutes, sachant que plus la fréquence augmente, plus la durée d’exposition doit être diminuée. Pour les radars, notamment militaires – et cela figure dans les rapports STANAG de l’OTAN et dans la recommandation de 1999 –, la référence est systématiquement une valeur moyenne sur six minutes pour, comme le dit le Docteur Souvet, tenir compte de la régulation thermique du corps humain.

M. Denis Zmirou-Navier. André Aurengo et moi-même avons fait allusion à la durée d’exposition en faisant une comparaison entre l’exposition encourue après une brève communication avec un téléphone portable et l’exposition aux antennes relais. Nous prenons en considération cet élément important et je fais partie de ceux qui sont très soucieux de la question du téléphone.

Cela a été rappelé : dix minutes ou un quart d’heure de communication téléphonique représentent plus de quinze jours d’exposition cumulée à une antenne sur la journée complète. Le problème est qu’à l’heure actuelle nous ne connaissons pas l’origine de l’effet du téléphone : nous ne savons pas s’il y a une variation de l’onde dans le temps, si ce sont des pics ou une moyenne. Autrement dit, les travaux expérimentaux ou épidémiologiques n’ont pas encore caractérisé l’exposition susceptible d’avoir des effets.

Des recherches sont donc nécessaires pour améliorer notre connaissance et la gestion des risques.

Mme Amina Medjahed. Je suis porte-parole de l’association Harpe Chevreuse et maman de trois enfants en bas âge. Je voudrais réagir aux propos de M. Zmirou.

Les études montrant l’absence de nocivité des ondes sont-elles répliquées ou validées ?

Le cas d’un enfant de quatre ans habitant près d’une batterie d’antennes relais et scolarisé près d’une autre batterie d’antennes relais très puissante – donc exposé vingt-quatre heures sur vingt-quatre – a-t-il été étudié ? À mon avis, la meilleure façon de ne pas trouver est de ne pas chercher ! Mme Françoise Boudin, directrice de la Fondation Santé et Radiofréquences, n’a-t-elle pas reconnu au Sénat la semaine dernière qu’aucune étude épidémiologique n’était menée en France !

Je n’ai pas peur du progrès, mais de ce que les hommes peuvent en faire. Aujourd’hui, le territoire me semble couvert d’antennes GSM pour la téléphonie mobile. Nous marchons sur la tête en essayant d’imposer au forceps un progrès dont certains ne veulent peut-être pas. Moi, je n’ai pas envie de voir un match de football sur un téléphone portable lorsque je suis chez moi, et pourtant on m’impose une antenne relais UMTS ! Il s’agit donc d’un débat sociétal.

Je termine par les propos du Docteur Souvet sur le risque subi et le risque accepté. Dans une société dite de droit, chacun ayant le droit de vivre dans un environnement favorable à sa santé, il est intolérable d’imposer un risque à quiconque. Or aujourd’hui, quelle alternative ont ceux qui, comme moi, ont fait le choix de ne pas avoir de téléphone portable, s’ils s’estiment être exposés à une irradiation permanente, Monsieur Zmirou ? Aucune ! Souvenez-vous du débat sur le tabagisme passif : combien de temps les gouvernements, les politiques ont-ils crié haut et fort que la fumée du voisin n’était pas nocive, avant d’en reconnaître la nocivité ?

J’aimerais donc qu’on avance en se souciant du droit à la santé, en particulier des enfants.

M. Alain Gest, député. Je comprends parfaitement votre remarque : comme vous, je n’ai pas envie de regarder un match de football sur un portable. Or des services proposés sur les téléphones sont aujourd’hui à l’origine du nombre d’antennes supplémentaires qui doivent être implantées sur le territoire. Parallèlement, d’après le travail d’un certain nombre de parlementaires ayant sollicité des communes, les Français souhaitent avoir une parfaite réception de leurs conversations téléphoniques sur l’ensemble du territoire national. Je tiens d’ailleurs les résultats de ces études, notamment celle réalisée dans ma circonscription, à votre disposition.

La difficulté est donc de concilier une bonne couverture pour le portable avec ce nouveau marché offrant d’autres services dont on verra, à terme, l’intérêt ou pas.

Mme Amina Medjahed. Si l’on interroge les gens pour connaître leurs attentes, encore faut-il qu’ils soient informés ! Or le Français moyen ne connaît pas les risques qu’il encourt en collant son téléphone portable à son oreille, en particulier dans la rue ! S’il était informé, peut-être changerait-il d’avis.

M. Alain Gest, député. Le téléphone portable n’est pas le sujet du jour.

Cela étant dit, je suis d’accord car, ayant moi-même des exemples dans ma circonscription, je constate l’ignorance totale des Français, mais aussi de certains élus, quant à la possibilité de faire mesurer le niveau d’exposition avant et après la pose d’une antenne.

Docteur Pierre Souvet. Il n’y a pas d’étude sur les enfants.

M. Denis Zmirou-Navier. Effectivement, il n’y a pas d’étude épidémiologique sur les enfants.

À ce jour, les résultats issus des études expérimentales réalisées chez les rates et les souris gestantes, modèles considérés comme corrects pour apprécier le risque pour les populations humaines, sont rassurants aux niveaux d’exposition associés à l’usage de la téléphonie mobile – et pas à des niveaux considérablement plus élevés ! Ne faisons pas d’amalgame, comme celui sur les ondes radars, entre des champs très différents en intensité !

Les connaissances doivent encore être améliorées. C’est pourquoi la Fondation santé et radiofréquences essaie d’impulser ce domaine de recherche.

M. André Aurengo. Vous connaissez le retard pris pour la publication de l’étude épidémiologique Interphone en raison des nombreuses difficultés qu’elle présente. Les questions posées portent sur la durée des appels des personnes il y a un an, deux ans, dix ans et les réponses sont donc d’une fiabilité modérée.

S’agissant des antennes relais, une étude sur les enfants ne pourrait être que rétrospective et il serait impossible de connaître l’exposition tant elle est faible et parce qu’il y a toutes sortes de variations : les antennes de téléphonie mobile ne sont pas seules à émettre des ondes et un enfant ne reste pas dans un endroit bien déterminé. Par conséquent, il ne faut pas demander des réponses à l’épidémiologie dans ce registre car elle est probablement incapable de les fournir. D’où la nécessité de se tourner vers d’autres types d’étude, comme celle dont vient de parler Denis Zmirou.

Mme Amina Medjahed. En attendant, applique-t-on le principe de précaution pour les enfants, Monsieur Aurengo, ou continue-t-on à les exposer ? Le professeur Zmirou n’a-t-il pas dit en 2005 : « Nous payons et nos enfants paieront demain le prix de nos aveuglements » ?

Docteur Pierre Souvet. Concernant l’amiante, il était très difficile de savoir si l’on respirait des fibres courtes ou longues et en quelle quantité. Pourtant, les études épidémiologiques ont fini par apporter un éclairage – hélas tardif – sur ce scandale en France.

M. Denis Zmirou-Navier. Je n’accepte pas le dévoiement du principe de précaution, dont je suis un ardent défenseur, qui est précisément au cœur de la gestion de risques incertains. Le principe de précaution n’a rien à voir avec les antennes relais, mais s’applique pleinement s’agissant de la téléphonie mobile.

Aujourd’hui, Madame, les opérateurs recommandent vivement de ne pas inviter les parents à acheter un téléphone à leur enfant. En l’état actuel des connaissances et des incertitudes, un enfant ne doit pas utiliser un téléphone mobile.

Mme Janine Le Calvez. Je suis présidente de l’association PRIARTEM, pour une réglementation des implantations d’antennes relais de téléphonie mobile. Nous ne sommes pas contre la téléphonie mobile : nous nous battons pour qu’elle se développe dans le respect des conditions de vie et de santé de tous.

Je suis très surprise d’entendre des épidémiologistes dire qu’aucune enquête épidémiologique n’a été lancée auprès des enfants et publiée à ce jour, sachant que la revue Epidemiology a publié au printemps 2008 une enquête menée par une équipe californienne et une équipe danoise, dont le principal auteur est Jorn Olsen. Selon les conclusions de cette étude, les enfants ayant été exposés in utero ou durant les sept premières années de leur vie – soit a priori une exposition indirecte, donc de faibles doses et des conditions relativement semblables à celle des antennes relais – ont 80 % de risque d’avoir des troubles du comportement à sept ans. C’est effectivement la seule enquête épidémiologique à ce jour sur les enfants, mais on ne peut pas dire qu’il n’y en ait aucune. Une fois de plus, lorsqu’on a cherché, hélas on a trouvé !

J’ai compris dès le début de cette réunion que le débat était déjà tranché – la lettre de mission de M. Fillon à Mme Bachelot allait d’ailleurs déjà dans ce sens. « Défiance quasi systématique irraisonnée à l’endroit du progrès », « perception suspicieuse du progrès technologique », il n’y aurait pas de problème avec les antennes relais, et les riverains d’antennes seraient dans le registre de la peur et de l’irrationnel, ce qu’a évidemment confirmé M. Aurengo dont la méthode, consistant à prendre de tout petits extraits soit d’études, soit de gros rapports éminemment scientifiques pour les démolir, est à mon avis choquante et très contestable.

Le désaccord qui traverse largement la communauté scientifique est intéressant car il prouve l’incertitude scientifique. En effet, l’utilisation massive du portable en France ayant débuté dans les années 2000 et le développement du réseau de téléphonie mobile en 1998, les durées d’exposition sont au maximum de dix à douze ans. Par conséquent, l’incertitude scientifique, dont je n’ai pas beaucoup entendu parler aujourd’hui, doit être favorable à la protection de la santé des populations, et le principe de précaution – défini à cette fin – doit pleinement s’appliquer non seulement pour les utilisateurs de portables, mais aussi pour les riverains d’antennes dont les souffrances me semblent difficilement attribuables à de simples problèmes psychosomatiques.

En outre, continuer à fonder nos principes réglementaires sur l’ICNIRP me surprend, sachant que son président, M. Paolo Vecchia, a déclaré, notamment lors du colloque de Bruxelles, que les recommandations de cet organisme n’avaient pas de valeur prescriptive en matière de sécurité, notamment sanitaire. D’après ses propos, l’ICNIRP se fonde sur les faits reconnus par tous, à savoir les effets thermiques, et fait des recommandations par rapport à ces seuls effets. Je pense donc qu’il y a eu maldonne.

M. Alain Gest, député. Nous y reviendrons dans la deuxième table ronde.

Mme Janine Le Calvez. Enfin, c’est à ma demande que le conseil scientifique de la Fondation Santé Radiofréquences s’est penché sur l’étude des deux épidémiologistes Hutter et Kundi et, que j’ai remercié pour son travail d’évaluation très intéressant. Or reprocher à M. Kundi de ne pas avoir pris en compte le stress est un mauvais procès dans la mesure où l’étude a justement retenu les problèmes de dosimétrie et donc les plus ou moins grandes souffrances des riverains par rapport à l’exposition à laquelle ils étaient soumis. Qu’en pensez-vous, Monsieur Zmirou ?

Mme Nadia Ziane. Je fais partie de l’Association Familles rurales.

Quand des parents voient une antenne relais être installée près de chez eux, il leur suffit de faire une recherche sur Internet pour trouver ce cas tristement célèbre de Saint-Cyr-l’École, avec des pathologies d’enfants inexpliquées à ce jour. Pourquoi n’a-t-il pas été évoqué ici ?

Dans votre rapport de 1992, Monsieur Zmirou, vous préconisiez d’éloigner les stations de base de 200 mètres des lieux dits sensibles. Vous semblez aujourd’hui être revenu sur cette position. Pourquoi ?

Mme Virginie Bagouet. Je suis journaliste à Impact Médecine.

Peut-on attendre quelque chose de l’étude Interphone ?

M. Denis Zmirou-Navier. Si l’étude de Kundi est d’excellente qualité – elle est une des premières études qui réalisent des mesures ! –, elle est cependant limitée dans l’analyse des relations entre les mesures et les perceptions, les déclarations de troubles par les personnes. Dans tous les travaux expérimentaux, comme l’étude TNO, il faut prendre en compte la sensibilité, l’anxiété, l’état de stress des individus, ce qui n’a pas été fait. Il n’est donc pas possible d’analyser et de comprendre les associations mises en évidence.

Comme vous le savez, Madame, nous avons suggéré d’améliorer l’étude de Kundi en analysant les données, si elles sont disponibles, ou en la répliquant, en tout cas en invitant la communauté scientifique à s’intéresser à ce sujet. La porte est donc ouverte et les moyens financiers devraient être trouvés pour des études conduites avec de bons protocoles.

Mme Janine Le Calvez. Cela signifie que nous sommes dans l’incertitude par rapport à cette étude !

M. Denis Zmirou-Navier. Non, cela signifie que cette étude unique allait dans cette direction, alors que d’autres études – j’en ai évoquée une très récente – la contredisent totalement, en tout cas posent une question que tout scientifique se pose : peut-elle être répliquée ou n’est-elle pas un artefact de l’analyse de données ou de constructions ?

Toutes ces études montrent l’absence d’association de type épidémiologique et, surtout, expérimentale. Pour répondre à la question sur les fameux 100 mètres, et non pas 200 mètres, notre groupe d’experts a conclu en 2001 que « le respect de ces mesures par les opérateurs est de nature à atténuer les craintes du public, tout spécialement des parents préoccupés par l’exposition de leur enfant dans les établissements scolaires, d’autant que le groupe d’experts ne retient pas l’hypothèse d’un risque pour la santé des populations vivant à proximité des stations relais, compte tenu des niveaux d’exposition constatés. »

Cette conclusion anticipait ce que nous avons appelé en 2005 le principe d’attention. Les préoccupations du public ne sont en aucune manière liées aux ondes mais à un débat public à ce sujet. Prendre un certain nombre de dispositions de cette nature par respect de ce souci était à l’époque, nous semblait-il, de nature à atténuer les craintes.

Or cette proposition a été manipulée par un certain nombre d’organismes qui ont affirmé que l’on avouait ainsi le danger de manière détournée. Et le pouvoir politique, rebuté par ce détournement du propos, n’a pas retenu cette manifestation de bonne volonté.

Soit j’ai péché par naïveté, soit j’ai été totalement manipulé par un certain nombre d’associations !

M. Stephen Kerckhove. Oh !

M. Denis Zmirou-Navier. En conclusion, le principe d’attention me paraît aujourd’hui être beaucoup plus d’actualité que les fameux 100 mètres qui, malheureusement, n’ont pas été compris ou acceptés tels qu’ils avaient été pensés.

M. Éric van Rongen. Avant toute chose, il ne faut pas tirer des conclusions à partir d’une seule étude mais prendre l’ensemble des données disponibles. La preuve en est que la TNO a trouvé sur le bien-être des éléments que les études en réplication n’ont pas trouvés. En outre, une étude de type nouveau doit être répliquée pour vérifier le bien-fondé de l’étude elle-même, mais aussi de la méthode.

Cela vaut également pour l’étude d’Olsen : les troubles du comportement constatés chez des enfants de sept ans n’étant pas liés à une exposition propre, mais à l’utilisation du téléphone portable par la mère pendant la grossesse, il ne s’agit pas du niveau d’exposition du fœtus in utero. Il est donc très dangereux de rapporter ces troubles à une exposition réelle. Si l’on veut savoir s’il y a effectivement un retentissement sur le comportement des enfants, il faut trouver un autre protocole. Cela étant, cette étude soulève des questions et ouvre un certain nombre de pistes pour des recherches futures.

S’il n’existe pas, à ce jour, d’étude épidémiologique sur le cancer et l’utilisation des téléphones portables par les enfants, une étude actuellement en chantier, appelée Mobikids, porte sur la relation entre téléphonie portable et tumeur du cerveau chez l’enfant. Les études de faisabilité montrent que ce travail est possible, même si ce cancer est très rare chez l’adulte et encore plus chez l’enfant.

Des études expérimentales ciblées sur les enfants existent, notamment sur les retentissements cognitifs, mais toutes concluent à l’absence d’effets dus à l’exposition à des champs électromagnétiques, en tout cas à ce jour.

Docteur Pierre Souvet. Je vous rappelle que toutes les études dont vous parlez apportent peu d’éléments car elles portent sur le court terme et des niveaux d’exposition brefs.

Et on semble totalement amnésique quant aux études sur les effets biologiques – mélatonine, stress cellulaire !

Les études valables ne sont pas seulement celles qui n’ont pas prouvé la nocivité des antennes, mais aussi celles qui prouvent des effets.

Sur les cas de tumeur du tronc cérébral dans l’environnement proche de Saint-Cyr-l’Ecole, j’en sais peu. On a conclu au hasard, comme à Boulogne-Billancourt et à Crest…

On ne pourra pas faire bien longtemps l’économie d’une étude épidémiologique à grande échelle sur les antennes relais – les petites études menées en Allemagne, en Israël et en Autriche manquant de puissance statistique. En tout cas, pour reprendre les propos de Mme Le Calvez, si vous ne cherchez pas d’étude, vous n’en trouverez pas, et c’est bien le problème dans notre pays !

En attendant, nous devons tous agir intelligemment et réduire les puissances, car suffisamment d’éléments nous permettent de dire que ça marche techniquement. Le Lichtenstein va appliquer la norme de 0,6 Volt d’ici à 2012 avec un échéancier, ce qui est intelligent et peut fonctionner en France, même si c’est un peu plus compliqué en milieu rural. Des solutions techniques existent et il faut les concilier avec les impératifs sanitaires de protection des personnes, en particulier des enfants.

M. Maxence Layet. Je suis journaliste scientifique.

La première méta-analyse sur les antennes relais publiée en mars 2009 par Hutter et Kundi conclut que dix études sur quatorze parues dans les revues scientifiques montrent un impact sur les riverains – un impact cognitif léger, mais réel –, et non pas des symptômes subjectifs corrélés à des peurs ou des préoccupations des riverains.

Cette méta-analyse est intéressante car elle reflète la réalité, à savoir que nous sommes exposés à différents types de rayonnements qui cohabitent : le GSM 1900, le GSM 1800, c’est-à-dire le DCS, et l’UMTS. Or les études expérimentales présentées, notamment celles sur l’UMTS et la TNO, portent spécifiquement soit sur le GSM, soit sur l’UMTS et ne sont pas forcément des études en laboratoire sur l’effet cocktail. Des études sont-elles engagées en ce sens ?

M. Éric Van Rongen. À notre connaissance, aucune étude ne se prononce sur les effets cocktail. Porter son attention sur ce qui se passe en réalité est toujours beaucoup plus compliqué qu’en laboratoire…

En laboratoire, on se demande quel cocktail retenir. Dans la vie réelle, il y a une infinité de mélanges de fréquences, de niveaux et d’intensités de rayonnement. C’est pourquoi seuls des niveaux spécifiques reproductibles sont utilisés en laboratoire.

S’agissant de la méta-analyse de Hutter et Kundi, notre Conseil de santé a également analysé les études existantes, mais s’est intéressé – contrairement aux deux co-auteurs – à la qualité scientifique, au protocole expérimental de ces études, à savoir si elles étaient menées en aveugle et si les personnes interrogées pouvaient ou non savoir qu’elles portaient sur les antennes relais, autrement dit, s’il y avait un biais de recrutement par le fait d’annoncer d’emblée aux gens qu’ils allaient être interrogés sur ce qu’ils éprouvent en tant que personnes habitant à proximité d’une antenne, car, dans ce cas, on se trouve évidemment en présence d’un profil particulier.

Il est important que les personnes interrogées ne répondent pas en fonction de ce qu’on leur a annoncé. Or les études comportant un tel protocole sont très peu nombreuses. Elles montrent qu’il n’existe aucun lien entre le fait de vivre à proximité d’une antenne relais ou d’être exposé à des champs électromagnétiques et la déclaration des symptômes. Le seul effet prouvé, aussi bien dans ces études qu’en laboratoire, est un lien entre les symptômes et l’idée d’être exposé – pas l’exposition réelle.

M. Joël de Rosnay. Je suis conseiller du président de la Cité des sciences et de l’industrie et membre du Conseil scientifique de l’OPECST.

Je n’ai pas de critique à formuler sur telle ou telle étude, vis-à-vis d’un camp ou d’un autre. Je veux simplement rappeler à mes amis scientifiques que des découvertes récentes ont été faites, notamment sur l’épigénétique, dans des études épidémiologiques modernes liées à l’environnement.

Évidemment, il n’y a pas de brisure de l’ADN par une intensité. En revanche, l’épigenèse est la modulation de l’expression génétique : des gènes peuvent être silencieux ou s’exprimer en fonction de très nombreux facteurs. Nous connaissons maintenant les effets multifactoriels, les effets de synergie, les effets en cascade dans le fonctionnement et le métabolisme cellulaire. La régulation des horloges biologiques est liée à des phénomènes d’environnement – chimiques, nutritionnels, comportementaux –, mais aussi au brouillard électromagnétique dans lequel nous baignons. Je ne parle pas d’une onde en particulier.

Une centaine de laboratoires dans le monde ont prouvé – par des cultures de cellules in vitro ou in vivo, sur des tissus animaux et humains – que différents éléments, comme le facteur NF-kappa, le gène SIRT 1, les éléments des cytokines, peuvent être modulés par des effets extérieurs – dont les radiations dans un champ électromagnétique – et que les effets de synergie, de cascade et d’amplification peuvent conduire à une expression modulée des gènes par la méthylation des histones, l’acétylation des histones ou des microRNA.

La situation est d’une telle complexité que je ne vois pas comment – et M. Layet a raison – on peut arriver à trouver le facteur causal épidémiologique. Chercher un facteur causal comme la distance, la durée, la fréquence ou l’intensité est une piste complètement fausse, car les facteurs modernes de l’épidémiologie, en particulier à cause de l’épigenèse, sont multidimensionnels, multifactoriels, synergiques et en cascade. (Applaudissements.)

M. André Aurengo. Vous avez parfaitement raison : la plupart des cancérigènes connus sont épigénétiques, et non génotoxiques. Dans ce débat, la génotoxicité est un faux problème.

Cela étant dit, les études sur l’animal dont a parlé Denis Zmirou ou des études comme Interphone explorent en réalité les mécanismes quels qu’ils soient et gardent, à condition d’être réalisées sérieusement, toute leur validité.

Aller rechercher la trace précise de telle ou telle modification dans toute la signalisation dont vous parlez, Monsieur de Rosnay, est une gageure.

M. Joël de Rosnay. Au lieu de chercher les facteurs psychosomatiques dus aux antennes relais, il faudrait rechercher les facteurs somato-psychiques, à savoir comment les cellules sont modifiées et modifient l’anxiété et le stress des gens. (Applaudissements.)

M. Alain Gest, député. Je vais suspendre la séance.

Plusieurs participants. Il n’y a pas eu de réponse sur l’étude Interphone !

M. Alain Gest, député. Nous aurons l’occasion d’en reparler au mois de juin car elle concerne le téléphone, et non les antennes.

DEUXIÈME TABLE RONDE

FAUT-IL ABAISSER LES VALEURS LIMITES D’EXPOSITION ?

M. Alain Gest, député. Notre deuxième table ronde portera sur l’opportunité, ou non, d’abaisser les valeurs limites qui ne sont pas appliquées de façon uniforme au sein de l’Union européenne, les normes belges par exemple étant plus contraignantes.

J’ai l’honneur de recevoir M. Bernardo Delogu, chef d’unité à la Direction générale de la santé et des consommateurs de la Commission européenne, et M. Joël Solé, directeur-adjoint du cabinet de la ministre de l’environnement de la région Bruxelles-capitale.

Je vous remercie très chaleureusement, messieurs, d’être venus parmi nous et des éclairages que vous allez nous donner sur un aspect qui fait énormément débat : les valeurs limites d’exposition.

J’ai souhaité avoir votre point de vue, tout simplement parce que la Commission européenne a fait siennes un certain nombre de données sur les valeurs limites et que le débat tourne autour du fait de savoir s’il faut réduire ces normes, certains préconisant 3 Volts, comme le Parlement européen, d’autres 0,6 Volt.

M. Bernardo Delogu, Chef d’unité à la Direction générale de la santé et des consommateurs de la Commission européenne. Je vous remercie d’avoir invité la Commission européenne à présenter son point de vue dans le cadre de cette audition publique.

Tout d’abord, je voudrais clarifier les objectifs et les limites de l’implication de l’Union européenne en la matière.

En matière de santé publique, les compétences, les responsabilités de l’Union européenne sont relativement limitées. Elles sont établies par les traités qui prévoient des actions en matière de santé publique, mais précisent que l’Union européenne ne légifère pas en matière de santé publique, mis à part un certain nombre de sujets très limités. Dans le domaine de l’exposition du public aux champs électromagnétiques, l’Union européenne n’a pas la possibilité de légiférer. C’est pourquoi nous avons dans ce domaine une recommandation, sur laquelle je vais revenir.

Toute harmonisation réglementaire dans le domaine de la protection de la santé est exclue. Toutefois, l’Union européenne a des responsabilités importantes en matière de normes sur les produits, en raison du principe de libre circulation des produits, qui implique une harmonisation des règles techniques. À ce titre, un certain nombre de directives existent, y compris celle qui s’applique par exemple au téléphone portable. Le téléphone entre dans le champ d’application d’une directive du Conseil et du Parlement, et des normes techniques édictées par un organisme technique, le CENELEC (Comité européen de normalisation électronique), sont utilisées pour l’application de cette directive. Ces normes sont basées sur les lignes directrices de l’ICNIRP, elles-mêmes reprises dans la recommandation du Conseil.

En clair, si l’Union européenne n’a pas la possibilité, par exemple, d’édicter une directive fixant les limites d’exposition du public, elle a une compétence pour édicter une réglementation sur les règles techniques applicables aux produits qui circulent dans le marché intérieur.

Dans ce contexte, la recommandation adoptée par le Conseil en 1999 invite les États membres à prendre des mesures, notamment sur le respect des valeurs limites figurant dans ses annexes, mais ne crée pas d’obligation juridique. Par conséquent, la Commission n’a pas la possibilité d’intervenir pour contrôler si les États membres ont appliqué les limites d’exposition prévues : c’est aux États membres de décider de leur politique et de mettre en place les mesures et les contrôles.

Cela n’enlève rien à l’importance d’avoir un cadre commun. Si cette recommandation a été suivie par un grand nombre d’États membres, tous ne l’ont pas fait et la situation dans l’Union n’est pas harmonisée, ce qui est logique puisqu’elle n’a pas de compétence dans ce domaine. La recommandation précise que les États membres sont libres d’introduire des niveaux de protection plus stricts et invite même les États membres à suivre le développement des connaissances scientifiques, donc à prendre des mesures « à la lumière de la précaution » – elle n’emploie pas le terme « principe de précaution ».

Il faut regarder ce texte comme une invitation et non comme un cadre juridique d’harmonisation.

La recommandation du Conseil est entièrement fondée sur les lignes directrices adoptées en 1998 par l’ICNIRP. Cet organisme, très qualifié au point de vue technique, a des liens avec l’Organisation mondiale de la santé, mais n’est pas un organisme international officiel dans lequel les États sont représentés en tant que tels. Il faut donc regarder les lignes directrices de l’ICNIRP et la recommandation comme une contribution technique susceptible d’être reconsidérée par les États en fonction du niveau de protection qu’ils souhaitent adopter.

La recommandation couvre toutes les fréquences, y compris les radiofréquences impliquées dans les antennes relais. Deux catégories de limites sont établies : d’une part, des restrictions de base relatives aux effets sur l’organisme de l’exposition au champ électromagnétique ; d’autre part, des niveaux de référence, c’est-à-dire d’intensité du champ électromagnétique qui, s’ils sont respectés, devraient assurer que les restrictions de base ne sont pas dépassées.

Comme cela a été dit, et je le confirme, il faut comprendre l’objectif spécifique de la recommandation et la base scientifique de cette recommandation.

Elle vise à protéger contre les effets avérés des champs électromagnétiques. En ce sens, elle est tout à fait claire en expliquant que les effets avérés sont les effets thermiques pour les radiofréquences, et les effets sur le système nerveux pour les fréquences plus faibles. Ces effets sont très importants dans la mesure où, au-delà d’une certaine intensité du champ, des problèmes de santé aigus, immédiats et assez importants peuvent apparaître. Cette recommandation est donc tout à fait valable par rapport à l’objectif très clair qu’elle vise. Elle présente des valeurs limites parce que, pour les effets dont elle parle, il est scientifiquement possible de quantifier le risque, autrement dit de trouver une corrélation entre l’exposition et les effets, donc de donner des chiffres – avec un coefficient de sécurité assez important en raison de la variabilité des organismes dans la réponse à l’exposition par rapport aux effets visés.

S’agissant des effets éventuels à long terme – cancers et autres –, la recommandation considérait, à l’époque où elle a été adoptée, qu’il n’y avait pas de base scientifique pour décider de l’existence de ces effets, qui plus est d’une corrélation éventuelle entre les expositions et les effets. Il n’était donc pas possible de couvrir par des valeurs limites quantifiées ces effets éventuels.

Depuis lors, quelle est la position de la Commission, sachant qu’un certain nombre d’études évoquées dans la première table ronde ont été menées ?

La Commission se base sur des expertises indépendantes, établies par des comités indépendants qu’elle a elle-même mis en place. À sa demande, notre comité sur les risques émergents – le SCENIHR, Scientific committee on emerging and newly identified health risks – a déjà présenté, depuis plusieurs années, plusieurs expertises, dont la dernière a été adoptée au mois de janvier 2009.

Elle reflète toute la discussion de votre première table ronde, au sens où nos scientifiques, après avoir pris les résultats de toutes les études disponibles, ont essayé de les synthétiser et d’en tirer des conclusions d’ensemble.

À ce stade, il ressort de cette expertise que nous n’avons pas de base scientifique pour réviser les valeurs limites de la recommandation.

Cela ne signifie pas que notre comité scientifique puisse conclure à l’absence de risques. Il faut prendre le sens exact des mots utilisés : la conclusion de l’expertise est qu’il n’y a pas d’évidence scientifique sur la base des données disponibles. Je m’explique.

En matière de technologie de la téléphonie mobile, la durée d’exposition à laquelle il est possible de faire référence dans les études épidémiologiques est relativement courte, à savoir dix ans. En outre, pendant cette période, les conditions d’exposition ont beaucoup changé. D’où la difficulté : il faut non seulement voir si les conditions d’exposition sur dix ans sont représentatives de la situation actuelle, mais aussi si elles le sont de la situation à venir, alors qu’il est impossible de faire des études sur l’exposition au-delà de dix ans.

À ce stade, nous ne pouvons pas aller au-delà de la recommandation, c’est-à-dire réviser les valeurs limites pour couvrir les effets éventuels sur lesquels nous n’avons pas d’éléments scientifiques. Pour le faire, nous aurions besoin d’éléments établissant non seulement le risque, mais aussi un lien quantifié entre l’exposition et les effets. Nous en sommes très loin aujourd’hui. Sur quelle base pourrions-nous établir un coefficient de précaution ? Ce serait tout à fait arbitraire.

Autre fait très important : les niveaux d’exposition actuels sont en général beaucoup plus faibles que ceux prévus par la recommandation. Par conséquent, si la Commission décidait d’introduire un coefficient de précaution de 10, cela n’aurait probablement aucun effet dans la mesure où l’exposition est déjà à un niveau inférieur. Sur quelle base fixer des valeurs pour réviser la recommandation ? À l’heure actuelle, la position de la Commission est qu’il n’y en a pas.

Nous tenons compte des préoccupations du public, mais aussi de celles exprimées par le Parlement européen qui, par une résolution adoptée il y a quelques jours par le Parlement, demande à la Commission de vérifier la validité des valeurs limites. Le Parlement fait référence à l’expertise demandée au SCENIHR, mais pour l’instant, l’indication générale du dernier rapport de ce comité scientifique ne donne pas une base de révision de la recommandation.

En outre, le Parlement a demandé à la Commission d’engager un dialogue avec les professionnels et les industriels concernés pour examiner l’état de la technologie et la possibilité de maintenir l’exposition au niveau le plus faible possible, tout en tenant compte de la nécessité de préserver les fonctionnalités des différentes technologies en cause. La Commission est donc en train de considérer la possibilité d’avoir un dialogue constructif avec les parties concernées pour, premièrement, voir comment peuvent être produites les données permettant de faire avancer les connaissances scientifiques, et, deuxièmement, envisager les possibilités de réduire ou de limiter l’exposition du public sur la base des technologies disponibles et par des mesures d’organisation. Ce dialogue devrait s’engager dans quelques mois.

La Commission souhaite développer une stratégie de recherche plus productive pour répondre aux préoccupations du public et aux nécessités des décideurs.

Dans ces domaines, les études épidémiologiques, si elles ne sont pas impossibles, sont très difficiles, d’autant que celles qui peuvent apporter des résultats significatifs sont à long, voire à très long terme. Nous pensons donc qu’une stratégie de recherche basée uniquement sur des études épidémiologiques ne sert pas les préoccupations du public ni les nécessités des décideurs dans les États membres et au niveau européen. C’est pourquoi nous nous sommes à nouveau adressés à notre comité scientifique pour lui demander de nous fournir les éléments d’une stratégie qui puisse produire des résultats à moyen terme, sur la base d’études in vivo et in vitro sur les animaux, et de définir les spécifications de ces études de telle façon que les résultats ne soient pas, comme c’est le cas actuellement, extrêmement controversés, difficiles à interpréter et donc sujets à des interprétations divergentes. C’est un élément très important que nous développons actuellement.

Si les résultats de cette stratégie de recherche démontrent l’existence de certains dangers, nous pourrons définir une approche quantifiée, autrement dit fixer des valeurs limites qui puissent garantir la santé publique.

En l’état actuel des choses, la Commission suit très attentivement la situation. Si elle n’envisage pas actuellement de modifier les valeurs limites de la recommandation, cela n’interfère pas dans les décisions nationales au sens où la recommandation est une référence, mais ne crée pas de cadre juridique obligatoire pour les États membres. (Applaudissements.)

M. Joël Solé, Directeur-adjoint du Cabinet de la Ministre de l’environnement de la région Bruxelles-capitale. Monsieur le président, je ne vais pas répondre à la question posée à l’ordre du jour – faut-il abaisser les valeurs limites d’exposition ? –, mais tenter d’éclairer votre débat et, peut-être, vos décisions grâce à l’expérience menée actuellement au sein de la Région de Bruxelles-capitale.

La Belgique est un État fédéral au sein duquel les trois régions disposent de la compétence en matière d’environnement. En la matière, ce sont donc les régions qui légifèrent et qui décident. Contrairement à la Commission, nous avons la possibilité d’aller au-delà de recommandations, de résolutions et pouvons imposer une norme qui s’applique de façon contraignante aux opérateurs.

D’abord, un historique de la norme bruxelloise.

L’État fédéral avait auparavant légiféré dans le domaine des ondes électromagnétiques, via sa compétence en matière de santé publique. Il avait établi, pour tout le territoire belge, une norme fédérale à 20,6 Volts par mètre, nettement inférieure à la recommandation actuelle de l’OMS et de la Commission européenne.

En mars 2007, le Parlement bruxellois a adopté une ordonnance, c’est-à-dire un texte ayant valeur de loi, ramenant la norme à 3 Volts par mètre. Il est important de préciser ici, puisque le président a évoqué cette question, qu’il s’agit d’une proposition d’ordonnance d’origine parlementaire – et non pas d’une décision imposée au Parlement par le gouvernement. Comme la plupart des propositions d’origine parlementaire, elle a été précédée d’un large débat incluant de nombreuses auditions d’experts scientifiques, d’associations, d’opérateurs, etc. Un seul groupe s’étant abstenu, l’ordonnance a été adoptée à la quasi-unanimité des partis démocratiques présents au Parlement bruxellois, majorité et opposition confondues.

Le Parlement a estimé que le principe de précaution devait s’appliquer et qu’il était par conséquent justifié de réduire la norme d’exposition à un niveau nettement inférieur au niveau fédéral ou aux recommandations de l’OMS et de la Commission européenne. Il l’a estimée compatible avec le bon fonctionnement des réseaux, notamment de mobilophonie. Par ailleurs, le Parlement a accordé au gouvernement et aux opérateurs concernés une période de deux ans pour la mise en œuvre effective de la nouvelle norme. La ministre de l’environnement est chargée de sa mise en œuvre.

En tant que représentant du cabinet de la ministre de l’environnement, je vais vous parler de la mise en œuvre de cette norme.

En août 2007, les opérateurs de mobilophonie et l’État fédéral ont introduit auprès de la Cour constitutionnelle – la plus haute instance juridique en Belgique – un recours contre l’ordonnance bruxelloise. Les motifs principaux de ce recours étaient que la région bruxelloise excédait sa compétence en agissant via l’environnement pour fixer une norme en matière d’ondes électromagnétiques – l’État fédéral s’appuyait donc sur sa compétence propre en matière de santé publique et sur le fait qu’il avait déjà légiféré en la matière –, mais également que la région agissait à l’encontre du principe de proportionnalité et entravait la liberté de commerce et d’industrie.

Ce recours a considérablement ralenti la mise en œuvre de notre norme car, même si un recours auprès de la Cour constitutionnelle n’a pas juridiquement un effet suspensif, il s’est révélé « suspensif de fait », vu l’ampleur des enjeux. Les investissements des opérateurs concernés étaient importants. Et l’établissement par le Gouvernement d’un certain nombre d’arrêtés d’exécution dans des matières extrêmement techniques a nécessité des concertations avec les opérateurs, ce qui était assez compliqué tant que la norme était suspendue à un arrêt de la Cour constitutionnelle.

Le 15 janvier 2009, au terme de près d’un an et demi de débat, la Cour constitutionnelle a rendu un arrêt en tous points favorable à la Région de Bruxelles-capitale et elle a débouté les opérateurs et l’État fédéral. Ainsi, depuis le 15 janvier, la norme bruxelloise est confortée : elle existe et nous sommes en mesure de la mettre en œuvre.

L’arrêt de la Cour est extrêmement important et clair.

La Cour consacre l’application du principe de précaution : « L’ordonnance attaquée de la Région de Bruxelles-capitale offre une réponse au souci d’assurer la protection du droit à un environnement sain, visé l’article 23 de la Constitution. Le choix du législateur régional de faire figurer à l’article 3 de l’ordonnance attaquée une norme d’émission sévère, par application du principe de précaution, relève du pouvoir d’appréciation de ce législateur et ne saurait être rejeté à défaut de normes internationales ou européennes contraignantes dans ce domaine. » Vous l’avez compris : les recommandations de l’OMS et de la Commission européenne avaient été évoquées par les opérateurs.

La Cour conforte l’opportunité de la norme choisie : « En l’espèce, il ne s’avère pas que le législateur ordonnanciel aurait apporté à la liberté du commerce et d’industrie, à l’égard des entreprises concernées, une limitation qui serait disproportionnée au but poursuivi. Par ailleurs, les parties requérantes ne démontrent pas, notamment au moyen de rapports d’expertise, l’impossibilité technique ou économique de respecter les normes fixées par l’ordonnance attaquée dans le délai de deux ans qu’a fixé l’ordonnance à cette fin ».

Nous étions donc aussi attaqués sur le principe de proportionnalité. Ce débat avait eu lieu au Parlement où les opérateurs avaient eu l’occasion de démontrer, expertises à l’appui, que la norme était beaucoup trop restrictive, ne serait pas compatible avec le bon fonctionnement des réseaux et ne pourrait donc pas être mise en œuvre. Ces mêmes expertises ont été produites auprès de la Cour constitutionnelle qui les a analysées. Et après un débat extrêmement fouillé d’un an et demi, la Cour a conforté le choix du Parlement bruxellois.

J’en viens à la définition de la norme bruxelloise.

La norme bruxelloise est une limite d’émission de 3 Volts par mètre à la fréquence de référence de 900 MHz.

Elle ne peut être dépassée à aucun moment et dans aucun lieu accessible au public. Il ne s’agit donc pas d’une moyenne temporelle ou géographique.

Elle concerne des rayonnements dont la fréquence est comprise entre 100 kHz et 300 GHz.

Elle concerne toutes les sources d’émission, à l’exception de la radiodiffusion, de la télévision et des équipements des particuliers – appareils GSM, c’est-à-dire portables, appareils type DECT ou WiFi.

Lorsque plusieurs sources d’émission sont présentes sur des sites proches, les émissions doivent être cumulées et les 3 Volts par mètre doivent être « partagés » entre chacun des opérateurs présents.

Dans les faits, la norme de 3 Volts par mètre est déjà respectée dans la plupart des endroits et la plupart du temps dans la région de Bruxelles-capitale et, d’après les données disponibles, des dépassements de cette norme ne seraient enregistrés que dans 8 % des lieux à certains moments. Le problème étant « marginal », pourquoi fixer une limite ?

En réalité, il est difficile de mesurer précisément dans un endroit ce qui peut s’y passer à tout moment, car il y a des pics d’émission. Par ailleurs, le nombre d’opérateurs s’accroît en Belgique, le gouvernement fédéral venant d’octroyer une quatrième licence pour la mobilophonie. En outre, on assiste à un cumul des sources d’émission, puisque les technologies comme le WiMax se développent rapidement.

Ces éléments expliquent pourquoi on peut juger important de fixer une limite réelle, et non pas théorique, comme le recommande actuellement l’OMS.

Dans le cadre de la mise en œuvre de la norme, le choix en région Bruxelles-capitale est, d’une part, la délivrance d’autorisations individuelles par antenne – un permis d’environnement est délivré antenne par antenne, après enquête publique – d’autre part, l’établissement d’un cadastre public des sources d’émission. Ces éléments sont importants car le Parlement bruxellois entendait non seulement répondre aux inquiétudes du public, mais aussi lui permettre d’avoir accès aux informations nécessaires pour vérifier l’application de la norme.

Où en sommes-nous aujourd’hui ?

Le Parlement nous donnait deux ans pour mettre en œuvre l’ordonnance : elle est entrée en vigueur le 14 mars 2009.

Du fait du recours devant la Cour constitutionnelle, le gouvernement et les opérateurs n’ont pas été en mesure de profiter du délai de mise en œuvre de deux ans.

Comme je l’ai dit, le dialogue avait été très difficile, ne serait-ce que pour connaître l’état précis du réseau, c’est-à-dire les différentes sources d’émission en région Bruxelles-capitale, car nous n’avions pas autorité pour accéder aux données et les opérateurs n’étaient pas très prompts à nous donner l’information nécessaire.

Puis l’arrêt de la Cour constitutionnelle a considérablement amélioré les choses. La norme a été confortée et nous avons pu conclure avec les opérateurs concernés un Memorandum of understanding – MOU –, accord liant la région et les opérateurs de mobilophonie qui travaillent désormais en concertation sur les modalités de mise en œuvre dans le cadre de l’établissement des arrêtés d’exécution de la norme. C’est important parce que nous sommes passés d’une norme et d’un acte législatif unilatéral contesté dans le discours par les opérateurs, à un accord signé par l’ensemble des parties qui admettent l’existence de la norme et qui s’engagent dans le cadre d’un calendrier et de modalités de mise en œuvre.

Dans le cadre du MOU, le gouvernement a accordé un délai supplémentaire, jusqu’au 15 septembre 2009, pour la mise en œuvre, assorti d’un moratoire sur les sanctions et d’une période de mise en conformité de l’ensemble des antennes existantes.

Enfin, un cadastre de l’ensemble des antennes devrait être rendu public dans les prochains mois.

En conclusion, l’application du principe de précaution à la norme désormais fixée en Région de Bruxelles-capitale de 3 Volts par mètre, apparaît possible et compatible avec le fonctionnement des réseaux.

En outre, le coût de cette application n’est pas démesuré et sa faisabilité technico-économique n’est plus absolument contestée par les opérateurs.

Cela étant, la norme est ambitieuse. La matière est éminemment technique, très complexe et nouvelle pour l’administration concernée au sein de la Région de Bruxelles-capitale. Elle est sensible pour le public qui veut avoir accès au réseau à tout moment, en particulier pour les services de secours qui ont des habitudes dans leur utilisation des réseaux dans le cadre de leurs opérations. Il ne s’agit donc pas de réduire l’offre de services actuelle. Enfin, cette norme est exigeante techniquement et économiquement pour les opérateurs.

De notre point de vue, cela implique la nécessité de la part du gouvernement d’une approche ferme, mais concertée, dans le cadre de la mise en œuvre, prenant en compte cette complexité multiple, tout en garantissant le respect de l’objectif de 3 Volts par mètre. Cela implique en outre la mise en œuvre d’un calendrier raisonnable qui puisse prendre en compte les obstacles techniques, économiques ou administratifs, qui sont réels mais plus infranchissables – obstacles mis en avant par les opposants à la norme dans le cadre du débat parlementaire.

Moyennant cette approche progressive et pragmatique, notre conclusion est que ces obstacles « techniques » ne doivent pas empêcher l’action et que l’application du « principe de précaution » est donc possible et relève, avant tout, d’un choix politique. (Applaudissements.)

Débat

M. Alain Gest, député. Merci.

Pourquoi la norme bruxelloise exonère-t-elle la télévision et la radiodiffusion ?

S’il est bien de fixer une norme, comment est-elle contrôlée ?

M. Joël Solé. Après avoir étudié les travaux parlementaires, je n’ai pas trouvé une réponse décisive à votre première question, si ce n’est l’ancienneté historique de ces technologies.

On peut accepter une approche pas à pas, s’en tenir aujourd’hui aux technologies qui font débat public et créent une pression politique, puis entrer dans une logique évolutive après ce premier pas. On ne peut pas légiférer sur tout en quelques mois.

Pour répondre à la deuxième question, il s’agit d’un contrôle a priori via la délivrance d’un permis d’environnement antenne par antenne, qui se basera sur des données de simulation, et qui dispense d’un contrôle a posteriori des dépassements de la norme sur les différents sites au sein de la région.

Mme Roselyne Roeland. Je suis la présidente de l’association Harpe Chevreuse.

Pourquoi en France les opérateurs refusent-ils d’abaisser la norme d’exposition aux émissions d’antennes, alors que leurs propres mesures font apparaître des valeurs étonnamment basses, parfois même en dessous du seuil de sensibilité des appareils de mesure ? Cette norme, je la mettrais plutôt à 0,6 Volts et non à 3 Volts par mètre, puisque les appareils et les téléphones fonctionnent très bien avec des mesures très basses. Certes, il y a un enjeu économique, mais ne pourrait-on pas – pour une fois – gagner du temps, au lieu de perdre 20 ou 30 ans comme pour les autres scandales sanitaires, arrêter de dire des hypocrisies et des mensonges et faire ce qui s’impose ?

En outre, qu’en est-il des mouchards pour contrôler les émissions ? Car pour ma part, je n’ai pas une confiance absolue dans les opérateurs.

M. Alain Gest, député. S’agissant des contrôles, Madame, si je peux comprendre les suspicions, j’ai également constaté sur le terrain l’ignorance des communes et encore plus des habitants sur la possibilité de saisir des organismes agréés ou non, dont certains ont été auditionnés et selon lesquels les valeurs mesurées sont conformes dans 85 % des cas non pas à la réglementation des 41 V, mais à ce qui a été évoqué par un certain nombre d’intervenants depuis le début de cet après-midi. La question s’adresse donc plutôt à un représentant de l’AFOM, l’Association française des opérateurs mobiles.

M. Jean-Marie Danjou. Il faut distinguer ce qui se passe à proximité immédiate des antennes, sur les toits, et ce qui se passe dans les lieux de vie, les habitations, sachant que la norme dont on parle beaucoup, le seuil d’exposition fixé par la réglementation, s’applique en tout lieu, en particulier à proximité immédiate des antennes sur le toit.

Si vous avez 41 Volts par mètre maximum à trois mètres d’une antenne, sur le toit, vous aurez 1 Volt, 2 Volts par mètre, voire moins dans les lieux de vie, puisque le signal diminue en s’éloignant. C’est une simple règle de la physique.

Si vous fixez 0,6 Volt par mètre – ce chiffre ne correspondant à aucune recommandation d’aucune autorité sanitaire et n’étant appliqué dans aucun autre pays, contrairement à ce que vous lisez ici ou là –, le niveau d’exposition dans les lieux de vie sera si faible que vous ne pourrez plus recevoir ni le téléphone mobile, ni la radio et la télévision à cause des gigantesques trous de couverture pour l’ensemble de ces services.

M. Alain Gest, député. Cela explique peut-être pourquoi la radio et la télévision ne sont pas concernées par la norme bruxelloise des 3 Volts.

M. Denis Zmirou-Navier. Je souhaite faire deux commentaires sur les interventions que nous venons d’entendre.

J’avoue, Monsieur Delogu, que ce que vous nous avez appris des recherches chargées d’éclairer la position de la Commission m’inquiète. Si vous ne vous fondez que sur des données expérimentales, cellulaires ou animales, sans développer des travaux en population humaine, vous prenez énormément de risques. En procédant ainsi, on n’aurait jamais découvert que le benzène est leucémogène ni que la pollution atmosphérique occasionne des milliers de morts en Europe. On risque de ne pas apprendre grand-chose sur la téléphonie mobile parce que nous ne réagissons pas nécessairement comme des animaux. Je trouve la manière de procéder de la Communauté européenne très imprudente.

Concernant l’expérience de la Région de Bruxelles-Capitale, je suis très surpris de l’attitude des opérateurs. Qui d’autre que la puissance politique est fondée à appliquer le principe de précaution dans quelque domaine que ce soit ? On pouvait discuter pour savoir si, dans le domaine considéré, ce principe valait mieux que le principe ALARA – as low as reasonably achievable, c’est-à-dire aussi bas que techniquement possible –, mais les opérateurs ont été mal inspirés de contester à la puissance publique le soin de juger si le principe de précaution devait ou non être appliqué.

M. Bernardo Delogu. La Commission européenne n’a pas l’intention de se fonder uniquement sur des données relevant d’expériences sur des animaux ou in vitro. Jusqu’à présent, notre comité scientifique nous a conseillé des études épidémiologiques à long terme. Nous avons l’intention de lui demander de nous orienter vers une stratégie de recherche plus complète susceptible de fournir des informations sur les effets biologiques à moyen terme des radiations des champs électromagnétiques.

M. Joël Solé. Les opérateurs se sont, heureusement, gardés de contester le droit du législateur d’appliquer le principe de précaution. Ils ont mis en cause la façon dont celui-ci était invoqué : d’une part, ils ont contesté la compétence de la région à le faire – elle légiférait d’un point de vue environnemental alors que le gouvernement fédéral avait légiféré précédemment du point de vue de la santé publique –, d’autre part, ils ont argué que les normes appliquées entravaient la liberté du commerce et de l’industrie et les mettaient dans l’incapacité à fournir le service qui leur était demandé.

Mme Amina Medjahed. M. Danjou a fait valoir que la puissance décroît avec la distance puisqu’elle est inversement proportionnelle au carré de celle-ci. Mais cela vaut en champ libre. Il ne tient pas compte de l’environnement, notamment, des réémetteurs passifs. Il sait très bien que, quand une habitation a un balcon et des persiennes en métal, l’exposition peut augmenter à l’intérieur. On ne peut raisonner uniquement selon la physique pure lorsqu’on parle d’exposition humaine dans des lieux de vie.

Monsieur Delogu, vous avez parlé des normes ICNIRP – International Commission on non-ionizing radiation protection. Il me semble que siègent dans cette commission un certain nombre de fabricants d’appareils de téléphone – Alcatel, France Telecom, Nokia – ainsi que l’US Army, ce qui laisse craindre un conflit d’intérêts. Ce sont les mêmes personnes qui fabriquent et commercialisent les appareils et qui édictent les normes, ce qui me paraît un peu gênant.

Par ailleurs, pendant la guerre froide, les autorités américaines ont constaté que le personnel de leur ambassade à Moscou présentait un nombre supérieur de pathologies à celui des autres ambassades dans le monde. Trois ambassadeurs étaient morts successivement d’un cancer. Cette affaire a fait l’objet d’un rapport en 1978 – le rapport Lilienfield – qui préconisait un abaissement des normes d’exposition aux radiations. George Bush père, alors directeur de la CIA, avait demandé au président de l’époque, Jimmy Carter, de ne pas tenir compte de ce rapport au motif qu’il aurait des conséquences économiques désastreuses. J’aimerais avoir votre point de vue sur cette question.

M. Alain Gest, député. Madame, s’agissant des conflits d’intérêts, il importe que vous n’évoquiez cette notion qu’avec beaucoup de prudence, car il existe beaucoup de conflits potentiels, d’après ce que je peux constater.

Mme Amina Medjahed. Je me devais pourtant de soulever ce problème, car on se trouve dans un débat touchant à la santé.

M.  Bernardo Delogu. A notre connaissance, l’ICNIRP est une commission purement technique composée d’experts intervenant à titre personnel et indépendants de tous intérêts.

Je précise, par ailleurs, qu’avant de publier la recommandation, la Commission a eu le souci de faire valider les lignes directrices de l’ICNIRP par un comité indépendant, établi par la Commission elle-même par le biais d’un appel public, selon une procédure d’évaluation tenant compte des intérêts éventuels des membres : ceux-ci sont tenus de faire une déclaration d’intérêts et une certaine surveillance est appliquée pour éviter des conflits.

Concernant l’ambassade américaine à Moscou, il est difficile de savoir quelles étaient les conditions d’exposition. La situation ne me paraît pas très significative par rapport au problème que nous examinons aujourd’hui.

Mme Amina Medjahed. C’est exactement la même situation, Monsieur Delogu. Les radiations ont été évaluées et l’affaire a fait l’objet d’un rapport. En avez-vous eu connaissance ?

M. Bernardo Delogu. Pas personnellement mais l’expertise que nous demandons est basée sur tous les rapports disponibles. Comme cette affaire remonte à plusieurs années, elle a certainement été portée à la connaissance des experts. Il faut vérifier les conditions dans lesquelles les données ont été collectées, la qualité du rapport et sa pertinence par rapport à ce qui était demandé aux experts.

M. Alain Delatore. J’ai été choqué par la dernière intervention de M. Zmirou, qui donnait l’impression que les gens étaient des cobayes sur lesquels on faisait des essais : quand on est sûr qu’ils ont développé un cancer, on fait des mesures. Je ne suis pas sûr qu’il parlerait ainsi à la télé devant des millions de personnes.

M. Denis Zmirou-Navier. J’ai dit l’inverse !

Mme Janine Le Calvez. Pour PRIARTEM, fixer une valeur limite d’exposition est fondamental. C’est une de nos premières revendications. Nous pensons qu’il y a encore des gens qui souffrent à un niveau d’exposition de 3 V/m. et que, comme il y a énormément de mesures en dessous de 0,6 V/m, les réseaux fonctionneraient avec une valeur plus basse.

Monsieur Solé, vous nous avez indiqué que le passage à 3 V/m, avait concerné à peu près 8 % des sites. Quels types de modifications cela a-t-il entraînés ?

M. Joël Solé. Le taux de 8 % est issu de mesures a posteriori. On est obligé d’être plus restrictifs dans la délivrance d’autorisations a priori pour garantir un résultat 100 % sous la norme a posteriori.

Par ailleurs, la norme n’est pas encore mise en œuvre. Il m’est très difficile de dire aujourd’hui l’impact qu’elle aura sur les réseaux puisque nous commençons juste à disposer de données précises et détaillées de la part des opérateurs et à les analyser. Dans le cadre du débat parlementaire et du débat devant la Cour constitutionnelle, des chiffres catastrophiques ont été évoqués. Aujourd’hui, le scénario worst case (catastrophe) avancé par les opérateurs est une augmentation de 40 % des antennes sur la région Bruxelles-Capitale, tous types d’antennes confondus : macrocellules, microcellules et picocellules – c’est-à-dire les petites antennes utilisées pour garantir une bonne couverture à l’intérieur des bâtiments.

Le principal problème évoqué par les opérateurs du fait de l’adoption de la norme bruxelloise est la couverture à l’intérieur des bâtiments. Si j’insiste sur ce point, c’est parce qu’en termes de coût et de difficultés techniques pour les opérateurs et d’acceptabilité pour la population, ce n’est pas la même chose d’installer ces petites antennes et d’importantes antennes-relais.

Mme Janine Le Calvez. L’une de nos revendications auprès du Gouvernement est le lancement de campagnes pour généraliser, dans le bâtiment, l’utilisation des filaires. On réduira aussi l’exposition des riverains d’antennes si l’on rappelle que la téléphonie mobile doit être complémentaire de la téléphonie fixe et non s’y substituer.

M. Jean-Philippe Desreumaux, directeur fréquences et protection à Bouygues Telecom. J’aimerais avoir une précision de la part de M. Solé concernant la définition des lieux où la valeur de 3 V/m, ne doit pas être dépassée. Qu’en est-il des toits terrasses ?

M. Joël Solé. Aux termes de l’ordonnance, la norme s’applique en tous lieux, ce qui est très restrictif ; pourront être exclus les lieux dont l’accès est très limité, tels que les toitures utilisées uniquement par les techniciens et les zones où personne ne passe jamais.

Les terrasses sont concernées par la norme, ce qui pose un problème aux opérateurs car ce sont des endroits d’exposition importante. Quant aux toitures, si elles sont utilisables, donc transformées en terrasses, elles sont visées par l’ordonnance. Si elles ne sont utilisées que par des techniciens pour des interventions ponctuelles et exceptionnelles, elles ne sont pas visées. Ces zones devront être indiquées.

M. Alain Gest. Nous vous remercions, Messieurs.

TROISIÈME TABLE RONDE : QUELLE GOUVERNANCE SOUHAITABLE ?

M. Alain Gest, député. Nous enchaînons immédiatement avec la troisième table ronde, consacrée au thème de la gouvernance, c'est-à-dire au dispositif destiné à prévenir et à régler les conflits liés à l’installation des antennes relais. Donneront leur point de vue : M. Jean-Marie Danjou, délégué général de l’Association française des opérateurs de mobiles – AFOM, M. Stephen Kerckhove, délégué général d’Agir pour l’environnement et Mme Danielle Salomon, sociologue au Centre de sociologie des organisations, qui travaille depuis plusieurs années sur les problèmes posés par la téléphonie mobile.

Les deux débats précédents ont montré qu’il existait des approches différentes. Pour autant, nous sommes confrontés, d’une part, à une demande forte que soit assurée une bonne couverture de l’ensemble du territoire et que les téléphones puissent recevoir de nouveaux services, même si tout le monde n’en est pas friand et, d’autre part, à la peur qu’il y ait un danger pour la santé. Nous allons voir maintenant comment ces problèmes sont traités sur le plan de la gouvernance à la fois locale et nationale et comment il pourrait y avoir un dialogue plus serein et plus apaisé entre les parties.

M. Jean-Marie Danjou, délégué général de l’Association française des opérateurs de mobiles. Je remercie M. le député Alain Gest de donner à l’AFOM l’occasion de s’exprimer sur un sujet qui est au cœur de l’actualité.

Au niveau national, la gouvernance sur les antennes-relais est, d’abord et avant tout, aujourd’hui, le cadre défini par l’État. Les opérateurs ont l’obligation d’inscrire leurs actions à l’intérieur de celui-ci.

J’en évoquerai rapidement quelques éléments.

Le premier est la santé, qui nous concerne tous.

Le ministère de la santé et l’AFSSET ont déjà publié trois avis sanitaires sur les antennes-relais. Un quatrième avis est attendu pour l’automne 2009.

L’OPECST a rendu son propre rapport en 2002. L’audition de cet après-midi fait partie des travaux de l’office pour un second rapport.

Toujours dans le domaine de la santé et de la protection sanitaire du public, les seuils français pour l’exposition aux ondes radio sont ceux recommandés par l’Organisation mondiale de la santé et par le Conseil de l’Union européenne.

Viennent ensuite, sur le plan réglementaire, les licences GSM et UMTS qui fixent aux opérateurs des obligations de couverture et de qualité de service. L’objectif est de couvrir 99 % de la population, y compris dans les zones blanches qui ont fait l’objet d’un programme particulier avec les pouvoirs publics.

Enfin, l’autorisation d’émettre de l’Agence nationale des fréquences doit être obtenue pour chaque émetteur radio.

Au niveau national, ce cadre étatique est complété par les engagements volontaires du Guide des relations entre opérateurs et communes. Élaboré et signé en 2004 par l’Association des maires de France et l’AFOM et actualisé en décembre 2007, il vise à permettre un déploiement concerté des antennes-relais entre les élus, les citoyens et les opérateurs.

Au niveau local, l’opérateur doit, a minima, obtenir pour chaque antenne-relais une autorisation du propriétaire, une autorisation d’émettre et une autorisation d’urbanisme lorsqu’elle est nécessaire.

Le Guide signé avec l’AMF a permis, depuis 2004, d’aller plus loin dans toutes les communes de France : il a notamment permis au maire de jouer pleinement son rôle d’aménageur de la commune.

Je citerai trois exemples. Premièrement, le maire reçoit, de façon systématique, un dossier d’information pour chaque projet dans sa commune. Deuxièmement, toute personne peut, gratuitement, faire mesurer le niveau d’exposition aux ondes radio dans le lieu de son choix. Les mesures sont réalisées par des laboratoires indépendants et accrédités par l’Agence nationale des fréquences. Troisièmement, les opérateurs préservent les paysages à travers une politique commune d’intégration paysagère de toutes leurs nouvelles antennes-relais.

L’installation d’une antenne-relais est un processus long et compliqué. Nécessitant entre deux et trois ans, il commence par l’identification d’un besoin de couverture radio – le réseau peut être saturé ou quasiment inexistant – et se termine par la mise en service de l’antenne-relais qui permet au téléphone mobile de fonctionner. Entre ces deux moments, il y aura eu la recherche de l’emplacement, la conception technique de l’antenne-relais, l’étude d’intégration architecturale, la concertation avec la mairie et l’information du public, parallèlement à la demande des autorisations administratives.

Toutefois, le dossier des antennes-relais est arrivé à un tournant et la gouvernance que je viens de décrire au niveau national, puis au niveau local, ne suffit plus.

Tout d’abord, le décalage est gigantesque entre l’opinion des Français et ce que disent les autorités sanitaires sur le sujet.

L’enquête annuelle de TNS Sofres réalisé pour l’AFOM montre ainsi qu’en 2008, 26 % des Français pensaient que les antennes-relais sont dangereuses, 59 % exprimaient une incertitude et 5 % seulement croyaient en l’absence de danger, qui est pourtant la position défendue par les autorités sanitaires.

Ce décalage se retrouve sur le terrain : de plus en plus de riverains sont inquiets ou se mobilisent et il est de plus en plus difficile pour les opérateurs d’installer des antennes-relais pour faire fonctionner le téléphone.

Un arrêt de la Cour d’appel de Versailles a fait couler beaucoup d’encre car il invoque l’anxiété des riverains et le trouble anormal de voisinage. S’il faisait jurisprudence, il pourrait mettre les opérateurs dans l’incapacité de remplir leurs obligations vis-à-vis de l’État et des 58 millions d’utilisateurs de téléphone mobile.

Aujourd’hui, il ne suffit plus de prêter attention aux questions et aux inquiétudes. Il est urgent et nécessaire d’y apporter des réponses claires, les questions les plus fréquentes portant sur la santé : danger, maladies, cancer, seuils d’exposition.

Cela m’amène à la question que vous posez, Monsieur le député. Quelle est la gouvernance souhaitable dans le dossier des antennes-relais ?

Je proposerai quelques pistes de réflexion en mettant en avant trois idées, sachant que des débats sont prévus sur la question.

Première idée : la gouvernance que nous souhaitons doit s’appuyer sur les connaissances scientifiques et sur les réalités, qu’elles soient réglementaires ou techniques.

S’appuyer sur les connaissances scientifiques signifie, par exemple, que toute révision de seuils d’exposition soit faite sur des bases scientifiques. C’est d’ailleurs ce que le Parlement européen a demandé la semaine dernière dans sa résolution. Révision ne veut pas dire diminution.

Certaines associations – PRIARTEM et Agir pour l’environnement – ont diffusé, le 2 avril, un communiqué sur le rapport voté par le Parlement européen dans lequel elles ont omis d’indiquer la demande des parlementaires européens que les seuils soient révisés par le SCENIHR, le comité scientifique de la Commission européenne. Peut-être est-ce parce qu’il a confirmé les seuils de l’OMS dans son rapport de 2007 et n’a pas davantage demandé leur diminution dans son tout récent rapport de février 2009.

S’appuyer sur les réalités impose d’en rappeler quatre qui sont souvent occultées dans le débat sur les antennes-relais.

Premièrement, le chiffre de 0,6 V/m, comme seuil d’exposition aux ondes radio n’est aujourd’hui en vigueur dans aucun pays et dans aucune ville du monde.

Deuxièmement, aucun opérateur à l’étranger n’a remplacé les antennes classiques par des antennes micro. Ce remplacement est impossible techniquement. Cela poserait des problèmes de fréquences et ne diminuerait pas l’exposition aux ondes radio et même, dans certaines circonstances, l’augmenterait.

Troisièmement, le regroupement ou la mutualisation des antennes ne diminuerait pas non plus l’exposition aux ondes radio.

Quatrièmement, l’exposition du public aux ondes radio est très faible. Elle est très en dessous des seuils réglementaires évoqués tout à l’heure. Le panorama de l’Agence nationale des fréquences l’atteste clairement puisque, pour le GSM 900, cette exposition est de 1,7 % des normes, ce qui fait 0,7 V/m et, pour l’UMTS, de 0,5 % des normes, soit 0,3 V/m. Une étude, réalisée par le Professeur Jean-François Viel sur 200 habitants du Doubs et publiée la semaine dernière dans un grand journal du soir, rappelle ces données.

Deuxième idée : la gouvernance que nous souhaitons doit ramener de la sérénité et répondre à l’inquiétude.

Pour ramener de la sérénité, il faut sortir du schéma réducteur d’une confrontation entre associations et opérateurs car, s’il faut bien sûr, débattre, la confrontation pure et simple est souvent stérile.

Il faut pour cela que les acteurs jusqu’à présent silencieux s’expriment publiquement sur les antennes-relais. J’y reviendrai dans un instant.

Pour ramener de la sérénité, il faut aussi éviter les agressions verbales, et parfois physiques, contre les opérateurs pendant les réunions publiques, comme cela se produit malheureusement.

Pour ramener de la sérénité, enfin, il ne faut plus de propos outranciers, voire mensongers, comme ceux tenus par Mme Michèle Rivasi et rapportés par l’AFP, à savoir « Il y a une volonté de désinformation des opérateurs parce que cela va leur coûter plus cher d’installer davantage de petites antennes. »

Tous les acteurs du dossier auront à dialoguer ensemble lors de la table ronde organisée par le Gouvernement le 23 avril.

Pour répondre à l’inquiétude, il faudra s’inspirer des pays étrangers et éviter toute décision technique qui inquiète au lieu de rassurer.

Un sondage réalisé pour la Commission dans les vingt-sept États de l’Union européenne montre ainsi que les populations les plus inquiètes sur les ondes radio sont celles des pays comme la Belgique, l’Italie, la Grèce ou le Luxembourg qui n’ont pas adopté les seuils d’exposition préconisés par l’OMS.

Troisième et dernière idée : la gouvernance que nous souhaitons doit commencer par des réponses claires aux Français sur les antennes-relais, tout en appliquant pleinement le principe d’attention recommandé par les autorités sanitaires et rappelé lors de la première table ronde.

La première des réponses vient des trois ministres qui sont en charge de la table ronde du 23 avril. Il serait très utile qu’ils prennent publiquement la parole et répondent clairement aux questions de santé.

Il est souhaitable que, de façon régulière, des représentants gouvernementaux puissent ensuite prendre le relais et répondre aux demandes des journalistes.

Il existe des recommandations précises du Grenelle de l’Environnement en matière d’information sur les radiofréquences. Il serait utile qu’elles soient mises en œuvre.

Les maires et les professionnels de santé, en particulier, méritent une information de l’État et des autorités sanitaires répondant à leurs besoins spécifiques.

Il faut encore renforcer l’écoute, le dialogue et la concertation au niveau territorial, dans une pleine application du principe d’attention. Les opérateurs mobiles sont prêts à y prendre leur part. Il nous paraît souhaitable que les représentants de l’État – et notamment des DDASS – participent aux réunions organisées localement.

Telles sont les quelques idées que nous souhaitions exposer sur la gouvernance qui nous paraît souhaitable sur le dossier des antennes-relais.

M. Stephen Kerckhove, délégué général de l’Association Agir pour l’Environnement. À mon tour, je remercie M. Gest d’avoir invité Agir pour l’environnement à ces tables rondes. Cela démontre que la forme du débat public est en train de changer. J’espère qu’une même évolution se retrouvera sur le fond, c’est-à-dire dans le rapport.

J’avais prévu de commencer mon intervention en me réjouissant de ce que nous étions en train de sortir de l’âge de la polémique pour entrer dans celui du politique. La première table ronde me fait amender un peu ce propos parce que les premières interventions étaient encore très polémiques.

Je précise, au préalable, que je n’entretiens aucun lien direct ou indirect avec les opérateurs – si ce n’est au travers de mon contrat téléphonique. Dans le débat qui nous réunit aujourd’hui, où il y a beaucoup d’a priori, la transparence est essentielle. Pour éviter les sous-entendus et les soupçons de conflits d’intérêts, il est important de jouer cartes sur table, y compris dans le rapport Bioinitiative.

Qu’est-ce qu’une bonne gouvernance ?

On peut, tout d’abord, faire un parallèle avec la notion de débat public. Depuis 2001, celui-ci se résume à des invectives, souvent par media interposés, rarement à des échanges rationnels.

Dans un débat public, il est préférable de ne pas mélanger l’introduction et la conclusion. Or, dans son allocution d’ouverture, M. le Président Accoyer a annoncé : « Des études existent, elles ont montré l’innocuité des antennes-relais. » – il aurait été heureux qu’il utilisât le conditionnel. Une telle attitude s’inscrit dans le droit fil de la lettre de mission du Premier ministre, dans laquelle il est indiqué qu’au regard des expositions constatées à proximité des antennes-relais, il n’y aurait pas lieu de légiférer – de tels propos ne sont pas de nature à introduire un débat dépassionné. Second exemple : le représentant de la Commission européenne s’est, en gros, déclaré d’accord pour un débat si on ne change pas le seuil d’exposition, ce qui n’est pas propice à un débat apaisé. Les riverains et les associations sont prêts à prendre leur part dans le débat public à condition que celui-ci ne soit pas considéré comme un simple lieu d’information, mais soit vraiment une concertation et une construction collective. Si on énonce les conclusions en introduction, on prend la partie pour le tout.

La place des acteurs dans le débat public est également importante. Force est de constater que, depuis 2001, de nombreux acteurs, si ce n’est la totalité, jouent avec des casquettes différentes.

Les responsables politiques ont, malheureusement, été peu présents, ce qui a favorisé la publication d’un décret permettant à des opérateurs d’installer une antenne à moins d’un mètre de la fenêtre d’une école ou de vendre des portables à des enfants de moins de trois ans, ce qui revient à dire qu’il n’y a pas de réglementation en France. Le délai de trois ans est imposé par la controverse locale et la mobilisation des riverains et non par la loi.

Les assureurs n’assurent plus les opérateurs. Les bureaux de contrôle ont, parmi leurs clients, des organismes qui mesurent leurs clients. Les collectivités locales, par défaut de réglementation nationale, agissent de leur côté. C’est un mal nécessaire mais non suffisant. Notre association est dans une position ambivalente vis-à-vis des élus locaux : nous les incitons à se substituer à l’État pour réglementer localement, mais cela fragmente la politique sanitaire en 36 000 communes. D’où une inégalité entre les citoyens vis-à-vis de cette même politique.

Quant aux experts et aux scientifiques, il serait mieux, pour avoir un débat apaisé, d’une part, qu’ils n’entretiennent pas de liens directs avec les opérateurs, notamment au travers des conseils scientifiques des opérateurs, d’autre part, qu’ils aient publié. Un scientifique qui n’a pas publié s’appelle un communiquant. Quand l’Académie de médecine communique en permanence sur les questions d’antennes-relais par l’intermédiaire de M. Aurengo, alors que celui-ci n’a pas encore publié dans les revues à comité de lecture, je le considère comme aussi représentatif de la communauté scientifique que moi-même qui ne suis pas du tout scientifique… Pour apporter un peu plus de rationalité dans les débats, ne doivent s’exprimer que les scientifiques qui ont la capacité à le faire, c’est-à-dire ceux qui ont publié.

Les conclusions de l’étude de métrologie diffusée par le Professeur Viel en ont surpris plus d’un. La première remet en cause une loi de la physique, puisqu’elle énonce que plus on s’éloigne d’une antenne et plus il y a de champ, alors que nous avons tous appris que le champ diminuait avec le carré de la distance. La seconde conclusion est qu’il ressort des mesures que la télévision et la radio sont les principaux contributeurs du champ global.

Bien que nous donnions foi aux scientifiques qui publient, nous sommes allés voir les mesures fournies sur le site de l’ANFR – l’agence nationale des fréquences – et avons décortiqué les 250 dernières. Nous avons fait trois constatations.

Premièrement, il n’y a pas de lien établi entre distance et exposition puisque cette dernière dépend de la densité du réseau, de la nature de l’antenne-relais, des rémissions passives dues aux bâtiments et des différences de hauteur. Dès lors, affirmer dans les conclusions d’une étude que, plus vous vous éloignez, plus vous avez de champ, est anti-scientifique.

Deuxièmement, dans les 250 dernières mesures publiées sur le site de l’ANFR, la radio et la télévision représentent une part infinitésimale du champ global : sur les 250 mesures, seules sept d’entre elles font apparaître une contribution supérieure à celle de la téléphonie mobile.

M. Jean-Marie Danjou. Ce n’est pas étonnant puisque ce sont des mesures sur des antennes-relais de téléphonie mobile et non sur le champ de la radio et de la télévision. Au voisinage de la Tour Eiffel et du Trocadéro, la radio et la télévision représentent 95 % du champ.

M. Stephen Kerckhove. En tout état de cause, même si elles ne sont pas représentatives, ces 250 mesures ont autant de crédibilité que les 183 faites à Besançon pendant vingt-quatre heures. Elles montrent qu’à proximité des antennes, la contribution de la téléphonie mobile est majoritaire – ce qui semble une tautologie.

Troisième constatation : en moyenne, le champ à proximité des antennes-relais est faible – il est de 0,77 Volt pour le GSM 900, de 0,87 Volt pour le GSM 1 800, et de 0,51 Volt pour l’UMTS – mais on ne peut pas dire que, globalement, le champ soit faible à proximité de toutes les antennes : 44 sites dépassent 2 V/m, parmi lesquels 8 sont entre 3 et 4 V/m, 13 sites à plus de 4 V/m, et un site à 17 V/m. Imaginez ce que peut représenter une telle intensité !

M. Jean-Marie Danjou. C’est un tiers du seuil réglementaire !

M. Stephen Kerckhove. Il existe des sites à forte exposition, dont la proportion est évaluée à 15 %, pour lesquels nous demandons une réglementation.

Enfin, le débat étant une notion formelle, il doit « accoucher » de décisions de fond. Or les débats actuels s’apparentent plus à des échanges entre acteurs et ne se soldent pas par des décisions politiques. Nous renvoyons donc la balle à la représentation nationale, en espérant que le Grenelle de la téléphonie mobile débouchera sur une réglementation à la fois sur les portables et sur la téléphonie mobile.

Je reviens à nouveau sur l’expertise scientifique car elle est le nerf de la guerre dans le domaine qui nous occupe. Les interventions lors de la première table ronde ont été des présentations à charge. M. Aurengo a raté sa vocation de juge d’instruction. Il est assez étonnant qu’on revienne systématiquement sur les études pouvant froisser un tant soit peu les opérateurs et qu’on ne parle jamais des 1 400 études régulièrement avancées, concernant notamment les radios, ou qu’en les analysant, on soit pris d’un syndrome, non pas psychosomatique, mais « métonymique », extrayant un passage pour discréditer le tout. Cela a été le cas pour les rapports Bioinitiative et TNO que, à peine venaient-ils d’être publiés, le ministère de la santé s’est empressé de contester. Alors que l’on attend les résultats d’Interphone depuis bientôt cinq ans, c’est seulement après avoir mené l’intégralité de l’étude épidémiologique qu’on remet en cause le protocole qui a présidé à cette étude parce qu’elle met en évidence des effets. Je ne m’étends pas sur les travaux des Professeurs Kundi, Johansson, ni sur l’étude Naila. Chaque fois qu’une étude peut susciter un débat scientifique, les experts français sont prompts à la critiquer.

Enfin, pour qu’un débat puisse être fondé rationnellement, il faut peut-être avoir le courage d’admettre à un moment – je reprends les propos de M. Zmirou – que nous ne savons pas et exprimer un doute, une incertitude, montrer qu’il existe une controverse scientifique plutôt que d’affirmer en permanence qu’on sait et qu’il n’y a pas de risque. L’énergie que nous devons déployer pour simplement faire accepter qu’une question controversée puisse susciter de l’incertitude est phénoménale, ce qui est pour le moins inquiétant.

M. Alain Gest, député. Ce qui me gêne, c’est que les accusations de conflits d’intérêts sont à sens unique : elles visent toujours les scientifiques ayant des liens supposés ou réels avec les opérateurs et non ceux qui rédigent des rapports comme Bioinitiative qui constituent des références pour ceux qui considèrent qu’il y a des difficultés. Vous réclamez que les scientifiques qui réalisent des études aient préalablement publié sur le sujet. Or la personne qui est à l’origine de Bioinitiative n’est pas une scientifique. Elle a un métier de conseil.

Puisque l’on veut que s’instituent un autre dialogue et une autre gouvernance, il faut, à chaque fois, vérifier dans quel contexte s’inscrit le débat, afin d’apaiser celui-ci. Mme Salomon va sans doute nous donner des conseils pour mieux y parvenir encore.

Mme Danielle Salomon, sociologue au Centre de sociologie des organisations. Je vous remercie, Monsieur Gest, d’avoir associé un certain regard des sciences sociales sur le sujet d’aujourd’hui.

Mon exposé se fonde sur trois recherches que j’ai menées avec des collègues sur le sujet, la plus récente portant sur la régulation actuelle ainsi que sur un certain nombre d’instances de concertation, en particulier des chartes municipales.

Pour vous aider à cerner ce que fait et ne fait pas la sociologie, je précise qu’elle observe et interprète un certain nombre d’actions, qu’elle n’émet pas de jugements et qu’elle ne prétend pas non plus, comme cela lui a parfois été reproché, confisquer la parole de quelque acteur que ce soit. Elle ne se prononce pas sur le fond et n’a, malheureusement, pas de recettes miracles pour apaiser les débats. Cela étant, essayer de comprendre ce qui se passe permet de raisonner et, plus on raisonne collectivement, plus on a de chance d’avoir des débats sereins.

Je traiterai principalement deux questions. Première question : pourquoi la téléphonie mobile et les ondes électromagnétiques sont-elles devenues des sujets d’actualité et comment peut-on expliquer l’intensification récente des débats les concernant ? Seconde question : comment penser la gouvernance ?

Si l’on suit l’évolution du sujet des premières mobilisations jusqu’à aujourd’hui, on peut observer une logique qui s’est amplifiée. Dès le début, les questionnements ont été posés par des riverains, dans leurs lieux de vie, qui réagissaient à des perturbations de ce cadre de vie, recevaient peu de réponses à leurs questions, n’étaient pas pris au sérieux dans leur demande, l’expression de leurs problèmes de santé ou leurs craintes. La façon dont l’information institutionnelle est construite – d’ordre réglementaire, administratif, technique, scientifique – ne peut pas répondre aux questionnements de personnes dans leur « monde vécu », qui ne dissocient pas les questions patrimoniales des craintes pour leur santé ou de celles de leurs enfants, des affections qu’ils ressentent, de l’esthétique, du bruit, de leur exaspération, de leur émotion ou de leur malaise. Or le déploiement des antennes s’est réalisé dans un cadre très administratif et réglementaire, celui de l’urbanisme qui est automatique : un dossier conforme ne peut être refusé.

Une antenne est devenue quelque chose d’abstrait autour de laquelle aucune question n’était soulevée ni par l’administration, ni par les opérateurs ou leurs sous-traitants, alors que son installation, rappelons-le, se faisait dans un lieu de vie.

Ayant suscité des réactions diffuses sur le territoire, qui se sont amplifiées autour des années 2000, le problème a été dissocié au niveau central : le thème principal de la santé a fait l’objet d’une prise en charge particulière, en faisant appel, notamment, à des experts scientifiques puis à l’AFSSET, dans le cadre classique des principes du dispositif de sécurité sanitaire. Mais, en adoptant les seuils préconisés par l’ICNIRP et l’Union européenne – et bien qu’elle ait recommandé l’intégration paysagère et la création des instances départementales de concertation –, la régulation centrale a peu pris en compte la demande sociale et les mouvements locaux qui se sont poursuivis et se poursuivent encore. Cela a encore accentué le caractère désincarné des réponses de nature scientifique. Les recherches qui se sont multipliées ont plus renforcé l’idée d’incertitude et d’inconnu qu’elles n’ont apporté de réponses simples et surtout binaires posées par les riverains du type : « Mes enfants courent-ils un danger avec les téléphones ou avec les antennes ? »

La demande sociale dans les domaines de la santé et de l’environnement a comme spécificité de réunir des dimensions de nature hétérogène : questions patrimoniales, doutes, craintes, voire anxiétés devant des affections que les habitants lient à la présence d’une antenne. Elle s’inscrit dans des histoires et des territoires qui sont investis d’une identité – ou sont quelquefois à la reconquête de celle-ci –, ont un passé avec des élus ou des bailleurs sociaux et s’appuient éventuellement sur des organisations préexistantes. Tous ces mouvements ont été largement relayés et soutenus très efficacement par des associations locales puis nationales et par des élus qui ont pris des arrêtés municipaux restrictifs.

L’intégration territoriale s’est opérée par l’intermédiaire de chartes municipales, comme le préconisait le premier rapport de l’OPECST.

Les chartes municipales sont les plus efficaces dès lors qu’elles combinent plusieurs facteurs.

Premièrement, il doit y avoir une gestion de proximité de l’information préalable générale permettant de donner à voir et à comprendre les plans des toits, les antennes, les ondes, leur orientation et leur intensité par des mesures de champs réalisées in situ.

Deuxièmement, les chartes doivent être une production spécifique de règles – explicites et implicites – permettant, dans le territoire, de trouver un accord entre les parties sur la façon d’implanter des antennes. Les règles peuvent, d’ailleurs, être tout à fait différentes d’une ville à l’autre.

Troisièmement, il faut laisser le temps à la discussion, à la négociation et à l’expression des questionnements comme des mécontentements.

Enfin, la commission créée pour l’élaboration de la charte statue et décide en dernier recours, ce qui permet de clore une situation.

Sous ces conditions, les chartes sont des instruments politiques d’apaisement qui, en général, permettent de ne pas politiser le sujet au détriment des maires et ont pour effet d’écrêter les mouvements sur le territoire. Elles ne les font pas disparaître complètement pour autant puisque l’incertitude persiste. Deux points aveugles l’alimentent : tout d’abord, personne ne peut savoir, à l’avance, si des personnes vont ou non se mobiliser lors de l’installation d’une antenne. Le second point – inhérent au système institutionnel français – a trait à l’absence de débat sur la question du sens des nouvelles technologies et de leur cumul – tout le monde ne souhaite pas pouvoir suivre un match de football sur son portable – et celle de la santé – regardée comme relevant de la compétence de l’État – et tout particulièrement le cas d’un nombre grandissant de personnes affirmant ressentir des troubles qu’elles relient aux antennes.

Cette double dissociation de la santé, d’une part, de la régulation nationale et territoriale, d’autre part – avec la persistance d’incertitudes – a donné encore plus d’importance à la science avancée réalisée dans les laboratoires, que certains appellent « science confinée » et que j’ai plutôt tendance à nommer « science institutionnelle », du fait du rôle joué par les Agences. Or celle-ci évolue dans un univers totalement autonome au regard du ressenti des individus.

Le mouvement associatif a très tôt montré une grande efficacité. Il s’est largement appuyé sur les nouvelles technologies et a profité de la multiplication de micromouvements sur l’ensemble du territoire. En outre, de nouveaux acteurs associatifs sont apparus qui ont occupé tout l’espace rhétorique et territorial : certains sont plus coopératifs, d’autres plus radicaux, certains opèrent plus au niveau local, d’autres plus au niveau national et même international, certains s’adressent plus aux acteurs de l’État, tandis que d’autres préfèrent aller vers le grand public.

Du fait de la transformation de la scène médiatique, il y a une congruence forte entre les messages portés par le mouvement associatif et la place centrale donnée à l’évènementiel, au spectaculaire, aux doutes, aux incertitudes, aux questionnements, de telle sorte que des alliés de poids rejoignent aujourd’hui les mouvements associatifs – les cancérologues, un certain nombre de grands médecins, des magistrats, d’autres associations qui soutiennent le mouvement de façon ponctuelle, des députés européens, etc. L’actualité liée à l’environnement – le Grenelle – ou à la production scientifique et l’agrégation des sujets pouvant, à un titre ou à un autre, se relier aux ondes électromagnétiques – non seulement les portables et les antennes, mais aussi le WiFi et les bains électromagnétiques – sont autant de nouvelles entrées qui maintiennent le sujet d’actualité.

La tendance est au recentrage autour de la santé avec la démonstration du syndrome puis de l’affection physiologique de l’électrohypersensibilité et de l’articulation des champs électriques et magnétiques des antennes avec l’activité électrique et magnétique du corps.

Comment penser la gouvernance ?

Il y a trois sources principales d’organisation des règles ou du débat.

La première est l’État central, avec les agences et les institutions. Son langage est peu audible car il a un faible accès à la scène médiatique.

La deuxième source d’organisation est constituée par les municipalités, qui s’occupent de l’information locale et des débats. Mais ces derniers restent cantonnés au niveau local et ne se diffusent même pas parfois sur l’ensemble de leur territoire.

La troisième source d’organisation est le mouvement associatif qui tient un langage simple et cohérent, dans lequel, bien qu’il soit à entrées multiples, les acteurs qui viennent en soutien s’intègrent facilement. Le mouvement associatif se place en défenseur de la santé des personnes.

Les études grand public montrent que, si les citoyens ne pensent pas forcément qu’il y ait un niveau de risque élevé, persistent toutefois l’affirmation d’un manque d’information ainsi qu’une grande défiance vis-à-vis des institutions et des experts.

Le principal point de divergence entre l’ensemble de ces groupes est la science ou, plus exactement, une vision de la science. Sur tous les sujets de santé et d’environnement, on constate l’élaboration d’un nouveau paradigme, comme le définit Thomas Kuhn, opposant, d’un côté, une science disciplinaire, institutionnelle – qui synthétise de façon statistique, accorde plus de poids aux études qui ont été répliquées, tend à minimiser le résultat unique ou non reproduit et ne retient des données que celles qui sont démontrées – et, de l’autre côté, une vision qui se construit souvent en opposition, qui s’apparente plus à la posture, décrite par le Docteur Souvet, de médecins souhaitant non seulement apporter des réponses à leurs patients mais également prévenir l’apparition de pathologies. Cette nouvelle version du paradigme associe les différentes dimensions de la demande sociale, observe sans censure, inclut toutes les dimensions du fonctionnement humain, en particulier la singularité humaine, au-delà des populations vulnérables habituellement retenues – enfants, personnes âgées, femmes enceintes, etc. – et cherche à apporter des solutions, des alternatives, des réponses concrètes.

Il convient de remarquer – comme l’a rappelé l’intervention de M. de Rosnay – que la science institutionnelle produit aussi de nouvelles connaissances qui ouvrent de nouveaux champs de réflexion, suscitent d’autres incertitudes, mettent en jeu des mécanismes complexes : elle observe la croissance remarquable de certaines pathologies, étudie l’importance que peuvent avoir des temps d’exposition à certaines périodes de la vie – enfance, vie intra-utérine –, voire l’impact de l’ascendance sur le développement de certaines pathologies. Les mécanismes épigénétiques ouvrent des pans entiers de nouvelles hypothèses à explorer.

La science institutionnelle tend aussi à déplacer la focale, en développant des travaux dits d’expologie, c’est-à-dire les instruments et les différentes façons permettant d’observer ce qui se passe au plus près de l’environnement et du milieu de vie des personnes. Le travail de Viel va dans ce sens.

J’indiquerai, pour terminer, trois pistes de réflexion.

Premièrement, il faudrait que les scientifiques institutionnels élargissent, comme cela se fait dans un certain nombre de pays, leurs investigations et surtout leurs modalités de travail. Il serait bien qu’ils se disent : « Et si c’était vrai ? Allons voir de plus près ce qu’il en est ! » au lieu d’affirmer : « Cela ne se peut ! » Des exemples célèbres ont montré a posteriori que l’on pouvait se tromper.

Deuxièmement, les professionnels de santé peuvent être des relais. Aussi profanes en la matière que leurs patients, ils sont très intéressés par la santé de ces derniers, sont soumis à un doute extrême et veulent pouvoir conserver leur distance et leur esprit critique.

Troisièmement, l’Assemblée nationale a adopté, en première lecture, avant l’article 22 de la loi « Hôpital, patients, santé et territoires », un amendement intégrant la définition de la santé de l’OMS, à savoir : « La santé est un état de complet bien-être physique, mental et social, et ne consiste pas seulement en une absence de maladie ou d’infirmité ». Au cours des débats sur la loi de santé publique en 2004, on s’était déjà interrogé sur la manière de rendre concrète cette définition. C’est peut-être le moment de s’y atteler, à partir de la réflexion sur la téléphonie mobile, en lien, éventuellement, avec d’autres pays. (Applaudissements)

DÉBAT

M. Bertrand Pieri, Syndicat SUPAP-FSU, gestion du dossier WiFi. Monsieur Danjou, pourquoi parlez-vous d’ondes radio et jamais d’ondes électromagnétiques ? Pourquoi cette précaution sémantique ? Pouvez-vous par ailleurs nous expliquer pourquoi vous n’êtes pas venu au Sénat il y a deux semaines expliquer votre position ?

M. Jean-Marie Danjou. Les ondes électromagnétiques sont très larges. Les ondes radio en sont une catégorie englobant les ondes qui circulent entre le récepteur de téléphone mobile et l’antenne. La bande de fréquence se situe autour de 900 MHz pour le GSM 900, va jusqu’à un peu plus de 2 GHz pour l’UMTS et est légèrement inférieure à la bande dite UHF utilisée par la télévision qui va jusqu’à 872 MHz. Une partie de cette bande va, d’ailleurs, être, selon la décision des autorités politiques, transférée au téléphone mobile pour faire du très haut débit mobile à partir de 2012, lorsque la télévision analogique aura cessé de fonctionner et qu’on aura récupéré ce que l’on appelle le dividende numérique.

Quant à notre absence à la table ronde du Sénat, je m’en suis expliqué avec le Sénateur Desessard qui nous avait invités : l’équilibre des parties en présence n’était pas assuré puisque les autorités sanitaires, en particulier, n’étaient pas représentées. Nous avons considéré que cela ne permettait pas d’avoir un débat serein et productif.

M. Denis Zmirou-Navier. Puisque mes propos ont été rapportés de manière détournée par M. Kerckhove, je souhaite les repréciser.

Je n’ai pas dit que nous ne savions rien. J’ai dit que, dans le domaine des téléphones mobiles et de leurs effets, notamment sur les enfants et les tout petits, il y a encore beaucoup de choses que nous ne savons pas. En revanche – et je pensais avoir été suffisamment clair –, s’agissant des antennes, on sait beaucoup de choses.

C’est là que l’on voit l’importance de la gouvernance. Il est nécessaire de bien distinguer les rôles, les moments et lieux des différents débats conduisant l’autorité politique à prendre des décisions. Lorsque l’on s’interroge sur l’existence de dangers et de risques, il n’est pas bon que des forums hybrides, où n’importe qui donne son avis sur le sujet, déterminent les décisions à prendre. Il faut que celles-ci se fondent sur les avis d’experts institutionnels, comme les appelle Danielle Salomon. L’institutionnalisation de l’expertise a été un réel progrès. Les mélanges flous entre les différentes parties prenantes qui existaient avant produisaient des avis tout aussi flous qui ont conduit aux affaires de l’amiante ou de Tchernobyl. En institutionnalisant l’expertise, on se focalise sur le bon sujet – les dangers, les risques – et on interroge les gens compétents dans des règles de transparence, d’indépendance, de pluralité et d’interdisciplinarité. Dans un autre temps et un autre lieu, on peut ensuite réunir les parties prenantes qui ont des intérêts à défendre pour discuter des préoccupations sociales et des enjeux économiques de l’installation d’antennes, y compris dans les lieux les plus reculés, en réponse à une demande sociale. Mais il ne faut pas mélanger les genres.

Vous avez évoqué, Monsieur Kerckhove, l’étude Naila, menée à proximité de Munich. Je l’utilise dans mon cours « L’épidémiologie pour les Nuls » comme exemple de travail ne devant pas figurer dans un dossier d’expertise.

Il faut distinguer la phase scientifique d’expertise et la phase de débat social. Le rôle du politique est d’arbitrer et d’appliquer ou non le principe de précaution. Ne faites pas dire à la science des choses qui sont inexactes. Qu’un jugement donne un statut scientifique au rapport Bioinitiative ne peut qu’interpeller gravement les gens de la communauté scientifique.

M. Stephen Kerckhove. Pour revenir au rapport Viel, vous conviendrez avec moi qu’il est quand même étonnant qu’un célèbre épidémiologiste se mette à faire des études de métrologie !

M. Denis Zmirou-Navier. Non, je fais cela la moitié de mon temps.

M. Stephen Kerckhove. Vous avez des compétences dans les deux domaines ?

M. Denis Zmirou-Navier. J’ai des compétences en expologie, qui est une modalité d’application de l’épidémiologie.

M. Stephen Kerckhove. Il est également étonnant que M. Viel publie seulement aujourd’hui les résultats de mesures réalisées en 2005. Faut-il attendre autant pour publier ? Vous qui faites des lectures critiques d’un certain nombre d’études, que pensez-vous de celle qui énonce que le champ électromagnétique s’accroît quand on s’éloigne de l’antenne ?

Il est, enfin, étonnant que, alors que vous avez systématiquement une lecture à charge de toutes les études, vous n’ayez rien à dire sur une étude épidémiologique réalisée il y a quatre ans à Besançon sur 183 personnes soumises à une exposition de vingt-quatre heures !

Mme Danielle Salomon. Je répondrai à Denis Zmirou que les deux phases ne sont pas exclusives l’une de l’autre. Il est bien que la science continue à travailler en laboratoire. Mais, quand un cancérologue, par exemple, applique une méthode expérimentale consistant à observer et à décrire ce qui se passe, il me semble important de lui dire : « Allons-y ensemble ! ». Ce sont des démarches parallèles et non exclusives l’une de l’autre, qui sont une autre façon de penser la science.

Dans un certain nombre de pays, quand on sent qu’on ne sait pas tout et que des incertitudes demeurent, il y a des ouvertures qui se font. Pourquoi pas en France ?

On a déjà fait un énorme progrès avec l’épidémiologie. Les agences et les groupes d’experts de l’AFSSET invitent des observateurs. On avance et c’est tant mieux.

Mme Roselyne Roeland. M. Danjou déplore le décalage gigantesque qui existe entre l’opinion publique et l’avis des autorités sanitaires. Selon les chiffres dont je dispose, 86 % des personnes seraient inquiètes par rapport aux antennes-relais. Ce décalage est-il étonnant quand on sait que les rapports de l’AFSSE, qui ont servi de base à l’évaluation du risque sanitaire, ont été largement discrédités par l’IGE et l’IGASS à cause des conflits d’intérêts qui étaient apparus ?

Comment s’étonner également du peu de crédit donné à l’OMS, qui détermine les seuils d’émission, compte tenu des conflits d’intérêts qui se sont, là aussi, manifestés autour de M. Repacholi pendant les dix années au cours desquelles il a dirigé les travaux de cet organisme ? La personne qui lui succède annonce qu’elle va reprendre toutes les études de Bioinitiative selon les méthodes d’analyse propres à l’OMS. Personne n’a oublié que cet organisme disait que le tabac ne posait aucun problème…

Quant à l’Académie de médecine, en 1996, elle qualifiait les inquiétudes qui s’exprimaient autour de l’amiante non professionnelle, de « suggestibilité collective » et elle parle maintenant de « peur collective ». Il n’est donc pas étonnant que les gens ne trouvent pas cette autorité très crédible. Il suffirait d’introduire un peu de vérité dans toutes ces déclarations pour qu’ils accordent un peu plus de crédit à ce qui leur est dit. On a besoin que les politiques agissent. Ils ne sont pas, pour l’instant, rassurants.

M. Alain Gest, député. Je serais certainement plus rassurant à vos yeux si j’écrivais un rapport conforme à vos idées !

Mme Roselyne Roeland. Si aucun conflit d’intérêts n’influençait les rapports qui sont réalisés, je serais peut-être rassurée.

M. Alain Gest, député. Je sais la difficulté de ma tâche. Pour avoir vécu d’autres difficultés dans des circonstances…

Mme Roselyne Roeland. Comme Tchernobyl ou le sang contaminé !

M. Alain Gest, député. Si vous avez envie de prendre des responsabilités, ne vous gênez pas. Vous verrez la complexité de la tâche.

Dans des circonstances tout à fait différentes et dans un autre cas de figure, j’ai mesuré la pertinence de l’analyse de Mme Salomon : il y a, en effet, un fossé grandissant entre ceux qui sont censés donner une information a priori fiable et le ressenti de la population et de l’opinion publique.

Il revient aux pouvoirs publics de se faire une idée la plus précise possible pour pouvoir prendre des décisions. Personne ne peut être opposé à ce que des mesures de prévention soient prises en matière de santé, mais qui, dans le même temps, doivent être compatibles avec une demande très large et reposant sur des données le moins contestables possible. Je sais que la population a besoin d’être rassurée. Mais les sondages ne peuvent être comparés que s’ils portent sur des questions identiques. Sinon, on peut leur faire tout dire. Comparer le taux de 86 % donné par BVA à celui de 80 % publié par la SOFRES ne vaut que si les questions posées étaient les mêmes.

Oeuvrons ensemble pour une nouvelle gouvernance où tout le monde acceptera de s’écouter. Me référant à une autre aventure qui m’est arrivée, je puis affirmer que ce ne sont pas toujours les scientifiques qui ont tort. Ils peuvent ne pas avoir toujours raison mais ils n’ont assurément pas toujours tort. L’idée de Mme Salomon de rapprocher les différentes parties en présence lorsqu’il y a doute est le seul moyen de trouver des solutions un tant soit peu consensuelles.

J’appelle de mes vœux cette nouvelle gouvernance car, si nous ne nous posions pas de questions, nous ne serions pas là aujourd’hui.

Mme Amina Medjahed. Je me permettrai de rappeler à M. Zmirou les propos qu’il a tenus à un journaliste du Monde lorsqu’il a démissionné de l’AFSSE. Déplorant les faibles moyens alloués à l’agence, il avait ajouté que nous avions profondément modifié nos milieux de vie au cours du siècle écoulé et que nous payions – et que nos enfants paieraient demain – le prix de nos aveuglements.

Nous sommes là aujourd’hui pour tenter de prévenir une telle évolution, en défendant un droit fondamental : le droit à la santé des générations futures.

J’ai cru noter un lapsus dans vos propos, Monsieur Danjou, et je voudrais m’en assurer. Quand vous avez cité les rapports d’expertise de l’AFSSET 2001, 2003, 2005, vous avez indiqué que vous travailliez déjà sur le prochain. Rassurez-moi : l’AFOM ne travaille pas avec l’AFSSET sur le prochain rapport ?

M. Jean-Marie Danjou. Je ne pense pas avoir dit cela mais, si je l’avais dit, ce serait effectivement un lapsus. J’ai entendu comme vous Mme Bachelot annoncer la sortie du prochain rapport de l’AFSSET en septembre.

Mme Amina Medjahed. Par ailleurs, vous avez fait remarquer que les pays qui ont baissé leurs normes – la Belgique, l’Italie – sont ceux qui manifestent le plus d’inquiétude. Peut-être ont-ils baissé les normes d’émission et sont-ils plus inquiets parce qu’il y a eu des débats publics et qu’ils se sont interrogés sur les risques sanitaires liés aux technologies sans fil. Les Français ne sont-ils pas moins inquiets que les Belges ou les Italiens tout simplement parce qu’ils sont moins informés ?

M. Jean-Marie Danjou. Je respecte votre point de vue mais ne le partage pas.

En ce qui concerne l’Italie, j’ai lu, il y a quelques jours, dans un rapport de sociologues, que les seuils avaient été mis en place il y a plus de dix ans pour des raisons à l’origine techniques mais que l’on avait observé ensuite une montée de l’inquiétude de la population.

Notre objectif doit être d’écouter les gens et de les rassurer en misant sur la transparence, la concertation et, bien entendu, la vérité. Cela prendra du temps mais nous devons tous nous y employer, les opérateurs comme les pouvoirs publics. Le ministère de la santé doit parler parce qu’il y a un vide à combler. Il faut que chacun s’exprime de façon responsable en affirmant sa détermination à jouer son rôle.

Je respecte tout à fait l’action des associations : elles jouent un rôle de relais et de défense des intérêts de la population. Je fais, moi-même, partie d’associations dans ma vie privée. Mais il faut savoir rester dans les bornes que celles-ci se sont fixées.

Mme Janine Le Calvez. Je veux rassurer M. Zmirou : nous sommes pour que chacun soit bien à sa place : les scientifiques dans leurs laboratoires et l’expertise scientifique aux mains des scientifiques. Nous sommes même très exigeants puisque nous demandons que l’expertise scientifique soit rendue par des scientifiques ayant travaillé et publié dans le domaine sur lequel ils sont chargés de rendre l’expertise. Nous allons même plus loin : nous sommes d’avis que les expertises soient rendues par des groupes d’experts représentatifs des positions et des débats en cours au sein de la communauté scientifique. Jusqu’à présent, cela n’a pas été le cas. Nous continuerons à réclamer que les groupes d’experts, les comités scientifiques, les conseils scientifiques, les groupes d’intervention censés représenter les scientifiques dans les débats publics soient composés de telle façon que toutes les positions aient leur place. Cela nous semble de première importance. Cela correspond à ce que M. Zmirou demandait dans l’article du Monde cité par Mme Medjahed. Qu’il soit donc pleinement rassuré.

Reste à savoir, ensuite, ce que l’on prend en compte dans les expertises. Je reprendrai l’exemple de l’étude Naila citée par M. Zmirou. Quand le professeur Steward en Angleterre a rendu son rapport, en 2005, il a dit qu’on ne pouvait pas dire en 2005 ce qu’on disait en 2000 – en référence au rapport qu’il avait rédigé sur le même sujet en 2000. Il s’appuyait pour dire cela sur quatre études : celle de l’institut Karolinska sur les neurinomes de l’acoustique, TNO, Reflex et Naila. Tout en faisant remarquer qu’elles ne présentaient pas toutes la même robustesse méthodologique – critiques qu’ont formulées également, à ma demande, M. Zmirou et Mme Hours – il ne leur reconnaissait pas moins le devoir de nous interpeller. S’il faut être exigeant sur les bibliographies, il ne faut pas non plus négliger les signaux d’alerte tirés par une littérature de risque non publiée.

M. Arnaud Miquel, Président de l’Agence nationale des fréquences. M. Kerckhove ayant interpellé la salle à propos de l’étude Viel, dont je n’ai lu que l’abstract, je me dois d’apporter des éclaircissements.

Nous avons été très rassurés à l’Agence nationale des fréquences que M. Viel n’ait pas inventé une nouvelle loi de la physique. C’est l’article du Monde qui donne l’impression que le champ augmente en fonction de la distance. L’abstract – qui se résume à quelques lignes en anglais sur Internet – montre qu’il s’agit, en réalité, de l’observation suivante, que je cite de mémoire : le champ au sol est plus important dans la zone où l’axe principal de l’antenne rencontre le sol – les antennes de téléphonie mobile étant directives, légèrement inclinées vers le sol. C’est une évidence, connue depuis très longtemps.

Je ne peux pas me prononcer sur l’ensemble de l’article de M. Viel mais, sur ce point-là, l’abstract de l’article de M. Viel est parfaitement cohérent. Ce n’est pas la peine de prendre les 300 dernières mesures relevées sur le site de l’Agence, qui ne peuvent, si on les place par rapport à l’axe d’émission des antennes proches, que correspondre à la physique.

La mesure de 17 Volts nous a surpris et nous avons regardé à quoi elle correspondait. Elle est due à une antenne indoor dans une galerie marchande d’un grand magasin, installée pour répondre à la préoccupation du public de pouvoir utiliser son téléphone même dans un grand magasin. On en conclut que le niveau d’exposition du public quand il est dans le lobe principal de l’émission d’une petite antenne de faible puissance inclinée vers le bas est extrêmement élevé par rapport à celui induit par des antennes outdoor implantées sur les toits et assez éloignées de la population. Il faut donc faire très attention quand on avance que des petites antennes proches des gens amélioreraient le niveau moyen d’exposition – d’autant qu’il faudrait expliquer ce que l’on entend par niveau moyen.

Enfin, une intervenante a dit que les résultats des mesures étaient inférieurs à la précision des appareils de mesure. C’est faux. Les mesures que vous trouvez sur le site de l’Agence sont réalisées par des laboratoires accrédités et ont des zéros après la virgule parce qu’elles sont effectuées à l’aide d’appareils de mesure appelés analyseurs de spectres. Il est vrai que les mesures à la sonde, à larges bandes, ont une précision faible – quelques dixièmes de Volt par mètre – mais, quand on veut procéder à des mesures très précises, il existe des appareils pour cela.

Mme Nadia Ziane, Association Familles rurales. En tant que membre de l’association Familles rurales qui est, à la fois, une association de défense des consommateurs, regroupant pas moins de 180 000 familles, et une association familiale, je me permets de vous demander de nous laisser une petite place. Les trois ou quatre associations invitées à s’exprimer dans les débats ne représentent ni l’ensemble des associations ni l’ensemble des consommateurs. J’aimerais que la parole soit redonnée à ces derniers parce qu’ils se situent au confluent, d’un côté, des messages alarmistes et, de l’autre, des paroles apaisantes des opérateurs qui leur assurent qu’il n’y a pas de quoi s’inquiéter, qu’ils ne risquent rien, les pouvoirs publics brillant par leur silence, en dehors de l’intervention récente de Mme Roselyne Bachelot pour interdire les mobiles pour les enfants. Il est important d’écouter ceux qui reçoivent deux versions complètement contradictoires des faits et ne savent plus comment s’y retrouver, même si la réaction immédiate d’un parent sera forcément de s’opposer à l’implantation d’une antenne sur le toit d’une école.

Nous essayons de travailler avec vous, Monsieur Danjou, et de comprendre pour pouvoir donner une information claire et la plus honnête possible. Nous ne sommes pas scientifiques et n’avons pas la prétention de le devenir. Nous sommes juste la voix du consommateur.

Un permis de construire n’est pas nécessaire pour installer une antenne en France aujourd’hui, sauf quand elle très haute. Seriez-vous prêt, Monsieur Danjou, si une meilleure information était dispensée aux élus locaux, à leur laisser un peu plus de place dans la décision de placer une antenne ?

M. Alain Gest, député. En tant que député d’une circonscription rurale, je connais votre association, Madame, et puis rendre hommage à votre action.

M. Stephen Kerckhove. Il y a une petite semaine, nous avons participé, dans le cadre de l’organisation du Grenelle de la téléphonie mobile, à une réunion d’information avec le ministère de la santé, au cours de laquelle nous a été présentée la liste des différents collèges et des différentes structures sollicitées. Nous avons remarqué qu’il y avait peu d’associations. Nous avons, notamment, fait part de notre surprise qu’il n’y ait qu’une seule association familiale, pas d’associations de consommateurs ni de parents d’élèves et pas de syndicats. Notre association n’a pas la prétention de représenter l’ensemble du monde associatif, tant s’en faut.

Parmi les cinq collèges prévus, celui des agences étatiques regroupe une pléthore d’agences, allant de l’AFSSET au CSA en passant par l’INERIS. Or je ne pense pas que le CSA ait grand-chose à dire sur la téléphonie mobile. Le collège des personnalités qualifiées réunit l’Académie de médecine, l’Académie des sciences, l’Académie des technologies et une multitude d’autres intervenants, ce qui laisse très peu de place aux associations. C’est assez regrettable parce que le Grenelle de l’environnement comprenait un collège des associations et un collège des syndicats, à côté du collège des personnalités qualifiées.

On doit aussi regretter que, dans le collège des personnalités qualifiées, il y ait peu de gens qualifiés parce que n’ayant pas publié.

M. Alain Gest, député. J’ai bien noté votre demande, Madame, et ne manquerai pas de la relayer auprès des organisateurs.

M. Jean-Marie Danjou. Nous estimons, comme vous, Madame, qu’il est important que les associations soient bien représentées.

Vous avez raison de souligner le rôle central des maires. Mme Salomon l’a également indiqué, les opérateurs en sont tout à fait conscients et le Guide des relations entre opérateurs et communes préconise de renforcer cette dimension. Les maires sont au cœur du dialogue, à l’interface entre, d’un côté, les citoyens qui souhaitent voir s’étendre la couverture de la téléphonie mobile mais expriment en même temps des inquiétudes quant aux effets des champs électromagnétiques et, de l’autre, les opérateurs chargés de mettre en place les moyens techniques.

Le code de l’urbanisme prévoit, dans certains cas, un permis de construire pour l’installation d’antennes de grande importance. La plupart du temps, elle doit faire l’objet d’une autorisation de travaux. Je ne sais s’il faut prévoir un permis de construire systématique parce que les antennes-relais sont, aujourd’hui, traitées dans les communes comme des installations architecturales et des constructions comme les autres.

M. Maxence Layet. Monsieur Danjou, la technologie WiMax, qui n’est pas encore commercialisée mais est en train de se déployer, participe-t-elle du champ des antennes-relais ? Comme des téléphones compatibles WiMax commencent à être commercialisés, l’AFOM est-elle en discussion avec les futurs opérateurs WiMax ?

Professeur Zmirou, quel est votre avis d’expert en santé publique sur le déploiement d’une technologie qui n’a fait l’objet pour l’instant d’aucune étude d’impact biologique ou animale ni d’aucune étude sur l’être humain ?

Monsieur Kerckhove, quelle est la position de votre association, et des associations en général, sur le WiMax ?

Madame Salomon, la gouvernance de l’implantation du WiMax telle qu’elle se déroule illustre-t-elle, à votre avis, la constitution de ce nouveau paradigme de la gouvernance ?

M. Jean-Marie Danjou. Le WiMax fait partie des émetteurs d’ondes radio mais n’est pas, pour l’instant, dans le champ du Guide signé avec l’association des maires de France. Comme la table ronde organisée par le Gouvernement ne concerne pas uniquement les antennes-relais et la téléphonie mobile, mais englobe les radio-fréquences, la santé et l’environnement, il est possible que le WiMax soit étudié dans le cadre des radiofréquences.

M. Denis Zmirou-Navier. J’avoue ne pas avoir relu la saisine exacte qui a été adressée à l’AFSSET et ne sais donc pas si le WiMax fait partie du spectre des questions posées. Comme il ne concerne pas que les champs classiques de la téléphonie mobile stricto sensu, c’est possible, auquel cas il faudra que les experts fassent le point des connaissances en ce domaine.

Pour répondre plus généralement à votre question, il serait sage, avant la mise sur le marché de nouvelles technologies, de s’assurer au préalable que leur usage, dans les conditions répondant à un certain nombre de prescriptions réglementaires, n’induise pas des conséquences pour les utilisateurs. N’ayant pas fait d’expertise sur ce sujet, j’estime que cela mériterait d’être une procédure systématique.

M. Stephen Kerckhove. Cette question rejoint celle notamment de la quatrième licence. Il serait sain d’avoir un débat public en amont de toute décision et non pas une fois le développement du WiMax effectué. Au cours de ce débat public, devraient être analysés à la fois les coûts et bénéfices et les alternatives possibles. Si l’on développe le WiMax, ce doit être parce qu’il n’y a pas d’autre possibilité. Mais, s’il y a d’autres possibilités, il faut tout faire pour développer celles-ci de façon à éviter de nouvelles émissions d’ondes électromagnétiques, encore plus élevées que l’UMTS, qui viendraient s’ajouter aux autres.

Mme Danielle Salomon. Je n’ai pas grand-chose à dire sur le sujet. À ma connaissance, aucun débat n’est prévu même si des discussions ont lieu à Paris sur son opportunité.

J’ai parlé d’un nouveau paradigme en matière de science et non de gouvernance. Une nouvelle vision scientifique est en train de se construire qui incorpore la science pure avec ses travaux in vivo et in vitro et la prise en compte d’autres aspects et d’autres façons de penser la santé.

Pour le WiMax, il n’y a rien encore, à ma connaissance, qui ait été décidé ni réalisé. La situation est semblable à celle du WiFi en bibliothèque, à cette différence près que, dans les bibliothèques municipales, il y a un employeur et des lois protégeant les salariés et le public.

CONCLUSION

M. Alain Gest, député. Mesdames, Messieurs, je vous remercie.

Le débat a été riche et de bonne tenue. Une journaliste m’a demandé à la pause entre la première et la deuxième table ronde si mon opinion était déjà faite. Bien sûr que non et nos rencontres d’aujourd’hui ont été riches d’enseignements pour moi aussi. Il est important pour le politique d’entendre différents points de vue, car il ne doit pas commettre d’erreurs et s’attacher à la conciliation entre le développement des technologies et la protection de la santé du public.

« TÉLÉPHONIE MOBILE, TECHNOLOGIES SANS FIL ET SANTÉ :
SORTIR DU MANICHÉISME »

compte rendu de l’audition publique, ouverte à la presse,

du Mercredi 10 juin 2009

organisée par

M. ALAIN GEST, Député de la Somme

SOMMAIRE

____

Pages

OUVERTURE DE LA SÉANCE 75

M. ALAIN GEST, DÉPUTÉ, RAPPORTEUR DE L’OPECST 75

M. CLAUDE BIRRAUX, DÉPUTÉ, PRÉSIDENT DE L’OPECST 75

M. ALAIN GEST, DÉPUTÉ, RAPPORTEUR DE L’OPECST 77

PREMIÈRE TABLE RONDE : L’APPORT DES RECHERCHES ÉPIDÉMIOLOGIQUES ET BIOLOGIQUES À LA CONNAISSANCE DES EFFETS DU TÉLÉPHONE MOBILE ET DES TECHNOLOGIES SANS FIL 81

DOCTEUR MARTINE HOURS, ÉPIDÉMIOLOGISTE, PRÉSIDENTE DU CONSEIL SCIENTIFIQUE DE LA FONDATION SANTÉ ET RADIOFRÉQUENCES 81

PROFESSEUR FRANÇOIS BERGER, CHERCHEUR À L’INSERM (U 836) 88

M. BERNARD VEYRET, DIRECTEUR DE RECHERCHES AU CNRS 94

Débat 99

DEUXIÈME TABLE RONDE : LES POTENTIALITÉS DES TECHNOLOGIES ACTUELLES ET FUTURES ET LA POSSIBILITÉ D’UN CONTRÔLE MAÎTRISÉ 109

M. STÉPHANE ELKON, SECRÉTAIRE GÉNÉRAL D’ALLIANCE TICS 109

M. TULLIO JOSEPH TANZI, PROFESSEUR À L’ÉCOLE NATIONALE SUPÉRIEURE DES TÉLÉCOMMUNICATIONS DE PARIS (ENST) 115

M. PHILIPPE HUBERT, DIRECTEUR DES RISQUES À L’INSTITUT NATIONAL DE L’ENVIRONNEMENT INDUSTRIEL ET DES RISQUES (INERIS) 121

Débat 126

DISCOURS DE CLÔTURE DE MME ROSELYNE BACHELOT-NARQUIN, MINISTRE DE LA SANTÉ ET DES SPORTS 133

OUVERTURE DE LA SÉANCE

M. ALAIN GEST, DÉPUTÉ, RAPPORTEUR DE L’OPECST. Cette audition publique est organisée dans le cadre d’une étude que m’a confiée l’Office parlementaire d’évaluation des choix scientifiques et technologiques sur les incidences éventuelles sur la santé de la téléphonie mobile. Je laisse au Président de l’Office, M. Claude Birraux, le soin d’ouvrir nos travaux.

M. CLAUDE BIRRAUX, DÉPUTÉ, PRÉSIDENT DE L’OPECST. Mesdames, Messieurs, ces travaux, que je suis particulièrement honoré d’ouvrir, sont d’abord pour moi l’occasion de saluer le souci d’Alain Gest d’aller au fond des choses : il s’agit en effet de la deuxième audition publique qu’il organise au titre de l’étude que lui a confiée l’Office – la précédente, qui s’est tenue le 6 avril 2009, portait sur les antennes relais.

Ces auditions publiques, je le constate avec une très grande satisfaction, apportent la confirmation que l’Office – et au-delà, le Parlement – doit jouer un rôle d’interface entre la communauté scientifique et les citoyens. J’ai eu l’occasion d’insister sur cette idée qui me tient particulièrement à cœur au cours de la réunion organisée le 22 septembre 2008, dans le cadre de la Présidence française de l’Union européenne, sur le thème « Science, société et Parlements ».

La vocation de l’Office est d’éclairer les choix du Parlement. Il a été créé lorsque les parlementaires se sont aperçus qu’ils n’avaient pas les connaissances scientifiques et technologiques suffisantes pour répondre aux arguments de l’administration et des experts du Gouvernement. Nous essayons d’accroître nos compétences techniques, afin de pouvoir donner des explications au Parlement, faire des propositions et des recommandations, et justifier devant les citoyens les raisons qui motivent les décisions de leurs élus.

Dans le domaine qui nous préoccupe, ce rôle d’interface de l’Office est d’autant plus indispensable que la téléphonie mobile s’est déployée à l’échelle planétaire à une vitesse insoupçonnée et que les technologies sans fil ont connu également un très rapide essor.

Pour autant, malgré ce succès commercial incontestable, la téléphonie mobile et les technologies sans fil suscitent des interrogations, voire des controverses, qui traversent la communauté scientifique et nourrissent de véritables débats de société – au surplus très médiatisés.

Ces controverses, comme on le rappellera probablement tout à l’heure, portent à la fois sur l’interprétation des éventuels risques sanitaires associés à l’exposition aux radiofréquences et sur le protocole utilisé. À cet égard, il n’est pas de meilleure illustration de cette fameuse zone grise à laquelle se heurte la recherche scientifique dans ce domaine.

En témoigne cette observation émise par l’OMS dans une note de 2006, selon laquelle l’absence d’effet direct sur la santé de l’utilisation des téléphones portables ne devrait pas être interprétée comme la preuve de l’absence de tels effets. L’incertitude est amplifiée par l’affirmation selon laquelle les reports successifs de l’étude Interphone seraient dus aux désaccords apparus entre les chercheurs : certains confirmeraient le risque d’un développement de tumeurs cérébrales associé à l’utilisation à long terme des téléphones portables, d’autres le contesteraient.

Or, comme dans d’autres domaines – qu’il s’agisse de l’énergie nucléaire, des biotechnologies ou encore des nanotechnologies – les controverses scientifiques ont dépassé les frontières de la communauté scientifique pour devenir un débat de société. La querelle très vive suscitée par les antennes relais et l’interdiction du WiFi dans certaines écoles en sont les points saillants. Il en est résulté une méfiance accrue envers l’expertise scientifique, tant en ce qui concerne la perception des risques que leur gestion.

En ce qui concerne l’expertise, j’aimerais faire une parenthèse. À l’expertise dite « indépendante » – qui, selon moi, est toujours celle qui abonde dans votre sens lorsque vous vous opposez à quelque chose –, je préfère l’expertise pluraliste, dans laquelle des avis issus d’horizons différents se confrontent sous la forme d’un raisonnement scientifique. Or il peut arriver que la conclusion d’un raisonnement scientifique soit la suivante : « Je ne sais pas, parce que la science ne me permet pas de dire que je sais ». N’éviterait-on pas, peut-être, certaines polémiques en s’en tenant là ?

S’agissant de la gestion des risques, l’invocation du principe de précaution et l’opportunité de l’appliquer constituent des pommes de discorde entre un grand nombre de scientifiques et plusieurs associations.

À l’évidence, à défaut d’un dialogue sans concession et serein entre la communauté scientifique et la société civile, la confiance dans la science ne pourra être rétablie, ce qui, par voie de conséquence, ne manquera pas de rendre plus délicate encore la tâche des autorités politiques.

Cette voie du dialogue est étroite, mais elle doit être empruntée, comme l’y invite la présente audition publique. Il y a là un impératif démocratique auquel on ne peut se dérober dans cette société où la science et la technologie occupent une place essentielle. Et c’est peut-être grâce à cette discussion avec la société que la science et la technologie pourront progresser.

M. ALAIN GEST, DÉPUTÉ, RAPPORTEUR DE L’OPECST. Comme vient de le déclarer le Président Claude Birraux, le défi auquel nous sommes confrontés est celui du rétablissement de la confiance entre les scientifiques et les citoyens – et au-delà, entre ces derniers et les pouvoirs publics. C’est bien l’objectif poursuivi par la présente audition publique et par celle qui l’a précédée le 6 avril dernier. Car, dans ce dossier devenu de plus en plus sensible de la téléphonie mobile, il importe d’éviter deux impasses.

La première est la diabolisation – ou à tout le moins la critique systématique – du développement technologique, attitude d’autant plus dépourvue de pertinence qu’elle ne tient pas compte du fait que le téléphone portable est d’ores et déjà utilisé par près de la moitié de l’humanité. Ce n’est certes pas une raison suffisante, mais nous devons en tenir compte. Je constate d’ailleurs que nous abordons le problème de façon plus ouverte que d’autres pays qui utilisent pourtant le téléphone mobile depuis plus longtemps que nous.

La seconde impasse, non moins redoutable, réside dans le refus de procéder à toute réflexion prospective sur les conséquences de ces développements technologiques, ce qui serait de nature à nous priver des moyens propres à nous prémunir contre des risques potentiels. Or, je ne puis que marquer ma perplexité devant la diversité des réponses apportées par les scientifiques à certaines problématiques.

Je me limiterai ici à quelques exemples, que je tire des différentes consultations que j’ai pu mener depuis bientôt quatre mois ou de lectures récentes.

Premier exemple : les effets de l’usage du téléphone mobile sur les enfants. Le chef d’un organe australien de recherches, M. Rodney Croft, a déclaré qu’il n’existait – selon lui – aucune preuve qui permettrait d’y voir un problème de nature à justifier des mesures de précaution. En revanche, la Commission russe de protection contre les rayonnements non ionisants a soutenu le contraire, en soulignant le risque sanitaire potentiel élevé pour les enfants. La controverse risque d’être d’autant plus intense que, selon les conclusions d’un article de M. Joe Wiart, publié le 18 juin 2008 dans la revue Physics in medicine and biology, : « notre analyse confirme que les tissus cérébraux périphériques des enfants semblent plus exposés que ceux des adultes ».

Deuxième exemple : le même Rodney Croft a indiqué sur son site Internet avoir constaté des effets non thermiques des rayonnements du GSM dans son laboratoire. « Nous avons », déclare-t-il, « trouvé des changements crédibles dans la fréquence particulière de l’activité du cerveau, appelée rythme alpha ». Bien entendu, ce que ce scientifique qualifie de découverte pourrait exiger, selon ses pairs, une réplication. Il n’en reste pas moins que ses déclarations sont à verser au dossier de l’inépuisable débat sur l’existence ou l’inexistence d’effets non thermiques associés à l’exposition aux radiofréquences.

Dernier exemple : certains scientifiques m’ont déclaré que la multiplication des sources d’exposition ne comporterait pas, selon eux, de risques sanitaires, car les nouveaux équipements, qu’il s’agisse de la nouvelle génération de téléphones ou des nouvelles technologies sans fil, émettraient à des niveaux toujours plus bas. D’autres, moins affirmatifs, ont, en revanche, appelé mon attention sur la nécessité de procéder à des études d’impact, craignant que ce brouillard électromagnétique ne soit pas totalement exempt d’effets sanitaires.

Tout cela a de quoi alimenter ma perplexité, alors que nous vivons un moment charnière. Pour ce qui me concerne, j’aurai bientôt terminé les auditions que j’avais prévues. Il me reste à effectuer certains déplacements, notamment en Suède, où la question de l’hypersensibilité est abordée d’une autre façon, et en Italie, où les normes concernant l’exposition sont différentes de celles appliquées dans le reste du monde.

Si les tables rondes organisées par le Gouvernement n’ont pas permis de lever ce sentiment de perplexité, elles ont eu le mérite de faire se rencontrer certaines personnes et de les amener à dialoguer sans trop d’agressivité.

Elles ont également été l’occasion de faire le point sur les connaissances, dans l’attente des résultats d’autres études en cours, comme celle de l’AFSSET, ou encore la fameuse étude Interphone.

Enfin, elles ont permis de dégager des principes d’action publique et des recommandations opérationnelles – transparence des informations, attention portée à toutes les craintes, mise en pratique du principe de précaution, concertation – et de retenir dix orientations qui devront être appliquées progressivement.

Ce matin même, la commission des affaires économiques a adopté un amendement au projet de loi « Grenelle » qui pose le principe d’une séparation entre la mise en place d’un dispositif de surveillance et de mesure des ondes électromagnétiques et son financement. En effet, de l’avis de beaucoup, l’origine du financement des recherches rend souvent suspects leurs résultats. D’autres mesures seront prises dans le cadre du projet de loi « Grenelle 2 ».

Je remercie ceux qui ont accepté de participer à l’ensemble des tables rondes et auditions – ce n’est pas le cas de tout le monde. Face à une problématique de cette nature, en effet, il est essentiel de savoir s’écouter les uns les autres.

Je remercie en particulier les intervenants présents aujourd’hui. Je regrette toutefois l’absence du professeur Hardell, retenu à la dernière minute par des impératifs professionnels. Je souhaitais ardemment sa venue, dans la mesure où il a signé des travaux dont les résultats tendent à contredire de nombreux autres.

Dans la première table ronde, sur l’apport de l’épidémiologie et de la biologie à la connaissance des effets du téléphone mobile et des technologies sans fil, interviendront : le docteur Martine Hours, auteur de la contribution française à l’étude Interphone ; le professeur François Berger, chercheur à l’INSERM, qui a beaucoup plaidé en faveur d’une communication transparente entre scientifiques et citoyens, et M. Bernard Veyret, directeur de recherches au CNRS, auteur de plusieurs études sur la téléphonie mobile et les technologies sans fil.

La deuxième table ronde s’attachera à aborder les potentialités des technologies actuelles et futures et les possibilités d’un contrôle maîtrisé.

Sur le premier aspect s’exprimeront : M. Stéphane Elkon, secrétaire général d’Alliance TICS – c’est-à-dire le syndicat des fabricants – ; Mme Michèle Rivasi, Députée européenne, Vice-Présidente du CRIIREM ; et M. Joseph Tullio Tanzi, professeur à l’École nationale supérieure des télécommunications de Paris.

La problématique du contrôle sera traitée par M. Philippe Hubert, directeur des risques à l’INERIS, et par M. Philippe Mallein, sociologue au CEA. J’ai en effet souhaité que des spécialistes des sciences humaines, sociologues ou psychologues, puissent apporter leur concours à notre réflexion.

PREMIÈRE TABLE RONDE :

L’APPORT DES RECHERCHES ÉPIDÉMIOLOGIQUES ET BIOLOGIQUES À LA CONNAISSANCE DES EFFETS DU TÉLÉPHONE MOBILE ET DES TECHNOLOGIES SANS FIL

DOCTEUR MARTINE HOURS, ÉPIDÉMIOLOGISTE, PRÉSIDENTE DU CONSEIL SCIENTIFIQUE DE LA FONDATION SANTÉ ET RADIOFRÉQUENCES. Il me paraît nécessaire de faire un détour d’ordre méthodologique afin de montrer en quoi l’épidémiologie peut contribuer à répondre à la question des effets sanitaires de la téléphonie mobile, et pourquoi il y a un débat sur l’interprétation des études. En effet, l’épidémiologie est avant tout une science d’observation, et à ce titre, elle est sujette à certains biais. Des notions telles que la précision de la mesure ou la représentativité des populations sont en permanence au cœur du débat concernant ses résultats. C’est particulièrement vrai s’agissant de la téléphonie mobile.

Selon une définition classique, l’épidémiologie est l’étude de la fréquence des pathologies, et plus généralement de la distribution des états de santé dans les populations humaines et de leurs déterminants. Elle ne concerne pas l’individu, mais travaille sur une population. Elle cherche à décrire les états de santé, à suivre leurs évolutions et à en comprendre la raison. Un épidémiologiste se demande qui est malade, quand, où et surtout pourquoi : quelle est l’éventuelle relation entre un facteur d’exposition – en l’occurrence l’exposition aux radiofréquences – et une ou des maladies ?

L’épidémiologie est la seule discipline qui permette réellement d’étudier l’impact d’un facteur sur la santé de l’homme. En effet, l’animal n’est pas l’homme, et c’est pourquoi on ne peut se contenter des études biologiques. L’homme se nourrit d’aliments très différents ; il vit et travaille dans un environnement très varié. Même ses conditions génétiques changent d’un sujet à l’autre et d’une population à l’autre. Cette diversité, on ne la retrouve en général pas chez l’animal.

Autre intérêt de l’épidémiologie par rapport à la biologie : la première s’intéresse à l’homme dans sa globalité, avec son mode de fonctionnement cellulaire. Chez l’animal, ce ne sont pas toujours les mêmes mécanismes cellulaires qui interfèrent dans une relation entre un facteur et une maladie : ainsi, les cycles enzymatiques, qui peuvent varier d’une espèce à l’autre, sont encore plus différents chez l’homme. Il est vrai que la recherche sur les primates est intéressante, car ce sont les animaux les plus proches de nous. Mais cette recherche est très encadrée au niveau légal, et extrêmement onéreuse.

Par exemple, certains produits, comme l’arsenic, ont longtemps pu tenir l’expérimentation en échec : alors que les études épidémiologiques montraient un excès de cancer chez les personnes exposées à cette substance, on ne parvenait pas à mettre en évidence, du point de vue biologique, un impact sur l’animal ou sur les mécanismes cellulaires, tout simplement parce que l’arsenic a une façon d’agir qu’il n’était pas habituel de rechercher à une certaine époque. Seul un changement dans la méthodologie d’analyse biologique a pu permettre de prouver que chez l’animal aussi, l’arsenic pouvait être une cause de cancer.

L’animal n’a également pas la même organogénèse que l’homme, c’est-à-dire que la maturation des tissus ne se produit pas de la même façon. Ainsi, le petit du rat naît avec un cerveau relativement mature, alors que chez l’enfant, la maturation du cerveau est un processus plus long. C’est pourquoi, même si l’expérimentation animale chez le petit rat peut nous apprendre beaucoup, elle ne peut suffire à comprendre les effets d’une exposition sur le cerveau de l’enfant.

De même, on ne peut se contenter de la recherche in vitro, même si celle-ci est utile pour étudier certains mécanismes toxicologiques.

Cela étant, il ne faut surtout pas opposer la biologie et l’épidémiologie, car elles constituent toutes les deux des étapes normales, complémentaires et indispensables dans toute recherche d’une relation entre un facteur et une pathologie. Prouver une telle relation implique d’explorer toutes les voies possibles. En outre, un des problèmes principaux de l’épidémiologie est qu’elle prend beaucoup de temps. La biologie peut avancer plus rapidement dans un certain nombre de domaines.

De son côté, quel peut être le rôle joué par la médecine clinique ? Celle-ci s’intéresse également à l’homme, mais au niveau de l’individu : peu de cliniciens travaillent à l’échelle d’une population. De plus, on interroge généralement un patient en fonction de ce que l’on sait de la maladie. Dès lors, par définition, on tend à ne pas rechercher ce qui n’est pas connu. Par ailleurs, les cliniciens n’ont pas toujours une population de référence à laquelle comparer le cas dont ils s’occupent. Ainsi, lorsqu’un clinicien affirme « tous les jeunes que je vois et qui souffrent d’un gliome ont un téléphone mobile, donc il existe une relation entre téléphonie mobile et gliome », il oublie le fait que 99 % des jeunes âgés de quinze à vingt-cinq ans en sont aujourd’hui équipés.

La médecine clinique est une médecine d’alerte, qui procède à l’investigation des caractéristiques cliniques d’une pathologie : là encore, cette discipline s’inscrit dans une totale complémentarité avec l’épidémiologie.

Notre premier outil, le plus habituellement utilisé, est l’épidémiologie descriptive, qui consiste à étudier l’évolution d’une pathologie au sein de la population. À ce propos, on nous a reproché de ne pas effectuer un rapprochement entre l’évolution des pathologies et celle des usages : par exemple entre la courbe d’apparition des gliomes et celle de l’équipement de la population française en téléphonie mobile. Mais ce type de rapprochement est très difficile à effectuer, en particulier quand le facteur étudié n’a pas d’impact massif, c’est-à-dire quand le risque relatif est bas – je reviendrai sur cette notion. Dans de tels cas, non seulement il faut du temps pour déceler une rupture dans l’évolution de la pathologie, mais de nombreux éléments peuvent interférer dans son augmentation. Le facteur étudié n’est pas nécessairement responsable.

En outre, dans la mesure où cette méthode consiste à rapprocher des données à l’échelle d’une population, on a coutume de dire en épidémiologie que la corrélation ne fait pas le risque.

Reste que l’épidémiologie est un outil de surveillance indispensable pour détecter l’apparition de pathologies nouvelles. C’est aussi un outil d’émission d’hypothèse. Ainsi, rapprocher l’évolution de l’usage de la téléphonie mobile de celle des gliomes peut permettre d’attirer l’attention sur une éventuelle relation, mais pas d’en attester l’existence.

Pour illustrer l’idée selon laquelle une corrélation ne fait pas le risque, je prendrai l’exemple cité par un article publié il y a une quinzaine d’années dans le Lancet. Trois médecins, venus de trois zones différentes, évoquent la part de leur clientèle qui porte des chapeaux et celle qui souffre d’un rhume. En supposant que cette part soit identique dans chaque zone – dans la zone A, 20 % des clients sont porteurs de chapeaux et autant sont enrhumés ; dans les zones B et C, ces parts sont respectivement de 40 et 60 % –, il semble y avoir une corrélation parfaite entre la dose et l’effet : en apparence, on a plus de risque d’être enrhumé si on porte un chapeau. Ce résultat absurde s’explique par le fait que l’on raisonne à l’échelle d’une population : qu’il y ait le même pourcentage de porteurs de chapeaux et d’enrhumés sur le total ne signifie pas qu’à l’échelle de l’individu, il s’agisse des mêmes.

À côté de l’épidémiologie descriptive, l’épidémiologie analytique s’intéresse à la relation cause/effet, c’est-à-dire à la relation entre un facteur de risque et une maladie. Elle étudie des gens exposés et non exposés, malades et sains, afin de rechercher s’il existe une probabilité plus grande d’être malade quand on est exposé. C’est ce que l’on appelle le calcul du risque relatif.

L’épidémiologie est soumise à certaines contraintes, parmi lesquelles figure la puissance de l’étude. Le nombre de personnes à étudier est en effet une constante que l’on doit prévoir à l’avance, en fonction du niveau du risque que l’on analyse. Plus le risque étudié est faible – et s’agissant de l’étude Interphone, qui recherche un lien entre usage de la téléphonie mobile et cancer, c’est l’hypothèse à partir de laquelle nous sommes partis –, et plus nombreuses devront être les personnes à étudier. Ainsi, était-il plus facile de mettre en évidence un risque lié à une exposition à l’amiante qu’un risque lié à la pollution urbaine, parce que le niveau de risque est très différent dans les deux cas.

Les autres facteurs qui jouent sur la puissance de l’étude sont la fréquence de l’exposition et celle de la maladie. Plus une maladie est rare, plus il sera difficile de mettre en évidence une relation entre un facteur de risque et cette maladie. La population étudiée devra donc être nombreuse pour permettre cette mise en évidence. Or, par définition, dans le cas d’une maladie rare, la population disponible est faible.

J’en viens à la méthodologie employée pour recueillir les données, car l’étude Interphone a été beaucoup critiquée sur ce point. Je crois, au contraire, qu’il s’agit d’une bonne étude, car elle prend en compte toutes les limites auxquelles elle peut être confrontée et tente d’y répondre. Ces limites, il convient en général de les prévoir à l’avance. Ainsi, est-il important de s’assurer de l’exhaustivité du signalement des cas : a-t-on repéré toutes les personnes qui doivent rentrer dans l’étude ? Acceptent-elles d’y participer ? Et dans le cas contraire, les personnes qui refusent, sont-elles comparables à celles qui acceptent ou constituent-elles une population particulière ? Il faut donc se donner les moyens de recueillir des données sur ces refus.

De même, il convient de s’assurer de l’homogénéité du recueil d’information, grâce à des questionnaires validés et standardisés. Ce point est particulièrement important dans le cas de l’étude Interphone, qui concerne treize pays différents, avec des langues et des mentalités différentes. Après l’étude, un travail de contrôle des données doit être effectué pour vérifier qu’une même question correspond bien à la même idée en France, en Suède et en Israël. Ce travail de contrôle peut d’ailleurs expliquer en partie le retard pris par l’étude, car il s’est révélé plus important que prévu.

Il faut également recueillir une bonne information sur les expositions, grâce à des questionnaires dont la validité a été testée. L’indice destiné à mesurer l’exposition doit être pertinent en fonction de l’hypothèse. Ainsi, de toute évidence, le seul fait de se déclarer utilisateur du téléphone mobile ne suffit pas. Mais comme on ne sait pas quel mécanisme peut être en jeu au niveau cellulaire, il est difficile de déterminer ce qui doit être pris en compte : est-ce le temps d’exposition cumulé, indépendamment du niveau d’exposition ? Est-ce le fait d’atteindre certains pics, ou de dépasser une dose seuil ? On peut, par exemple, imaginer qu’une longue durée d’exposition soit sans effet en dessous d’un certain seuil, mais devienne facteur de risque lorsque la dose est maximale – par exemple quand on téléphone loin d’une station de base.

Une fois les données recueillies, vient le moment de les interpréter. À ce stade, il est essentiel de savoir rechercher les biais et de les mesurer. Je le répète, toute étude épidémiologique est une étude d’observation. On est dans la vraie vie : il convient donc d’accepter et de prendre en compte les refus de participer ou les troubles de la mémoire. Les autres vérifications portent sur la qualité des mesures – de la maladie d’une part, de l’exposition de l’autre – et sur le caractère significatif des tests statistiques. Enfin, on se pose la question de savoir si les résultats peuvent être généralisés, ce qui est le cas si la population étudiée est représentative de la population générale.

J’ai été heureuse d’entendre le Président de l’Office rappeler qu’une étude dont les résultats sont non significatifs ne signifie pas une absence de résultats. Il faut, dans ce cas, se poser certaines questions : la puissance de l’étude était-elle suffisante ? La mesure était-elle correcte ? À l’inverse, une étude montrant un risque significativement augmenté doit toujours être confirmée, car un risque relatif élevé peut n’être que le résultat de certains biais. C’est pourquoi l’épidémiologie ne conclut jamais à partir d’une seule étude, mais grâce à un corpus d’études, qui vont permettre de vérifier les critères de causalité définis sous le nom de « critères de Hill ». Il appartient aux instances internationales de réunir toutes les études disponibles, d’en vérifier la cohérence, et de rechercher si ces critères sont remplis : force de l’association – un risque relatif important est généralement le signe d’une véritable relation cause/effet – ; temporalité – le facteur de risque doit précéder l’effet – ; reproductibilité : cohérence avec les connaissances scientifiques du moment – lesquelles tendent à manquer en ce qui concerne la téléphonie mobile – ; relation dose/effet – plus la dose est augmentée, plus la probabilité d’effet est importante. Enfin, dernier critère : l’arrêt de l’exposition doit entraîner une diminution de l’effet.

La relation dose/effet, c’est-à-dire entre exposition et risque relatif, peut être exprimée par une droite dont la pente forme l’angle alpha. Cette droite montre qu’il reste possible d’effectuer des études épidémiologiques sur les effets éventuels de l’usage du téléphone mobile, bien que toute la population soit désormais concernée par cet usage. Simplement, la comparaison ne se fait plus entre une population exposée et une population non exposée, mais entre des populations exposées à des degrés divers. Il est vrai qu’il sera plus difficile de démontrer un risque relatif important. Cependant, l’angle alpha, c’est-à-dire l’augmentation du risque en fonction de la dose, demeure le même.

J’en viens à la conclusion actuelle des travaux qui recherchent une relation entre le cancer et les radiofréquences – du moins celles produites par les téléphones mobiles, car l’influence éventuelle des antennes de stations de base n’a pas été étudiée. Ce que l’on peut dire, c’est que lorsque l’exposition dure depuis moins de cinq ans, voire moins de dix ans, aucun effet notable et consistant n’a pu être mis en évidence. Lorsque l’exposition dure plus de dix ans, il se pourrait qu’un lien existe entre l’usage de la téléphonie mobile et l’apparition de neurinomes et de gliomes, mais, en revanche, un lien plus faible en ce qui concerne la parotide.

Le problème est que les études actuellement publiées sont très hétérogènes – ce qui, on l’a vu, est logique en matière de risque faible, du fait de l’existence d’un problème de recul face à cette exposition. Aujourd’hui, la discussion porte sur les biais. Il n’existe pas de consensus pour savoir dans quel sens les biais – que l’on observe dans toute étude épidémiologique – ont pu influer sur les résultats. C’est notamment le cas s’agissant des études qui montrent une augmentation du risque quand on prend en compte un facteur de latéralité, c’est-à-dire lorsque le gliome ou le neurinome apparaît du côté où la personne utilise son téléphone : on observe alors des ratios tels que 1,24 ou 1,39, ce qui traduit un risque significatif.

M. Alain Gest, rapporteur. Je sais bien que l’honneur d’un scientifique est de ne pas prétendre parvenir à un résultat qu’il ne peut pas démontrer, mais à ce niveau d’incertitude, je ne peux que m’interroger. Lorsque l’exposition dure depuis plus de dix ans, il pourrait y avoir quelque chose, dites-vous. Mettez-vous à la place des pouvoirs publics qui doivent prendre une décision !

Mme Martine Hours. Vous l’avez dit tout à l’heure : lorsqu’un scientifique n’est pas en mesure de conclure, il doit le dire. Nous sommes dans cette situation, car, à mon sens, il n’existe pas d’élément probant, ni dans un sens, ni dans l’autre.

La question est de savoir, par exemple, si un usager du téléphone mobile a un risque plus important de développer un gliome qu’un non-usager. Or dans la plupart des études, le risque relatif oscille autour de 1, ce qui signifie qu’il n’existe vraisemblablement pas de différence entre exposés et non-exposés, du moins quand on se cantonne à cet indicateur d’exposition. Mais si l’on tient compte des travaux de Joe Wiart – lequel a montré que l’exposition concerne les premiers centimètres du cerveau, du côté où l’on tient son téléphone –, il peut être intéressant de rechercher un élément de causalité et de comparer les patients qui souffrent d’une tumeur du côté où ils font usage du téléphone – du moins si c’est toujours le même, ce qui est généralement le cas – avec ceux dont la tumeur se situe à l’opposé. Or, parmi les études qui prennent en compte ce facteur – du moins celles concernant les usagers depuis plus de dix ans –, certaines observent une augmentation du risque, d’autres pas. Mais de toute façon, il s’agit d’un risque faible : de l’ordre de 1,3. À titre de comparaison, le risque de développer un cancer du poumon lorsque l’on fume vingt cigarettes par jour pendant vingt ans est de l’ordre de 10.

On peut donc estimer qu’il existe des éléments allant dans le sens d’un effet de l’usage du téléphone mobile sur la santé, mais on peut aussi critiquer ces chiffres et juger qu’ils s’expliquent par des biais. C’est là que se situe la controverse. D’où l’intérêt de l’étude Interphone : une étude est en effet d’autant plus crédible qu’elle a mis sur la table les limites auxquelles elle est confrontée.

M. Alain Gest, rapporteur. Dans un article récent, le professeur Hardell juge sa méthodologie supérieure à celle de l’étude Interphone pour deux raisons : il considère, d’une part, que le taux de participation constaté dans son étude de cas/témoins est supérieur à celui de l’étude Interphone, et d’autre part, que la sienne prend en compte l’usage du téléphone sans fil, dont Interphone, de son point de vue, sous-estime les effets. Que répondez-vous ?

Mme Martine Hours. Il est certain que la question de la participation est importante, mais si je me souviens bien, les études publiées par M. Hardell ont bénéficié de taux similaires aux nôtres. S’agissant d’Interphone, la participation pour les cas et pour les témoins en matière de gliome est de 65 %, mais elle est bien meilleure s’agissant des autres tumeurs. Les gliomes sont en effet des pathologies très lourdes, et il est donc peu aisé d’intégrer toutes les personnes qui en souffrent. En outre, de très bons taux sont de plus en plus difficiles à obtenir.

Ce qui compte surtout, c’est de repérer quelles sont les personnes qui n’ont pas participé, et de savoir en quoi le fait qu’elles soient éventuellement différentes peut influencer l’évaluation du risque relatif. Nous avons d’ailleurs publié des travaux sur ce sujet. Il est certain que si l’on prend en compte la seule étude Interphone, indépendamment de toutes les analyses qui sont faites par ailleurs, on peut trouver décevant le taux de participation. Mais il faut envisager cette étude dans sa globalité.

M. Alain Gest, rapporteur. Le professeur Kundi, dans un article récent – « Controverse sur un lien éventuel entre l’usage du téléphone mobile et le cancer » –, constate que si les études du groupe Hardell et celles d’Interphone font état d’un risque légèrement accru en cas d’usage du téléphone mobile durant une période supérieure à dix ans, l’importance de ce risque ne peut toutefois être mesurée à l’heure actuelle, faute d’information suffisante sur l’usage à long terme. Que vous inspire cette remarque ?

Mme Martine Hours. Dans la mesure où, en France, la technologie du téléphone mobile est apparue vers 1995, il est certain que l’on manque de recul. Il est difficile d’extrapoler ces résultats pour savoir ce qui se passera dans vingt ans. C’est pourquoi le plus grand nombre de personnes concernées par l’étude Interphone utilisent un téléphone portable depuis moins de dix ans. Celles qui ont été exposées durant plus de dix ans – notamment des Finlandais ou des Australiens – ne représentent qu’un petit pourcentage du total. Cela signifie qu’il faut continuer la surveillance. Le problème de l’épidémiologie, c’est qu’elle a besoin de beaucoup de temps. C’est particulièrement vrai pour la cancérogenèse, dont le processus est très long et peut prendre des voies très diverses. À ce jour, nous ne savons même pas à quelle étape intervient le téléphone, en supposant qu’il ait un effet.

M. Alain Gest, rapporteur. Selon vous, combien d’années seraient nécessaires pour parvenir à des conclusions plus solides ?

Mme Martine Hours. S’agissant des gliomes, qui sont des tumeurs à croissance rapide, la coordonnatrice de l’étude Interphone, Élisabeth Cardis, avait estimé que l’on bénéficierait du recul suffisant. Mais nous n’avions pas anticipé le faible nombre de personnes exposées plus de cinq ans ou plus de dix ans. L’étude a peut-être été lancée de façon trop précoce, compte tenu de l’usage relativement récent de la téléphonie mobile. Reste qu’une durée de dix ans me paraît suffisante, à condition d’être en mesure d’étudier un plus grand nombre de cas, ce qui est désormais possible.

PROFESSEUR FRANÇOIS BERGER, CHERCHEUR À L’INSERM (U 836). Compte tenu de l’atmosphère dans laquelle se déroule en général le débat sur les effets de la téléphonie mobile sur la santé, j’ai failli refuser l’invitation de M. Gest. Si j’ai finalement accepté de venir, c’est principalement pour trois raisons.

Je suis neuro-oncologue, et je m’occupe donc de patients atteints de tumeurs cérébrales. Or quand on connaît la gravité de ces maladies, les données mises en avant par M. Hardell – c’est-à-dire un risque relatif multiplié par deux – constituent un élément d’alerte important. Aujourd’hui, dans notre service, nous documentons l’exposition au portable comme nous le faisions déjà pour le tabac. Nous devons rester humbles et éviter de répéter les erreurs du passé : songeons qu’à une époque, on jugeait bénéfique pour la santé des patients de les faire fumer ou bien de leur faire boire de l’eau radioactive…

La deuxième raison, c’est que nous ne connaissons pas l’étiologie des tumeurs cérébrales. En tant que chercheur, l’idée que les ondes électromagnétiques puissent en être une cause a quelque chose de fascinant.

Enfin, la troisième raison – et en cela je suis totalement d’accord avec M. Gest –, c’est que les chercheurs doivent sortir de leurs laboratoires. Pour avoir travaillé dans le domaine des nanotechnologies, je sais quels problèmes on peut rencontrer lorsque l’on s’affranchit d’une telle démarche.

Il est important de rappeler les mécanismes qui amènent à une tumeur, et en particulier à une tumeur cérébrale. À cet égard, les cellules souches jouent un rôle fondamental : elles constituent le cerveau, et ce sont elles qui vont donner les cellules gliales, qui seraient responsables des tumeurs cérébrales. Or il faut savoir qu’une cellule souche peut migrer à un autre endroit, ce qui tend à remettre en cause l’hypothèse de latéralité.

Le cancer est un phénomène multi-étapes. Il existe dans la cellule des mécanismes de défense, et quand ces mécanismes ne sont pas efficaces, des mécanismes de réparation. Il faut donc voir la cellule tumorale comme une cellule qui, en fonction de son patrimoine génétique, va répondre différemment à des éléments de l’environnement. Ces éléments peuvent atteindre le génome – on parle alors de génotoxicité –, mais on oublie souvent que l’on peut tout à fait induire une tumeur en agissant non sur le génome lui-même, mais sur ce qui l’environne – c’est l’épigénétique – ou sur les protéines.

Ces phénomènes doivent se répéter pour briser les différents mécanismes de protection et établir, après plusieurs années, voire plusieurs dizaines d’années, une tumeur macroscopique ayant des propriétés d’invasion et de métastase. S’agissant des tumeurs cérébrales, on a probablement affaire à des astrocytomes de bas grade qui deviennent des tumeurs de haut grade. Or un tel processus dure de dix à vingt ans. De même, en ce qui concerne l’exposition à l’amiante ou au tabac à faible dose, on n’observe certains phénomènes que dix ou vingt ans plus tard.

Pour rechercher un impact de la téléphonie mobile, la biologie dispose de plusieurs moyens : elle peut recourir à des cellules, à des modèles animaux, ou s’intéresser aux sujets exposés. Je suis entièrement d’accord avec Mme Hours : l’épidémiologie ne s’oppose pas à la biologie. Le problème est que l’homme n’est pas une tomate, ni une cellule tumorale établie in vitro. Aujourd’hui, on tend à remettre en cause les modèles cellulaires utilisés par des centaines de laboratoires dans le monde et qui restent très éloignés de la réalité de l’individu vivant.

Pour répondre à ce problème, on peut recourir aux approches globales et fonctionnelles – séquençage du génome, outils destinés à affirmer la fonctionnalité de modifications moléculaires – ou, plus important, faire une étude biologique de l’individu exposé ou malade grâce à l’imagerie. Certaines plateformes françaises, telles que IBISA ou MIRCEN, sont particulièrement performantes en ce domaine.

En tant que neuro-oncologue, je suis totalement incompétent dans le domaine des ondes électromagnétiques. Ma vision est donc celle d’un naïf, mais résulte d’une analyse globale des publications scientifiques relatives aux effets biologiques de la téléphonie mobile – du moins celles qui concernent l’oncogenèse et les tumeurs cérébrales, lesquelles sont des problèmes de santé publique devant être traités d’urgence –, soit un catalogue de 500 articles. Ce nombre est plutôt faible, et montre que la communauté scientifique experte de certains phénomènes biologiques est peu incitée à travailler dans ce domaine. Il est vrai qu’il est relativement difficile de travailler sur ce sujet peu propice à publication. Or nos laboratoires ferment si nous ne publions pas.

D’après ces études, on peut observer trois sortes d’impact : un effet génotoxique ; un impact sur des voies de signalisation cellulaires participant à des mécanismes biologiques importants, comme la prolifération ou la mort cellulaire ; des conséquences sur la barrière hémato-encéphalique, c’est-à-dire la barrière qui protège le cerveau d’un certain nombre de toxiques environnementaux potentiels.

L’existence d’un effet génotoxique est le point sur lequel j’insisterai le plus, car il est l’objet d’une polémique assez importante. Il existe environ 101 publications sur ce sujet, dont 49 avec des résultats positifs – c’est-à-dire qu’ils concluent à l’existence d’un effet génotoxique – et 42 avec des résultats négatifs. Toutefois, parmi ces dernières, 8 études montrent que les résultats sont positifs lorsque l’on ajoute un cofacteur, ce qui signifie par exemple que l’exposition au téléphone portable tend à augmenter l’effet mutagène d’un produit.

On est frappé par l’extrême variabilité des modèles cellulaires utilisés – qui vont du plant de tomate à la lignée de peau, sans que l’on sache très bien l’origine de cette lignée –, des modalités expérimentales visant à reproduire l’exposition au portable, des fréquences et durées d’exposition, de leur intensité, de l’intermittence de l’exposition, et des techniques d’études.

Lorsque les résultats sont positifs, on observe des mécanismes de compensation qui, le plus souvent, corrigent les anomalies induites, en accord avec la négativité des études d’induction des tumeurs cérébrales. Mais compte tenu du délai de latence – soit dix ans – les études faites chez l’animal ne nous permettent pas de conclure.

Une des grosses difficultés auxquelles sont confrontées les recherches sur les effets de la téléphonie mobile est le nombre de paramètres à explorer. Ainsi, comme l’a montré l’étude REFLEX, les résultats ne sont pas les mêmes entre une exposition de cinq minutes suivie d’un arrêt de la même durée et une exposition de cinq minutes suivie d’un arrêt de vingt minutes. De même, les résultats diffèrent selon que l’on étudie des lignées cellulaires prélevées sur un patient jeune ou un patient âgé, ou selon la durée d’exposition. Cela explique la difficulté à comparer les études.

Il ressort d’un certain nombre d’articles que des cellules porteuses d’anomalie dans les mécanismes de réparation ou de protection sont plus sensibles à l’exposition aux ondes électromagnétiques. De la même façon, si une co-exposition à des carcinogènes est mise en place, il semble y avoir des effets plus significatifs. Mais je reste prudent car, je le répète, il existe très peu de publications. Quoi qu’il en soit, les mécanismes impliqués seraient liés à la réparation de l’ADN, à l’induction de radicaux libres et à un certain nombre de facteurs épigénétiques.

À titre d’exemple, je citerai une étude – l’une des meilleures à mes yeux – publiée dans le FASEB Journal. Elle s’intéresse plus particulièrement aux cellules souches neuronales, c’est-à-dire à des cellules très actives chez les enfants et qui, en cas d’effet tumoral avéré pour le cerveau, en constituent probablement la cible. L’article montre que des doses induisant des effets non thermiques peuvent provoquer des cassures de l’ADN après six heures d’exposition. On observe une modulation de l’expression de gènes de mort cellulaire, mais aussi – et c’est très important – de gènes de différenciation neuronale. Il semble donc que l’effet de l’exposition aux ondes électromagnétiques induise une préférence pour le lignage glial, ce qui va favoriser une oncogenèse gliale. Cependant, toutes les anomalies observées dans le cadre de cette étude sont réversibles ; elles ne se traduisent pas dans un phénotype cellulaire, car ce sont des cellules normales.

Notons que la revue Science a été récemment le théâtre d’une violente polémique, après que Gretchen Vogel, un scientifique américain de premier plan, eut écrit que tout ce qui avait été publié sur l’effet génotoxique des ondes électromagnétiques était faux – il parlait même de fraude scientifique. Cette affirmation a été contredite par Vini Khurana à partir de huit articles, et le seul fait que la revue ait accepté de publier cette réponse montre que l’affirmation de Vogel n’était probablement pas fondée. D’ailleurs, ce dernier a publié à son tour une réponse dans laquelle il exprime des regrets et admet avoir été informé d’une publication mettant en valeur des anomalies de l’ADN induites par une exposition équivalente à celle d’un téléphone portable. Cet épisode montre à quel point le titre que vous avez donné à cette réunion – « sortir du manichéisme » – se justifie. Il montre aussi que la revue Science, d’une certaine façon, prend parti en faveur d’un effet biologique de la téléphonie mobile.

Si la génotoxicité est l’aspect qui a le plus fait débat, d’autres types de perturbation des mécanismes de signalisation cellulaire ont pu être observés par certaines études. Citons les modifications du calcium – lequel est très important dans l’homéostasie cellulaire –, le stress oxydant, la prolifération, l’apparition d’ornithine décarboxylase – enzyme marqueur de gliome –, l’apoptose, l’effet vasodilatateur de l’acide nitrique – mais cet aspect n’est abordé que dans deux articles rédigés par des chercheurs japonais –, une action sur les jonctions intercellulaires et l’induction de protéines de stress.

Faute de savoir quels sont les mécanismes mis en œuvre, il est possible de recourir à des approches globales, nouvelles en biologie – puces à ADN ou protéomiques. Cependant, il existe très peu d’études dans ce domaine, certaines avec des résultats positifs, d’autres négatifs. À mon avis, il existe un problème de financement, car ces études n’ont pas du tout le niveau de qualité scientifique de celles effectuées dans le domaine du cancer, par exemple, et il manque souvent une confirmation par des techniques focalisées. S’ils conduisent à observer des phénomènes tels que gènes de stress, différenciation, apoptose et prolifération, ces travaux restent toutefois incomplets.

À côté de la question des effets génotoxiques, un débat relativement important a eu lieu sur l’existence d’effets des ondes électromagnétiques sur la barrière hémato-encéphalique, qui protège le cerveau contre l’entrée de certains toxiques. Les résultats positifs, en ce domaine, sont pour l’essentiel observés par le groupe de Salford, qui a constaté chez le rat une présence d’albumine après exposition, signe de rupture de la barrière. Ce groupe publie régulièrement sur ce sujet, mais un ou deux articles ont contesté ses résultats. Selon moi, étudier la fonctionnalité vasculaire à partir de la localisation d’albumine dans le tissu est une technique ancienne. Il est dommage de ne pas avoir eu recours aux techniques modernes d’imagerie de l’angiogenèse, utilisées couramment dans la recherche sur le cancer.

Une voie intéressante consiste à rechercher, chez l’homme, l’apparition de biomarqueurs sériques. En effet, lorsque la barrière hémato-encéphalique s’ouvre, elle libère dans le sang des protéines du cerveau, la S100 bêta et la transtyrétine. Or, d’après une étude publiée récemment par le professeur Hardell, on peut détecter une augmentation de la transtyrétine après une exposition. Là encore, la technologie protéomique pourrait permettre d’avancer.

Lorsque l’on cherche à faire une synthèse de tous ces résultats, on se heurte à un problème méthodologique. D’abord, il est très difficile de mettre en place des dispositifs expérimentaux adaptés au polymorphisme des expositions en les contrôlant par une dosimétrie de qualité. Ensuite, les modèles cellulaires sont souvent peu pertinents. Enfin, les outils modernes de la biologie – puces à ADN ou protéomiques – sont rarement utilisés, en particulier pour les appliquer directement au modèle humain malade ou au sujet exposé.

Ce qui est certain, c’est qu’il n’existe pas d’effet on/off immédiat, dramatique, sur la cellule : dans la plupart des cas, des mécanismes de réparation entrent en jeu. Si un effet existe, il faut du temps pour qu’il se manifeste, ce que l’épidémiologie semble d’ailleurs confirmer. Il faut aussi, probablement, des cofacteurs intrinsèques ou extrinsèques. Mais la prise en compte d’une temporalité cumulative est très difficile à explorer au niveau cellulaire, et même chez l’animal. C’est tout l’enjeu de l’épidémiologie.

Si les données de M. Hardell sont vraies – il a même parlé d’un risque relatif multiplié par cinq chez les moins de vingt-cinq ans –, une catastrophe sanitaire se prépare. Mais sont-elles vraies ? Comme l’a montré Mme Hours, l’étude Interphone n’est pas en mesure de répondre, non parce qu’elle est mauvaise, mais en raison des limites inhérentes à l’épidémiologie. Quoi qu’il en soit, lorsque l’investigation scientifique est confrontée à un important impact sociétal, économique ou de santé, cela pose des problèmes d’ordre épistémologique, liés aux biais ou aux contradictions entre les résultats des différentes études, alors même que ces dernières sont signées par des scientifiques reconnus.

Les biais ont fait l’objet de nombreuses controverses. Ainsi, a-t-on pu dire qu’un scientifique ayant obtenu des résultats négatifs ne va pas les publier parce que sa publication ne sera pas acceptée. Ce n’est pas tout à fait exact : on peut s’adresser à PLOS One, qui accepte toutes les publications négatives. Inversement, on peut prétendre que s’il existe un plus grand nombre de publications négatives, c’est parce que leur financement provient de l’industrie. Ainsi, un article a-t-il montré que, statistiquement, une étude négative avait plus de chances d’avoir été financée par un industriel. Disant cela, je ne suis pas en train de critiquer l’industrie. Il s’agit d’un fait sociologique : aucune étude n’est crédible si elle n’est pas indépendante des industriels. L’OMS l’a bien compris, puisque je crois qu’elle s’est posée en intermédiaire afin de « purifier » l’argent versé à la recherche. En tout état de cause, les organismes de recherche publics, indépendants, ont un rôle important à jouer. Et l’État peut avoir une action incitative en ce domaine.

Du fait de tous les problèmes méthodologiques dont je viens de parler, il est clair que l’on observe des données contradictoires et qu’il est difficile de normaliser les résultats publiés. Peut-on conclure, pour autant, à l’absence d’effet biologique des ondes électromagnétiques ? Ma réponse est clairement : non. Des publications convaincantes dans des revues de référence montrent un impact indiscutable de ces ondes. N’oublions pas, d’ailleurs, qu’il existe un usage thérapeutique des ondes électromagnétiques : la stimulation magnétique transcrânienne peut ainsi être employée dans le traitement de la dépression, voire – un groupe israélien vient de publier un article en ce sens – des tumeurs cérébrales !

Ce serait donc une faute scientifique, selon moi, de nier l’effet biologique des ondes électromagnétiques. Cependant, effet biologique ne veut pas dire nécessairement risque. Ce que l’on peut dire, c’est que ces ondes influent la biologie du vivant, et qu’un risque est possible, comme le montrent les données que je vous ai présentées précédemment.

Ces ondes peuvent modifier la programmation cellulaire qui gouverne la prolifération et la différenciation des cellules souches.

La barrière hémato-encéphalique peut également permettre l’entrée d’agents environnementaux génotoxiques, perturbateurs de l’homéostasie cellulaire. Le génome, l’épigénome et le périgénome, y compris les gardiens moléculaires réparateurs du génome, constituent le terrain de susceptibilité génique personnel. Ces facteurs vont entraîner des variations considérables au niveau épidémiologique. Le facteur temps/intensité va également jouer. Ce schéma physiopathologique est probablement faux, car fondé sur peu d’éléments positifs de la littérature. Il illustre malgré tout la complexité de la situation.

Que proposer ?

Il conviendrait d’initier un programme biologique de l’impact de la téléphonie portable chez l’homme, répondant aux imperfections des données publiées.

Il faut absolument mettre à la disposition des laboratoires une chaîne standardisée expérimentale, évaluée par des organismes indépendants.

Il faut arrêter de travailler sur les cellules et lancer de toute urgence des études chez l’homme exposé – études de biomarqueurs, études d’imagerie. De très nombreuses technologies n’ont pas encore été explorées. On peut le faire très rapidement.

J’ai cru comprendre que l’on discutait des normes. Celles-ci reposent essentiellement sur des effets thermiques. Mettre en place une base biologique permettrait de déterminer de nouveaux standards d’exposition.

L’épidémiologie de populations, descriptive, impose d’attendre. Il faudra probablement encore dix ans avant de savoir si tous les enfants auxquels les parents achètent des téléphones portables souffriront de tumeurs cérébrales. Pour moi, le doute est suffisant pour interdire la vente de portables aux enfants.

On peut aussi utiliser l’épidémiologie moléculaire. Voilà quelques mois, une vive discussion a eu lieu à propos des lymphomes et des lignes à haute tension. Une publication d’une très bonne revue a montré que le polymorphisme d’un gène de réparation, associé à une exposition extrêmement importante, contribuait de façon significative à la genèse d’un lymphome. Il faut être très rigoureux sur le plan méthodologique et comparer des patients atteints de tumeurs cérébrales exposés fortement au téléphone portable à des patients présentant les mêmes tumeurs mais n’ayant pas été exposés. On pourrait ainsi voir s’il y a un terrain de susceptibilité. Ce travail peut se faire relativement rapidement, et il viendrait compléter les autres études épidémiologiques.

Il faut prendre en compte les erreurs que l’on a faites dans le passé. Nos enfants sont nés dans un environnement multifactoriel. Les nouvelles technologies sont très intéressantes, mais on n’en connaît pas du tout la toxicologie. Il convient d’anticiper.

Je suis venu parce que, en tant que chercheur académique naïf, j’ai fait le rêve qu’on pouvait sortir du manichéisme. Il faut davantage de science – et donc davantage d’argent. Il faut obliger et intéresser les scientifiques concernés. Les organismes de recherche publique ont un rôle majeur à jouer.

Il est possible de concevoir des portables « verts » beaucoup moins irradiants. Les industriels ont tout intérêt à vendre des nouvelles technologies validées comme étant sans danger. En outre, toutes les technologies qui permettent de changer la dimension des réseaux sont européennes. Il y a là un impact économique majeur. Il est possible de faire de la bonne science sans faire peur aux gens. Il faut s’y mettre très rapidement.

M. Alain Gest, rapporteur. Comment ne pas saisir l’opportunité d’un téléphone vert qui constituerait un outil commercial étonnant ?

M. BERNARD VEYRET, DIRECTEUR DE RECHERCHES AU CNRS. Les précédents exposés ont suscité en moi des réactions et des commentaires que je garderai pour le temps des questions. En attendant, peut-être est-il utile que je me présente, afin de montrer que c’est avec une certaine autorité que je peux parler de ces sujets.

Voilà maintenant trente ans que je travaille au CNRS. J’ai fondé un laboratoire qui travaille sur les effets biologiques des champs électromagnétiques en 1985. Depuis 2000, je fais partie de la commission internationale de protection contre les radiations non ionisantes – ICNIRP –, qui détermine les normes d’exposition au niveau mondial. J’ai fait partie de plusieurs comités d’experts, nationaux et internationaux. Dès 1996, avec le premier groupe d'experts sur le développement urbain mis en place par la Commission européenne, j’ai contribué à un premier rapport, aujourd’hui oublié, mais dont les conclusions sont encore largement valables. J’ai participé au groupe Zmirou, au groupe d’experts de l’AFSSET en 2003-2005, à celui de l’Académie des sciences américaine en 2008 et au groupe d’experts internationaux indépendants de l’Agence de radioprotection suédoise, qui remet un rapport annuel depuis plusieurs années. Je vous ai indiqué enfin les références des publications en radiofréquence que j’ai publiées avec mon groupe.

S’agissant des radiofréquences entendues globalement, une base de données de l’OMS, est régulièrement mise à jour sur les différents projets en cours et les publications. Concernant les radiofréquences, et pas seulement la téléphonie mobile, 2 442 études ont été publiées, et d’autres viendront. Cela signifie que l’essentiel est derrière nous – si la recherche ne continue pas, bien évidemment.

Je ne parlerai que des études en laboratoire, et non des études d’épidémiologie. Le nombre d’études en radiofréquences est relativement important. Pour bien des produits chimiques potentiellement dangereux, ce ne fut pas le cas.

Des rapports récents, que je pourrai vous adresser par courrier électronique, sont consultables : celui de l’Académie des sciences, celui du Scientific committee on emerging and newly health identified risks – SCENHIR –, ou encore le Livre bleu de l’ICNIRP, bientôt édité, qui rassemble la somme des connaissances dont nous disposions au 31 décembre 2008. C’est sur l’avis de l’ICNIRP que s’appuiera le groupe d’experts de l’OMS pour publier en 2010 des critères d’hygiène de l’environnement – EHC – fondés sur une étude de la littérature consacrée notamment aux champs de radiofréquences – RF. Enfin, l’AFSSET publiera un rapport à l’automne de cette année sur les radiofréquences en général.

La recherche s’effectue surtout en Europe et – depuis longtemps – pratiquement plus aux Etats-Unis, même si une importante étude est en cours. Le reste de la recherche se fait essentiellement au Japon et en Corée du Sud, et, de façon marginale, en Australie. Concernant la carte des financements de la recherche dans les différents pays, la France garde un rang honorable – espérons que cela continuera dans les années qui viennent –, sachant que les Pays-Bas occupent le premier rang.

La recherche doit être au moins de dimension européenne. Mais, comme le soulignait François Berger, on déplore des incohérences, non pas tellement dans les résultats, mais dans les protocoles et dans les types d’études. Ces incohérences sont dues à un manque de coordination au niveau européen et mondial. Néanmoins, nous avons beaucoup œuvré pour réduire la disparité des sujets abordés.

Environ 115 millions d’euros ont été dépensés depuis 1993 – date du début des recherches sur la téléphonie mobile. Ces recherches ont débuté lentement, pour s’accélérer fortement jusqu’à l’année dernière. Elles sont en train de baisser considérablement. Si la Commission européenne ne décide pas de relancer un plan de recherche, comme ce fut le cas avec le cinquième Programme-cadre pour la recherche et le développement – PCRD –, on risque de ne dépenser que 2 ou 3 millions d’euros par an dans le monde, ce qui est faible. Cela empêchera toute étude systématique des nouveaux signaux. Il est en effet hors de question de refaire, pour tous les nouveaux signaux, ce que l’on a fait pour le GSM.

La définition du DAS (Débit d’absorption spécifique) s’impose, pour la suite de nos discussions. Le DAS est la puissance absorbée par masse de tissus : un rat de 100 grammes, placé dans un four micro-ondes de 1 watt, donnera un DAS – ou SAR en anglais – de 10 watts par kg.

À partir de là, on définit la restriction de base, c’est-à-dire la valeur du DAS que l’on veut éviter. On a fait la liste des effets sanitaires, déterminé le niveau le plus bas, l’effet critique, créé un facteur d’incertitude de 50 pour la population, et obtenu une limite pour le public, corps entier, de 0,08 W/kg.

Je parlerai rapidement des approches complémentaires de l’épidémiologie, en commençant par celles qui devraient être les plus informatives, mais qui sont limitées par leurs paramètres : les études humaines. Je précise qu’il ne s’agit pas là d’un avis personnel, mais de celui du groupe de l’ICNIRP qui représente le travail de douze personnes sur trois ans.

J’en profite pour répondre à M. Gest concernant les propos tenus par M. Rodney Croft. Que ce dernier ait observé des effets biologiques sur l’électroencéphalogramme et le sommeil, c’est tout à fait juste. Mais aujourd’hui, notre conclusion est que de telles études ne sont pas cohérentes entre elles, en partie parce que les protocoles ne sont pas les mêmes. Si cela reste une piste à suivre, il en va de même s’agissant des fonctions cognitives et le comportement.

Quand j’ai commencé mes recherches, j’avais très peur que l’audition ne soit affectée : le téléphone est placé contre l’oreille, qui est un des organes les plus sensibles. Or les études menées sur l’homme et l’animal semblent montrer qu’il n’y a pas d’effet, du moins dans l’état actuel de nos connaissances.

Il en est de même s’agissant du système cardiovasculaire et de l’électro-hypersensibilité – EHS. Jusqu’à présent, toutes les études en laboratoire ont montré qu’il n’y avait pas de corrélation entre les symptômes rapportés et l’exposition faite en double aveugle – nous pourrons y revenir.

Il est légitime de se demander si la santé des enfants peut être affectée davantage que celle des adultes, ou si elle peut l’être alors que celle des adultes ne l’est pas. On ne connaît pas la réponse. On a en effet commencé par étudier des adultes : des hommes jeunes et en bonne santé. Maintenant, il faut s’occuper des enfants, ce qui est pratiquement impossible en laboratoire – mais on peut travailler sur de jeunes animaux. Des études sur les enfants sont en cours, mais des réponses définitives mettront du temps à être apportées, sachant qu’en parallèle, des études épidémiologiques ont été menées sur les enfants.

Après les études humaines, je passerai aux études animales. Il a fallu concevoir des systèmes permettant d’exposer correctement, c’est-à-dire de façon bien caractérisée, les animaux. Cela a nécessité de longues années de travail et des millions d’euros. Sur ces diapositives, vous pouvez voir une chambre réverbérante pour rats pour le WiFi et le téléphone.

Pour étudier le cancer, le principe des expositions longues, tout au long de la vie de l’animal, a été adopté. Une étude de grande ampleur, qui aura coûté 22 millions de dollars, a été menée aux États-Unis. Mais plusieurs études de co-promotion ont été réalisées, en particulier dans notre laboratoire. L’hypothèse de base a toujours été que si les ondes des téléphones agissaient, elles avaient une action de co-promoteurs et non d’initiateurs.

Mais il y a bien d’autres modèles, qui n’ont pas trait au cancer. Nous avons travaillé pendant six ans sur la peau, qui est le premier organe touché par les ondes des téléphones. Nous avons travaillé sur l’audition, dont j’ai déjà parlé. Sur la reproduction et le développement, des études sont en cours. Concernant le comportement, pratiquement plus d’études ne sont lancées.

Les travaux de Salford sur la barrière hémato-encéphalique ont été publiés en 1997. Celui-ci a dépensé l’équivalent de 50 000 euros à l’époque et, depuis, nous avons dépensé près d’un million d’euros pour essayer de répliquer ses résultats. Or personne n’y est arrivé. Des articles, dont quatre sont encore sous presse, montrent clairement qu’il n’y a pas de signaux similaires à ceux de Salford sur la barrière hémato-encéphalique. Nous considérons que c’est une porte fermée, mais nous sommes prêts à la rouvrir si quelqu’un nous montre que c’est nécessaire.

Passons aux études cellulaires. Sur la génotoxicité, un long débat serait nécessaire. Je ne partage pas tout à fait les conclusions de François Berger qui a donné comme exemple le travail de Rudiger à Vienne, mené dans le cadre du programme REFLEX. Nous faisions partie de ce programme et nous avons bataillé pendant quatre ans pour comprendre ce qui se passait en laboratoire. Nous avons eu beaucoup de mal à obtenir les résultats auxquels il était parvenu. Nous avons fait des réplications, qui étaient négatives. D’autres en ont fait ailleurs – par exemple en Suisse – et n’ont pas non plus retrouvé les mêmes résultats. Ensuite sont apparues des accusations de fraudes, dans lesquelles je ne rentrerai pas. Je dirai seulement que nous étions très soupçonneux.

Au vu des expériences sur la génotoxicité, en particulier les lésions de l’ADN, nous considérons que des travaux restent à faire mais que, globalement, il n’y a pas d’effets des signaux de la téléphonie mobile et des communications sans fil sur l’ADN. Sur la transformation, très peu de choses ont été faites. Sur l’apoptose, il y en a davantage.

L’expression des gènes est une longue histoire. Nous avons fait, ainsi que d’autres, de nombreuses études sur les protéines de choc thermique. Aujourd’hui, elles sont toutes négatives – celles qui étaient positives n’ont pas pu être répliquées.

Il y a encore beaucoup à dire sur les études cellulaires. Je reprends les propos de François Berger sur l’ornithine décarboxylase – ODC. Le groupe de Litovitz, à Washington, avait trouvé des effets des ondes, d’assez bas niveau, sur l’activité de l’ornithine décarboxylase. Dans le cadre d’un projet européen, PERFORM B, que nous dirigions, nous avons travaillé avec des Finlandais. Au bout de deux ans, avec des systèmes d’exposition variés, des cellules variées, vivantes, lysées, etc., nous avons été totalement incapables de répliquer les résultats du groupe de Litovitz sur l’ODC. Ce fut l’objet d’une publication. Pour nous, il s’agit là encore d’une porte fermée.

Les seuls effets sanitaires établis sont dus à l’échauffement causé par l’absorption des radiofréquences. Cela signifie que lorsque l’on dépasse les niveaux de communication sans fil qui, eux, ne chauffent pas, on retrouve des effets dus à l’échauffement. On dit souvent que les normes sont basées sur les effets thermiques. C’est faux : elles sont basées sur tous les effets. Mais il se trouve que les seuls qui soient établis sont de nature thermique. C’est pour cela qu’ils servent de base. En fait, toutes les études dont je parle sont à des niveaux non thermiques, c’est-à-dire sans échauffement ; ou bien, elles portent sur des niveaux non thermiques et vont jusqu’au niveau thermique, pour essayer de trouver le seuil de nature thermique.

Selon le SCENIHR, l’exposition aux champs de radiofréquences conduirait de façon improbable à une augmentation du cancer chez l’homme. Selon la Food and drug administration – FDA – aux États-Unis, la majorité des études publiées n’a pas montré d’association entre l’exposition aux radiofréquences d’un téléphone mobile ou d’un système d’exposition, et des problèmes de santé. Ce sont des avis de comités autorisés, mais ce n’est pas le Bon Dieu. Il faut du temps, il y aura d’autres avis. Voilà en tout cas où nous en sommes.

En conclusion, les recommandations de recherche de l’OMS ont été globalement suivies. Ces recommandations, qui datent de 2006, seront mises à jour à l’automne. Mais cela ne signifie pas qu’il y ait une bonne coordination entre tous les programmes et projets au niveau mondial.

Les études récentes et en cours seront disponibles pour les évaluations à venir. Il est très important de savoir que l’ICNIRP, l’OMS et le CIRC, vont évaluer la bibliographie et conclure, pour permettre la révision éventuelle des normes.

Le niveau de financement est en train de chuter rapidement au niveau mondial. Je m’en désole, mais c’est un fait. Je ne suis pas sûr que ce soit réversible.

Aucun risque sanitaire n’est prévisible – au vu des connaissances actuelles – au niveau de puissance des communications sans fil.

Les deux questions majeures qui se posent sont, selon moi : comment va-t-on faire l’extrapolation de nouveaux signaux ? Qu’en est-il des enfants ?

M. Alain Gest, rapporteur. Je suppose que ces exposés, assez divers et complémentaires, vont susciter des questions. J’ouvre immédiatement le débat en donnant la parole à Mme Janine Le Calvez.

DÉBAT

Mme Janine Le Calvez, Présidente de l’Association pour la Réglementation des Implantations d'Antennes Relais de Téléphonie Mobile (PRIARTEM). Selon le dernier exposé il n’y a aucun problème de santé publique lié à la téléphonie mobile ! Alors que les deux premiers exposés que nous venons d’entendre faisaient un état honnête des connaissances sur un risque émergent dont on ne sait pas tout, le troisième était très caricatural.

Je remarque que M. Veyret nous a donné son CV. Mais il semble qu’il n’ait pas donné une information importante, à savoir qu’il est aussi membre du Conseil scientifique de Bouygues Telecom. Il aurait été utile que cela fût précisé. On demande aux scientifiques qui participent à des groupes d’experts de faire des déclarations publiques d’intérêts. Et lorsque l’on intervient en public, il est normal de fournir également ce genre d’information.

Nous sommes tout à fait favorables aux expertises pluralistes. Mais la pluralité est suffisante pour que l’on ne choisisse pas, dans les intervenants, les gens qui ont un lien direct avec l’un des acteurs essentiels de la téléphonie mobile, à savoir les industriels du secteur. Cela dit, j’ai trouvé les interventions très intéressantes.

Mes questions porteront essentiellement sur l’épidémiologie et s’adresseront donc à Mme Hours.

Il apparaît très clairement, dans les études suédoises comme dans l’étude Interphone, qu’en deçà de dix ans d’utilisation du portable, on n’observe pas d’effets statistiquement significatifs, mais qu’au-delà, on en observe. Les effets relatifs faibles que vous avez relatés sont-ils liés à notre faible recul ? Peut-on faire l’hypothèse que, chez les populations qui auront utilisé massivement le portable depuis quinze ans, les taux d’incidence seront plus élevés ?

Vous êtes responsable, pour la France, du lancement de l’étude MobiKids. Pourriez-vous nous en dire un peu plus ?

Il n’existe aujourd'hui qu’une seule publication sur les enquêtes épidémiologiques menées auprès des enfants. Il s’agit d’une étude menée par une équipe américano-danoise sur des enfants de sept ans, exposés in utero, et durant les premières années de leur vie. Selon cette étude, l’exposition subie par ces enfants se traduirait par des problèmes du comportement. Pouvez-vous nous en parler plus précisément ?

M. Alain Gest, rapporteur. Le fait que quelqu’un, quel qu’il soit, puisse travailler partiellement ou totalement pour le compte d’une entreprise, en l’occurrence un opérateur de téléphone, ne lui retire pas ses qualités scientifiques.

Mme Janine Le Calvez. Certes, mais encore faut-il le dire.

M. Alain Gest, rapporteur. Voilà quinze jours, je me suis rendu, à l’occasion de ce travail, au Japon. Toutes les études y sont financées par des opérateurs. Pour autant, leurs conclusions ne sont pas remises en cause.

Si on suit votre raisonnement jusqu’au bout, cela reviendrait à dire que les opérateurs sont en train de provoquer sciemment un séisme sanitaire. Je suis peut-être naïf, mais je n’arrive pas à l’envisager.

Il faut être très prudent lorsque l’on fait ce genre de remarques. L’étude la plus communément mise en avant par les personnes les plus « réservées » en matière de téléphonie portable a été initiée par quelqu’un qui n’est pas du tout un scientifique, et qui pourrait tout aussi bien être suspecté de conflit d’intérêts.

Enfin j’avais souhaité la présence du professeur Hardell. Ce n’est pas moi qui l’ai décommandé lundi. Je sais qu’il est déjà venu au Sénat. Je regrette qu’il ne soit pas présent aujourd’hui et j’espère le rencontrer en Suède dans quelques jours.

M. Bernard Veyret. Je n’ai cité dans mon CV que mes activités scientifiques et de recherche. Participer au conseil scientifique de Bouygues Télécom est pour moi une activité tout à fait marginale, qui me permet d’être en contact avec les opérateurs. J’aimerais d’ailleurs être également en contact avec les associations. Voilà vingt ans que j’invite la vôtre à venir à Bordeaux dans mon laboratoire, mais en vain.

Ensuite, tout le monde savait ici que je faisais partie du conseil scientifique de Bouygues Télécom, et il ne me semblait pas utile de le redire. Enfin, tous ceux que j’ai cités : groupes d’experts, ICNIRP, OMS, Agence de radioprotection suédoise, qui sont au courant de cette activité et sont très sévères sur les conflits d’intérêts, m’ont accepté.

Mme Martine Hours. Madame Le Calvez, si l’on part du principe que le risque observé à dix ans, chez les sujets les plus fortement exposés, est de 1,3, on peut effectivement imaginer une augmentation de la probabilité d’effets selon la dose, et donc le temps d’exposition, à moins que le risque de 1,3 ne soit le résultat de certains biais, et qu’en fait il n’y ait pas de risques. Il faut continuer à faire des études, sur des personnes plus exposées que celles sur lesquelles on a pu travailler jusqu’à présent.

Deux études ont été lancées sur les relations entre l’usage du téléphone mobile et les enfants : une étude initiée par les pays du Nord de l’Europe, et une autre, lancée par Élisabeth Cardis au CREAL de Barcelone : l’étude MobiKids, qui vient de démarrer. Cette étude reprend plus ou moins le schéma de l’étude Interphone et s’intéresse aux jeunes de dix à vingt-cinq ans. Elle durera au moins cinq ans. Un certain nombre de pays, que je ne saurais vous citer de mémoire – Autriche, Israël, Australie, Pays-Bas, France, Italie, etc. – y participent.

Vous avez évoqué une autre étude sur les enfants, de type transversal, effectuée sur une génération d’enfants de sept ans. Elle a mis en parallèle leur exposition antérieure aux radiofréquences, par le biais du téléphone mobile, et un certain nombre de troubles du comportement, notamment l’hyperactivité. Elle a montré que les enfants dont la mère utilisait un téléphone mobile de façon intensive pendant la grossesse, ou à qui l’on avait confié très précocement – parfois dès deux ans – un téléphone mobile, avaient davantage de troubles du comportement, notamment l’hyperactivité. Mais cela ne signifie pas qu’il y ait une relation entre radiofréquences et troubles du comportement, même si cette question peut être posée. Ne serait-ce pas plutôt le mode de fonctionnement familial qui serait à l’origine des troubles du comportement ? Si l’on téléphone beaucoup lorsque l’on est enceinte, peut-être est-on moins attentif à sa grossesse ? Si l’on confie très tôt un téléphone à un enfant, peut-être est-on dans un mode relationnel différent de celui des personnes qui s’y refusent ?

M. Michel Rosenheim, épidémiologiste, conseiller technique de Mme Roselyne Bachelot. J’interviens en tant que spectateur, et non en qualité de conseiller technique. Je tiens à remercier Mme Hours pour la clarté de son exposé, et à faire cette remarque : l’épidémiologie peut démontrer l’existence d’un risque, mais elle n’est pas capable d’en exclure un. Selon Bland et Altman, l’absence de preuve n’est pas la preuve de l’absence.

Vous avez présenté, Madame, un schéma d’épidémiologie classique faisant apparaître la valeur ponctuelle du risque relatif et son intervalle de confiance. Il y figurait une étude de Klaeboe montrant que l’usage du téléphone mobile protégeait du gliome. Pourriez-vous préciser ?

Mme Martine Hours. On ne « suspecte » pas le téléphone d’être protecteur vis-à-vis du gliome. Quand on obtient ce type de résultat, on s’interroge immédiatement sur le mode de sélection des cas et des témoins, qui aurait pu induire un biais de sélection aboutissant à observer cet effet apparemment protecteur. En épidémiologie, une étude ne suffit pas. Il faut prendre en compte toutes les études en se disant que les biais de l’une vont compenser ceux de l’autre. Nous sommes typiquement dans ce cas-là.

Mme Nadia Ziane, de la Fédération nationale des Familles rurales. On entend beaucoup parler d’années d’exposition, mais pas de temps de communication. Un utilisateur parlerait 150 minutes par mois aujourd’hui, ce qui n’était sûrement pas le cas lorsque l’étude Interphone a été menée. Ce paramètre est-il pris en considération ?

Mme Hours a également parlé d’« utilisation intensive ». Concrètement, qu’est-ce que cela représente ?

M. Berger a regretté qu’il n’y ait pas suffisamment d’innovations autour du téléphone vert. On voit en effet surtout émerger un marché de dispositifs anti-ondes – puces, coques pour mobiles – censés réduire l’exposition. Je m’interroge sur leur utilité et je me demande si un tel marché ne devrait pas être assez rapidement fermé.

D’après M. Veyret, aucun risque sanitaire n’est prévisible. Toujours d’après lui, on ne dispose pas d’un recul suffisant pour apprécier les effets de la téléphonie mobile sur les enfants. Comment peut-il arriver à une telle conclusion – à moins d’exclure les enfants de notre société ?

Enfin, je voudrais rappeler à M. Gest que nous avions proposé, dans le cadre de la table ronde « radiofréquences », de dédier aux adolescents des offres portant exclusivement sur les SMS. Cette solution pourrait satisfaire tout le monde.

M. Alain Gest, rapporteur. Cette idée a été reprise dans les orientations définies par les ministres qui se sont exprimés sur le sujet. Je l’ai moi-même notée.

Mme Martine Hours. Il est exact que j’ai présenté uniquement des durées d’utilisation. La durée d’utilisation est un indicateur solide : on sait facilement que les gens ont acheté leur téléphone il y a dix ou quinze ans. La durée cumulée de communication est un indicateur beaucoup plus fragile. Savez-vous, les uns et les autres, le temps que vous passez sur votre téléphone mobile ? Dans le cadre de l’étude Interphone, nous nous sommes rendu compte que les gens évaluaient très mal leur durée de communication. Voilà pourquoi je n’ai pas voulu appeler l’attention sur cette notion de dose. Pour autant, il faut y travailler, c’est un indicateur parmi d’autres, entaché d’erreurs, que je n’ai pas voulu mettre en avant.

M. Alain Gest, rapporteur. La facture détaillée donne les durées de communication et empêche les erreurs.

Mme Martine Hours. La facture détaillée donne seulement la durée des appels sortants. Cela dit, au cours de l’étude Interphone, nous avons pu contrôler un biais et constater des différences entre ce que les malades avaient dit de leur consommation, et ce que l’on trouvait sur leurs factures.

M. François Berger. La plupart des produits vendus dans le commerce pour rendre moins irradiants les téléphones portables le sont par des charlatans. Mais des solutions existent : éviter d’irradier le cerveau lorsque l’on communique ; faire des papiers peints qui isolent des ondes électromagnétiques ; multiplier les antennes de faible puissance, etc. Certaines technologies sont déjà prêtes. Il faut continuer à réfléchir à ces technologies du futur comme le fait, par exemple, le Commissariat à l'énergie atomique – CEA.

M. Bernard Veyret. Je tiens à dissiper un malentendu. Dire qu’il n’y a pas d’effets prévisibles, équivaut à dire qu’ il n’y a pas d’effets établis. Sur la base des connaissances acquises en laboratoire, on ne voit pas d’effets sanitaires, et on ne peut donc pas prévoir qu’il y en ait à partir des signaux tels qu’ils existent. Et si les enfants ne sont pas concernés, c’est parce qu’ils n’ont pas encore été étudiés.

Les normes sont faites pour le futur, mais elles sont établies sur les connaissances acquises dans le passé. Dans deux ou trois ans, quand nous établirons, avec l’ICNIRP, les normes radiofréquences, si nous ne disposons pas de données scientifiques sur les enfants, nous n’y ferons pas référence d’une manière particulière.

M. René de Sèze, directeur de recherche à l’INERIS. Professeur Berger, la littérature établit-elle une corrélation entre les effets positifs, d’un côté, et certaines fréquences particulières ou certains niveaux de DAS, de l’autre ?

M. François Berger. M. Veyret a parlé des effets de nature thermique. Pour ma part, je ne suis pas un spécialiste du domaine et il m’est très difficile de vous répondre, en raison du polymorphisme des conditions de stimulation et de leur intermittence. Malgré tout, il faudrait se pencher sur l’élément cumulatif, sans doute important, mais qui a été très peu étudié. Selon moi, le travail de biologie, qui répond à l’élément cumulatif qui semble émerger de l’épidémiologie, a été mal fait.

M. Alain Vasselle, sénateur, membre de l’OPECST. Comment concilier l’affirmation de l’existence d’un risque potentiel et l’application du principe de précaution ?

M. François Berger. En tant que médecin, je trouve le principe de précaution très dangereux, dans la mesure où il bloque l’innovation, notamment thérapeutique. Mais il ne faut pas non plus que n’importe quelle innovation se mette en place en l’absence de principe de précaution.

J’ai fait quelques propositions. Si on ne fait pas plus de biologie, il faut anticiper les nouvelles technologies qui vont se diffuser massivement. S’agissant du téléphone portable, on ne peut pas prendre de risque en permettant aux enfants de maternelle ou de primaire d’utiliser un téléphone portable. Et pour les adultes, il faut attendre le résultat des études épidémiologiques. Nous devrions disposer bientôt des résultats de l’étude Interphone.

Je me prononce donc pour un principe de précaution éclairé et transparent. Il faudrait d’ailleurs probablement informer les associations de l’avancée des données scientifiques et épidémiologiques en cours.

M. Jean-Louis Malvy, médecin. Madame Hours, je voudrais vous interroger sur les résultats concernant les gliomes et la latéralité. Que représente le terme « ensemble » ? Quel était le nombre de gliomes pris en compte ?

Mme Martine Hours. Je ne me souviens pas du nombre de gliomes pris en compte.

J’ai présenté les résultats des études de plusieurs pays – Royaume-Uni, Suède, Norvège, Danemark, etc. Sur la totalité de ces études, une seule est significative. Mais j’ai présenté également l’étude dans laquelle les pays ont réuni tous leurs résultats « ensemble ».

M. Daniel Oberhausen, Association pour la Réglementation des Implantations d'Antennes Relais de Téléphonie Mobile (PRIARTEM). Mes remarques s’adresseront surtout à M. Gest. Peut-on imaginer qu’un industriel, qui a le souci de ses affaires, puisse déclencher un séisme sanitaire ? Aurait-il l’audace ou l’inconscience de prendre un tel risque ?

Les interventions précédentes nous ont montré la dimension multifactorielle de l’étiologie. Devant la dégradation de l’environnement général et des conditions de vie dans tous les domaines, on peut très bien imaginer que les industriels aient fait le pari que le risque lié à l’utilisation du téléphone portable passe inaperçu.

M. Gest a insisté sur l’expertise pluraliste. La science est faite de diversité. Elle se construit sur le débat contradictoire, et il arrive que les paradigmes changent. Je considère que Bernard Veyret est attaché à un paradigme du passé, à savoir que les effets des expositions ne peuvent être que de nature thermique. Il faut absolument chercher si ces effets peuvent être non thermiques du fait d’un changement de paradigme ; des démonstrations et des mises en évidence ont déjà eu lieu.

Mais qu’entend-on par « effets thermiques » ? À partir d’un dixième, d’un centième de degré Kelvin ? Les êtres vivants, en dehors des végétaux, sont soumis à un phénomène d’homéostasie. Peut-on considérer qu’un animal « chauffe » quand il gagne 1 ou 2 Kelvins ? Il faut savoir aussi qu’une onde électromagnétique peut parfaitement transmettre de l’énergie sans qu’il y ait élévation de température.

Il existe en effet des dispositifs anti-ondes. Certaines personnes parviennent, à grands frais, à protéger leur habitat. Mais il est tout à fait regrettable que des charlatans développent des pastilles que l’on colle sur les téléphones, et qui s’apparentent à de la poudre de perlimpinpin. Les utilisateurs ont l’impression qu’ils sont protégés et qu’ils peuvent téléphoner à gogo, ce qui augmente le rayonnement des stations de base, etc. Tout cela relève d’un très mauvais commerce.

M. Alain Gest, rapporteur. C’est un phénomène que nous évoquerons.

J’ai dit que je n’imaginais pas que des industriels pouvaient provoquer « sciemment » un séisme sanitaire. Je me trompe peut-être. Des erreurs graves ont en effet été commises au cours du XXe siècle. Malgré tout, la communication a évolué et les grands groupes, du moins les opérateurs français, n’ont pas nécessairement envie de polluer leur image.

En France, on a le sentiment que la recherche ne peut être performante et saine que si elle publique. Le lien entre la recherche et les entreprises est toujours considéré avec suspicion. Mais si on adopte ce point de vue, il faut l’appliquer à tous les cas de figure. C’était le sens de la remarque que j’ai faite tout à l’heure.

Cela dit, je cherche à obtenir le maximum d’informations et je ne néglige pas ce que vous avez dit à propos des effets non thermiques des expositions aux ondes. J’ai organisé, depuis le mois de février, des auditions non publiques, dont les conclusions seront prises en compte dans le rapport qui sera publié le moment venu. Ce rapport contiendra enfin un certain nombre de recommandations en termes de recherche.

M. Bernard Veyret. Je croyais avoir dit que toutes les recherches menées depuis seize ans portaient sur les effets non thermiques, pour savoir s’ils existaient. Par ailleurs, qu’est-ce qu’un effet non thermique ? Je l’ai dit aussi : c’est un effet qui est dû à l’échauffement, quelle que soit l’amplitude de celui-ci. En même temps, il est sûr que si un animal reçoit de l’énergie des ondes, au début, grâce à la thermorégulation, sa température ne montera pas. Ensuite, elle montera ; il s’agira alors de se demander si cette montée de température produira chez lui un effet biologique ou sanitaire.

M. Patrick Vuitton, directeur général de l’Association des villes et collectivités pour les communications électroniques et l’audiovisuel (AVICCA). Pour mémoire, l’Autorité de régulation des communications électroniques et des postes – l’ARCEP – a publié hier les chiffres d’affaires de la téléphonie mobile pour 2008 : 18,6 milliards d’euros, ce qui représente une augmentation de 5,6 % sur un an. Cela doit permettre de dégager des moyens nouveaux pour la recherche. J’ai cru comprendre que tout le monde, ici, souhaitait que l’on poursuive et que l’on élargisse la recherche.

M. François Berger. Les industriels doivent être intelligents. À titre d’exemple, si le pool de l’étude Interphone aboutit à des conclusions positives, ce sera une catastrophe pour ceux qui vendent des téléphones portables. N’existe-t-il pas une loi permettant de prélever un pourcentage et de le consacrer à la recherche ?

M. Alain Gest, rapporteur. Il est sûr qu’il faudra réfléchir à un dispositif assurant un mode de financement différent de l’actuel.

M. François Berger. Il faudrait que cela passe par les organismes publics. Je m’étais dit qu’il devrait être possible de convaincre les industriels de nous aider. Mais on m’a expliqué que si je publiais des conclusions négatives et que si j’avais été financé par l’industrie, personne ne me croirait. On a donc besoin d’un filtre. L’OMS l’a très bien fait. L’État doit pouvoir exiger une « part de butin » et gérer une recherche publique de qualité et indépendante.

Mme Martine Hours. Je voudrais faire remarquer qu’à la suite du premier rapport de l’OPECST, une fondation « Santé et radiofréquences » a été mise sur pied pour une durée de cinq ans. Elle arrive donc à la fin de son mandat. Cette fondation était précisément destinée à couper le lien entre l’industrie et la recherche. Elle l’a fait, en s’appuyant sur un conseil scientifique indépendant, qui a suivi les règles habituelles des conseils scientifiques de tous les instituts européens et internationaux. Les opérateurs ont participé à son financement, ce qui lui a valu de nombreuses critiques. Mais le principe était l’équivalent de celui adopté pour les agences de l’eau : les industriels qui polluent l’eau participent, pour se dédouaner, aux travaux sur la qualité de l’eau. Cela me paraît nécessaire et normal.

M. Alain Gest, rapporteur. L’idée était bonne en effet, mais on ne peut pas dire que les industriels se soient dédouanés. Peut-être le terme de « fondation » n’était-il pas très adapté. Vous faites un parallèle avec les agences de l’eau, mais je remarque que celles-ci sont financées par des taxes. Quoi qu’il en soit, tout cela pourra nourrir notre réflexion sur le sujet.

Mme Janine Le Calvez. Il est en effet très important d’appliquer le principe de précaution, en raison de l’incertitude scientifique. Mais pour moi, le principe de précaution n’est pas un principe scientifique : c’est un principe d’action politique.

Nous demandons depuis longtemps une réglementation protectrice, qui applique le principe de précaution. L’introduction de ce dernier dans les principes constitutionnels doit inciter encore davantage les pouvoirs publics et les parlementaires à agir en ce sens. Après le Grenelle 1, il y aura le Grenelle 2. C’est le moment d’appliquer le principe de précaution à la téléphonie mobile.

Nous sommes face à un risque émergent, dont on ne sait pas tout. La construction de la connaissance scientifique est un processus extrêmement long. Comme l’ont dit les intervenants, il faut poursuivre l’effort de recherche. Or j’ai quelque inquiétude à ce propos.

Lorsqu’il a été question de créer la Fondation, nous avions proposé que les industriels participent à son financement, suivant le principe que les pollueurs sont les payeurs. Nous souhaitions que cette contribution prenne la forme d’une taxe parafiscale ou d’une redevance, pour l’intégrer dans le cadre d’un budget public. Nous n’avons pas été entendus et la Fondation a été créée. Sa structure ne nous convenait pas non plus. Mais il se trouve que, grâce au travail mené au sein du conseil scientifique, dans ses relations avec le monde associatif, elle a été plus vertueuse que ne pouvait le laisser entendre sa constitution. Son bilan est donc en partie positif.

Il ne faudrait surtout pas profiter d’une modification de structure pour réduire nos efforts de recherche. Nous demandons depuis longtemps des enquêtes épidémiologiques auprès des riverains d’antennes. Pour le moment, elles n’ont pas été menées ; nous insistons pour qu’elles le soient rapidement.

M. Alain Gest, rapporteur. Je vous remercie de mentionner également les points positifs. Les cinq ans d’existence de la Fondation arrivent à leur terme. Y aura-t-il une suite ? Il faudra en tout cas prendre en compte les manques que l’on a pu observer. Je précise au passage que si vous êtes en mesure de relever des points positifs, c’est parce que vous avez joué le jeu en participant à la structure de concertation – ce qui n’a pas été le cas de tout le monde.

Mme Janine Le Calvez. Nous avons été encouragés à le faire par les réponses que nous avons reçues aux questions que nous posions.

Mme Sylvie Lefranc, de la Confédération syndicale des familles. Ayant assisté au Grenelle des ondes jusqu’à la conférence de presse, j’ai entendu Mme Nathalie Kosciusko-Morizet proposer le paiement d’une redevance par les opérateurs. Nous suivons l’affaire avec intérêt.

M. Alain Gest, rapporteur. Je ne pense pas qu’il y ait d’élément nouveau depuis cette conférence de presse, qui montre que l’on explore d’autres solutions pour financer la recherche.

La Fondation dont nous parlions est intervenue dans le domaine d’activité de ceux qui la financent – ce qui n’est habituellement pas le cas. Cela a manifestement fait peser la suspicion sur les travaux réalisés. Il ne faut pas continuer ainsi.

Je remercie maintenant tous les intervenants de la première table ronde.

DEUXIÈME TABLE RONDE :

LES POTENTIALITÉS DES TECHNOLOGIES ACTUELLES ET FUTURES
ET LA POSSIBILITÉ D’UN CONTRÔLE MAÎTRISÉ

M. Alain Gest, rapporteur. Je passe la parole à M. Stéphane Elkon, secrétaire général d’Alliance TICS, le Syndicat de l’industrie des technologies de l’information et des télécommunications.

M. STÉPHANE ELKON, SECRÉTAIRE GÉNÉRAL D’ALLIANCE TICS. Monsieur le Député, je souhaite tout d’abord vous remercier d’avoir invité notre organisation à s’exprimer publiquement sur ces sujets. Alliance TICS représente en France les constructeurs d’équipements télécoms et informatiques. Ce secteur assez dynamique compte dans notre pays 70 000 salariés. Nos entreprises adhérentes fabriquent téléphones mobiles – GSM, UMTS –, WiFi, WiMax, Bluetooth, etc. Cette industrie étant de portée internationale, nous avons une vision internationale de la question posée.

Lors de la première table ronde, nous avons été interpellés à plusieurs reprises. Nous ne nous considérons pas comme des pollueurs ni tout porteur d’un téléphone mobile comme un pollueur. Il n’y a rien d’avéré. Nous souhaitons donc éviter que le terme de « pollution » soit utilisé lorsque l’on aborde ces sujets.

J’ai entendu également que les industriels auraient peut-être « des idées derrière la tête ». Il se trouve que nos industriels ont mis au point un texte assez solennel, qui fait référence aux principes que nous respectons et que je vais reprendre ici.

Nos entreprises sont responsables et citoyennes. Cela signifie que nous appliquons plusieurs principes, à commencer le principe de sécurité, essentiel pour nous. Les matériels que nous commercialisons sont conformes aux réglementations nationales et internationales. Celles-ci sont établies par des groupes d’experts indépendants – ceux de l’ICNIRP ou de l’OMS – sur le fondement d’évaluations scientifiques actualisées et tenant compte de l’ensemble des études connues. Il faut assurer la sécurité de tout un chacun, quels que soient son âge et son état de santé.

Nous suivons avec attention l’évolution de nos connaissances. L’effort de recherche est considérable sur les questions « fréquences et santé ». Des milliers d’études ont été menées dans le monde depuis que l’on utilise des fréquences. Au total, plus de 100 millions d’euros auront été consacrés à la recherche.

Nos entreprises financent une partie de cette recherche, ce qui nous semble normal. Cette contribution est basée sur des règles très strictes pour assurer l’indépendance des chercheurs. C’est un principe d’éthique.

Nous appliquons également un principe de neutralité. Cela signifie que nous nous interdisons de porter des jugements non seulement sur la recherche, mais également sur le débat politique, et encore moins sur la réglementation actuelle et future. Nous appliquons et appliquerons bien entendu les décisions qui seront prises par les pouvoirs publics.

Nous appliquons enfin le principe de transparence. Nous apportons les informations dont nous disposons chaque fois qu’elles nous sont demandées. C’est d’ailleurs la raison de notre présence ici.

Ces différents principes expliquent pourquoi, dans mon intervention, il n’y aura pas de jugement émis sur tel ou tel point. Nous souhaitons simplement expliquer, de manière transparente, ce que nous faisons, les technologies que nous mettons sur le marché, celles que nous préparons, mais aussi rétablir certaines vérités. Nous le devons vis-à-vis de la société.

Nos constructeurs respectent la réglementation et les recommandations des autorités sanitaires. Ils ont répondu en 2005 aux recommandations formulées par l’AFSSET.

La première concernait le DAS, dont la définition vous a déjà été donnée. Précisons néanmoins que le DAS affiché d’un équipement est une « valeur normative », qui correspond à la valeur maximale relevée dans la configuration la plus défavorable, c’est-à-dire à une puissance maximale. La réglementation impose que ce « DAS » normatif » ne dépasse pas 2 W/kg.

L’AFSSET recommandait « d’indiquer le DAS dans les notices et de demander son affichage dans les lieux de vente ». Nous avons indiqué le DAS dans les notices avant même que la réglementation ne rende cette mesure obligatoire. Les DAS des terminaux sont également consultables sur les sites du MMF – Mobile Manufacturer Forum, organisation internationale rassemblant les constructeurs d’équipements de télécommunication –, sur les sites des constructeurs eux-mêmes et sur ceux des opérateurs. En revanche, nous ne sommes pas directement concernés par l’affichage du DAS dans les lieux de vente : c’est l’affaire des distributeurs ; mais nous observons qu’ils s’y conforment la plupart du temps.

Faut-il aller plus loin ? Nous avons entendu dire, au cours du Grenelle des fréquences, qu’il fallait indiquer le DAS sur l’emballage, sur une étiquette collée sur le mobile, sur l’écran du mobile, qu’il fallait favoriser la comparaison entre les DAS, etc. Cela nous amène à nous poser d’abord la question de la notoriété du DAS.

Selon une étude de l’INPES, confirmée par une récente étude TNS Sofres, seuls 13 % des Français ont « déjà entendu parler du DAS ». C’est très peu, d’autant que, parmi ces derniers, seuls quelques spécialistes savent le définir. Il faudrait donc, au minimum, expliquer clairement ce qu’est le DAS. Les constructeurs y contribuent grâce aux notices. Mais nous savons bien que les notices ne sont pas toujours lues et il nous semblerait normal que d’autres acteurs, comme l’État, contribuent à l’effort de pédagogie.

Imaginons que nous arrivions à mieux expliquer au public ce qu’est le DAS. Le public sera alors en droit de se poser cette seconde question : « Quel est le lien entre le DAS de mon mobile et mon exposition réelle ? » La réponse a été donnée par le Président de l’ANFR durant le Grenelle des fréquences : « Il n’est pas possible de déduire de (…) la seule valeur du DAS normative le niveau moyen d’exposition de la personne durant l’usage de l’équipement mobile ». La raison en est simple : pendant une communication, le réseau communique en permanence avec le mobile et lui indique la plus faible puissance à utiliser pour maintenir la communication avec le réseau.

Pourquoi s’agit-il de la plus faible puissance possible ? Il s’agit de créer le moins de brouillage possible avec les autres mobiles. Ainsi, au cours d’un appel, la puissance du téléphone mobile peut-être réduite d’un facteur 100, 1 000 et même 100 millions pour certaines technologies, comme par exemple l’UMTS. Dans ce cas, la puissance émise est de 100 millions de fois inférieure à celle qui a été utilisée pour mesurer le DAS. Ainsi, le DAS dont on parle communément est une valeur maximale, qui a donc peu de rapport avec ce qui est absorbé par le corps humain. Il est donc absolument faux de dire : « un mobile de faible DAS émet moins de champs électromagnétiques qu’un mobile de DAS fort ». Cela dépend de beaucoup d’autres paramètres. Pourquoi alors mettre autant en avant la valeur du DAS ?

Dans son rapport de 2005, l’AFSSET recommandait de « systématiser la délivrance de kits oreillettes lors de l’achat d’un mobile ». En France, le marché a répondu à cette demande : les opérateurs fournissent des kits oreillettes dans les « packs » qu’ils commercialisent, soit 80 % des ventes en France. Pour les 20 % « hors pack » restants, les distributeurs conseillent les clients pour trouver le modèle d’oreillettes qui correspond le mieux à leurs attentes. Le marché a donc selon nous répondu à la demande.

Faut-il aller plus loin ? Le projet de loi « Grenelle 2 » prévoit de rendre obligatoire la fourniture d’un kit oreillette pour chaque vente de mobile. Nous en prenons acte, en posant toutefois trois questions.

Tout d’abord, quelles seraient les conséquences d’une obligation de vente d’un kit sans différencier les besoins ? Il a été souligné au Grenelle des fréquences que le modèle de « kit obligatoire » devait être pratique, solide, universel – mais quoi de plus pratique, solide et universel qu’un kit oreillette Bluetooth ? On nous a alors dit qu’il faut un modèle filaire. Je veux bien, mais il est moins pratique : il s’emmêle… Nous sommes persuadés au bout du compte que la plupart des « kits obligatoires » finiront à la poubelle, ce qui n’est pas optimal d’un point de vue « environnemental ».

Ensuite, quelles seraient les conséquences d’une obligation de vente sans information complémentaire pour l’utilisateur ? À votre avis, que pense ce dernier quand il découvre un kit oreillette en ouvrant son « pack » ? Beaucoup considèrent qu’il s’agit d’un moyen pour téléphoner en conduisant. Est-ce ce que l’on veut ? Encore une fois, il serait intéressant de mieux informer avant de rendre obligatoire une telle mesure.

Enfin, quelles seraient les conséquences d’une obligation de vente sans harmonisation européenne ? Le succès du GSM repose sur une harmonisation réussie. Si l’on commence à demander aux constructeurs des solutions particulières pour tel ou tel pays, nous allons fragmenter le marché. Au final, c’est le consommateur qui sera le premier pénalisé.

Tous nos constructeurs le disent : « nous n’avons pas à nous exprimer sur l’opportunité de telle ou telle réglementation, mais de grâce, qu’elle se fasse au niveau européen ».

Le rapport de l’AFSSET faisait aussi part de recommandations concernant les enfants.

Le cas des enfants est un sujet qui nous tient également très à cœur. Que dit I’AFSSET ? Elle demande que l’on « conseille » aux parents de jeunes enfants de veiller à ce qu’ils usent a minima des services de téléphonie mobile. Le mot « conseille » est, à notre sens, important car il renvoie à une logique de pédagogie. Cette démarche « pédagogique » nous semble cohérente.

D’une part, le « risque », y compris pour les enfants, n’est pas avéré. Mais puisque les travaux des scientifiques se poursuivent, il est logique de recommander que des habitudes simples soient adoptées.

D’autre part, de nombreux parents souhaitent rester en contact avec leurs enfants dans la vie quotidienne.

Dès lors, pour concilier « approche prudente « et « bénéfices pour les familles », il semble logique de recommander le « bon usage » de la téléphonie mobile par les enfants.

Faut-il aller plus loin ? Le projet de loi « Grenelle 2 » vise déjà à interdire les offres de téléphones mobiles destinées aux enfants et les publicités les ciblant. Sur ces points, que font nos adhérents en France ? Ils ne commercialisent pas des terminaux mobiles pour les enfants ni ne font de publicité ciblant le jeune public.

Nous posons juste la question suivante : en tant qu’entreprises responsables et citoyennes, que devient le volet pédagogique recommandé par I’AFSSET, qui nous semblait résulter d’un bon équilibre entre approche prudente et bénéfices pour les familles ?

Il convient à présent de rétablir certaines vérités.

Tout d’abord, il existerait, selon certaines, deux types de fréquences : celles qui ne posent pas de problème – les fréquences audiovisuelles – et les autres : les applications télécoms, qui utiliseraient des « ondes pulsées ». La réponse est disponible en ligne sur le site de I’AFSSET : « Les radars sont de bons exemples de rayonnement à caractère impulsionnel. L’appellation « ondes pulsées » pour la téléphonie mobile est tout à fait inappropriée. »

Les applications télécoms n’utilisent pas d’« ondes pulsées ». Elles utilisent des ondes modulées, tout comme les applications audiovisuelles : FM, télévision. Il n’y a donc aucune raison, selon nous, de distinguer les applications télécoms, des autres applications radio.

Ensuite, les applications télécoms créeraient un “bain électromagnétique” dans les lieux de vie. Nous avons à cet égard simplement repris des mesures sur le terrain qui ont été faites par l’ANFR et par I’INRS, et nous leur avons appliqué les lois de la physique pour faciliter les comparaisons.

Nous avons commencé par modéliser des sources d’ondes électromagnétiques qui existent dans un logement, en imaginant, tout d’abord, que ce dernier ne dispose d’aucun équipement télécom.

Que se passe-t-il quand on ajoute au téléviseur, source importante de champ électrique, les équipements télécoms GSM, DECT, WiFi ? On nous dit souvent que les équipements télécoms nous font basculer dans un « bain électromagnétique ». Est-ce le cas ?

Un mobile GSM, en supposant qu’il émette à puissance maximale, expose à un champ très inférieur à celui du téléviseur. Le téléphone DECT, à puissance maximale, émet encore moins. Quant au WiFi, le champ généré est d’un niveau encore plus faible. Ainsi, les équipements télécoms constituent un apport marginal à l’environnement électromagnétique au domicile que l’on connaît, dans certains cas, depuis plus de cinquante ans.

Je vous propose justement de nous arrêter quelques instants sur le WiFi pour rétablir quelques vérités.

Quelques chiffres tout d’abord : le WiFi, c’est au maximum une puissance de 100 mW. Et comme nous l’avons vu, une borne WiFi génère un champ électrique 50 à 60 fois plus faible que celui d’une lampe électrique basse consommation, à distance égale.

Les fréquences du WiFi, a-t-on pu entendre dire, échaufferaient l’eau. Ce n’est pas vrai. Certes, le WiFi utilise la même bande de fréquences que les fours à micro-ondes, mais il émet à une puissance 10 000 fois inférieure à la puissance du four.

De même, le WiFi n’aurait pas fait l’objet d’études d’impact sanitaire. Or non seulement de telles études ont eu lieu, mais elles ont été prises en compte par l’OMS.

Les exigences réglementaires n’auraient pas non plus été respectées. Selon l’OMS, elle-même, les niveaux d’exposition des systèmes sont particulièrement faibles et « il n’existe aucun élément scientifique probant confirmant d’éventuels effets nocifs des stations de base et des réseaux sans fil pour la santé ».

Je terminerai avec l’UMTS et le WiMax, technologies radio à haut débit. Leur développement tient à une raison simple : les consommateurs souhaitent accéder aux services de communication numérique à haut débit, où qu’ils se trouvent. Les usages sont multiples, pour le travail surtout avec le télétravail, mais aussi pour l’information, pour les nouvelles formes de communications entre les individus – 5 millions de Français se connectent tous les jours via leur mobile à leur messagerie –, et également pour des nouveaux services de soins : services de « télédiagnostic », de « télé-santé », de « télémédecine ».

Le développement des usages fait croître rapidement le trafic « internet mobile » d’un facteur 7 tous les cinq ans. À technologie constante, il faudrait cinq fois plus de bandes de fréquences tous les cinq ans pour répondre aux besoins, ce qui n’est pas possible, compte tenu de la rareté du spectre. Aussi est-il nécessaire, pour éviter la saturation, de développer des technologies de nouvelle génération 3G : WiMax, UMTS.

Cependant, une utilisation plus efficace du spectre par les technologies n’entraîne pas des émissions plus puissantes, au contraire. Cela permet à ces nouvelles technologies de consommer moins d’énergie pour fournir un service donné, ce qui répond aussi au besoin de réduction de la consommation d’énergie des systèmes télécoms.

Ces progrès se retrouvent nécessairement lorsque l’on examine la puissance émise par les téléphones mobiles. Ainsi, comme le souligne le rapport du SCENIHR de janvier 2009, « une comparaison a montré que l’exposition est 1 000 fois plus petite dans le cas d’un combiné UMTS que dans le cas d’un combiné GSM ».

Progressivement, grâce à l’évolution technologique, l’exposition du public est mécaniquement conduite à baisser.

Enfin, on entend parfois dire que les effets de cette plus grande efficacité sont compensés par le développement de nouveaux usages, conduisant à une utilisation plus longue et plus fréquente des mobiles. Or les nouveaux usages sont principalement des usages « internet » : lorsque l’on utilise son téléphone mobile pour accéder à Internet, on tient le combiné à la main, on l’éloigne de son corps d’une distance de l’ordre de 30 à 50 centimètres. La puissance reçue est alors divisée par au moins 1 000.

Il n’est donc pas vrai d’affirmer que les nouveaux usages accroissent l’exposition du public.

Telles sont quelques-unes des vérités que nous souhaitons rétablir.

En conclusion, la sécurité est primordiale pour nos entreprises et nos matériels sont conformes aux réglementations. Nous sommes des entreprises responsables et citoyennes, et nous sommes à la disposition des pouvoirs publics pour alimenter la réflexion et apporter toute notre connaissance technique et notre connaissance du marché.

M. Alain Gest. Mme Michèle Rivasi, Vice-Présidente du Centre de recherches et d’informations indépendantes sur les rayonnements électromagnétiques (CRIIREM), n’a malheureusement pu se joindre à nous.

M. TULLIO JOSEPH TANZI, PROFESSEUR À L’ÉCOLE NATIONALE SUPÉRIEURE DES TÉLÉCOMMUNICATIONS DE PARIS (ENST). Dans la représentation du spectre électromagnétique, ce qui nous intéresse concerne les radiofréquences.

Les principales applications en fonction de chacune des fréquences montrent une cohabitation de technologies : certaines peuvent avoir été développées il y a relativement longtemps, d’autres sont à la pointe du progrès.

Pour avoir une relation simple entre la fréquence et la longueur d’onde, diviser 300 par la fréquence en MHz permet d’obtenir la longueur d’onde en mètres.

Les ondes électromagnétiques sont une des bases des systèmes modernes de communication sans fil, qui ne sont toutefois pas les seuls à utiliser ou à émettre de telles ondes. Une onde électromagnétique, et plus particulièrement une onde radio, est formée de deux composantes : le champ électrique – souvent noté E – et le champ magnétique, noté H. Si l’on se trouve à plusieurs longueurs d’onde de l’antenne, le rapport entre l’amplitude des champs magnétique et électrique est constant – il est lié à l’impédance intrinsèque du milieu de propagation – et les champs sont orthogonaux et proportionnels. La connaissance de l’un, peut facilement induire la connaissance de l’autre. Ce n’est pas forcément vrai si l’on est plus près.

On parle beaucoup des notions de champ proche, de champ lointain, de zone de Fresnel, de champ réactif… Dans le cas de la téléphonie mobile, où le facteur D est la plus grande dimension de l’antenne, inférieure à la moitié de la longueur d’onde, nous sommes dans le cadre du champ proche et d’une particularité de celui-ci : le champ réactif qui, lui, va s’étendre sur une zone égale à la longueur d’onde divisée par deux π. Par exemple, pour le GSM 900, le champ réactif sera à 5,2 centimètres. Pour le GSM 1800, il sera à 2,5 centimètres, c’est-à-dire la zone sur laquelle porte le téléphone.

En dehors du champ réactif, on pourrait mesurer le champ électrique ou uniquement le champ magnétique. Cela veut dire 30 centimètres pour le GSM 900 et 15 centimètres pour le GSM 1800.

La mesure ou la simulation ne peut pas se faire sans prendre en compte l’utilisateur, que ce soit avec des modèles de tête, en modèle informatique, ou avec des mannequins remplis avec des liquides spéciaux censés représenter les tissus.

Le contrôle de la puissance dépend de la technologie. Il existe en GSM et en UMTS, mais pas pour les technologies DECT – c’est-à-dire le téléphone sans fil domestique en usage dans toutes nos maisons depuis de nombreuses années, qui émet une puissance constante moyenne de l’ordre de 10 milliwatts.

Les études sur le contrôle de puissance d’émission en GSM montrent une probabilité plus fréquente d’atteindre une puissance maximale lorsqu’on est en initialisation d’appels, lors des Handover – c’est-à-dire des changements de cellules – ou si la couverture est mauvaise, et une puissance minimale quand on est connecté et que les conditions sont très bonnes. La médiane est de 100 à 125 milliwatts pour le GSM 900 et de 50 à 60 milliwatts pour le GSM 1800 pour la répartition de puissance d’émission, et une moyenne entre 40 et 50 % de la puissance maximale.

Pour l’UMTS, la gestion de puissance est beaucoup plus performante. Les études montrent qu’il n’y a pas de pic de puissance pour le Handover et que la répartition de puissance d’émissions est quasiment une gaussienne, autour d’une valeur de 1 milliwatt. La médiane pour la répartition de puissance est de 1 milliwatt, comme pour la moyenne – puisqu’il y a confusion de la moyenne et de la médiane dans le cas d’une gaussienne. Ce sont donc des valeurs bien plus faibles que le GMS.

J’ai voulu vous montrer l’importance du contrôle de puissance et de l’impact de la technologie sur le développement des nouvelles technologies.

Le DAS, débit d’absorption spécifique, ou SAR – specific absorption rate –, dont on a beaucoup parlé, correspond à l’énergie moyenne absorbée par unité de masse. Cela implique, entre autres, de déterminer les caractéristiques électromagnétiques des tissus. Une formule le permet : (σ.E²) / (2.ρ), σ étant la conductivité et ρ la densité.

Le DAS corps entier n’a selon moi pas de sens quand vous téléphonez avec un portable, du moins en communication vocale, car l’appareil est très proche de la tête. C’est plutôt la moyenne sur 10 grammes qui semble importante.

Le SAR affiché sur les notices techniques correspond au maximum des SAR calculés, moyennés sur 10 grammes de tissus.

Notre environnement est constitué de signaux d’origines diverses. Certains sont dus à des systèmes de communication, en l’occurrence la téléphonie ou différentes connections sans fil. Tout appareil générateur ou conducteur électrique sous tension crée un champ électromagnétique en associant un champ électrique à un champ magnétique. Différentes organisations et laboratoires effectuent des mesures à la fois à l’intérieur et à l’extérieur des bâtiments.

Les mesures issues de l’Agence nationale des fréquences – l’ANFR – montrent une prépondérance des GSM 900 et 1800 à l’intérieur des bâtiments, qu’on ne retrouve pas à l’extérieur. Cela peut s’expliquer notamment parce que les murs constituent des obstacles par rapport à l’introduction des ondes dont la source est externe au bâtiment et se comportent même comme un réflecteur pour les sources à l’intérieur du bâtiment, en l’occurrence votre téléphone portable.

Il faut donc faire très attention en manipulant de telles valeurs : on ne peut pas se permettre de dire que le GSM est prépondérant sans expliquer la différence entre les mesures extérieures et les mesures intérieures.

Un logiciel de l’ANFR, que je vous incite à consulter sur son site, permet de calculer l’exposition, l’émission, en passant la souris sur les images constituées de points jaunes de la cuisine et du salon.

Les mesures d’exposition dues aux différentes sources réalisées par Joe Wiart ne contredisent pas forcément celles de l’ANFR et d’autres. Des organismes publics mais aussi privés travaillent sur ces données.

Joe Wiart est le seul à avoir calculé le SAR par rapport à l’exposition – on ne peut donc pas dire qu’il n’existe pas de courbe à ce propos. Il a établi des comparaisons entre les différentes technologies en termes de puissance maximale et de puissance moyenne, par exemple entre kits mains libres Bluetooth et filaires.

Comme vous l’avez dit, monsieur le Député, les chiffres publiés en septembre 2007 par le Global mobile suppliers association font apparaître 2,5 milliards d’abonnés : un habitant de la planète sur trois utilise un moyen de communication mobile. L’enjeu est bien de trouver une technologie capable, tout en réduisant les coûts de transport, d’offrir sur des réseaux mobiles au plus grand nombre d’utilisateurs possible des débits similaires à ceux obtenus sur des réseaux fixes, sur l’Internet fixe par exemple, soit de l’ordre de 100 mégabits.

Dans ce contexte, l’une des solutions les plus abouties est la 3G, notamment la 3G LTE – long term evolution –, qu’on appelle aussi super 3G. Elle utilise le concept de réseau ToIP et incorpore un système d’interconnexion fixe-mobile, avec l’Internet fixe entre autres.

Pour faciliter ce vœu d’une connectivité accrue avec des réseaux hétérogènes, plusieurs solutions techniques sont mises en œuvre. L’une, dont on parle depuis très longtemps, est la réduction de la taille des cellules. La puissance d’antenne doit être suffisamment élevée pour que les signaux radioélectriques puissent atteindre un portable, mais on doit aussi limiter les interactions, les perturbations entre les cellules.

Aujourd’hui, on se rend compte que des petites cellules qui opèrent avec une puissance d’émission plus faible – qui génèrent donc des rayonnements beaucoup moins intenses – demandent beaucoup plus d’antennes mais permettent d’avoir un niveau globalement beaucoup plus bas et d’établir un plus grand nombre de communications. La technologie va donc dans le bon sens, puisqu’un réseau à maille fine dont la puissance d’émission est globalement plus faible permet de transmettre beaucoup plus de connexions. Ce type de réseau correspond tout à fait à l’évolution dont on a besoin.

Cette évolution n’est pas uniquement technique ou technologique, elle touche aussi aux usages. Par exemple, 1,5 milliard de musiques sont chargées sur Apple iTunes, 100 millions de vidéos sont vues chaque jour sur YouTube, 245 millions de comptes sont dénombrés sur Yahoo Mail et Google Search accueille 413 millions de visiteurs. Les trafics sont de plus en plus importants et l’évolution des architectures est nécessaire. Faute de quoi, on freinera ce développement – sans préjuger son intérêt ou sa pertinence.

Les radiocommunications au sens classique ne sont pas les seules à générer des ondes électromagnétiques. Nous évoluons dans un monde où de plus en plus de dispositifs de la vie courante vont disposer d’interfaces radio – on parle de concept d’Internet des objets, de Real world Internet, de réseaux de capteurs, de RFID…, ce que l’on appelle les objets communicants. Ainsi, le développement des home cinéma ou des téléviseurs plats sans fil dans la bande d’émission des 60 ou 80 gigahertz ajoute une exposition pendant plusieurs heures en regardant la télévision – sans préjuger le niveau de cette exposition. Il y aura une multiplicité de sources. À ma connaissance, il n’existe aucune étude sur l’impact de la superposition de ces expositions, du mélange des signaux.

Les industriels, Ericsson par exemple, prévoient que chaque personne disposera, à terme, dans son environnement personnel d’une centaine d’objets communicants connectés sans fil à Internet.

L’Internet des objets est basé sur toutes les techniques RIFD, qui vont des systèmes antivol des CD à des systèmes plus évolués, mais présents dans notre vie quotidienne, comme le Pass Navigo, le Velib’, le passeport électronique, la liste est loin d’être exhaustive. Là aussi, l’évolution des réseaux de radiocommunication est nécessaire afin de connecter ces objets à travers un réseau hétérogène : à la fois fixe et mobile, s’appuyant sur la technologie filaire et la technologie micro-ondes.

Aujourd’hui, pour accélérer cette convergence fixe-mobile, l’objectif est de mettre au point des stations de base de faible puissance à l’intérieur des bâtiments et, à la limite, à l’intérieur de chaque habitation. Chacun aura son propre réseau lui permettant de gérer, à l’intérieur de chez soi, téléphone, lecteur CD sans fil, télévision, jeux vidéo,… Dans ce domaine, on parle de pico-cellule, de femto-cellule.

Ces systèmes exploitent des technologies similaires à celles employées dans les réseaux cellulaires – de type 3G, 3G plus, LTE… –, qui correspondent à l’évolution actuelle.

Cela permettra aussi éventuellement aux opérateurs de remplacer le WiFi et d’avoir une offre technologique continue entre services fixes et mobiles. Dans cette architecture, le téléphone portable deviendra la plateforme principale de téléphonie et de services mobiles dans les foyers : elle établira le lien entre tous ces équipements.

Pour conclure, je rappelle que nous ne sommes pas toujours en mesure d’apporter des réponses aux questions légitimes que la population se pose. C’est une lapalissade, mais c’est important. La sérénité et un dialogue responsable avec tous les acteurs concernés dans le respect d’une approche rigoureuse sont les conditions nécessaires au travail des scientifiques.

À mon sens, le rôle de la science est bien sûr d’apporter, quand elle le peut, des réponses, des solutions, mais le premier rôle d’un scientifique est avant tout de poser les bonnes questions – ce qu’on oublie peut-être un peu trop souvent aujourd’hui dans notre société, où l’on apporte souvent des réponses sans que personne n’ait posé de questions.

En outre, certaines questions ne relèvent pas selon moi de la science mais du débat sociétal. Il faut s’interroger sur l’usage des technologies sans fil, voire sur l’addiction aux technologies de pointe. À cet égard, le rôle des parents est important. On n’oblige personne à acheter un téléphone portable à son enfant. Je me bats avec les miens, cela fait partie de notre rôle de parent !

Il existe des bonnes pratiques en matière d’usage responsable du téléphone. Personne ne nous oblige non plus à téléphoner en conduisant. Lors de mes nombreux voyages, je constate une recrudescence de l’utilisation du téléphone en avion. Et le PC avec carte 3G incorporée permet de consulter ses mails en une heure de vol : en a-t-on vraiment besoin ?

Au-delà du téléphone, il faut aussi s’interroger sur l’augmentation de la durée d’utilisation de la console de jeux, de la télévision, de tous les systèmes sans fil de plus en plus présents dans nos maisons.

Peut-être le mot « discipline » est-il aujourd’hui un peu trop banni de notre société.

M. Alain Gest, rapporteur. Merci pour cet éclairage scientifique et ces rappels de bon sens.

Que sont pour vous les ondes pulsées ?

M. Daniel Oberhausen, Association pour la Réglementation des Implantations d'Antennes Relais de Téléphonie Mobile (PRIARTEM). J’appartiens à l’association PRIARTEM et j’observe qu’il y a à ce propos un débat terminologique dans le milieu associatif. Les « ondes pulsées » ont une particularité : elles sont modulées en amplitude en tout ou rien. Les ondes de la téléphonie mobile ne relèvent donc pas de cette définition assez stricte.

Pour autant, ces ondes présentent deux caractéristiques très particulières. D’une part, elles se situent dans un domaine de fréquence entre 1 et 10 gigahertz, qui correspond à une perturbation majeure de l’environnement. Or en astrophysique, quand on observe le bruit de fond hertzien, on observe que l’exposition naturelle depuis l’émergence de la vie sur terre dans la bande de fréquence entre 1 et 10 gigahertz est extrêmement faible. Ce qui explique pourquoi les gens qui se plaignent aujourd’hui de ces ondes ne se plaignaient pas avant d’autres émissions hertziennes, précisément parce qu’elles représentent une perturbation majeure de l’environnement. D’autre part, il y a modulation numérique avec des basses fréquences, lesquelles sont vraisemblablement – c’est un domaine de recherche ouvert – démodulées par le vivant. C’est une piste intéressante.

Cela permet de comprendre pourquoi on se bat contre ces ondes-là, alors qu’on ne se battait pas contre la modulation de fréquences, les grandes et les petites ondes.

M. Jullio Joseph Tanzi. Je crois que M. Oberhausen a donné une bonne explication des ondes pulsées.

Aujourd’hui, en radiocommunication qui touche le téléphone, il n’y a pas d’onde pulsée. Il y a effectivement de la modulation. Le terme « onde pulsée » ne s’applique donc pas.

M. Alain Gest, rapporteur. Peut-on alors dire qu’il y a une différence notable avec la modulation de fréquence ?

M. Jullio Joseph Tanzi. En termes physiques, oui. En termes d’effets, je ne saurais répondre.

M. Stéphane Elkon. Je suis content d’entendre dire que les ondes des télécommunications ne sont pas des ondes pulsées. En revanche, c’est la première fois que j’entends parler de la particularité entre 1 et 10 gigahertz. Le fait qu’elles ne soient pas des ondes « naturelles » n’apporte pas d’élément supplémentaire au débat.

Y a-t-il un élément qui fait que ces ondes-là sont particulières ?

M. Daniel Oberhausen. La recherche n’a pas encore d’explication. C’est peut-être moi qui suis à l’origine de cette idée.

Quand on regarde les ondes électromagnétiques qui existent dans la nature depuis la nuit des temps – qui nous viennent de la galaxie, du soleil –, on remarque, c’est extrêmement curieux, un creux entre 1 et 10 gigahertz. La vie est apparue sur terre avec cette donnée environnementale. Et comme par hasard, les gens dénoncent les nuisances hertziennes dans cette bande-là.

Bien sûr, cette corrélation n’établit pas une causalité. C’est simplement un constat, et je n’ai pas de réponse.

M. Stéphane Elkon. Je me fie à ce que disent les scientifiques. Quel rapport avec l’existence d’ondes depuis des millénaires ?

La physique est ce qu’elle est, et je ne vois pas pourquoi il y a une limite entre 1 giga et les autres fréquences, sachant que le GSM utilise une bande inférieure au gigahertz. Je ne vois pas la différence.

M. Alain Gest, rapporteur. Même ce point – qui n’est pas neutre car c’est un élément du discours de ceux qui critiquent vivement les ondes électromagnétiques –, n’est pas clair pour un non-physicien ! Cela rend très difficile l’appréciation générale.

Mme Janine Le Calvez, Présidente de l’Association pour la Réglementation des Implantations d'Antennes Relais de Téléphonie Mobile (PRIARTEM). Je ne suis pas physicienne non plus.

Cela étant dit, il me semble avoir compris, d’après les propos de Daniel Oberhausen et de Tullio Joseph Tanzi, que, selon les lois de la physique, il existe une différence entre les ondes de la radio et de la télévision et les ondes de la téléphonie mobile. Daniel Oberhausen a raison : c’est ensuite un problème de vocabulaire. Les ondes ne sont pas pulsées au sens du radar, mais elles ont une particularité physique indéniable, et il faut la prendre en compte. Peut-être faut-il mettre le terme pulsé entre guillemets ou inventer un autre mot.

M. Tullio Joseph Tanzi. On peut tout simplement les appeler ondes de radiocommunication, qui nécessitent d’être étudiées comme telles.

Pulsées : c’est clairement non au sens de la physique. Utiliser ce terme n’est donc pas une bonne chose. Elles sont modulées.

Je ne vois pas pourquoi il faudrait mettre les ondes du téléphone à part, car il y a les ondes TNT, la FM – et je ne suis pas sûr que l’on n’y retrouve pas les mêmes choses. Je pense aussi aux appareils de tous les jours présents dans notre environnement.

M. PHILIPPE HUBERT, DIRECTEUR DES RISQUES À L’INSTITUT NATIONAL DE L’ENVIRONNEMENT INDUSTRIEL ET DES RISQUES (INERIS). Je suis responsable à l’INERIS de la direction des risques chroniques, où sont réalisées des études en sciences du vivant sur les champs électromagnétiques. En toxicologie expérimentale, nous étudions aussi les nanoparticules et les perturbateurs endocriniens. Sans dire que nous sommes habitués aux sujets des risques émergents, ils font partie de nos axes usuels de travaux. Auparavant, j’ai travaillé dans le domaine radiologique : je faisais de la radioprotection et m’occupais des rayonnements en épidémiologie.

Vous m’avez convié à parler de la gestion et de la maîtrise des risques, en particulier de deux aspects ayant émergé récemment dans le débat : le principe ALARA (« As Low As Reasonnably Achievable », soit « Aussi bas que raisonnablement possible ») et les meilleures technologies disponibles.

Dans le domaine radiologique, le principe ALARA a été fortement appliqué et nous sommes en charge à l’INERIS, en particulier dans le cadre du travail sur les installations classées, de la mise en œuvre des principes des meilleures technologies disponibles.

Quelquefois, les choses paraissent totalement nouvelles alors qu’elles sont relativement anciennes. Dans les années quatre-vingt, un certain Merkhoffer avait travaillé sur les principes de gestion des risques et avait classé l’ensemble des réglementations sur les risques – les nuisances produites aux Etats-Unis –, en trois catégories.

La catégorie « risk only » ne s’intéresse qu’au risque, sans se poser la question de l’utilité ou du coût. On pose un seuil, par exemple une dose maximale autorisée, ou une interdiction absolue, sans se poser de question d’opérationnalité ou d’utilité sociale. C’est ce qui a été appliqué à la qualité de l’air. Aux États-Unis, la célèbre « Delaney clause » interdisait dans l’alimentation tout additif suspecté, à quelque titre que ce soit, d’être cancérogène. Elle a disparu dans les années quatre-vingt après une bataille de Coca-Cola sur la saccharine, le risque cancérogène passant après le risque d’obésité. On le voit, de tels principes font l’objet d’un débat sociétal.

La catégorie « technology only » vise à obliger l’industriel à mettre en œuvre la meilleure technologie disponible sur le marché. Elle a concerné la qualité de l’eau aux États-Unis. En Europe, elle est appliquée de façon formelle dans le cadre de la directive sur les installations classées pour la protection de l’environnement – directive IPPC (Integrated Pollution Prevention and Control).

Enfin, la catégorie « balancing » correspond à la majorité des réglementations, pour lesquelles l’on pratique l’optimisation ou l’on applique les principes ALARA, ALARP – As low as reasonably practicable –, ou le principe du coût-bénéfice. On définit un niveau d’exposition en allant, en termes économiquement raisonnables, jusqu’au bout des contre-mesures à mettre en place.

Ce qui est intéressant, c’est que l’on ne prétend pas forcément garantir un risque nul dans les trois cas. Des seuils purs peuvent être acceptables – une probabilité de cancer de 10-6 ou de 10-8 est acceptable. Dans les technologies, on se pose cette question, mais on ne définit pas de risque nul. Et dans l’optimisation, par définition, on ne garantit pas de risque nul.

Il y a toute une rhétorique : on ne garantit pas de risque nul, car on suppose une relation linéaire sans seuil qui permet de diminuer le risque ; ou s’il y a une incertitude sur le seuil, le risque est peut-être nul, mais on ne peut pas le garantir ; ou encore, selon le principe de précaution, on ne peut pas garantir que le risque soit nul, mais on propose de le réglementer.

Dans la mesure où ils sont faits pour fonctionner avec des risques dont on n’est pas sûr qu’ils soient nuls, ces systèmes sont liés au principe de précaution.

En fait, la plupart des systèmes sont mixtes. Par exemple, dans le système de protection de l’environnement en Europe, on trouve en même temps des seuils admissibles en termes de qualité de l’air et une obligation pour les industriels de respecter les meilleures technologies disponibles. C’est un système mixte avec un seuil à respecter pour les individus et un impératif technologique pour les responsables industriels.

Dans le domaine des rayonnements ionisants, le principe ALARA consiste à avoir un seuil pour lequel le risque est censé être très faible, mais, de plus, on oblige les opérateurs industriels ou médicaux à descendre aussi bas que raisonnablement possible.

Pour mettre en œuvre une approche de type optimisation, c’est-à-dire des expositions aussi basses que raisonnablement possible compte tenu des contraintes économiques et sociales, il faut tout d’abord, une garantie minimale, c’est-à-dire un seuil fixé à l’avance.

Cela suppose également un indicateur d’exposition, une « dose ». Il m’était apparu que le DAS était le concept approprié, mais vous semblez partagés. Il faut donc se mettre d’accord. Cet indicateur d’exposition doit être mesurable. Je ne parle pas des indications affichées sur l’appareil, mais du DAS correspondant à l’exposition réelle de la personne.

Une estimation des coûts est également requise. Le concept d’optimisation suppose une analyse financière.

En outre, une connaissance des transferts est exigée. Une des grandes difficultés de la mise en œuvre du principe ALARA dans le domaine radiologique est qu’on diminue souvent la dose pour un certain nombre de personnes en l’augmentant pour le voisin.

Enfin, il importe d’être en mesure d’établir que le système fonctionne, autrement dit de suivre les progrès et les avancées. On a dit que les expositions allaient diminuer au cours des années à venir : il faut être capable de le montrer.

Pour mettre en œuvre les meilleures technologies disponibles, un certain nombre de dispositions et d’outils opérationnels sont également nécessaires. Les meilleures technologies disponibles sont celles qui seront les plus performantes à un coût supportable.

Cela suppose de définir la performance. Est-ce un bon signal, une faible exposition des gens ? C’est un critère sur lequel il faut se mettre d’accord.

Ensuite, il convient de définir les frontières du système, ce qui est souvent très difficile. S’intéresse-t-on aux antennes, ou aux antennes et aux rues autour, ou aux antennes, aux rues et aux téléphones ? Quel est le système qualifié de meilleure technologie disponible ?

En dernier lieu, cela suppose un système de certification/validation. N’importe qui ne peut prétendre avoir la meilleure technologie. Généralement, les industriels souhaitent savoir quelle est la meilleure technologie disponible, tandis que les autorités et le public se demandent si telle technologie est bien la meilleure disponible. Dans le cadre de la directive sur les installations classées, un centre de l’Union européenne à Séville discute, négocie, renseigne et démontre que les techniques sont les meilleures disponibles sur le marché, à un coût raisonnable, à un moment donné. Ces deux logiques certification/validation s’inscrivent dans une démarche de progrès et supposent pré requis et outils.

On a aussi besoin de connaissances opérationnelles et de systèmes d’expertise et d’évaluation crédibles, qui inspirent confiance.

Les connaissances opérationnelles supposent d’abord des outils d’évaluation. Il convient ensuite, dans le cadre du débat sur l’indépendance de l’expertise, de séparer l’opérateur et l’évaluateur, l’évaluateur et le décideur, le contrôleur et le contrôlé. Toutes ces discussions ont eu lieu au cours des trente dernières années.

Il y a enfin le partage de l’expertise ; je ne reviens pas sur ce débat.

En termes de construction des connaissances et de définition des outils, la recherche provoque beaucoup de déceptions, en particulier lorsqu’on arrive avec des réponses. Beaucoup de travaux ont été conduits sur ce qui peut se passer en cas d’exposition – par exemple sur la toxicologie des animaux à un certain niveau de DAS –, alors que le Grenelle des ondes se préoccupe avant tout des expositions ambiantes aux antennes. L’étude Interphone porte sur le téléphone et peu sur les antennes. On le voit, les réponses apportées par les connaissances scientifiques sont souvent décalées par rapport aux questions qui se posent à un moment donné.

Il ne suffit pas de dire qu’il faut faire de la recherche : on s’aperçoit que les démarches sont extrêmement hétérogènes et qu’elles peuvent partir dans toutes les directions.

La recherche peut être empirique : en exposant des animaux ou des personnes – en exposition clinique – à des doses peu élevées, on voit s’il y a échauffement, si des biomarqueurs apparaissent, qui peuvent être une simple réponse sans qu’ils soient forcément pathologiques. Des recherches médicales peuvent aussi être menées sur l’électrohypersensibilité. On peut également se focaliser sur certains « effets » : on ne regarde pas les signaux au hasard, mais on cherche des effets déjà un peu négatifs, par exemple en étudiant le comportement. On peut aussi se demander quelle population on veut suivre en épidémiologie. Il est également possible de mener des recherches uniquement pour faire des réplicats, on l’a évoqué à propos des œufs et des cellules. On peut mener des recherches aux niveaux environnementaux. On peut rechercher les niveaux minimaux de déclenchement de réponse, par exemple en essayant de comprendre les mécanismes à dix, cent, mille fois au-dessus des niveaux de DAS maximum autorisés. On a peu parlé jusqu’ici de la métrologie d’ambiance, des métrologies individuelles, etc.

Des systèmes de maîtrise et de contrôle supposent aussi un questionnement de la recherche compatible avec les questions que l’on veut se poser. Si beaucoup de protocoles peuvent être scientifiquement recevables, certaines questions qui ne relèvent pas forcément de la science demeureront.

À l’évidence, aucun consensus ne se dégage pour savoir s’il faut faire plutôt de l’épidémiologie ou de la toxicologie. Or le questionnement n’est pas le même : s’intéressant aux effets sur la population, l’épidémiologie apporte des réponses plus tardives, mais beaucoup plus signifiantes ; la toxicologie apporte des réponses plus rapides, mais frustrantes car elle ne porte que sur un aspect.

S’agissant de l’électrohypersensibilité, on pourrait se demander s’il y a des axes de recherche en étiologie – les champs électromagnétiques causent-ils ces phénomènes ? – et des axes de recherche en thérapie.

En expérimentation animale, des questions d’éthique se posent.

Il faut aussi s’interroger sur le besoin ou la demande en termes d’expométrie individuelle. Il me semble que l’on débat peu de la possibilité de mettre au point un dosimètre individuel : quelle en est la signification ? L’ambiance suffit-elle, peut-on imaginer un système permettant de connaître la dose au cerveau, etc. ?

Pour conclure, les systèmes de gestion peuvent être relativement différenciés. Ils exigent des évaluations, qui supposent elles-mêmes des connaissances. Construire ces connaissances peut nécessiter un partage du questionnement sur la santé, mais aussi sur la recherche, sur la métrologie, etc.

DÉBAT

M. Alain Gest, rapporteur. Je constate que M. Philippe Mallein, sociologue, au Commissariat à l’Énergie atomique (CEA), est également absent.

Mme Nadia Ziane, Fédération nationale des familles rurales (FNFR). Le manque d’information pose problème. Le jour où les parents connaîtront les questions qui se posent autour des risques du téléphone mobile, je ne suis pas sûre que le taux d’équipement sera similaire pour les enfants entrant en sixième.

Il est dommage que le sociologue ne soit pas venu car, à l’époque où le Kiditel – téléphone avec GPS intégré – avait été lancé, l’aspect sociologique avait été pris en considération, en plus de l’aspect sanitaire. On s’était rendu compte que des parents, en particulier en milieu rural, n’auraient pas laissé leurs enfants aller au sport le soir tout seul, mais l’auraient fait s’ils les savaient en sécurité, alors que, d’après les statistiques, le sac d’un enfant est la première chose dont se débarrasse un agresseur !

Toujours sur l’aspect sociologique, j’attends de voir comment les parents réagiront aux futures campagnes. Bien entendu, ils demeureront libres d’équiper ou pas leurs enfants – c’est la politique que défend la FNFR –, mais donnons-leur au moins accès à l’information.

M. Alain Gest. On peut aussi s’interroger sur les motivations d’un tel niveau d’équipement au collège – même si on peut le comprendre –, mais surtout au primaire pour lequel il y a un certain dérapage.

M. Michel Rosenheim, médecin, conseiller technique de la ministre de la santé. Je souhaite faire des remarques au représentant d’Alliance TICS, qui me semble s’être arrêté à l’AFSSET en 2005.

En ce qui concerne l’affichage du DAS, effectivement nos compatriotes ne savent pas vraiment ce qu’il signifie et je ne suis pas sûr que des campagnes d’information seraient particulièrement utiles. En revanche, le décret le sera : il prescrira, d’une part, l’affichage du DAS, d’autre part, la valeur de 2 Watts par kilo maximum. Les gens pourront alors faire leur choix, ce qui créera une concurrence entre les fabricants pour produire des mobiles avec une exposition maximale la moins élevée possible.

Vous critiquez le DAS et je suis d’accord avec vous puisqu’il représente la valeur maximale, mais ne correspond pas à la valeur permanente du téléphone mobile. Si vous avez un autre indicateur, je suis preneur – et l’INERIS aussi !

S’agissant de l’information des utilisateurs, depuis 1999, vous pouvez trouver sur le site du ministère de la santé une brochure régulièrement mise à jour – la dernière fois en juin 2007 –, qui sera actualisée après le rapport de l’AFSSET et qui – probablement sous la forme d’une charte plutôt que par voie réglementaire – sera obligatoirement mise à disposition des utilisateurs dans les points de vente et dans les boîtes. Il vous faudra donc ajouter dans vos boîtes une notice élaborée par les autorités de santé.

Personne ne vous empêche de proposer des kits avec une oreillette Bluetooth ou autre. Contrairement à ce que vous pensez, les gens sont informés que le kit mains libres ne sert pas à conduire mais à diminuer l’exposition du cerveau. Même si certains s’en servent pour conduire.

On vous demandera également de fabriquer des téléphones sans haut-parleur, qui obligent à utiliser une oreillette.

Enfin, je ne peux que vous rejoindre quand vous souhaitez que tout se passe au niveau européen, mais à un moment, il faut un leader. La France l’a été sur les maladies rares, et ses travaux commencent à être dupliqués dans un certain nombre de pays européens. Pour le téléphone mobile, je pense que ce sera la même chose : comme l’a dit Alain Gest, nous avons un peu d’avance.

M. Alain Gest, rapporteur. Effectivement, Monsieur Elkon, j’ai été assez surpris par la tonalité de votre intervention.

Que la France prenne l’initiative, personne n’y est opposé. C’est d’autant plus souhaitable que – comme toujours sur les problèmes qui concernent l’Europe – les appréciations varient beaucoup d’un pays à l’autre.

Certes, le kit classique dont nous disposons n’est pas vraiment pratique, les fils s’emmêlent... Cela étant dit, j’avoue ne pas comprendre votre argumentation qui va à l’encontre du développement de téléphones avec oreillettes intégrées, donc sans haut-parleur.

Vous dites que c’est un marché mondial, mais le nombre de téléphones vendus ne serait-ce qu’en France n’est pas négligeable et rien n’empêche de faire des téléphones différents ! Les formes des téléphones varient déjà beaucoup ! Je ne vois pas en quoi produire un système – qui, je crois, est déposé – qui éloignerait l’appareil de l’utilisateur par le biais d’une oreillette rétractable – et donc pratique – ne serait pas un argument ne serait-ce que commercial !

Vous dites par ailleurs que les oreillettes sont utilisées pour conduire, mais des sanctions sont prévues pour la conduite au volant ! Cet argument porte donc sur un autre sujet : la sécurité routière.

Dire « si on bouge, c’est reconnaître que c’est dangereux », peut avoir un effet extrêmement grave pour votre activité car, si on ne bouge pas, que se passera-t-il à terme ?

J’aimerais quelques explications complémentaires.

M. Stéphane Elkon. Vous pensez que le marché français suffirait à développer un mobile qui rendrait obligatoire l’utilisation d’un kit oreillette.

M. Alain Gest, rapporteur. Ce pourrait être un argument commercial !

M. Stéphane Elkon. Notre préoccupation est industrielle. Les constructeurs souhaitent que le développement se fasse au niveau européen. Je n’ai pas d’ordre de grandeur à partir duquel un marché devient possible pour lancer des lignes de production. Peut-être des constructeurs développeront-ils ce dont vous parlez pour un marché particulier.

Je ne dis pas que c’est une bonne ou une mauvaise idée mais simplement que les équipements seront beaucoup plus chers si on fragmente le marché et qu’il serait donc logique de porter cette question au niveau européen.

M. Alain Gest, rapporteur. J’entends cela mais, ayant fait un peu de marketing dans une autre vie, je ne comprends pas que vous ne mesuriez pas que – au-delà même du marché français – vendre un téléphone dont le combiné est éloigné du visage peut devenir un argument commercial !

M. Stéphane Elkon. Depuis le Grenelle des antennes, j’ai eu des retours de média étrangers qui se sont demandés d’où venait cette idée. On nous a pris pour des inventeurs, peut-être géniaux, mais contrairement à ce qu’on pourrait croire, c’est une idée nouvelle.

Aujourd’hui, les personnes préoccupées par ces questions utilisent un téléphone normal et une oreillette. Point. Pourquoi instaurer de nouvelles obligations ? Vous pensez au marché des enfants ?

M. Alain Gest, rapporteur. Qui a parlé d’obligation ? Il faut laisser aux familles la faculté de choisir, comme le dit Mme Ziane. Il s’agit de proposer sur un marché un téléphone de nature différente. Encore une fois, certains préfèrent le BlackBerry à l’iPhone, c’est commercial, rien d’autre ! Je vous le dis très tranquillement : ce n’est pas moi qui l’ai inventé, je n’ai pas d’actions dans le domaine, on m’a simplement dit que le système existait !

M. Stéphane Elkon. Aujourd’hui, les personnes qui veulent utiliser un kit oreillette l’utilisent avec un téléphone normal, c’est aussi simple que cela !

M. François Berger. Je connais des gens qui ont effectivement déposé un brevet.

En tant qu’utilisateur, je peux témoigner qu’il est abominable d’utiliser l’oreillette, avec ce fil immonde qui s’enroule et qui se casse au bout d’une semaine. Il est à mes yeux aussi mystérieux que vous n’y voyiez pas un filon économique important.

M. Stéphane Elkon. Je ne ferme aucune porte, je fais quelques constatations.

Vous dites que le filaire n’est pas une bonne chose, mais j’ai entendu l’argument inverse. Vous dites que le filaire s’emmêle, mais tout le monde n’est pas d’accord. On ne sait donc plus très bien quoi penser. A notre avis, les kits oreillettes les plus pratiques sont Bluetooth. Encore une fois, les constructeurs sont là pour répondre à la demande des utilisateurs, mais on souhaite qu’elle soit la plus harmonisée possible.

M. Alain Gest, rapporteur. On peut quelquefois susciter la demande ! C’est le principe même de la distribution. Qui plus est, dans un monde globalisé, les discussions que nous avons en France ne s’arrêtent pas à nos frontières !

M. Michel Rosenheim. Les parents peuvent avoir envie d’acheter un téléphone mobile pour leurs enfants, mais ils doivent s’assurer qu’ils utilisent le kit oreillette.

M. Stéphane Elkon. Si l’objectif est d’équiper des enfants avec des terminaux spécifiques, comme cela a été dit, il faut y travailler car la question n’est pas si simple.

M. Alain Gest. Il a simplement été dit qu’au moins un brevet a été déposé pour des oreillettes intégrées au téléphone et rétractables, un peu comme un mètre : le système ne se casse pas, ne se branche pas et supprime le haut-parleur, d’où un éloignement du visage !

M. Stéphane Elkon. Une autre question a été posée : pourquoi considérons-nous que le DAS n’est pas la valeur à mettre en avant ? Je l’ai expliqué, le DAS résulte des obligations réglementaires. Il a sa justification, mais en faire la valeur comme la plus visible par le consommateur n’est pas pour nous la meilleure réponse, sur le plan technique et sur celui de l’exposition des personnes.

M. Alfred Leclercq, Président de Nord Écologie Conseil. Je suis Président de Nord Écologie Conseil et trésorier du Réseau environnement santé. Je rebondis sur la question des besoins. Il faut, dites-vous, développer des nouvelles technologies pour répondre aux besoins. Mais qu’est-ce qu’un besoin ? Michel Serres a dit qu’il était très triste de voir la médiocrité avec laquelle les technologies nouvelles sont utilisées, alors que nos ancêtres ont fait des choses exemplaires avec des technologies très réduites, comme Magellan lors de son tour du monde. Je me demande si ce n’est pas vous qui fabriquez ces besoins dont vous parlez. A-t-on vraiment besoin de toutes ces technologies, utilisées de façon exponentielle ? J’en finis par me demander comment j’ai pu avoir vingt ans sans téléphone portable !

M. Alain Gest, rapporteur. Cette argumentation vaut pour beaucoup d’autres choses, par exemple la climatisation. Au Japon, cette culture est encore plus développée : on y utilise le téléphone plus pour écrire que pour écouter !

M. Stéphane Elkon. Rappelez-vous : dans les années quatre-vingt et quatre-vingt-dix, on pensait que le téléphone mobile serait le téléphone de la voiture. Puis chaque année, on entendait dire : on est dépassé par le téléphone mobile, on n’imaginait pas les SMS et d’autres applications.

Aujourd’hui, le fait est là : un très grand nombre d’applications demandent de la mobilité, notamment pour les professionnels qui réalisent des gains de productivité extraordinaires. Je peux en citer d’autres : télémédecine, télédiagnostic, téléassistance…

On ne suscite pas ces besoins, c’est le marché lui-même qui se développe. Je le répète : 5 millions de Français accèdent chaque jour à leur messagerie par le mobile. C’est donc un phénomène de société.

M. Alfred Leclercq. Toujours selon Michel Serres, 90 % des communications du citoyen de base n’ont aucun intérêt. À la sortie du lycée, mes élèves se précipitent sur leur téléphone pour appeler le copain qu’ils ont quitté il y a deux minutes…

Et, pendant que vous développez des technologies de très haut débit, M. le Député fait des lois pour brider l’utilisation de ces technologies !

M. Alain Gest, rapporteur. Pas nécessairement !

M. Alfred Leclercq. Et la loi Hadopi ?

M. Alain Gest, rapporteur. On m’a dit que le Conseil constitutionnel l’a retoquée ! (Sourires.)

Pardonnez-moi de vous le dire, monsieur Leclercq, mais ce débat est un peu marginal. Vous pourriez l’appliquer à quantité d’autres sujets. C’est un problème de conception de la société, les besoins nouveaux – suscités ou pas – tenant à son évolution.

Mme Janine Le Calvez. Je voudrais rappeler notre position de fond : depuis longtemps, nous demandons que tous les moyens soient mis en œuvre afin de réduire l’usage du portable par les enfants : interdiction des portables pour enfants et campagne d’information des parents sur les risques.

À propos de l’usage non contrôlé, j’ai découvert qu’il existe des cures de désintoxication : le portable est une forme d’addiction et un certain nombre de parents se sont rendus compte que leurs adolescents ne pouvaient plus s’en passer ! Il semble qu’il y ait là un nouveau marché médical, mais essayons de ne pas en arriver là !

Monsieur Hubert, je vous remercie de votre présentation du principe ALARA ; vous l’avez déjà développé lors du Grenelle des ondes, d’ailleurs plutôt à propos des antennes que des portables, et nous l’avons trouvé intéressant. Nous l’avons retrouvé comme scénario possible dans le rapport de synthèse et avons été très déçus de ne plus le voir apparaître dans les conclusions qui nous ont été données par les ministres.

Monsieur Gest, si vous avez fait venir M. Hubert pour nous en parler à nouveau, c’est parce que l’application de ce principe à la téléphonie mobile – piste sur laquelle nous sommes prêts à travailler – n’est pas abandonnée. Pouvez-vous nous en dire plus ?

M. Alain Gest, rapporteur. Pas à ce stade, mais si j’ai fait venir M. Hubert c’est, encore une fois, pour ne fermer aucune porte et pour que vous soyez informée, tout comme moi !

J’ai parlé tout à l’heure d’une période charnière car – Mme la ministre ne me contredira sans doute pas – un certain nombre d’orientations ont été fixées, dont certaines vont se matérialiser, y compris avec l’aide d’outils législatifs en instance de discussion. Mais par ailleurs, j’avais dit lors des tables rondes – vous étiez présente, madame Le Calvez – qu’il y avait lieu de poursuivre la discussion sur certains sujets dès lors qu’on pouvait imaginer que le principe était relativement consensuel.

Je ne veux rien balayer, ne suis tenu par personne, madame, et suis libre de dire ce que j’ai envie de dire dans le rapport qui sera présenté le moment venu.

Mme Sylvie Le Franc, Confédération syndicale des familles. Le représentant d’Alliance TICS a indiqué que la présence d’ondes électromagnétiques dans le domicile, liée au WiFi, au portable, etc., ne portait pas à conséquence dans la mesure où les micro-ondes étaient déjà suffisamment élevées. Or j’ai cru comprendre également que, d’après les scientifiques, les ondes électromagnétiques étaient différentes des ondes hertziennes. Dans la mesure où l’on ne sait pas si les ondes des portables et des antennes relais sont nocives pour la santé, je me demande s’il est opportun de les additionner.

M. Alain Gest, rapporteur. C’est une question sur le « brouillard électromagnétique ».

M. Tullio Joseph Tanzi. Une onde électromagnétique va de très basses fréquences jusqu’aux fréquences les plus hautes, par exemple les rayons X et les rayons gamma. La séparation dans le spectre électromagnétique est la différence entre les ondes ionisantes et les ondes non ionisantes.

Nous sommes dans le cadre des ondes non ionisantes. L’onde générée par un micro-ondes à 2,4 gigas et celle d’une bande WiFi à 2,4 gigas sont, à la puissance près, les mêmes. En termes de physique, il s’agit du même objet : une onde électromagnétique qui comporte un champ électrique et un champ magnétique. Mais les effets ne sont pas les mêmes.

Effectivement, dans un domicile, cohabitent un certain nombre d’ondes générées par toutes sortes d’objets : un moteur, le téléphone, le micro-ondes, la télévision…

M. Gérard Voisin, député. Un radar !

M. Tullio Joseph Tanzi. Un radar extérieur si vous habitez à côté d’un aéroport, la FM, la TNT…

M. Alain Gest, rapporteur. C’est un des volets sur lesquels mes collègues ont souhaité que le rapport fasse un peu de pédagogie.

Mme Nadia Ziane. Je souhaite revenir sur le débat à propos des kits mains libres et de la demande.

Nous sommes pour une interdiction aux enfants de moins de douze ans et nous nous félicitons qu’une offre portant exclusivement sur les SMS dédiée aux adolescents ait été proposée.

Vu le nombre de kits proposés avec des MP3, je suis très surprise de ne pas voir les mêmes pour les mobiles et que l’on puisse dire qu’il n’y a pas de marché !

En outre, je confirme qu’il est très difficile de trouver un téléphone filaire dans la grande distribution alors qu’il y a aussi une demande. On est obligé de passer par un opérateur. Ces téléphones sont plus onéreux que la majeure partie des téléphones sans-fil. Ce n’était pas le cas il y a dix ans. Pourquoi ?

M. Stéphane Elkon. Je n’ai jamais dit qu’il n’y avait pas de marché mais que si les industriels doivent et veulent développer un marché tel que celui-là, à la demande des consommateurs, il faut porter ce débat au niveau européen. Aujourd’hui, les équipements GSM sont produits dans une logique européenne pour disposer d’un marché suffisant. Si on commence à fragmenter le marché, on reviendra à des téléphones hors de prix comme les téléphones analogiques des années soixante-dix et quatre-vingt.

J’ai regardé sur Internet les prix des téléphones fixes, filaires ou non, : on trouve des téléphones filaires à huit euros et les premiers DECT à quinze euros.

Mme Nadia Ziane. Je suis preneuse du lien Internet !

Je dis simplement qu’il faut développer une gamme parallèle mais je ne vous demande pas d’arrêter de mettre gratuitement un kit filaire avec les mobiles comme les opérateurs s’y sont engagés.

M. Gérard Voisin, député. En tant que maires, nous vivons des moments pénibles dans une ignorance pratiquement totale et nous souhaitons donc que le rapport nous apporte la sérénité.

L’État et les départements – j’y ai participé dans la Saône-et-Loire – tentent d’instaurer un contrôle a priori des installations d’antennes. En tant que maire, j’ai subi les assauts d’associations fort sympathiques, mais complètement démunies scientifiquement. Or, on dit tout et son contraire sur les antennes relais, mais aussi sur les portables, que l’on oublie un peu, alors qu’ils sont plus dangereux que les antennes.

Des mesures extrêmement sérieuses – puisque, selon un texte de 2006, il faut se tourner vers l’État et les préfets – sont réalisées par des personnels bien équipés, et je les ai fait faire pour l’ensemble des antennes de ma commune. Or on s’aperçoit que telle antenne de téléphonie – trop près d’une école, comme d’habitude, et pour laquelle on nous avait annoncé des chiffres faramineux qui allaient faire tomber malades tous les enfants ! – affiche 0,3 volt au lieu de 0,6 ! C’est la même chose dans beaucoup de communes ! Quand on mesure, tout est mêlé – radar des gendarmes, radars d’aviation, etc.

Mon cher rapporteur, faites un super-travail pour rassurer les maires de France, qui en ont ras-le-bol, mais aussi leurs administrés, car c’est vraiment un immense désordre !

M. Alain Gest, rapporteur. Madame la ministre, la problématique qui est la nôtre aujourd’hui est le dilemme entre, d’une part, le souhait global de la population d’utiliser – à tort ou à raison, selon l’avis que l’on a sur le développement de la société – le téléphone portable dans les meilleures conditions un peu partout et, d’autre part, une préoccupation tout à fait légitime en termes de santé publique, l’utilisation relativement récente de cet appareil laissant planer un doute quant à ses conséquences pour la santé.

C’est la raison pour laquelle nous avons organisé aujourd’hui cette nouvelle audition publique qui, s’ajoutant à toutes celles que je mène depuis maintenant quatre mois et complétée d’expériences étrangères, me permettra, si ce n’est de faire un travail remarquable, comme m’y incite Gérard Voisin, du moins de répondre à un grand nombre d’interrogations, aussi légitimes les unes que les autres, des associations, des familles, mais aussi des opérateurs et des fabricants à qui l’État demande de couvrir le territoire convenablement.

Il faut apporter des réponses, car tous ces sujets compliqués créent localement des problèmes dont chacun se passerait sans doute, y compris ceux qui donnent bénévolement de leur temps.

DISCOURS DE CLÔTURE DE MME ROSELYNE BACHELOT-NARQUIN, MINISTRE DE LA SANTÉ ET DES SPORTS. L’histoire des technologies est faite de découvertes remarquables et de bouleversements décisifs. La plupart d’entre elles se sont d’ailleurs si bien intégrées à notre mode de vie que nous en avons oublié les années de recherche et les investissements, humains et financiers, qu’elles ont requis. Je me suis moi-même récemment surprise à utiliser en quatre minutes trois inventions dont on se servait de façon épisodique il n’y a pas si longtemps : un GPS, une plaque à induction, mon ordinateur : l’extraordinaire devient ordinaire !

Ce sentiment est d’autant plus vif que le rythme des inventions s’est considérablement accéléré : à peine apparues, les nouvelles technologies deviennent démodées. Ainsi, a-t-il fallu un siècle entre l’invention du téléphone et celle du téléphone mobile, mais très peu d’années séparent les premiers téléphones mobiles des téléphones de « deuxième » puis de « troisième » génération. On hésite à acheter en se demandant si, dans six mois, ne nous sera pas proposé quelque chose de plus sophistiqué ! Elargissant toujours ses possibilités techniques, le téléphone mobile est aujourd’hui devenu un véritable « couteau suisse numérique ».

Si nos sociétés modernes, pressées et impatientes, paraissent avides de changement, ce rythme accéléré n’en est pas moins souvent générateur d’angoisse. Toute nouveauté au fonctionnement complexe suscite l’interrogation et la peur – et c’est bien légitime. Si les plus âgés vivent cela comme un véritable traumatisme dans un monde qui ne vit que par des technologies, des codes, des accès de plus en plus compliqués, ils ne sont absolument pas les seuls concernés.

Votre interrogation philosophique, Alfred Leclercq, pourrait ouvrir un débat fondateur. Vous avez aussi lancé le concept de communication utile. Quand mon amoureux me téléphone le soir, c’est une communication utile, mais pour moi… (Sourires.)

Personne ne songerait, aujourd’hui, à supprimer l’usage de la téléphonie mobile qui occupe une place majeure dans nos habitudes. Les parents s’inquiètent, à juste titre, des risques pour la santé de leurs enfants, mais ils veulent pouvoir les joindre. À ce propos, j’ai bien entendu les interrogations de la Confédération syndicale des familles et de la Fédération nationale des familles rurales.

Les conséquences de la téléphonie mobile sur la santé sont incertaines, mais à l’inverse, chacun connaît son rôle et son importance dans la gestion de l’urgence sanitaire, par exemple. Il faudrait donc faire pour la santé des colonnes bénéfices/risques.

C’est précisément parce que la téléphonie mobile est désormais un produit du quotidien, dont nous avons besoin et que nous utilisons tous les jours, que nous devons répondre aux inquiétudes de nos concitoyens. J’affirme que les bénéfices de la téléphonie mobile sont tout à fait considérables, par exemple pour le traitement de l’accident vasculaire cérébral.

Vous le savez, les choix scientifiques et technologiques que nous faisons ont des conséquences de toutes sortes, sanitaires, économiques et sociales, qu’il convient d’évaluer et de comparer. C’est pourquoi je me réjouis que l’Office parlementaire d’évaluation des choix scientifiques et technologiques se soit saisi de cette question importante de la téléphonie mobile et des technologies sans fil.

Si l’usage du téléphone mobile est très largement répandu en France, paradoxalement nos concitoyens s’estiment peu informés des risques sanitaires qui y sont liés : selon l’Eurobaromètre 2007 sur les champs électromagnétiques, 22 % d’entre eux seulement se sentent bien éclairés.

J’ai donc fait du renforcement de l’information à destination du grand public une priorité. L’incertitude, l’ignorance sont certainement les plus grands des dangers. Ce sont elles qui créent la peur et qui l’entretiennent. Il est donc important de mieux communiquer sur les données scientifiques existantes.

Quelles sont-elles en l’état actuel des connaissances, plusieurs études nationales et internationales concluant à des incertitudes quant aux impacts sanitaires de la téléphonie mobile ?

Dans l’attente de la publication de la méta-analyse Interphone – qu’on nous promet depuis longtemps, mais nous l’aurons d’ici peu –, les études épidémiologiques réalisées sous l’égide du Centre international de recherche sur le cancer semblent concordantes quant à un possible risque faible de tumeur chez les utilisateurs faisant un usage intensif du téléphone mobile depuis longtemps.

L’hypothèse d’un risque ne pouvant pas être totalement exclue, j’ai donc rappelé, à maintes reprises, la nécessité d’appliquer le principe de précaution, que j’ai fait inscrire dans la Constitution.

Si la connaissance précise des données scientifiques est importante pour nos concitoyens, elle l’est aussi, bien entendu, pour les pouvoirs publics. Nous en sommes tous intimement persuadés : l’expertise scientifique est indispensable ; même si elle donne lieu à débats, c’est sur elle que doivent reposer les mesures appropriées. Je suis certaine que les tables rondes qui vous ont réunis sur l’apport des recherches épidémiologiques et biologiques auront été utiles.

S’agissant des actions à mettre en place, il me semble important de rappeler ce principe de précaution, au moment de l’achat d’un téléphone mobile, en remettant obligatoirement une notice élaborée par les autorités sanitaires et en affichant, dans les points de vente, la valeur du débit d’absorption spécifique – le fameux DAS – des téléphones. Ces mesures permettraient aux usagers de choisir en toute connaissance leur appareil, même si les DAS les plus faibles ne constituent pas une garantie absolue.

Cela viendrait compléter le dispositif du projet de transition environnementale, dit « Grenelle 2 », qui prévoit l’interdiction de la publicité à destination des enfants de moins de douze ans, ainsi que l’obligation de fournir un kit mains libres avec chaque téléphone, et qui ouvrira au ministre de la santé la possibilité d’interdire tout dispositif radioélectrique destiné aux enfants de moins de six ans.

Je soutiens entièrement ces mesures, d’autant plus que j’ai moi-même déconseillé l’achat de téléphones mobiles pour les très jeunes enfants et recommandé un usage modéré, notamment pour les enfants et les adolescents. Je ne me lasse pas de répéter ces consignes. C’est une recommandation de prudence et de bon sens, qui mobilise une éthique de la responsabilité car il est de notre devoir de protéger la santé de nos concitoyens, tout en continuant à mener les études qui s’imposent.

À ce propos, madame Le Calvez, je suis heureuse de pouvoir redire devant vous que je souhaite que la réflexion sur les seuils se poursuive. En tant que ministre mais aussi que scientifique, je ne veux pas qu’elle s’établisse sur des données erronées et sur des études qui donnent lieu à controverse.

Les mesures que je viens d’évoquer seront ainsi éventuellement complétées après la publication, prévue pour l’automne, du rapport de l’Agence française de sécurité sanitaire de l’environnement et du travail, l’AFSSET.

Pour une meilleure connaissance des éventuels impacts sanitaires de l’exposition aux champs électromagnétiques, s’y conjugueront d’autres études en cours à l’étranger, notamment l’étude CEFALO sur les enfants et les adolescents et l’étude épidémiologique Interphone, à laquelle la France contribue et dont j’attends beaucoup.

Je le dis et le redis : le principe de précaution ne peut pas être un principe d’inaction, ni un principe d’émotion.

« Sortir du manichéisme » : tel est l’enjeu que l’Office parlementaire s’est fixé. Il ne s’agit pas d’opposer usage et non-usage – nous ne sommes pas dans une société de répression –, ni de considérer que les données acquises sont définitives.

Je suis heureuse que, par de telles rencontres et par une veille scientifique constante, vous nous rappeliez à la vigilance, à l’étude. En ouvrant la première partie de la table ronde sur les radiofréquences, j’ai dit à l’ensemble des partenaires que je ne la considérais pas comme solde de tout compte et que nous allions continuer les travaux. Sur un sujet comme celui-là, il y a en effet quelques certitudes, mais encore beaucoup de champs à conquérir et je suis heureuse que l’Office se soit mis au travail, ce dont je ne doutais absolument pas. (Applaudissements.)

M. Alain Gest, rapporteur. Nous nous sommes effectivement saisis de ce dossier il y a maintenant quelques mois pour mettre à jour, à la demande du Bureau de l’Assemblée nationale, l’étude menée en 2002 par nos collègues Raoul et Lorrain. Au vu des interrogations qui demeurent, c’était plutôt une bonne idée.

Je vous remercie d’avoir livré vos réflexions, nées entre autres des conclusions des tables rondes que vous avez organisées avec vos deux collègues. Nous essaierons d’apporter une pierre supplémentaire à l’édification d’une politique en la matière.

Merci aussi à toutes celles et tous ceux qui ont exposé leur point de vue. Sans faire allusion à nos invités excusés, je répète que la politique de la chaise vide n’est jamais la bonne. Peut-être ma voix portera-t-elle au-delà de cette salle : ce débat intéresse l’ensemble de nos concitoyens et il est suffisamment complexe pour qu’on le traite avec le plus de recul et de sérénité possibles.


© Assemblée nationale