Accueil > Documents parlementaires > Rapports de l’Office parlementaire d’évaluation des choix scientifiques et technologiques

LE RÔLE DES TRÈS GRANDS ÉQUIPEMENTS DANS LA RECHERCHE
PUBLIQUE OU PRIVÉE, EN FRANCE ET EN EUROPE

PREMIÈRE PARTIE - LA MONTÉE DES BESOINS EN GRANDS ÉQUIPEMENTS DANS TOUTES LES DISCIPLINES SCIENTIFIQUES (suite)

VII - Neutrons **
1. Les sources de neutrons en fonctionnement sur le sol national
**
2. Les dépenses correspondant aux sources de neutrons
**
3. Les besoins prévisibles en sources de neutrons
**
4. Le projet RJH (réacteur Jules Horowitz)
**
5. Le projet CONCERT de source multi-usages du CEA
**
5.1. Des perspectives techniques intéressantes **
5.2. Des perspectives économiques encourageantes
**

VIII - Le Magnétisme à haut champ et la RMN **
1. Le magnétisme à haut champ
**
1.1. La recherche française sur les champs magnétiques intenses **
1.2. La pérennité du LCMI
**
2. La RMN (résonance magnétique nucléaire) **
2.1. Les avantages de la RMN **
2.2. Les perspectives d'avenir de la RMN et les besoins de financement
**

IX - Sciences et technologies de l'information et de la communication **
1. La microélectronique et les nanotechnologies
**
2. L'optoélectronique
**
3. Les supercalculateurs et les centres de calcul
**
3.1. L'augmentation fulgurante de la demande de capacités de calcul **
3.2. Le retard français et européen
**
4. Les technologies logicielles **
4.1. L'INRIA et le CNRS **
4.2. Les commandes publiques et le Logiciel libre ou ouvert
**
5. Les télécommunications **
5.1. Les réseaux de service **
5.2. Un exemple de réseau expérimental : le VTHD
**
5.3. La recherche sur les télécommunications
**
6. La formation et l'emploi dans les STIC **

Retour au sommaire général
du rapport

Suite du rapport


 

VII - Neutrons

Les sources de neutrons constituent un autre outil essentiel d'analyse fine de la matière, à l'instar du rayonnement synchrotron.

Du fait des propriétés particulières des neutrons, il s'agit d'un outil complémentaire du rayonnement synchrotron, plutôt qu'un moyen de substitution.

Les neutrons interagissent avec les noyaux des atomes, au contraire des photons qui interagissent avec le cortège électronique des atomes. La masse et la vitesse des neutrons utilisés en font une sonde unique pour l'étude des structures de la matière, à des échelles qui vont de l'atome au micron. Simultanément, les neutrons donnent accès à la dynamique de ces structures.

Par ailleurs, en tant que particules dotées d'un moment magnétique, les neutrons sont également une excellente sonde magnétique.

Au demeurant, étant donné l'absence de " mini-sources " de neutrons propriétaires, c'est-à-dire à la portée d'un seul laboratoire, les expériences réalisées sur les sources de neutrons ne peuvent pas être préparées en amont.

Dans le domaine de la biologie, si le rayonnement synchrotron est particulièrement performant pour l'étude des macromolécules cristallisées et en particulier des protéines, en revanche les sources de neutrons sont bien placées pour l'étude des protéines en solution ainsi que pour l'étude de parties de molécules réalisée avec des procédés de marquage.

1. Les sources de neutrons en fonctionnement sur le sol national

Après l'arrêt en décembre 1997 du réacteur SILOE de 35 MW, sont opérationnelles sur le sol français les sources de neutrons du Laboratoire Léon Brillouin (réacteur Orphée de 14 MW) et de l'Institut Laue-Langevin (réacteur de 57 MW).

Le Laboratoire Léon Brillouin (LLB) a la responsabilité d'exploiter les 25 instruments installés autour du réacteur de type piscine Orphée. Le réacteur Orphée proprement dit, qui fonctionne avec une régularité et un niveau de performances remarquables depuis plus de 20 ans, est de la responsabilité du CEA. Le laboratoire Léon Brillouin, laboratoire national financé conjointement par le CNRS et le CEA dispose de la plus grande densité d'instruments au monde pour des installations de ce type. En tout état de cause, le LLB est compétitif par rapport à l'ILL mais aussi par rapport à la source pulsée britannique ISIS du Rutherford Appleton Laboratory.

Le Laboratoire Léon Brillouin est régi par une convention entre le CEA et le CNRS.

Le budget annuel de l'ensemble constitué par le réacteur et le Laboratoire Léon Brillouin s'élève à 130 millions de francs, frais de personnel compris mais hors amortissement du réacteur.

Le budget hors salaires du LLB est de 23 millions de francs. Ce budget est financé à hauteur de 14 millions de francs par des contributions à parité du CNRS et du CEA. Le complément est assuré par des contrats avec l'industrie, par les contributions des CRG (Collaborative Research Group) et par le contrat " Access to Large Facilities " de l'Union européenne qui finance l'accès de chercheurs étrangers à ses installations. Les effectifs du laboratoire atteignent 150 postes à temps plein, à quoi il faut ajouter 57 postes pour le réacteur.

Le LLB a, en 1999, assuré 4 200 jours-instruments, ce qui correspond à 500 expériences par an. Les expériences ressortissent à hauteur de 55 % à la physique de la matière condensée, de 28 % à la chimie, de 10 % aux sciences de l'ingénieur et aux matériaux et de 7 % à la biologie.

L'écart entre la demande de temps d'accès à ses faisceaux et le temps effectivement mis à disposition est en moyenne de 30 %. Mais pour certains instruments, la demande peut excéder l'offre d'un facteur 2 voire même 3.

L'Institut Laue Langevin (ILL), situé à Grenoble, a été créé en 1967 sous la forme d'une société de droit civil français, par deux membres fondateurs associés, la France et l'Allemagne, rejoints par le Royaume-Uni en 1973, après la mise en exploitation du réacteur en 1972. Depuis lors, différents pays ont adhéré : l'Espagne (1987), la Suisse (1988), l'Autriche (1990), la Russie (1996), l'Italie (1997) et la République tchèque (1999), l'adhésion donnant droit à un temps de faisceau supérieur.

Le budget de l'ILL pour 2000 est de 355 millions de francs, la contribution française s'élevant à 104 millions de francs. Les dépenses de personnel représentent 57 % du total, le fonctionnement 19 %, l'investissement 11 %, le cycle de l'élément combustible 13 %.

En tout état de cause, en 1999, l'ILL a assuré 208 jours de fonctionnement réacteur sur ses 25 instruments et sur les 8 instruments CRG (Collaborative Research Group). Ceci correspond à 4500 jours-instruments accordés pour 8200 demandés et à 750 expériences pour 1000 demandées. Le nombre de chercheurs visiteurs atteint annuellement 1200. Ces derniers proviennent de 300 laboratoires disséminés dans toute la France et en Europe.

Les applications des neutrons à l'ILL concernent la physique pour 28 % du total, la chimie pour 20 %, la matière molle pour 14 %, les sciences des matériaux pour 12 %, la biologie pour 12 %, les liquides et les verres pour 8 % et la physique des particules pour 6 %.

En définitive, il existe une grande similitude entre les deux types de très grands instruments que constituent les synchrotrons et les sources de neutrons. Il s'agit essentiellement de super laboratoires de services mutualisés à la disposition des autres laboratoires, dans un secteur clé de la science moderne, à savoir l'analyse fine de la matière.

2. Les dépenses correspondant aux sources de neutrons

Ainsi que le montrent les tableaux suivants, fournis par la direction de la recherche du ministère de la recherche, les dépenses relatives au Laboratoire Léon Brillouin et la participation française à l'ILL sont du même ordre de grandeur, environ cent trente millions par an, et stables depuis le milieu de la décennie 1990.

En 1999, les dépenses relatives au LLB se sont élevées à 138 millions de francs (voir tableau ci-après).

Tableau 1 : Evolution des dépenses relatives au TGE Laboratoire Léon Brillouin1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Laboratoire

Léon Brillouin (LLB)

(TGE scientifique)

personnel

48

48

50

53

53

57

57

49

60

60

63

exploitation

58

71

66

65

64

66

80

32

69

78

69

construction

 

 

5

 

 

 

 

 

 

 

 

total

106

119

121

118

117

123

137

81

129

138

132

La même année, la participation française à l'ILL s'est élevée à 142 millions de francs.

Tableau 2 : Evolution des dépenses relatives à l'Institut Laue-Langevin2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ILL

(TGE scientifique)

personnel

57

60

60

58

64

62

62

34

41

40

41

exploitation

63

62

24

26

46

69

76

112

111

102

101

construction

 

 

40

50

 

 

 

 

 

 

 

total

120

122

124

134

110

131

138

146

152

142

142

On notera par ailleurs qu'un montant de 28 millions de francs a été imputé aux TGE des neutrons, en 1996. Ce montant correspond aux dépenses de retraitement du combustible de la source Siloé lors de son démantèlement.

Le total des dépenses relatives aux sources de neutrons est de l'ordre de 270 millions de francs par an en 2000. Entre 1990 et 2000, elles auront progressé de 21,2 %.

Figure 1 : Evolution des dépenses annuelles des TGE sources de neutrons

Compte tenu de la croissance des dépenses relatives aux TGE scientifiques et techniques, les sources de neutrons voient leur part dans ce total diminuer de 8 % à 6%.

Figure 2 : Evolution des dépenses relatives aux TGE sources de neutrons par rapport aux dépenses totales des TGE scientifiques et techniques

Alors que le niveau qualitatif des sources et de leurs instruments associés augmentait durant cette période, ainsi d'ailleurs que le nombre d'utilisateurs, il semble donc que la gestion conjointe par le CEA et le CNRS de la source nationale et de la participation française dans la source européenne s'avère particulièrement performante.

3. Les besoins prévisibles en sources de neutrons

La recherche européenne a un besoin croissant en faisceaux de neutrons. Le nombre d'utilisateurs connaît en effet une croissance forte. Il était de 3800 chercheurs en 1998 et devrait s'élever à 5000 en 2000. Cette croissance devrait continuer à l'avenir. Comment faire face à ces besoins croissants ?

Pour satisfaire cette demande, il existe deux types de sources de neutrons, d'une part les sources continues et d'autre part les sources pulsées.

Les Etats-Unis ont envisagé ces dernières années la construction d'un réacteur d'une puissance très supérieure à celle des machines en fonctionnement mais y ont renoncé. Les réacteurs semblent aujourd'hui avoir atteint une limite de puissance, de sorte que le progrès essentiel à attendre de leur part proviendra d'une augmentation de la brillance et de la qualité des instruments. La construction de nouveaux réacteurs n'est donc pas à l'ordre du jour.

En revanche, différents projets de sources pulsées existent pour faire face à la croissance des besoins, car cette technologie semble avoir une marge de progression sensible.

Plusieurs pays européens, l'Allemagne, la France, le Royaume-Uni et l'Italie, coopèrent actuellement pour définir une source européenne de neutrons de nouvelle génération. Il s'agit du projet européen ESS (European Spallation Source) qui consiste à construire une source pulsée de 5 MW.

Les Etats-Unis construisent pour leur part une source pulsée comparable SNS de 2 MW qui sera opérationnelle en 2006 et le Japon la source JHF/NSP de 1 MW qui entrera en service à la même date.

En tout état de cause, les objectifs du projet ESS sont d'obtenir par rapport à l'ILL, un progrès selon la longueur d'onde d'un facteur 10 à 200 pour la diffractométrie, de 2 à 20 pour la diffusion inélastique, de 1 à 20 pour la diffusion aux petits angles et un niveau identique pour la diffusion inélastique dans les trois axes. ESS devrait être 30 fois plus puissante que la source britannique ISIS.

Le coût d'ESS devrait être de l'ordre de 2 milliards d'euros, soit environ 13 milliards de francs. La construction d'ESS ne devrait pas commencer avant 2006, la machine ne délivrant ses faisceaux qu'à partir de 2015 au mieux.

Compte tenu des aléas relatifs au projet ESS et de la croissance des demandes d'utilisation des neutrons, les sources actuelles que sont le Laboratoire Léon Brillouin et l'ILL, loin d'être condamnées, ont, au contraire, une période de plusieurs années d'exploitation devant eux.

Le maintien en fonctionnement et la modernisation permanente des deux sources situées sur le territoire français ne posent pas de problème particulier.

Cette stratégie est d'autant plus pertinente que le nombre de sources de neutrons dans le monde va diminuer dans les prochaines années. Les seules autres sources assurées de perdurer dans les prochaines années, sont ISIS (Royaume-Uni), HMI (Berlin), SINQ (Suisse), le Laboratoire Léon Brillouin LLB, Saclay) ; l'Institut Laue Langevin (ILL, Grenoble) et très probablement le nouveau réacteur de Munich.

Le CEA est partie prenante aux travaux relatifs à la source pulsée européenne ESS mais privilégie un projet plus vaste de source à utilisations multiples, ou source multi-usages CONCERT servant à l'analyse de la matière mais aussi à l'étude des réacteurs sous-critiques et aux recherches sur la transmutation de déchets radioactifs (voir ci-après).

C'est en 2002 que l'on pourra décider si ce projet multi-utilisations est compatible avec ESS. Les routes d'ESS et de CONCERT risquent de converger ou de se séparer à cette date.

4. Le projet RJH (réacteur Jules Horowitz)

Afin de préparer le remplacement à l'horizon 2010 du réacteur d'irradiation OSIRIS de Saclay, seule machine de ce type en fonctionnement actuellement après l'arrêt en 1997 de SILOE à Grenoble, le CEA élabore actuellement le projet RJH (réacteur Jules Horowitz).

Les études d'irradiation sont essentielles d'une part pour les recherches sur le vieillissement des réacteurs du parc électronucléaire français, et, d'autre part, pour l'amélioration des performances du combustible nucléaire, deux paramètres clés à la fois pour la sûreté des réacteurs nucléaires et pour la compétitivité du kWh nucléaire.

Le réacteur Jules Horowitz a donc pour premier objectif le remplacement d'OSIRIS, avec toutefois des performances améliorées, des flux de neutrons augmentés et un nombre de points d'irradiation notablement accru.

L'autre objectif essentiel du RJH est de permettre le test du c_ur de nouveaux réacteurs. Les perspectives à ce sujet sont d'une part les réacteurs de 3ème génération dits évolutifs par rapport aux réacteurs actuels, dont les meilleurs exemples sont l'EPR (European Pressurized Reactor) et le réacteur ABWR (Advanced Boiling Water Reactor) et d'autre part des réacteurs innovants de 4ème génération du type GT-MHR (Gas Turbine - Modular Helium cooled Reactor).

Le RJH offrira précisément la possibilité de tester des c_urs de natures différentes, avec des flux de neutrons allant des neutrons thermiques aux neutrons rapides, et une simulation des conditions d'un refroidissement par un gaz comme l'hélium. Les tests d'irradiation pourront être réalisés dans des boucles à milieux différents.

Le réacteur RJH devrait avoir une puissance de 100 MW, être installé à Cadarache et devenir opérationnel en 2010.

Le coût du RJH devrait atteindre 3,7 milliards de francs, financés à parts égales par le CEA et EDF, dans le cadre d'une société en participation.

Au demeurant, aucun autre projet que le réacteur RJH pourrait être à même de satisfaire en 2010 les besoins d'irradiation et de test de c_urs de réacteurs évolutifs ou innovants.

5. Le projet CONCERT de source multi-usages du CEA

Evoquer dans la partie du rapport consacrée aux sources de neutrons, le projet CONCERT (Combined Neutron Centre for European Research and Technology) constitue presque un contresens du fait de la vocation généraliste et fédératrice de cette source multi-usages. Toutefois, d'une part l'essentiel des utilisations de cette source est bien la production de neutrons et d'autre part il s'agit d'un projet en cours de définition, dont les contours pourraient encore évoluer. Pour la commodité de l'exposé, CONCERT est inclus dans les besoins en sources de neutrons, étant précisé que sa portée est plus générale.

Le projet CONCERT résulte d'une analyse en deux points, l'un d'ordre technique, l'autre d'ordre économique et politique.

Le constat technique fondamental est que les technologies des accélérateurs de protons ont fait des progrès considérables et permettent de produire des protons de haute énergie de l'ordre de 1 GeV, qui peuvent ensuite servir, en fonction des cibles qu'ils percutent, à la production de particules différenciées, par exemple neutrons, isotopes radioactifs, antiprotons, kaons, pions, neutrinos et muons. En se servant d'un accélérateur unique à hautes performances, il devrait donc être possible de servir d'autres équipements en diminuant le coût de l'ensemble par rapport au coût cumulé d'installations distinctes.

Le deuxième constat est que d'une part, une série d'équipements vont devoir être renouvelés dans les années à venir, sources de neutrons, sources d'irradiation, sources d'ions lourds, et d'autre part que de nouveaux besoins de recherche apparaissent, en particulier pour la transmutation des déchets radioactifs à haute activité et à vie longue, ainsi que pour la physique fondamentale, par exemple pour la production de certaines particules comme les neutrinos ou les muons.

Le projet CONCERT pourrait donc apporter une réponse coordonnée et acceptable sur un plan financier à un ensemble de besoins de renouvellement et de besoins nouveaux.

5.1. Des perspectives techniques intéressantes

Le phénomène central du projet CONCERT est la propriété qu'ont des protons accélérés à une énergie de 1 GeV, en percutant des cibles de nature variée, de provoquer la formation de gerbes de faisceaux secondaires spécifiques.

La première possibilité est celle de produire une avalanche de neutrons de haute énergie, suite au phénomène de spallation qui voit les noyaux des atomes de la cible libérer des neutrons, dans un rapport de 30 neutrons pour un proton incident. Ce phénomène est à la base des sources pulsées de neutrons, dont l'intérêt grandit, comme on l'a vu précédemment, dans la mesure où la puissance des sources continues semble plafonner. Avec des protons de haute énergie, il semble possible de gagner un facteur 10 voire 100 dans les flux produits, ce qui rendrait possible une résolution accrue, favoriserait les études de dynamique et les analyses dans des conditions extrêmes de température et de pression. L'objectif est de dépasser la puissance nominale de 5 MW prévue pour la source ESS (European Spallation Source).

La deuxième application de CONCERT serait la production de faisceaux d'isotopes radioactifs rares, avec des flux supérieurs d'un facteur 1000 à ceux produits par les machines actuelles. Cette voie de recherche est unanimement considérée comme devant être la priorité numéro de la physique du noyau.

La troisième application du projet serait la production de neutrons alimentant le c_ur d'un réacteur sous-critique acceptant les actinides mineurs et les produits de fission issus des combustibles nucléaires irradiés retraités. Ainsi, CONCERT permettrait des progrès dans la recherche sur cette question importante pour l'avenir des réacteurs nucléaires civils. En tout état de cause, la construction d'un réacteur ayant pour seul objet l'étude de la transmutation ne semble pas avoir de sens économique.

La quatrième application serait bien évidemment l'irradiation de matériaux, avec l'avantage de constituer un outil d'irradiation sans combustible nucléaire, c'est-à-dire sans les contraintes de fonctionnement afférentes.

Enfin, des protons de haute énergie peuvent produire des pions, qui, eux-mêmes se désintègrent en muons et en neutrinos. La création de muons présente un grand intérêt pour la physique des particules. En effet, l'utilisation des protons présente l'inconvénient de générer un nombre trop important de particules lors des collisions, ce qui complique l'analyse des phénomènes. Les électrons, quant à eux, produisent le rayonnement synchrotron, ce qui limite les possibilités d'aller au delà d'une certaine énergie. L'utilisation des muons présente un intérêt certain, dans la mesure où ces particules possèdent la même charge que l'électron mais ont une masse deux cents fois supérieure, ce qui pose le problème des rayonnements d'une manière différente et permettrait de monter à des énergies de 100 GeV.

Il faut enfin citer un dernier type d'application, à savoir la production de tritium à des fins civiles et militaires.

Toutes ces perspectives sont bien entendu conditionnées par la possibilité effective de produire des faisceaux de protons à haute énergie. A cet égard, un gain d'un facteur 100 par rapport aux machines actuelles semble à la portée des concepteurs du projet. Les premiers calculs et les premières expériences de démonstration montrent qu'il devrait être possible avec un accélérateur de 350 mètres de longueur, pour une puissance de 100 MW, de produire des protons à 1,3 GeV avec une intensité de 100 mA en crête.

5.2. Des perspectives économiques encourageantes

La construction d'une source multi-usages n'est pas envisagée pour le moment aux Etats-Unis, qui prévoient au contraire la construction de la source de neutrons par spallation NSS et d'une source d'ions lourds à Argonne, et ont en projet la machine ATW pour l'étude de la transmutation des déchets radioactifs.

Le JAERI développe au Japon quant à lui un projet de sources multi-usages similaires dans sa conception au projet CONCERT, après avoir réussi à fédérer les projets séparés de divers instituts de recherche.

Le CEA, qui est le maître d'_uvre de CONCERT, a pour sa part la conviction que les besoins de renouvellement d'installations existantes se produiront dans le même laps de temps vers 2015. Il est donc impératif de proposer une solution coordonnée, pour répondre à des contraintes budgétaires serrées.

Une première estimation des coûts d'une source multi-usages conduit à un montant de 2,25 milliards d'euros, environ 15 milliards de francs, soit un montant inférieur de 6,5 milliards de francs à la somme des dépenses relatives à des projets séparés.

Le calendrier du projet CONCERT prévoit la présentation d'une étude approfondie sur ses coûts au début 2002, une étude technique détaillée de 2 ans, le début de la construction en 2005, l'entrée en service pour une première application en 2010, l'installation étant complètement opérationnelle en 2015.

L'intérêt pour CONCERT de comités scientifiques comme NuPECC, de groupes de travail comme celui relatif à ESS, ainsi que du groupe de conseillers ministériels TWG pour la transmutation, est déjà réuni. L'Italie, l'Allemagne, le Royaume-Uni et la Suisse ont accepté de faire partie d'un groupe de pilotage du projet.

Les disciplines concernées par les différentes applications de CONCERT, qui pourraient souhaiter à des degrés divers disposer de leurs propres installations, semblent toutefois déjà avoir pris conscience qu'une approche unifiée maximise leurs chances de se voir accorder les instruments dont elles ont un besoin vital, avec d'autre part des bénéfices secondaires, comme une interdisciplinarité accrue et la création d'une nouvelle dynamique profitable à tous.

VIII - Le Magnétisme à haut champ et la RMN

Les champs magnétiques intenses et la résonance magnétique nucléaire ne font pas, dans notre pays, l'objet de TGE, au sens actuel de la nomenclature du ministère de la recherche.

Néanmoins, l'importance des technologies correspondantes dans la science moderne justifie que soient examinés non seulement les besoins de la recherche fondamentale sur le magnétisme mais aussi les besoins des laboratoires en matériels utilisant les champs magnétiques intenses.

1. Le magnétisme à haut champ

Les champs magnétiques intenses sont mis en _uvre dans un nombre considérable d'instruments scientifiques. On retrouve des aimants de puissance dans les accélérateurs de particules, comme par exemple ceux du CERN ou du GANIL, dans les synchrotrons et dans les instruments de résonance magnétique nucléaire ou de résonance paramagnétique électronique (RPE).

Au surplus, la France possède un excellent niveau dans la recherche fondamentale sur le magnétisme, qui a pu conduire l'Allemagne et l'institut Max Planck à s'allier au CNRS pour participer à Grenoble au Laboratoire des champs magnétiques intenses fondé par René PAUTHENET, avec le soutien de Louis NÉEL.

La France possède également au CEA et à l'IN2P3 des équipes d'ingénierie et de fabrication d'aimants de forte puissance et d'aimants supraconducteurs qui sont parmi les meilleures du monde, comme le montrent les débouchés obtenus au CERN et à DESY en Allemagne.

Enfin, la technologie moderne multiplie le recours aux études en champs magnétiques intenses. De fait, les recherches correspondantes ont des débouchés considérables, d'une part pour le développement de matériaux à faible résistivité et forte résistance magnétique ou supraconducteurs, d'autre part pour les méthodes de croissance pour la préparation de nouveaux matériaux.

On peut également citer l'impact des études à haut champ sur les systèmes électroniques bidimensionnels qui ont donné naissance aux lasers solides, aux transistors à effet de champ et à hautes fréquences. Ces études ont également une utilité considérable pour les nanotechnologies, notamment les sciences et technologies de l'information et de la communication.

Enfin on doit souligner les applications directes des études en champs magnétiques intenses par les techniques de RMN et de RPE dans le domaine des sciences du vivant.

Tous ces éléments concourent donc à ce que la communauté scientifique française poursuive ses recherches fondamentales dans cette discipline structurante et que l'on veille à développer les capacités de réalisation possédées par les grands organismes de recherche français.

1.1. La recherche française sur les champs magnétiques intenses

L'intérêt pour les champs magnétiques intenses s'accroît de plus en plus rapidement, comme le démontre le nombre toujours plus élevé de publications relatives à ce domaine. La France dispose de deux grands laboratoires, travaillant l'un sur les champs magnétiques intenses continus, le LCMI (Laboratoire des champs magnétiques intenses) à Grenoble et l'autre sur les champs pulsés à Toulouse.

Il existe plusieurs laboratoires dans le monde travaillant sur les hauts champs magnétiques continus, le LCMI étant l'un de tous premiers d'entre eux par ses résultats (voir tableau ci-après).

Tableau 3 : Les principaux centres de recherche sur les hauts champs magnétiques continus

rang

Pays

Centre de recherche

puissance électrique continue

champ magnétique maximum avec aimants classiques

champ magnétique maximum avec aimants mixtes (classiques + supraconducteurs)

1

Japon

Tsukuba (NRIM)

15 MW

30 T dans 32 mm

34 T dans 52 mm

(40 T en construction)

2

Etats-Unis

Tallahassee (NHMFL)

40 MW

33 T dans 32 mm

45 T dans 32 mm

(en construction)

3

France-Allemagne

Grenoble (LCMI-CNRS-Max Planck)

24 MW

30 T dans 50 mm

40 T dans 34 mm

4

Japon

Sendai (IMR)

8 MW

19,5 T dans 32 mm

31,1 T dans 32 mm

5

Russie

Moscou

6 MW

18,3 T dans 28 mm

24,6 T dans 28 mm

6

Chine

Hefei

10 MW

13 T dans 32 mm

20,2 T dans 32 mm

7

Pays-Bas

Nimègue

6 MW

20 T dans 32 mm

(30,4 T dans 32 mm

en construction)

8

Pologne

Wroclaw

6 MW

19 T dans 25 mm

 

9

Allemagne

Braunschweig (TU) - Allemagne

6 MW

18,2 T dans 32 mm

-

10

Russie

Krasnoyarsk

8 MW

15 T dans 36 mm

-

Le Laboratoire des Champs magnétiques intenses de Grenoble a pu créer à l'automne 2000 un champ de 58 Teslas pendant 20 millisecondes, en développant une méthode originale de stockage de l'énergie.

Ayant ainsi obtenu l'une des toutes premières performances mondiales avec la production d'un champ magnétique intense de 31,4 Tesla dans un diamètre de 32 mm, le LCMI achèvera en 2001 l'aimant hybride capable de produire un champ continu de 40 Tesla, permettant de faire des expériences très raffinées en champs intenses, en particulier des expériences de RMN que l'on ne peut pas faire en champs pulsés.

Au reste, les champs pulsés, relativement plus faciles et moins coûteux à produire, sont étudiés dans un nombre plus important de laboratoires situés dans le monde entier. En tout état de cause, il est possible d'atteindre des niveaux de champ magnétique plus élevés avec cette méthode.

En effet, si la limite actuelle des champs continus est de 50 Tesla, la barrière des 100 Tesla en champs pulsés semble à la portée des chercheurs.

Le laboratoire des champs magnétiques pulsés de Toulouse vise à créer un champ de 80 Tesla pendant 300 milliseconde, soit la troisième meilleure performance mondiale.

En l'occurrence, l'objectif recherché en augmentant l'intensité du champ magnétique est l'étude des transitions de phase induites par celui-ci dans les systèmes étudiés. On espère ainsi progresser en particulier dans la connaissance de la supraconductivité, notamment pour la production de champs magnétiques plus intenses.

1.2. La pérennité du LCMI

Le LCMI, créé par le CNRS, a vu la société Max Planck s'associer à lui en 1972, en raison du potentiel prévisible de ses résultats au niveau mondial. Mais cet institut allemand a annoncé son retrait en 2004, à la fin du contrat en cours de 10 ans.

L'engagement de la société Max Planck dans un projet de recherche est d'une manière générale étroitement lié à la personnalité du directeur de celui-ci, qui doit partir en retraite en 2001. Au surplus, la subvention allemande au LCMI est versée par le seul établissement de Stuttgart de la Société Max Planck pour qui elle est devenue une charge trop lourde, eu égard à ses autres activités de recherche.

Des éléments positifs existent toutefois dans cette sombre perspective. La poursuite de l'engagement allemand jusqu'en 2004 a pu être obtenue, et, par ailleurs, la Société Max Planck serait d'accord pour aller au delà à condition qu'au moins un troisième partenaire soit partie prenante au LCMI, de façon à réduire sa charge financière.

Selon la direction du LCMI, il est urgent que la France prenne l'initiative de rechercher de nouveaux partenaires et mette à profit son influence au niveau de l'Union européenne.

Parallèlement à cette recherche, il est indispensable de préparer un changement de structure juridique pour le LCMI. Pour le moment, le LCMI est géré selon une double comptabilité, française et allemande, et dispose de personnels gérés indépendamment les uns des autres par le CNRS et la Société Max Planck.

Pour accueillir d'autres partenaires, il semble nécessaire en tout état de cause de créer une société civile et d'y fondre le LCMI. A cette occasion, il serait logique que le CEA qui ne contribue pas pour le moment au budget du LCMI, soit 50 millions de francs par an au total, intègre la société civile et participe à son financement, le magnétisme faisant partie de ses domaines de compétences.

2. La RMN (résonance magnétique nucléaire)

Les méthodes d'analyse fine de la matière revêtent une importance capitale dans la recherche moderne, tant pour les sciences physiques que pour les sciences du vivant.

Dans ce dernier cas, les méthodes les plus importantes sont d'une part le rayonnement synchrotron, d'autre part les sources de neutrons et enfin la RMN (résonance magnétique nucléaire). Parmi ces trois méthodes, c'est sans doute la RMN qui possède actuellement la plus grande marge de progression.

Certains experts estiment que l'on est à la veille d'une révolution en RMN, qui la ferait concurrencer le rayonnement synchrotron. Certains scientifiques avaient d'ailleurs argué de ce fait, pour justifier l'abandon du synchrotron de 3ème génération SOLEIL.

D'autres au contraire, pensent d'une part que la RMN, dont les progrès sont toutefois notables, doit effectuer des progrès considérables et au demeurant difficiles, avant de devenir une méthode réellement utilisable en biologie structurale, et, d'autre part, que la RMN, même après des progrès majeurs, sera davantage complémentaire du rayonnement synchrotron et des sources de neutrons que substituables à ces deux méthodes.

2.1. Les avantages de la RMN

Un atome spécifique soumis à un champ magnétique est soumis à une résonance dont la fréquence dépend de l'intensité du champ qui lui est appliqué, de son rapport gyromagnétique spécifique, de son moment cinétique propre (spin) et de son environnement électronique et nucléaire.

La résonance magnétique nucléaire (RMN) est donc une sonde locale qui a une spécificité chimique. Avec une résolution suffisante, la méthode permet de sélectionner l'espèce chimique étudiée et de recueillir des informations structurales y compris dynamiques, sur son environnement.

En conséquence, la RMN présente un intérêt exceptionnel pour l'étude des protéines et de leurs fonctionnalités. En effet, il est fondamental de connaître non seulement la structure de la molécule mais également comment varie cette structure selon sa fonctionnalité et donc son environnement.

Or la RMN permet de résoudre les structures dans un environnement solide ou liquide, ce qui met à sa portée l'étude des protéines membranaires par exemple. Au reste, pour les protéines qui ne cristallisent pas, en particulier les protéines membranaires et les protéines hétérogènes, la RMN est la seule méthode disponible. De plus, cette méthode permet également d'étudier les mouvements moléculaires et de les corréler à la cinétique chimique favorisée ou inhibée par les protéines. La RMN peut enfin servir à caractériser des complexes binaires ou ternaires et des protéines hétérogènes.

Compte tenu de ces atouts, la RMN connaît des développements constants à la fois méthodologiques et technologiques.

En augmentant les champs magnétiques appliqués, on augmente le déplacement chimique et la largeur de raie pour chaque transition, pour une espèce particulière comme l'atome d'hydrogène. Une autre technique intitulée RMN 2D, permet d'identifier les interactions entre deux espèces chimiques différentes, par exemple la liaison carbone-hydrogène. Il est également possible de faire aujourd'hui de la RMN 3D.

En tout état de cause, la RMN semble repousser régulièrement ses limites techniques par l'invention de nouvelles méthodes, de sorte que la taille des molécules qu'elle permet d'étudier s'accroît régulièrement. A cet égard, l'augmentation des champs magnétiques appliqués ne procure que des avantages.

Le " prix à payer " dans cette évolution vers des champs d'intensité plus élevée, c'est la qualité de ceux-ci. Il ne sert en effet à rien d'augmenter le champ magnétique si l'on perd de son homogénéité.

Les meilleurs spectromètres commerciaux sont actuellement à 800 MHz, ce qui permet l'utilisation de supraconducteurs pour fournir le champ correspondant. De fait, dans ces conditions, l'utilisation de la RMN est limitée à l'étude de molécules de poids moléculaire inférieur à 40 000 Dalton3.

En tout état de cause, le rayonnement synchrotron ne présente pas cette limitation et bénéficie d'une meilleure précision et d'une plus grande rapidité. Mais il est limité aux molécules cristallisées.

La RMN, quant à elle, est certes limitée à des poids moléculaires relativement faibles pour des protéines. Mais hormis cette limitation de poids moléculaire, la RMN présente l'avantage non seulement de pouvoir être appliquée à des molécules non cristallisables comme les protéines membranaires et disponibles en faible quantité, mais également d'ouvrir le champ des études dynamiques.

2.2. Les perspectives d'avenir de la RMN et les besoins de financement

Les technologies actuelles permettent d'ores et déjà de faire de la RMN à 900 MHz. Plusieurs pays ont déjà commandé des machines de ce type, dont l'Allemagne qui devrait être équipée de 2 exemplaires à la fin 2000. La France n'a pas encore, quant à elle, passé de commande.

Mais en réalité, il convient d'aller plus loin et de passer à 1 GHz, de manière à pouvoir étudier des molécules de poids moléculaire égal ou inférieur à 80 000 Dalton.

Le passage à 1 GHz représente de fait un saut technologique. De nouveaux matériaux supraconducteurs sont en effet nécessaires, ainsi que des techniques nouvelles. Le prix estimé d'un tel spectromètre devrait être de 15 millions de dollars, sans compter l'infrastructure nécessaire.

Il semble nécessaire d'approfondir les recherches sur la mise au point de spectromètres à 1 GHz.

La mise au point d'un spectromètre de RMN à 1 GHz à finalité biochimique nécessiterait des recherches sur 5 ans pour un investissement cumulé de l'ordre de 200 millions de francs.

Le prototype pourrait être installé à Grenoble, l'objectif étant la réalisation de 5 centres d'excellence en Europe dotés chacun dans un premier temps de spectromètres à 900 MHz puis ultérieurement d'une machine à 1 GHz. Un tel plan rejoindrait la stratégie américaine qui prévoit, elle, la création de 10 centres d'excellence pour la RMN équipés selon ce schéma.

Il reste une autre question, celle du sous-équipement des laboratoires français en instruments de RMN modernes. Au vrai, l'Europe souffre d'un retard important sur les Etats-Unis et la France d'un retard relatif à l'intérieur de l'Europe.

Tableau 4 : Nombre de spectromètres de RMN à haut champ en 1999

 

600 MHz

800 MHz

Amérique du Nord

135

30

Japon

33

21

Europe

88

20

dont France

12

2

Ainsi le parc européen ne représente que les deux tiers du parc américain. Quant à la France, elle ne dispose que de 14 % du parc européen pour les spectromètres à 600 MHz et 10 % du parc européen pour les spectromètres à 800 MHz.

Un effort d'équipement est à engager pour rattraper ce retard.

Toujours en tête de la course mondiale dans ce domaine, grâce à l'excellence de l'école française développée par Louis NÉEL récemment disparu, c'est d'une action globale en faveur du magnétisme dont la France a besoin.

A cet égard, le projet de création d'un centre pluridisciplinaire de RMN à hauts champs à Grenoble va dans la bonne direction et doit être soutenu.

IX - Sciences et technologies de l'information et de la communication

Aucun grand équipement des sciences et technologies de l'information et de la communication (STIC) n'a jamais fait partie de ce que l'on a considéré par le passé comme des très grands équipements. Cette situation est aujourd'hui inchangée.

La non prise en compte des supercalculateurs ne laisse pas d'étonner dans la mesure où, il y a encore quelques années, leur coût pouvait largement dépasser la centaine de millions de francs et entrer ainsi dans la catégorie des grands équipements, selon une pratique couramment admise. Aujourd'hui, la technologie multiprocesseurs a certes abaissé le prix des superordinateurs mais le coût d'un centre de calcul reste de cet ordre de grandeur.

Les réseaux de télécommunications à hauts débits et large bande ne participent pas non plus de la catégorie des très grands équipements. La raison majeure en est qu'il s'agit d'équipements répartis sur le territoire, dont seul le coût d'ensemble atteint l'ordre de grandeur de plusieurs centaines de millions de francs.

D'autres exemples peuvent être cités de la difficulté qu'il y a de saisir les grands investissements des STIC avec la notion habituelle d'investissement massif et unitaire qui est celle de très grand équipement scientifique ou technologique. Ceci explique que la nomenclature des TGE ne comprenne aucun élément se rapportant à ce domaine.

Pour autant, les investissements déjà réalisés et les investissements indispensables à l'avenir sont considérables non seulement pour la recherche sur les STIC mais aussi pour l'extension des services de calcul et de télécommunications mis à la disposition des chercheurs.

En tout état de cause, les STIC figurent au rang de priorité de la recherche fixée par le Comité interministériel de la recherche scientifique et technologique (CIRST) du 1er juin 1999.

A ce titre, les STIC sont un domaine privilégié des actions de soutien conduites dans le cadre des réseaux nationaux de recherche et d'innovation.

Si l'évolution des dépenses des TGE ne peut pas être examinée dans ce domaine comme indicateur de l'investissement des pouvoirs publics, en revanche les premières réalisations de la nouvelle politique de la recherche donnent une indication sur les efforts consentis.

1. La microélectronique et les nanotechnologies

La France dispose avec le Laboratoire d'électronique, de technologie et d'instrumentation (LETI) du CEA d'un centre de recherche de tout premier plan mondial. L'un des titres de gloire du CEA-LETI est d'avoir joué un rôle capital, avec France Télécom, dans le développement de STMicroelectronics, 8ème fabricant mondial de semi-conducteurs et l'une des toutes premières entreprises mondiales de conception et de fabrication de microprocesseurs.

Le CEA-LETI a initialement été créé à l'initiative de M. Robert GALLEY, aujourd'hui membre de l'Office, pour étudier et fabriquer des composants électroniques résistant aux rayonnements, et possédant une fiabilité et une sûreté élevée pour des applications dans le domaine du nucléaire civil et militaire. Mais les travaux du CEA-LETI se sont étendus aux applications civiles et aux technologies génériques applicables aux semi-conducteurs, aux composants et aux systèmes électroniques de toute nature.

Le CEA-LETI, qui rassemble aujourd'hui 1100 personnes, dont 750 salariés, est implanté à Grenoble, pour 80% de ses effectifs et à Saclay pour les 20 % restants. Son budget annuel est d'un milliard de francs. Il dispose de moyens technologiques très importants. Son activité est centrée sur la recherche appliquée, en liaison étroite avec les réalités industrielles. Les chercheurs y sont jugés sur les débouchés industriels de leurs travaux et non pas seulement sur leurs publications scientifiques.

Afin de relever les défis qui s'accumulent sur la recherche et l'industrie microélectronique, le CEA-LETI est aujourd'hui le pilote d'un grand projet, celui de la constitution du nouveau Pôle d'innovation en micro et nanotechnologies de Grenoble.

Un des objectifs du CEA-LETI dans ce projet est la mise en place de plates-formes technologiques ouvertes en amont aux chercheurs de différentes disciplines et en aval aux industriels. Un autre objectif est de systématiser l'approche pluridisciplinaire qui constitue l'un des atouts les plus remarquables du CEA. Il s'agit également de tisser des liens étroits avec les universités et les écoles d'ingénieur de Grenoble afin de dynamiser la formation à la microélectronique et aux nanotechnologies.

Sur un plan technique, le CEA-LETI entend se préparer au changement d'approche qu'il faudra opérer pour la fabrication des composants électroniques lorsque la frontière de la matière et les limites physiques des procédés actuels seront atteintes.

La démarche actuelle des microtechnologies consiste à accroître la finesse des technologies de gravure d'objets microscopiques et de fabrication de circuits complexes.

Il s'agira à l'avenir, selon une démarche inverse, de construire des objets microscopiques ayant les fonctions recherchées en partant des atomes et des molécules et en maîtrisant les processus de croissance atomique ou moléculaire. Ces techniques, les nanotechnologies, devront être opérationnelles en 2010-2015 et nécessitent une préparation immédiate.

Les effectifs du Pôle de Grenoble devraient atteindre à terme le chiffre de 3000 personnes, dont 1000 étudiants, 400 enseignants-chercheurs, 1000 chercheurs et plus de 600 industriels.

Il s'agit là d'un investissement lourd dont le montant initial est de l'ordre de 800 millions de francs.

Le maître d'oeuvre de la constitution du Pôle est le CEA, qui, à partir de son c_ur de métier traditionnel, entend se repositionner et accorde à cet effet une place importante aux nouvelles technologies de l'information. Les laboratoires universitaires, ceux du CNRS et les écoles d'ingénieurs de Grenoble participent au projet.

Au delà du financement du CEA, le soutien des pouvoirs publics au Pôle de Grenoble s'exprime par la mise en place d'un réseau micro et nano technologies, doté de 40 millions de francs en 1999 pour l'aide à des projets labélisés.

Tableau 5 : Moyens du réseau micro et nanotechnologies en 1999

nom du réseau et domaine

dates et organisation

remarques

Réseau Micro et nanotechnologies

- lancé en 1999

- Comité d'orientation, bureau exécutif, cellules

- 40 millions de francs d'aides publiques en 1999

Enfin, le nouveau concept de centres nationaux de recherche technologique (CNRT), créé dans le but de rapprocher les laboratoires de recherche publique et les centres de recherche industrielle, trouvera une illustration à Grenoble pour les micro et nanotechnologies.

S'agissant de microélectronique, il reste un autre projet à mettre en _uvre, celui d'une nouvelle filière fondée sur l'arséniure de gallium.

L'arséniure de gallium (AsGa) est en effet un semi-conducteur dont les performances de rapidité et de stabilité dans des conditions extrêmes présentent un grand intérêt et sont en tout état de cause supérieures à celles du silicium.

Le développement d'une telle filière est un très grand projet qui nécessiterait une préparation précise. Les investissements à consentir dépassent probablement le milliard de francs.

2. L'optoélectronique

Les applications de l'optique se diversifient et se multiplient, notamment grâce à leur combinaison avec l'électronique. Nombreux sont les observateurs des sciences et des technologies qui estiment qu'au XXIe siècle, l'importance économique de l'optoélectronique sera essentielle.

L'évolution de l'optoélectronique est d'ailleurs parallèle à celle de la microélectronique mais avec un décalage de 20 ans. En tout état de cause, il s'agit d'une technologie structurante, notamment par son intervention dans les réseaux à haut débit. Elle exige des investissements importants, qui se chiffrent en centaines de millions de francs pour la seule recherche.

Au demeurant, le développement de l'optoélectronique doit se faire en veillant à ce qu'il n'y ait aucun hiatus entre les différentes étapes, et en particulier entre la recherche amont et la recherche aval.

Il faut citer à cet égard l'association Optics Valley qui a été créée en 1999 à l'instigation d'Alcatel avec le CNRS, Thomson CSF et le groupement français des PME de haute technologie (Comité Richelieu). Son objectif est de développer les activités optiques de la région francilienne. L'association a axé ses efforts pendant l'année 2000 sur la sensibilisation aux technologies optiques de la Région Ile-de-France et du Conseil général de l'Essonne. C'est ainsi qu'une ligne budgétaire optique a été affichée dans le nouveau contrat de plan Etat-région Ile-de-France pour les laboratoires publics.

La récente création du Centre national de recherche technologique d'optoélectronique de Marcoussis a pour but d'appuyer ces efforts.

3. Les supercalculateurs et les centres de calcul

Les supercalculateurs ont longtemps été considérés comme des équipements de souveraineté. Les plans Calcul puis par le programme de filière électronique ont répondu à l'objectif de disposer d'une offre nationale de machines surpuissantes indispensables à la défense, à l'industrie et à la recherche.

L'évolution des calculateurs eux-mêmes vers une puissance accrue et celle des technologies logicielles ont fait diminuer pendant quelques années la demande de supercalculateurs.

Si cette industrie n'a pas totalement disparu dans le monde, c'est grâce à des aides publiques très fortes mises en _uvre dans les seuls pays, les Etats-Unis et le Japon, qui ont su conserver des constructeurs dans ce créneau spécifique de l'informatique.

3.1. L'augmentation fulgurante de la demande de capacités de calcul

Un constat doit être fait aujourd'hui, celui d'une augmentation considérable de la demande de temps et de puissances de calcul.

Ainsi que l'a indiqué M. Gérard ROUCAIROL, directeur de la recherche et du développement de Bull et président du réseau national des technologies logicielles, contrairement à ce que l'on pense généralement, la maîtrise de la conception et de la fabrication des ordinateurs de puissance prend une importance encore plus forte que par le passé, car des informations de tout type sont désormais numérisées dans tous les secteurs d'activité.

Au demeurant, deux facteurs complémentaires replacent les calculateurs de grande puissance au centre du jeu. Il s'agit d'une part de la constitution de bases de données géantes et d'autre part de l'apparition de nouvelles applications exigeant des réseaux à hauts débits.

Au total, les grands systèmes informatiques redeviennent des éléments stratégiques.

Autre argument capital en faveur de l'investissement en supercalculateurs, la recherche relative aux STIC nécessite elle-même des outils de puissance.

Aucun modèle des sciences et technologies de l'information et de la communication ne permet en effet de prédire les puissances de calcul nécessaires à une nouvelle application, les comportements n'étant pas linéaires dans ce domaine. Le passage à l'échelle posant de nouveaux problèmes, l'expérimentation est indispensable. Selon M. Gérard ROUCAIROL, " Le problème fondamental de la recherche dans le domaine des STIC est donc de pouvoir disposer des plates-formes permettant le passage à l'échelle qui, seul, pose le problème scientifique au bon niveau ".

En conséquence, les besoins de notre pays en grands calculateurs augmentent rapidement, en réponse à trois types de demandes.

La première catégorie de besoins correspond aux grandes plates-formes ouvertes sur les réseaux à haut débit et permettant d'expérimenter de nouveaux services.

Certaines estimations évaluent la dépense totale, à effectuer sur 5 ans, à 1,5 - 2 milliards de francs par an, à partager entre l'Etat et l'industrie.

Le deuxième type de besoins est celui de plates-formes de mutualisation et de mise en place de composants logiciels. Ces équipements sont nécessaires pour tirer parti de la révolution technologique en cours qui permet de plus en plus de forger une nouvelle application à partir de morceaux de programmes provenant de diverses origines.

Le troisième type de demande correspond aux besoins en croissance très rapide de gestion et de transmission de l'information ainsi que pour la simulation numérique.

Les calculateurs de forte puissance sont en effet indispensables pour gérer l'augmentation de débits des réseaux.

Ils sont également indispensables pour gérer les accès aux bases de données gigantesques rassemblant des données de tous types et en particulier celles qui résultent des observations réalisées avec les très grands instruments.

Enfin, les supercalculateurs sont indispensables pour effectuer les simulations numériques correspondant aux modèles de plus en plus complexes que mettent au point des disciplines comme la météorologie ou l'astrophysique.

3.2. Le retard français et européen

Face à l'explosion de la demande, deux types d'action, au demeurant complémentaires, sont envisageables.

La première consiste à mettre en réseau les capacités de calcul existantes et à répartir à tout moment les calculs sur les machines disponibles. Il s'agit dans ce cas d'une approche dite " grille de calcul ".

La deuxième solution est de renforcer l'équipement en supercalculateurs. En réalité, ces deux démarches sont complémentaires, la mise au point de la Grille ne pouvant supprimer le besoin en ressources supplémentaires.

La mise au point de la Grille de calcul représente un des défis d'avenir de l'informatique. Il s'agit d'un des projets majeurs du CERN, le GRID, qui se prépare ainsi à gérer les flots gigantesques d'informations produites par les détecteurs du futur LHC.

En recourant aux technologies du parallélisme et du calcul réparti, on espère mettre au point une grille de calcul, par exemple au niveau européen, mettant en réseau les puissances de calcul d'instituts différents. Grâce à cette grille, l'utilisateur ne se soucierait pas de savoir où se trouve le centre de calcul qui prendrait en charge ses demandes. Le réseau apparaîtrait sous une configuration nouvelle, celle d'une ressource de calcul dans laquelle il serait possible de puiser comme l'on fait pour le courant avec le réseau électrique.

S'agissant de l'équipement en supercalculateurs les comparaisons internationales ne sont à l'avantage ni de la France ni de l'Europe.

Le dispositif français de calcul pour la recherche est constitué de plusieurs échelons : d'une part les équipements de laboratoires, d'autre part une dizaine de centres intermédiaires comprenant des équipements de " méso-informatique " comme le Centre Charles Hermitte (CCH) de Nancy, le CRIHAN de Rouen, par ailleurs les ressources nationales de l'IDRIS (CNRS) et du CINES (Centre informatique national de l'enseignement supérieur), et enfin les équipements dédiés (CEA, Météo-France, par exemple).

Ce dispositif est-il capable d'absorber l'augmentation de la demande ? On peut en douter en constatant, par exemple, que la demande de temps de calcul adressée au CINES double chaque année depuis trois ans. Les augmentations les plus fortes sont, en 2000, le fait de la physique, de la mécanique des fluides et de la biologie. A titre indicatif, le budget du CINES est de l'ordre de 35 millions de francs par an, dont une vingtaine de millions de francs en investissement.

Si l'on examine le palmarès des 100 plus grands centres de calcul mondiaux, on constate que des centres français n'y sont cités que 7 fois. Certes, l'option du calcul réparti a été plus suivie en France que dans d'autres pays. Mais la situation n'est pas bonne si l'on se réfère à un autre indicateur, celui des puissances de ces centres.

En cumulant les puissances de calcul des 7 centres français cités dans le même palmarès des cent premiers centres mondiaux, la France arrive au 5ème rang mondial avec une puissance installée de 2 Teraflops4, à comparer aux 5 Teraflops de la Grande-Bretagne, aux 7 Teraflops de l'Allemagne, aux 11 Teraflops du Japon et aux 67 Teraflops des Etats-Unis.

Au reste, la situation de l'Europe n'est pas sensiblement meilleure. La somme des puissances des calculateurs européens figurant dans la liste des 100 premiers atteint en effet 14,3 Teraflops, soit près de 5 fois moins que les Etats-Unis.

Encore une fois, le choix de certains pays européens, dont la France, a été celui d'avoir de nombreux de centres de calculs de moyenne puissance, ce qui minore les positions de la France et de l'Europe dans les palmarès relatifs aux supercalculateurs.

Mais il faut souligner que les Etats-Unis et le Japon se dotent actuellement de centres de calcul supplémentaires, dont des centres dédiés à la climatologie. Le projet japonais vise les 40 Teraflops à échéance de 2 à 3 ans. Les Etats-Unis mettent actuellement en place un projet de calcul massivement parallèle atteignant aussi les teraflops, à échéance de 3 à 4 ans.

En l'occurrence, il ne semble pas prudent de s'en remettre à la mise au point de la Grille de calcul qui nécessite un effort de recherche et développement dont on ne peut prévoir avec certitude à quelle date il débouchera sur des résultats opérationnels.

C'est pourquoi l'augmentation de la puissance des superordinateurs disponibles dans les centres de calcul apparaît indispensable.

Un progrès pourrait être apporté par une rationalisation des centres de calcul dédiés à la recherche.

Un autre progrès pourrait résulter de la création de centres de calcul européens et dédiés à une discipline. Des propositions ont été faites dans ce sens au Commissaire européen à la recherche, par vos Rapporteurs (voir 2ème partie).

4. Les technologies logicielles

Pour de nombreux observateurs, les technologies logicielles pourraient subir deux évolutions capitales dans les années à venir.

La première évolution est en réalité une révolution : c'est celle des composants logiciels, qui permettent le développement de nouvelles applications à partir de parties de programmes provenant d'autres applications.

La deuxième évolution est celle des logiciels dits libres ou ouverts, qui permettent aux utilisateurs l'accès aux codes sources à condition de mettre les nouveaux développements qu'ils réalisent à disposition du reste de la communauté.

Ces deux évolutions majeures pourraient permettre à l'industrie française de reprendre pied sur le secteur des progiciels, un marché de 600 milliards de francs pour les années 2002-2003.

Les pouvoirs publics disposent dans ce secteur de trois principaux moyens d'action : d'une part l'INRIA (Institut national de recherche en informatique et en automatique) et le CNRS, d'autre part les commandes publiques et enfin le soutien à la recherche logicielle à travers le réseau national de recherche et d'innovation en technologies logicielles.

4.1. L'INRIA et le CNRS

L'INRIA est un établissement public à caractère scientifique et technologique (EPST), qui comprend 750 fonctionnaires et est doté d'un budget annuel d'environ 550 millions de francs. Avec 160 thésards et les personnels sous contrat, la force de travail de l'INRIA atteint 2000 personnes réparties en 5 centres nationaux majeurs.

Le domaine d'activité de l'INRIA est bien entendu celui des sciences et technologies de l'information et de la communication (STIC). La recherche sur les logiciels constitue l'essentiel de son activité et porte aussi bien sur les outils informatiques que sur les réseaux, en traitant de leurs applications au calcul scientifique, à la physique appliquée, à la CAO (conception assistée par ordinateur), aux télécommunications, aux réseaux, à la santé, au transport et à l'environnement.

Dans le cadre de la priorité donnée aux STIC par le CIRST du 1er juin 1999, un contrat a été signé en juillet 2000 entre le Secrétariat d'Etat à l'industrie, le ministère de la recherche et l'INRIA, pour augmenter de 755 à 1180 personnes les effectifs de cet institut d'ici à 2003 et accroître ses crédits en conséquence. Par ailleurs, la création d'un département des STIC au CNRS a été décidée et devrait donner une nouvelle impulsion aux travaux du CNRS dans ce domaine, qui n'ont pas pour l'instant une visibilité en rapport avec leur importance.

4.2. Les commandes publiques et le Logiciel libre ou ouvert

Un autre moyen d'action des pouvoirs publics est celui des commandes de logiciels qui peuvent impulser une industrie nationale au demeurant très forte dans le domaine des logiciels mais faible dans le domaine des progiciels.

Par ailleurs, il convient d'une part de s'opposer aux tentatives américaines visant à imposer la brevetabilité des logiciels et d'autre part de favoriser la mise en commun des ressources en logiciel libre auxquelles les entreprises et les organismes publics sont disposés à donner accès.

Enfin, la création d'une Agence du Logiciel Libre serait de nature à donner une impulsion à l'essor de ces ressources ouvertes. Votre Rapporteur, M. René TRÉGOUËT, a déposé en septembre 1999, sur le Bureau du Sénat, avec le Sénateur Pierre LAFFITTE, une proposition de loi sur le logiciel libre qui comprend la création d'une telle agence du Logiciel libre.

Le Premier Vice-président de l'Office parlementaire, M. Jean-Yves LE DÉAUT, a fait une proposition voisine, déposée, elle, sur le Bureau de l'Assemblée nationale. Une initiative des pouvoirs publics en France, mais plus encore en Europe, rencontrerait certainement un large écho.

Enfin, le ministère de la recherche a lancé au début de l'année 2000 le réseau national de recherche et d'innovation en technologies logicielles avec une enveloppe de 180 millions de francs d'aides publiques pour l'année 2000 (voir tableau ci-dessous).

Tableau 6 : Principales caractéristiques du réseau des technologies logicielles

nom du réseau et domaine

dates et organisation

remarques

RNTL (réseau national de recherche et d'innovation en technologies logicielles)

- lancé en janvier 2000

- Comité d'orientation

- 1er appel à propositions en juin 2000

- 180 millions de francs d'aide publique en 2000

5. Les télécommunications

Bien qu'ils ne soient pas pris en compte dans la nomenclature actuelle du ministère de la recherche, les grands réseaux de télécommunications à hauts débits font certainement partie des grands outils littéralement vitaux pour la recherche et en particulier pour les sciences et les technologies de l'information et de la communication. Leur importance est d'ailleurs croissante dans la vie quotidienne des chercheurs et dans la capacité à déployer des équipes de recherche sur l'ensemble du territoire national.

Si un réseau est un grand équipement indispensable, ce n'est pas seulement parce qu'il constitue un moyen de communication entre chercheurs. C'est aussi que ses fonctionnalités de communication sont transformées par l'imagination de ces derniers et par l'industrie.

Ainsi, Internet, au départ réseau pour l'échange à distance de données informatiques entre gros calculateurs, a donné naissance au World Wide Web, dont les acquis déjà considérables ont été obtenus en moins de 10 ans. A son tour, le protocole du Web devient dominant et permet l'échange d'objets multimédia. L'étape suivante de l'évolution est la possibilité de se servir d'Internet pour des usages distincts de la simple transmission de données, le réseau se transformant en réseau de communication pour la voix et l'image en temps réel.

Au reste, l'utilisation à des fins de calcul scientifique des ordinateurs connectés au réseau occasionnera une charge supplémentaire pour ce dernier du fait des transferts de données.

Il faut en conséquence non seulement des réseaux à qualité de service mais également des réseaux de recherche, pour conduire des études sur une meilleure utilisation des réseaux pour la communication mais aussi pour des applications scientifiques.

5.1. Les réseaux de service

Le réseau de service à la recherche est en France le réseau RENATER qui fait l'objet d'améliorations permanentes et assure la liaison avec les réseaux internationaux.

Le réseau RENATER (Réseau national pour l'enseignement et la recherche) est un réseau de télécommunications à haut débit auxquels sont raccordés plus de 600 sites ayant une activité dans les domaines de la recherche, de la technologie, de l'enseignement et de la culture. Il est composé d'une infrastructure nationale et de liaisons internationales. L'infrastructure nationale comprend une épine dorsale à haut débit, intitulé RENATER 2, et des réseaux de collecte régionaux.

Ce réseau national est géré dans le cadre d'un GIP (Groupement d'intérêt public) créé en 1992 et déjà renouvelé deux fois pour 3 ans, le dernier renouvellement étant intervenu en janvier 1999 et le pérennisant jusqu'en 2002.

Les principaux membres du GIP sont l'Etat, représenté par la direction de la recherche du ministère de la recherche, qui s'implique fortement et assure la moitié du financement public, et le CNRS qui contribue à hauteur de 36 % du financement total. Le CEA, le CNES et l'INRIA, pour leur part, prennent à leur charge chacun 4 à 6 % du financement total, à quoi s'ajoutent des contributions inférieures du CIRAD et de l'INRA.

Les apports des membres du GIP ne représentent toutefois que 75 % des ressources de RENATER, le complément correspondant à des recettes " commerciales " perçues auprès d'autres institutions non-membres.

Pour l'année 2000, le budget total de RENATER atteint 180 millions de francs. Le coût de location du réseau représente la quasi-totalité du budget. Les dépenses de personnel correspondant aux 20 personnes de l'équipe ne dépassent pas 4 % du budget total.

On trouvera page suivante les schémas de l'architecture actuelle et l'architecture future de Renater 2.

Si les réseaux régionaux sont directement confiés à France Télécom, le " backbone " d'interconnexion nationale fait, lui, l'objet d'une convention de service entre le GIP et France Télécom. Il faut toutefois noter que les réseaux régionaux ne se sont malheureusement pas améliorés aussi vite que le " backbone " national.

Les liaisons de l'épine dorsale sont à 155 Mbits/s et demain à 622 Mbits/s. Si le réseau tarde un peu à monter en vitesse, ce n'est pas en raison de limitations financières mais en raison d'un manque relatif de compétitivité du secteur.

Le principal problème est celui des réseaux régionaux qui sont encore pour la plupart dans leur configuration de 1992 et ont des performances insuffisantes par rapport au réseau national. A titre d'exemple, le raccordement de la plupart des universités se fait avec un débit de 2 Mbits/s, alors qu'en Allemagne et en Grande-Bretagne, il est de 155 Mbits/s. Ceci résulte d'un hiatus dans le financement de l'ensemble des infrastructures.

L'Etat finance en effet l'infrastructure nationale d'interconnexion ainsi que les réseaux à l'intérieur des universités, mais ne prend pas à sa charge la connexion des universités aux n_uds régionaux distribués dont l'Etat espérait que les régions les financeraient. Mais du fait de leur caractère récurrent, les dépenses de réseaux ne sont pas considérées comme des investissements par les régions qui donc, ne peuvent les prendre en charge.

Il est clair que le réseau de collecte est insuffisamment performant et qu'il s'agit d'un problème qui concerne la collectivité nationale tout entière.

Au demeurant, RENATER est partie prenante du réseau européen TEN 155 dont la capacité va être portée à 622 Mbits/s avant la fin 2000.

RENATER est également partie prenante du futur réseau GEANT à 2,5 Gbits/s qui reliera les pays membres de l'Union européenne et les 10 pays éligibles au 5ème PCRD, réseau qui passera ensuite à 10 Gbits/s puis à 40 Gbits/s soit l'équivalent de son modèle américain ABILENE.

A l'évidence, RENATER constitue un équipement d'une importance vitale pour toute la recherche française.

L'ensemble des intervenants auditionnés par vos Rapporteurs estiment qu'un réseau de ce type devrait faire partie des très grands équipements si l'inscription dans cette liste avait une conséquence en termes de moyens supplémentaires.

On peut simplement souhaiter que, pour accélérer la montée en puissance de RENATER, les membres du GIP décident un accroissement des moyens de ce dernier et la création d'un fonds de réserve pour financer les modernisations du réseau et que les régions ou les départements trouvent les moyens comptables de participer au financement des réseaux de collecte locaux.

Mais il existe un autre type de réseau pour lequel un effort d'investissement serait important, c'est le réseau expérimental VTHD (vraiment à très haut débit).

2. Un exemple de réseau expérimental : le VTHD

Les objectifs des réseaux expérimentaux sont multiples : d'une part en comprendre l'économie, d'autre part effectuer des recherches sur les technologies du futur dont les paramètres essentiels sont le débit, la capillarité et l'interconnexion avec l'Europe et le monde, et, enfin de faire des recherches sur les services associés du futur.

La démarche est en conséquence de bâtir des infrastructures mais aussi d'imaginer des produits et des services nouveaux pour les utilisateurs.

Une composante du réseau expérimental français promu et exécuté sous l'égide du RNRT est le réseau VTHD (Vraiment à Très Haut Débit). Ce réseau VTHD a commencé de s'ouvrir en 2000, mettant en relation Rennes, Paris, Grenoble, Sophia Antipolis, Rouen, Nancy, Toulouse, dans un premier temps. Cette première mouture, comparable en niveau de performances avec le réseau américain ABILENE, sera accessible à des tarifs moins élevés, grâce notamment à l'aide de l'Etat.

Les coûts du VTHD s'élèvent à 40 millions de francs pour les infrastructures de base dont 10 millions de francs pour les routeurs, à quoi s'ajoutent les coûts de la recherche et ceux de la mise à disposition de chercheurs et de matériels, ce qui multiplierait par 3 ou 4 le coût global, soit environ 150 millions de francs au total.

Comme d'autres projets de réseaux en cours d'exécution, le projet VTHD est incontestablement assimilable à un TGE. Le financement par l'Etat y joue un rôle essentiel, notamment par l'intermédiaire des aides à la connexion des laboratoires.

3. La recherche sur les télécommunications

La loi de réglementation des télécommunications a confié à l'Etat la recherche publique auparavant assurée par le CNET. Une partie de la recherche amont en optoélectronique et en microélectronique a été transférée au CNRS et au CEA (LETI) et la recherche appliquée à Alcatel (GIE Opto+) et ST Microelectronics. Le CNET s'appelle désormais France Télécom R&D. France Télécom R&D emploie 3800 personnes, accueille en outre 150 thésards et dispose d'un budget global de 3 milliards de francs.

Les activités de recherche de France Télécom R&D représentent un budget de 450 millions de francs, 350 chercheurs et 150 thésards. Ses principaux domaines d'activité portent sur les réseaux, le génie logiciel, l'accès aux réseaux de mobiles, le support au réseau, les interactions homme-machine, les technologies d'accès intelligent à l'information et les usages en termes de comportement et d'acceptation des nouveaux produits par le public et les entreprises.

Comme d'autres opérateurs et d'autres systémiers-équipementiers, France Télécom R&D participe au financement de la recherche publique au travers de contrats de coopération d'un montant total de 60 millions de francs. Les universités et le CNRS sont ses partenaires principaux, à hauteur de 60 % du total, l'INRIA et les écoles des télécommunications assurant le complément, à parts égales.

France Télécom R&D participe à des recherches coopératives en Europe et est un des principaux acteurs du Réseau national de recherche en télécommunications (RNRT).

De fait, le réseau de recherche en télécommunications constitue un moyen privilégié d'intervention de l'Etat pour l'aide à la recherche. Les conditions d'éligibilité d'un projet sont de réunir plusieurs partenaires publics ou privés et les subventions représentent une partie des dépenses, inversement proportionnelle, pour simplifier, à la taille des entreprises.

Le RNRT est une réussite saluée par tous les acteurs. On en trouvera ci-après les caractéristiques sommaires.

Tableau 7 : Principales caractéristiques du réseau national de recherche en télécommunications

nom du réseau et domaine

dates et organisation

remarques

RNRT (réseau national de recherche en télécommunications) - futur d'Internet, téléphones mobiles multimédia, constellations de satellites

lancé en 1998

Comité d'orientation, bureau exécutif, 5 commissions thématiques

Interventions conjointes du Secrétariat d'Etat à l'industrie et du ministère de la recherche

- 470 millions de francs distribués en 1998-1999 dont 300 par le Secrétariat d'Etat à l'industrie et 170 par le ministère de la recherche

- 210 millions de francs en 2000

Le creuset du projet VTHD est le RNRT dans le cadre d'un programme de préparation de l'Internet du futur.

Par ailleurs, des centres nationaux de recherche technologique sont prévus pour les télécommunications, les images et le multimédia à Rennes-Lannion-Brest, les télécommunications, Internet et les nouveaux usages à Sophia Antipolis.

Au total, il existe en France un tissu compétitif de recherche dans les télécommunications, issu d'une dizaine d'années d'efforts. Mais on peut estimer que, pour passer à un nouveau stade, il faudrait des ressources supplémentaires.

6. La formation et l'emploi dans les STIC

Dans les préoccupations des acteurs de sciences et technologies de l'information et de la communication, la pénurie de main d'oeuvre formée et compétente représente un point d'une importance capitale.

Deux facteurs en sont la cause, d'une part un déficit de formation et d'autre part une fuite des cerveaux qui est patente et particulièrement intense dans le domaine des STIC.

La France n'est pas la seule à devoir faire face à cette situation. Des pays comme l'Allemagne et les Etats-Unis comptent faire jouer un rôle croissant à l'immigration d'informaticiens recrutés en Europe de l'Est, en Russie ou en Asie. L'emploi à distance est utilisé par certaines entreprises françaises dans la mesure où les réseaux de télécommunications leur permettent de confier des tâches de développement à des personnels éloignés, y compris installés dans d'autres pays. Toutefois, il ne s'agit pas là de solutions durables, car la concurrence est mondiale et les spécialistes font de plus en plus l'objet d'offres séduisantes d'expatriation.

En vérité, la recherche publique doit aussi faire face à une fuite des cerveaux, en direction du secteur privé qui offre des conditions salariales sans comparaison possible avec l'offre publique. Ce phénomène est au demeurant particulièrement développé et inquiétant dans le secteur des télécommunications.

La formation en informatique ne saurait évidemment constituer un grand équipement, non plus que la revalorisation des conditions de rémunération des ingénieurs et des techniciens des STIC dans la recherche publique.

Toutefois, il s'agit là d'une question absolument capitale et qui prendra encore plus d'importance dans les années à venir, au fur et à mesure de la montée des besoins de traitement, de stockage, de documentation et de diffusion de l'information qui s'accélère dans toutes les disciplines de la recherche.

Tous les organismes de recherche dont les représentants ont été consultés par vos Rapporteurs ont mentionné des besoins rapidement croissants en spécialistes des STIC.

Rappeler l'importance de cette question dépasse l'analyse des TGE stricto sensu mais se justifie par le fait que les besoins d'investissement dans les STIC, c'est-à-dire de préparation de l'avenir, ne se résument pas à la mise en place de grandes infrastructures. En réalité, il s'agit là d'un enjeu qui nécessite à l'évidence un grand projet, une notion que la France doit retrouver d'urgence.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 1 Dalton = 1g/mole.

4 Teraflop : mille milliards d'opérations par seconde.