Accueil > Documents parlementaires > Rapport d'information
Version PDF
Retour vers le dossier législatif

Accédez au Tome II : Compte rendu des auditions publiques des 14 avril, 26 mai, 12 octobre, 27 octobre et 24 novembre 2011

N° 4214 N° 286

____ ___

ASSEMBLÉE NATIONALE SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

TREIZIÈME LÉGISLATURE SESSION EXTRAORDINAIRE DE 2011 - 2012

____________________________________ ___________________________

Enregistré à la présidence de l’Assemblée nationale Enregistré à la présidence du Sénat

le 24 janvier 2012 le 24 janvier 2012

________________________

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT

sur

L’INNOVATION À L’EPREUVE DES PEURS ET DES RISQUES


Annexes sur

Par MM. Claude Birraux et Jean-Yves Le Déaut, Députés.

__________ __________

Déposé sur le Bureau de l’Assemblée nationale Déposé sur le Bureau du Sénat

par M. Claude BIRRAUX, par M. Bruno SIDO,

Premier Vice-Président de l'Office Président de l’Office

_________________________________________________________________________

Composition de l’Office parlementaire d’évaluation des choix scientifiques et technologiques

Président

M. Bruno SIDO, sénateur

Premier Vice-Président

M. Claude BIRRAUX, député

Vice-Présidents

M. Claude GATIGNOL, député M. Roland COURTEAU, sénateur

M. Pierre LASBORDES, député M. Marcel DENEUX, sénateur

M. Jean-Yves LE DÉAUT, député Mme Virginie KLÈS, sénatrice

DÉputés

SÉnateurs

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Alain CLAEYS

M. Jean-Pierre DOOR

Mme Geneviève FIORASO

M. Claude GATIGNOL

M. Alain GEST

M. François GOULARD

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Michel LEJEUNE

M. Claude LETEURTRE

Mme Bérengère POLETTI

M. Jean-Louis TOURAINE

M. Philippe TOURTELIER

M. Jean-Sébastien VIALATTE

M. Gilbert BARBIER

Mme Delphine BATAILLE

M. Michel BERSON

Mme Corinne BOUCHOUX

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

Mme Michèle DEMISSINE

M. Marcel DENEUX

Mme Chantal JOUANNO

Mme Fabienne KELLER

Mme Virginie KLES

M. Jean-Pierre LELEUX

M. Jean-Claude LENOIR

M. Gérard MIQUEL

M. Christian NAMY

M. Jean-Marc PASTOR

Mme Catherine PROCACCIA

M. Bruno SIDO

   

SAISINE



SOMMAIRE

___

Page

PREMIERE PARTIE : UN CADRE RENOUVELÉ POUR LA RECHERCHE ET L’INNOVATION 15

I. L’innovation, moteur des sociétés contemporaines 15

A. Contexte historique de l’innovation 16

1. L’innovation dans l’Histoire 16

2. La place de l’Homme dans l’innovation 16

3. Le rôle des entreprises 17

B. Innovation et société 19

1. Les deux sens de l’innovation 19

a. L’innovation, conséquence de la recherche 19

b. L’innovation, conséquence des besoins de la population 20

2. L’innovation, facteur de dynamisme économique et social 21

3. L’importance de sa composante culturelle 22

a. L’exemple indien 23

b. L’exemple chinois 25

c. L’exemple américain 26

4. Les multiples formes de l’innovation 29

a. L’innovation de produit et l’innovation de procédé 29

b. L’innovation organisationnelle 29

c. Innovation incrémentale et innovation de rupture 30

C. Risque et incertitude dans le processus d’innovation 30

1. Les deux temps de l’innovation 31

2. La dynamique de l’innovation face à la demande de précaution 32

D. Développer l’intérêt des jeunes pour les sciences et l’innovation 33

1. Remettre en cause la peur de l’échec comme moteur de la motivation à l’apprentissage 33

2. L’importance de la confrontation de l’école au monde réel par les projets innovants interdisciplinaires 34

3. Apprendre à trouver l’information pertinente dans une société de l’information 34

II. Le système actuel : entre innovation organisationnelle et mille-feuille institutionnel 37

A. L’émergence de nouvelles structures 37

1. Les Alliances de Recherche 38

2. Les regroupements universitaires 45

3. Les clusters et les pôles de compétitivité 46

4. Le cas du plateau de Saclay 49

B. Un nouveau mode de financement : l’appel à projet 60

1. L’ANR 60

2. Le plan Campus 63

3. Le Grand Emprunt 64

4. La place des financements récurrents 69

5. Quel rôle pour les contrats quinquennaux ? 69

C. Les limites d’une approche globale au niveau européen 70

1. La stratégie de Lisbonne a échoué 70

2. La stratégie Horizon 2020 risque de connaître le même sort 71

III. Enseignement supérieur, recherche, et service à la société 73

A. La formation après le bac 73

1. Les avantages et inconvénients d’un système dual : quelle valeur pour les diplômes ? 73

2. Un renouveau des outils pédagogiques 74

3. Le développement d’un langage commun : les projets inter-formation et le décloisonnement
des filières 75

B. De la recherche à l’innovation : boite à outils pour des universités autonomes 76

1. Les apports et limites de l’autonomie des universités 77

a. Des instances de gouvernance plus efficaces ? 77

b. Un vaste transfert de compétences paralysé par de nombreux appels d’offres ? 78

c. Des équipes supports au montage et à la gestion des projets 79

d. Un transfert des connaissances plus efficace vers le monde économique 80

2. Les structures de valorisation et le service à la société : l’apport des comparaisons internationales 82

a. L’exemple du MIT révèle une puissance financière qui rend difficile une transposition directe des mesures qui y sont mises en œuvre. 83

b. L’exemple de la Belgique et des Pays Bas pourrait être suivi pour mieux valoriser la recherche 84

c. L’expérience des clusters de pointe en Allemagne, mais aussi la mise en place de nouvelles structures à Karlsruhe, ne peut que stimuler l’imagination 92

d. La situation des pays émergents doit être suivie avec attention, car elle peut préfigurer certaines orientations nouvelles 94

e. Vers d’autres stuctures ? Vers de nouvelles règles à respecter ? 97

3. Quelle place pour les docteurs ? 98

a.Le doctorat comme expérience professionnelle 98

b. Les résultats de notre questionnaire 99

C. Une évolution des méthodes d’évaluation de la recherche et de l’innovation 100

IV. Le développement des entreprises innovantes 105

A. Incubateurs, start-up et PME 105

1. Le rôle des incubateurs 105

2. L’importance des petites structures dans l’innovation 107

3. La place des grands groupes 110

B. Les dispositifs fiscaux et juridiques 111

1. Le crédit impôt recherche : entre critiques et réforme 111

a. Un système favorable à la recherche des entreprises, mais perçu comme trop instable 111

b. Le crédit impôt recherche 113

c. Il faudrait poser des conditions pour l’accès des grands groupes au crédit impôt recherche 113

2. Du statut de la Jeune Entreprise Innovante à celui de l’Entreprise d’Innovation et de Croissance 113

3. L’investissement en FCPI et l’ISF-PME, outils pour favoriser les PME innovantes 115

C. Les outils de financement 116

1. La preuve du concept : l’importance des business angels 116

2. Le passage à l’échelle industrielle : la traversée réussie de la « Vallée de la mort » 116

a. La Vallée de la Mort 116

b. Le rôle d’OSEO 119

c. Le Fonds unique interministériel (FUI) 121

d. Le rôle de la Caisse des dépôts et du FSI 121

e. Le pôle de compétitivité Finance-Innovation 122

3. Mettre en place une véritable politique de venture capital 123

a. Un type d’activités actuellement en difficulté en France et en Allemagne, mais aussi dans une moindre mesure aux Etats-Unis 123

b. Les préconisations d’un acteur français : le Comité Richelieu 127

c. La recherche de solutions au plan européen 127

D. L’importance des normes et des brevets dans la diffusion d’une innovation 129

1. Le rôle de la normalisation 129

2. Les conditions d’une utilisation efficace des brevets 131

a. Des défis nouveaux 131

b. La prise en compte des évolutions dans les pays émergents 133

c. Vers une nouvelle approche des brevets ? 134

d. La recherche de solutions plus efficaces en Europe 135

E. Donner une nouvelle impulsion à l’action de l’Union européenne 138

1. Prendre en compte l’évolution prochaine des financements mis en œuvre par l’Union européenne 138

2. Tirer parti du foisonnement de textes et de programmes mis en œuvre par de nombreuses structures 139

3. Insuffler un nouveau dynamisme. 140

a. Les faiblesses à compenser sont connues 140

b. Les obstacles à éviter sont identifiés 141

c. Une autre approche est possible 141

d. Il faut aller plus loin et mener une politique plus volontariste 142

DEUXIEME PARTIE : L’ACCEPTATION D’UNE INNOVATION PAR LA SOCIÉTÉ, CONDITION DE SA DIFFUSION 147

I. La formation scientifique dès l’école primaire 147

A. Mieux enseigner les sciences à l’école 148

1. Les réflexions de Cédric Villani 148

2. Les préconisations de Pierre Léna 152

B. Promouvoir les sciences tout au long de l’enseignement 154

1. L’action de La Main à la Pâte dans l’enseignement primaire et les premières années de collège 154

2. La formation et la sensibilisation des enseignants : l’action d’IFFO-RME 158

3. Universcience y contribue également 160

II. La perception de l’innovation par la population 162

A. Perception de l’innovation et périmètre des risques 163

1. Risques naturels ou artificiels : ce que l’innovation résout, et ce qu’elle complique 163

2. Une innovation est-elle toujours plus risquée qu’une technologie bien rodée ? 164

3. Concilier risque individuel et risque collectif 166

B. La nécessité d’une approche intergénérationnelle 166

1. Les jeunes face aux innovations et aux risques 166

a. Méthodologie 167

b. Quelques résultats 167

2. Prospective : comment envisager le monde dans 30 ans ou 50 ans ? 168

a. Comment l’envisageait-on en 1970 ? 168

b. Comment les jeunes voient leur avenir ? 169

C. Vers une échelle ou une matrice des risques perçus 169

1. Le baromêtre IRSN 169

2. L’échelle des risques mesurée par notre questionnaire 170

D. L’importance de la communication scientifique 170

1. La formation et le statut des journalistes 171

2. Les médias : diffusion des peurs ou informations sur les risques ? 172

III. Les réponses aux peurs exprimées par la société 173

A. L’innovation au travers du prisme « principe de précaution » 173

1. L’attitude du public face à l’incertain : la recherche du « risque zéro » ? 173

2. Evaluation du risque et précaution 175

a. L’intervention de Mme Christine Noiville 175

b. Précaution, attrition, et raison : quel mode d’emploi ? 178

3. La prise de décision en situation d’incertitude 179

B. Les débats au sein de la société civile 179

1. Ethique de l’innovation 179

2. Le rôle du débat public 180

3. Education, citoyens, et organisation du débat public 181

IV. la peur de certaines innovations, et la montée d’un nouvel obscurantisme 183

A. Les questions énergétiques 183

1. Peut-on établir une balance bénéfice-risque de l’énergie nucléaire ? 184

2. Les freins à l’innovation dans le domaine des économies d’énergie 185

3. Les « énergies vertes » : intermittence, stockage, et innovation de rupture. 188

B. Innovation et santé : entre confiance et défiance 190

1. Les sauts technologiques en médecine 190

2. Le cas de la France : un avenir prometteur 193

a. Le pôle de compétitivité Medicen : la mise en place d’un réseau créateur de valeur 193

b. Des exemples de projets structurants 194

3. Un dynamisme au niveau mondial 195

a. En Allemagne 196

b. En Inde 197

c. En Chine 198

d. En Afrique du Sud 199

e. Aux Etats-Unis 199

C. Biotechnologies : le cas des OGM 202

1. Etat des lieux 202

a. Un problème mal posé 202

b. Les faucheurs volontaires : l’impossible débat 204

c. Quelle information sur les biotechnologies ? 205

d. Etat des lieux des OGM dans le monde 206

2. La France prend-elle du retard ? 207

a. Le pôle de compétitivité Végépolys 207

b. La délocalisation de la recherche 208

c. La perte d’une expertise nationale indépendante 211

d. La clause de sauvegarde 211

3. Faut-il un débat public sur la biologie de synthèse ? 213

D. Quel avenir pour les nanotechnologies ? 213

1. Nanotechnologies : un monde nouveau, des questions nouvelles 214

a. Les insuffisances de REACH 215

b. L’évolution des règlementations françaises et européennes 215

c. Le débat public 216

2. Les questions qui font débat 218

a. Nanotechnologies et vie privée 218

b. Cycle de vie et usages dispersifs 219

c. Nanoparticules, santé et environnement 219

3. Quelle dynamique en France et dans le monde ? 219

a. Le pôle de compétitivité Minalogic 219

b. Les nanotechnologies aux USA 220

CONCLUSION 221

RECOMMANDATIONS 231

COMPTE RENDU DE L’EXAMEN DU RAPPORT PAR L’OFFICE 241

ANNEXES 255

Annexe 1 : Composition du Comité de pilotage 257

Annexe 2 : Liste des personnes auditionnées 259
annexe 3 : résultats des questionnaires 277

L’innovation à l’épreuve des peurs et des risques

Quand la France et l’Europe se réveilleront…

L’OPECST a été saisi par le Bureau de l’Assemblée nationale le 27 octobre 2010, à la suite d’une demande de M. Jean-Marc Ayrault, président du groupe SRC de l’Assemblée nationale, dont le texte figure à la page précédente.

Deux rapporteurs, MM. Claude Birraux et Jean-Yves Le Déaut ont été désignés par l’Office parlementaire lors de sa réunion du 18 janvier 2011.

Les deux rapporteurs ont défini leurs objectifs, leur plan de travail et leur méthode lors de la traditionnelle étude de faisabilité qui précède tout rapport de l’Office. Cette étude a permis d’en déterminer le titre : « L’innovation à l’épreuve des peurs et des risques ».

Elle a aussi permis d’en définir les principaux thèmes de réflexion :

Quelles sont les conditions nécessaires pour que l’innovation ait un rôle moteur dans le monde du début du XXIème siècle ? Comment peut-on tirer les leçons des expériences réussies et des échecs, en tenant compte de la spécificité du système français de recherche et de stimulation de l’innovation ? Faut-il mettre en place une stratégie nouvelle permettant de rendre notre pays plus réactif et plus innovant ? Quels sont les politiques et les outils qui permettraient de faciliter mieux évaluer les risques au regard des bénéfices et de rendre l’innovation plus dynamique ?

Cette thématique a été affinée avec les membres d’un comité de pilotage, dont la liste figure en annexe. La composition de ce comité a reflété un souci marqué de multidisciplinarité. Il regroupe en effet des chercheurs de plusieurs domaines, relevant tant des sciences dites « dures » que des sciences humaines, et des présidents d’associations importantes dont les réseaux ont permis de s’entourer de conseils avisés.

Les rapporteurs se sont alors engagés dans un travail de longue haleine qui les a amenés à dialoguer avec plus de mille personnes sur un an. La liste de leurs interlocuteurs figure en annexe. Elle retrace ces rencontres lors d’auditions privées ou publiques, lors de missions en France et à l’étranger, lors de colloques auxquels ils ont participé.

Durant cette année de travail, les deux rapporteurs ont également tenu à rencontrer des acteurs de terrain, tant en Lorraine qu’en Haute Savoie, pour prendre la mesure des recherches innovantes qui y sont menées, et constater le travail mené par les entreprises, les universités, les organismes de recherche, mais aussi par les pôles de compétitivité.

Ces deux missions ont été l’occasion de rencontres originales avec des lycéens de classe de première, autour d’un questionnaire portant sur l’approche intergénérationnelle de l’innovation, des peurs et des risques. Ce questionnaire, auquel ont répondu plus de cent cinquante lycéens de Pont à Mousson, d’Annemasse, mais aussi du lycée français de Singapour a servi de base à un dialogue intergénérationnel, auquel ont été associés des étudiants de Master, des experts, des jeunes retraités comme des adultes engagés dans la vie professionnelle.

Les enseignements qui en ont été tirés ont été largement débattus lors de missions à l’étranger, en Inde, en Chine, en Belgique, en Allemagne, en Suède, aux Etats-Unis, en Afrique du Sud et en Suisse. Des rencontres avec des lycéens ont notamment été organisées en Inde et en Chine.

Les objectifs de ces missions à l’étranger étaient clairement établis. Il s’agissait de vérifier si la France restait au niveau le plus élevé de la recherche au plan mondial ; de s’assurer que nos priorités nationales de recherche étaient pertinentes ; d’identifier les expériences les plus intéressantes dont la France pourrait s’inspirer ; de prendre la mesure du débat sur des questions qui font l’objet de controverses particulières dans notre pays, qu’il s’agisse par exemple des OGM ou des nanotechnologies.

En France, les rapporteurs ont, de manière très systématique, organisé des débats sur les questions qu’ils se posaient, en organisant cinq auditions publiques : la première, le 14 avril 2011 sur l’apport du dialogue intergénérationnel ; la deuxième, le 26 mai 2011, sur les innovations pour la société de demain ; la troisième, le 12 octobre 2011, sur les outils pour une société innovante ; la quatrième, le 27 octobre 2011 sur l’avenir du plateau de Saclay ; la cinquième, le 24 novembre 2011, sur les comparaisons internationales.

Parallèlement, les rapporteurs ont engagé une réflexion approfondie sur le statut des docteurs et leurs possibilités de carrière. Ils ont établi un deuxième questionnaire sur ce thème, qui a reçu un accueil très chaleureux, puisque 1300 docteurs y ont répondu. Leurs réponses sont présentées en annexe, ainsi qu’une première analyse.

Ce rapport repose sur des choix : certains thèmes sont développés plus que d’autres. Il en est ainsi des biotechnologies, où les missions à l’étranger ont permis de s’apercevoir de la diversité et de la richesse de la recherche. Il en est de même du financement de la recherche et de l’innovation, et des réponses à apporter aux risques.

Dans le domaine de la santé, l’innovation a été privilégiée. Les réels dysfonctionnements de l’industrie pharmaceutique, les conflits d’intérêt n’ont pas été approfondis, car ils le sont dans plusieurs autres rapports parlementaires, tant à l’Assemblée nationale qu’au Sénat.

De même, l’énergie nucléaire n’a pas été directement traitée lors des auditions, puisqu’elle fait l’objet d’autres rapports de l’Office et de la mission d’information qu’il a coordonné.

Pour que les témoignages entendus puissent faire l’objet d’études ultérieures et être utilisés, le rapport sera composé de deux tomes : le premier, comme c’est l’usage, en fera la synthèse des éléments les plus pertinents, les analysera et débouchera sur des recommandations. Il présentera les deux questionnaires et en proposera une première interprétation des résultats qui ont vocation à être discutés à l’extérieur du Parlement ; les données seront librement accessibles. Le second regroupera les comptes-rendus des cinq auditions publiques.

Du plan du premier tome apparaît la nature de l’innovation, résultat d’une idée qui émerge souvent en laboratoire pour aboutir sur le marché, et à son adoption par la population. Une première partie portera donc sur la mise en place d’un cadre nouveau pour la recherche et l’innovation ; la seconde sur l’acceptation de l’innovation par la société, condition de sa diffusion, avec notamment une étude thématique comparée de sujets controversés.

PREMIERE PARTIE : UN CADRE RENOUVELÉ POUR LA RECHERCHE ET L’INNOVATION

Dès le début de XXème siècle, Schumpeter développe les fondements théoriques du processus d’innovation ; selon lui, l'entrepreneur incarne ce pari de l'innovation : son dynamisme, sa mobilité, son goût du risque, assurent la réussite de celle-ci.

L'entrepreneur, c'est-à-dire celui qui entreprend, qui prend le risque de développer quelque chose de nouveau, est pour lui un véritable aventurier qui n'hésite pas à sortir des sentiers battus pour innover et déstabiliser son environnement en le plongeant dans une Terra Incognita.

Selon lui, l'évolution du monde et de la société ne peut pas venir d'une modification quantitative, mais d’une transformation qualitative : l’innovation. Celle-ci est au cœur non seulement du processus de croissance, mais aussi de transformations structurelles plus importantes.

Nous nous proposons dans cette première partie de considérer le cadre global actuel de recherche et d’innovation, d’en identifier les forces et les faiblesses, et de proposer des évolutions.
I. L’INNOVATION, MOTEUR DES SOCIÉTÉS CONTEMPORAINES

Qu’est-ce que l’innovation ?

L’innovation, c’est l’art d’intégrer le meilleur état des connaissances à un moment donné dans un produit ou un service, et ce afin de répondre à un besoin exprimé par les citoyens ou la société.

Comme nous le verrons, l’innovation n’est pas seulement un moteur de la croissance, elle constitue également un atout qualitatif par l’amélioration du mode et du niveau de vie qu’elle apporte, par l’invention de produits et de services plus confortables et plus économiques. C’est d’ailleurs à cet aspect des choses que le citoyen est sensible dans sa vie quotidienne, et c’est ce qui leur fait en règle générale associer le concept d’innovation à un sentiment positif, à un désir, un espoir.

Il convient toutefois de différencier l’innovation de la notion de progrès, terme que la France avait diffusé dans le monde, et qui peut-être vu comme la recherche d’un idéal positif à atteindre par les sciences, les techniques, et donc l’innovation. C’est donc la finalité de l’innovation qui en constitue le processus le plus puissant.

La société accumule ainsi des connaissances, qualifiées d’avancée scientifique. Lors de la création du premier prototype, il est alors question d’avancée technologique, et l’aboutissement de ce processus par sa mise au service de la société constitue l’innovation.

La notion de progrès n’intervient ainsi qu’à cette dernière étape, quand la population considère dans son ensemble qu’il est délivré quelque chose de mieux.

A. CONTEXTE HISTORIQUE DE L’INNOVATION

Lors de notre première audition publique, Marc Giget nous a exposé les grandes vagues d’innovations survenues dans notre histoire.

1. L’innovation dans l’Histoire

Les fondements modernes de l’innovation moderne trouvent leur source à la Renaissance, tout d’abord par l’apparition du brevet d’invention qui a permis la sécurisation de la propriété intellectuelle et l’intéressement des inventeurs à leurs inventions.

Dans le même temps, l’établissement du venturi capitale, malheureusement traduit capital-risque en français, a permis le financement de projets plus conséquents, accompagnant les coûts liés aux évolutions scientifiques et techniques, dans un esprit partenarial d’accompagnement de projet.

Le courant de pensée humaniste a irrigué la notion d’innovation en l’inscrivant dans celle du progrès, en tant qu’objectif, en tant qu’idéal qui donne sens à l’innovation en plaçant l’homme au centre de l’innovation. 

Enfin c’est le concept de disegno, c’est-à-dire la preuve de concept, précédant le passage à l’échelle industrielle, qui a ensuite fourni les bases au cadre bien connu actuellement de « recherche, développement » en différenciant la partie recherche jusqu’à la preuve de concept de la partie développement avec le passage à l’échelle supérieure.

2. La place de l’Homme dans l’innovation

Au cours de l’Histoire, il est frappant de constater que toutes les innovations convergeaient vers l’homme, centre de tout. Il s’agissait en effet de bâtir la civilisation, d’améliorer la qualité de vie, de soigner.

Dans la période actuelle, et plus spécialement dans le monde anglophone, il est encore question de solutions « human centric » (centrées sur l’individu). La vague actuelle d’innovation est ainsi comparable à celles que l’on a connues dans l’Histoire. Pour que la population accepte l’innovation, celle-ci doit être perçue comme un moyen concret d’amélioration de la vie réelle, quand elle s’inscrit dans le cadre du progrès.

Toutefois, et comme nous commençons à le constater, plusieurs qualificatifs clés liés à l’innovation, venture capital ou human centric n’ont que des traductions approximatives ou sens différent en français, ce qui témoigne des différences culturelles dans la conception même de l’innovation. Lorsqu’ils sont interrogés, les Français sont moins demandeurs d’innovation : ils ont tendance à préférer l’ancien temps, à idéaliser le passé et non l’avenir, à rebours de l’innovation et du progrès.

L’ampleur de la poussée scientifique et technique actuelle est, sur le plan humain, impressionnante : le nombre de chercheurs dans le monde a dépassé les 10 millions, contre 5 millions il y a quinze ans ; 15 000 articles scientifiques sont publiés par jour, soit 4,5 millions par an ; un million de brevets sont déposés chaque année ; 7,8 millions de brevets sont actifs – mais un quart d’entre eux perd toute valeur dans les trois mois suivant leur dépôt, et moins de 1 % se révéleront rentables – ; les dépenses de recherche et développement sont supérieures à 1 000 milliards de dollars par an ; il existe, dans le monde, 110 000 revues scientifiques.

En Chine et en Inde, pays dans lesquels vos rapporteurs se sont rendus, la poussée est encore plus irrésistible : 1 million de chercheurs en Chine avec un objectif de 4 millions ; 700 000 en Inde avec un objectif de 3 millions… Dans ces pays, innovation et progrès sont encore intimement liés par l’élévation des niveaux de vie (et l’amélioration de la condition humaine).

Le temps de l’innovation s’est accéléré, et cette accélération est telle qu’il s’avère impossible pour un individu d’intégrer et d’assimiler le meilleur état des connaissances. Une personne née au milieu du siècle a connu dans sa vie plusieurs générations d’un même produit, qui devient obsolète avant même de n’être plus fonctionnel : la durée de vie d’une innovation est constamment rattrapée par l’évolution technico-scientifique.

Les produits innovants n’ont rapidement plus aucune valeur, l’innovation désenchante l’innovation, la « teneur marginale en progrès » de l’innovation semble toujours décroître.

3. Le rôle des entreprises

Les entreprises ont également beaucoup de mal à suivre le mouvement.

Ainsi, Marc Giget nous a exposé la situation actuelle dans le domaine de la musique : aucun fabricant de clavicorde n’est devenu fabricant d’épinette, aucun fabricant d’épinette n’est devenu fabricant de clavecin, aucun fabricant de clavecin n’est devenu fabricant de piano ; et pratiquement aucun fabricant de piano classique n’est devenu fabricant de piano électronique.

Il a également pris l’exemple tristement évident de la société Kodak, qui n’a jamais réussi le passage de l’argentique au numérique. Lorsque le capteur CCD a été inventé, 8 000 chercheurs travaillaient sur les films et les pigments chez Kodak, qui détenait environ 10 000 brevets et faisait tourner 200 usines chimiques.

Il nous a également été donné d’autre exemples : Lip était leader mondial dans le secteur de la montre, mais il a depuis été remplacé par Swatch ; Swissair était la compagnie aérienne la plus riche d’Europe, mais aujourd’hui, Easyjet domine le marché suisse ; Manufrance a disparu corps et bien, mais le groupe Decathlon-Oxylane pèse maintenant plus lourd…

Ce phénomène a été conceptualisé et porte un nom : l’aveuglement du leader.

Cet aveuglement du leader, c’est ce qui donne l’avantage au nouvel entrant, c’est ce qui explique que l’innovation a principalement lieu dans les petites structures qui se doivent d’être plus compétitives, plus performantes, mais surtout plus au fait des dernières évolutions technico-scientifiques et plus proches de l’individu, qui constituera à terme son marché.

Ainsi, cette accélération du monde nous oblige, nous Européens, nous Français, à ne pas descendre du train en marche. L’objectif doit être de parvenir à intégrer ces évolutions rapides de la technologie et de la population. Refuser d’innover, ça n’est pas faire du sur-place, c’est reculer.

Mais que constate-t-on aujourd’hui ? Aucun des vingt-cinq produits de haute technologie les plus vendus en France n’est conçu ni fabriqué en France, ce qui indique bien la capacité défaillante de nos entreprises à répondre aux besoins de la société française, alors que 40 % des produits les plus utilisés par la génération antérieure étaient conçus et fabriqués dans notre pays.

Cette accumulation massive, cet accroissement rapide des connaissances nous place devant un autre défi : celui de combiner savoirs et talents, par l’interdisciplinarité notamment. Il est extrêmement difficile de combiner l’ensemble de ces paramètres, qui se sont emboîtés au cours du temps dans une dynamique toujours plus irrésistible.

Contrairement à la définition souvent donnée, nous ne pensons pas que l’innovation soit la valorisation de la recherche. Cette définition est effet purement « capitalistique » et focalisée sur les gains économiques et ne place pas l’Homme au centre du mouvement.

Toute innovation n’a d’intérêt que si elle fait avancer la société. Nos concitoyens voient de moins en moins en quoi tout ce foisonnement d’activité scientifique améliore leur condition : ils ont plutôt l’impression que les choses se dégradent.

Si l’innovation est en effet, et nous le verrons, moteur de la croissance, elle consiste aussi à mettre la connaissance au service de la société par la réalisation d’une synthèse créative du meilleur état des connaissances.

La valorisation de la recherche constitue une vision purement en termes de marché et de gain. La mise au service de la société, c’est rattacher l’innovation à la notion de progrès comme amélioration de la condition de vie humaine. Ce glissement sémantique permet de réincarner le processus d’innovation, et peut servir à relancer la dynamique de notre système de recherche et d’innovation en détruisant le mur artificiel créé entre la production de connaissance « pour le bien de l’humanité » et sa valorisation « pour le bien du marché ».

Nous prônons la mise au service de la société des connaissances pour « le mieux-être du citoyen », dans un mouvement unique, et non en deux temps comme est conçu le système actuel.

B. INNOVATION ET SOCIÉTÉ

C’est dans la relation à l’individu que se crée la valeur de l’innovation, ce qui implique de savoir ce qui a réellement de la valeur pour ceux à qui on s’adresse.

Il est nécessaire d’être à leur service, de comprendre leurs rêves, leurs désirs, leurs espoirs, leurs idéaux, leurs souhaits, leurs valeurs, leurs attentes, leurs besoins. Il faut également respecter leur sensibilité, leur identité, leur culture, leur part de création.

Il convient de connaître leurs pratiques, leur niveau de connaissance, leur vécu. Tout cela afin d’aller plus loin dans ce qui a été fait, pour bâtir un idéal meilleur que le présent.

1. Les deux sens de l’innovation

Le processus d’innovation n’est pas naturel, et peut-être approché de deux façons radicalement opposées : soit en considérant qu’il résulte des avancées scientifiques ou « innovation push », soit qu’il résulte d’un besoin exprimé par la population ou « innovation pull ».

a. L’innovation, conséquence de la recherche

L’innovation est alors considérée comme le passage d’une découverte scientifique à son application industrielle. Elle peut néanmoins déborder le secteur industriel, et être de nature économique et sociale.

Pour qu’il y ait innovation, il faut souvent que les connaissances scientifiques aient atteint un degré de maturité suffisant. Le niveau d’innovation est souvent lié au niveau de l’appareil de recherche du pays concerné, et dépend des crédits disponibles pour la recherche provenant des secteurs public et privé.
Elle dépend aussi de l’intérêt pour la science, la recherche, et de la confiance envers l’avenir et le progrès. Elle suppose l’acceptation du risque et de l’échec. Elle doit être détectée suffisamment tôt.

L’innovation ne se décrète pas : elle est issue d’un processus assez particulier, comme le montre le parcours d’un innovateur : elle repose au départ sur la compétence d’un chercheur. Elle dépend dans un deuxième temps de la capacité à passer du stade de l’idée à sa concrétisation sur un marché.

Elle suppose un environnement particulier : la rencontre d’un chercheur, d’un entrepreneur et d’un financier ; un cadre fiscal favorable et stable ; la possibilité pour les chercheurs de participer à la création d’entreprises ; l’existence de financements suffisants; la présence d’infrastructures adaptées.

Elle découle soit de travaux universitaires passant au monde de l’entreprise (ce qui correspond à une approche top-down), soit de problématiques issues de l’entreprise (approche bottom-up), permettant de faire des sauts technologiques.

Elle dépend de l’attitude des chercheurs par rapport au suivi de leurs recherches, mais aussi du comportement des universités, qui peuvent faciliter ou au contraire freiner toute tentative de liens avec le secteur privé.


Elle est facilitée par certains dispositifs, comme le dispositif Thésame, qui met en relation les petites entreprises avec l’université, en faisant remonter des problématiques générales. Elle est aussi facilitée par la fusion de compétences existant dans divers laboratoires pour traiter des projets multidisciplinaires. Elle a d’autant plus de chances de réussir qu’elle est accompagnée.

Elle est liée à la créativité. Ses moteurs sont nombreux : la sauvegarde de l’emploi, facteur de survie d’une entreprise, la réponse à des besoins, la découverte de nouveaux procédés ou de nouveaux produits. Elle peut être une réponse à des risques identifiés ou à des attentes d’une société, mais aussi la conséquence de recherches scientifiques abouties.

Elle est facilitée en cas de développement sur des secteurs de niche, ce qui permet des complémentarités avec les grands centres.

b. L’innovation, conséquence des besoins de la population

Cette attitude vis-à-vis de l’innovation, en tant que réponse aux besoins de la société est étonnamment très peu partagée en France, notamment dans les milieux académiques. L’innovation y est surtout vue comme une conséquence des progrès techniques et scientifiques et non comme la réponse à un besoin.

L’exemple de PROSYS en Haute Savoie

Créée il y a 25 ans, cette entreprise a eu un développement très rapide autour de l’innovation technologique, dans le domaine du bobinage, activité complexe sur un marché de niches, de plus en plus automatisée du fait des besoins de l’industrie automobile.

Soumise à la concurrence de l’électronique, Prosys a fait de plus en plus des machines d’assemblage. Ce virage n’a pas été facile. Il a fallu inventer de nombreuses machines spéciales et trouver de nouvelles solutions, notamment en développant de nouvelles commandes numériques. Des produits maison ont été intégrés dans les solutions proposées à ses clients.

De nouveaux développements ont été rendus possibles en 2005-2006 grâce à l’acquisition de deux nouvelles entreprises dans le domaine de la soudure sur pièces plastiques. Ce rachat a permis de développer des machines de contrôle avec des technologies assez pointues.

Pour Prosys, il faut rechercher un co-développement avec les clients, le plus en amont possible, car cette entreprise considère que l’innovation est tirée par la demande des clients.

2. L’innovation, facteur de dynamisme économique et social

L’innovation est un stimulant de la croissance.

Même si la corrélation n’est pas absolue entre le nombre de produits innovants et le taux de croissance, l’innovation a un impact certain sur la croissance et le développement d’un pays. Mais ce lien n’est pas uniforme selon les secteurs, ou selon les époques.

On peut ainsi se demander quel est l’impact d’une politique de l’innovation offensive sur la croissance structurelle d’un pays, et quelle est à l’inverse l’évolution de l’économie d’un pays ayant abandonné toute politique de stimulation à l’innovation.

C’est le moyen de rester compétitif dans une économie de plus en plus mondialisée : il est le moyen privilégié pour résister à la concurrence, nationale ou internationale.

L’innovation permet de répondre à la nécessité de conserver un marché, grâce à la différentiation qu’elle apporte. Elle permet de se maintenir par rapport à la concurrence, notamment de la part des pays émergents. Elle peut permettre de mettre en place des outils de contrôle que peut voir un client.

Elle permet surtout de se démarquer de la concurrence, qu’elle découle de nouveaux produits, de nouveaux systèmes d’organisation, ou de nouveaux schémas de commercialisation.

Elle est un outil à la disposition des pays émergents pour se développer et rejoindre les pays industrialisés.

A titre d’exemple, l’Inde qui a déjà une position dominante sur les médicaments génériques, va ainsi dans les dix prochaines années proposer des services nouveaux en informatique. Elle va pouvoir proposer de nouvelles techniques et de nouveaux produits, en élaborant des machines moins chères, à qualité égale, notamment dans le secteur de la santé dans l’aide au diagnostic. Elle peut même devenir une source d’innovation inversée (« reversed »), en suscitant de nouveaux transferts de technologie qui proviendront des pays du Sud et non des pays du Nord.

Il devrait en découler des changements majeurs dans le respect des règles de propriété intellectuelle, car les pays émergents auront de plus en plus intérêt à les défendre.

Des évolutions sont cependant encore nécessaires : l’économie indienne est encore tirée par la recherche de l’efficacité, pas encore par l’innovation. On part d’un système où l’innovation était perçue comme liée au secteur de la science et de la technologie. Mais l’Inde est en train de s’apercevoir qu’elle existe dans l’agriculture, dans l’éducation, dans les divers secteurs de l’administration.

L’innovation permet aussi de répondre à de nombreux défis sociaux, à de nouveaux défis, à de nouveaux besoins : le plus important aujourd’hui est de trouver des réponses à la dépendance. Elle peut aussi permettre de compenser l’éloignement des centres administratifs.

Elle est aussi un moyen pour réfléchir à la façon d’aborder les questions de sûreté et pour contribuer à la réduction des peurs irrationnelles. L’amélioration de la sûreté passe sans doute par un doute constructif visant à en améliorer en permanence l'organisation, et par la définition de solutions nouvelles. La réduction des peurs nécessite de présenter autrement des questions par définition complexes.


3. L’importance de sa composante culturelle

L’innovation a essentiellement des racines culturelles. Elle doit donc être analysée dans le contexte où elle est amenée à se développer, car elle correspond à des besoins qui sont différents selon les lieux.

L’exemple de deux pays émergents -l’Inde et la Chine- et d’un pays hautement développé -les États-Unis- le montre clairement.

a. L’exemple indien

L’Inde a une approche frugale de la production, qui correspond à un mode de vie. Elle cherche des solutions moins chères. Elle n’innove pas plus, mais elle innove différemment. Elle recherche les technologies qui sont adaptées à ses besoins.

Il en découle des situations très différentes, comme l’illustre le secteur automobile :

D’une part, l’Inde essaie d’utiliser au mieux ce qui existe, sans chercher forcément la nouveauté. Elle répare, elle recycle, pour rendre la voiture accessible à la classe moyenne, même si parfois, les laboratoires y semblent vieillots.


Mais d’autre part, elle crée des véhicules hybrides et s’oriente vers la production de véhicules consommant moins d’essence, qui pourront répondre éventuellement aux besoins des pays industrialisés.

L’Inde innove différemment car elle a des besoins et des modes de pensée spécifiques. Son approche frugale de la production correspond à une réflexion de nature philosophique (la sobriété, la frugalité sont des valeurs particulièrement prisées). En conséquence, ce pays recherche les technologies qui sont adaptées à ses besoins ainsi que des avantages comparatifs par rapport aux pays développés. Certes, les moyens et les outils employés, les structures mises en place sont proches de ce qui est fait dans les pays développés, mais l’état d’esprit est différent. L’Inde privilégie les produits plus robustes, les solutions moins chères et les modes d’organisation de la consommation et de la production utilisant moins de ressources.

L’Inde essaie ainsi de trouver des solutions différentes.

Dans la production automobile, l’Inde essaie également de trouver des formules adaptées à ses besoins, même si les résultats attendus ne sont pas toujours au rendez-vous.

L’exemple de la Tata nano, fabriquée par Tata Motors est significatif de cette approche, des attentes qu’elle suscite et des difficultés rencontrées. La solution trouvée est basée sur l’exemple du rickshaw, dont la taille est particulièrement pratique. Fondée sur l’invention, elle aboutit à une voiture simple mais qui a toutes les fonctions d’un véhicule traditionnel. Son succès est néanmoins limité, et sa production n’arrive pas pour l’instant à décoller.

Dans un autre domaine, la téléphonie mobile, l’Inde a réussi à trouver des solutions originales pour répondre à ses besoins particuliers, comme le montre l’exemple de l’entreprise MobMe.

L’exemple de la société indienne MobMe

Cette société a identifié les besoins de deux catégories de la population : les pêcheurs et les policiers. Elle a essayé d’y répondre, en utilisant la dynamique créée par la diffusion des nouvelles technologies de masse, telles que les téléphones mobiles, particulièrement utilisés en Inde.

Elle propose ainsi des services répondant aux besoins particuliers d’une population qui souhaite communiquer et être informée mais qui n’utilise par forcément les moyens traditionnels d’information (télévision, journaux).

Elle a su trouver grâce à l’innovation des solutions nouvelles particulièrement adaptées aux problèmes rencontrés par les ministères de l’intérieur et de la pêche, en se basant sur la volonté du gouvernement indien de développer les services électroniques.

Soumise à la contrainte de la multiplicité des langues, elle a été obligée de mettre en place des solutions innovantes.

Elle s’est aussi aperçue que les pêcheurs avaient besoin de connaître les prix du poisson sur des marchés locaux proches qui restaient très différents. Ces pêcheurs ne lisent pas de journaux, n’utilisent pas la télévision pour s’informer mais ont par contre des téléphones portables. Elle leur propose donc de leur communiquer par téléphonie mobile les cours sur les différents marchés de proximité pour qu’ils puissent décider où débarquer le produit de leur pêche afin de le vendre dans les meilleures conditions. Le nombre de pêcheurs ainsi contactés par SMS est de plusieurs millions. Des revenus collatéraux en découlent pour les autres villageois : les revendeurs de cartes de téléphone prépayées touchent une commission, ce qui permet de faire vivre les retraités.

MobMe a répondu à un besoin particulier des policiers qui utilisent peu l’informatique mais ont par ailleurs un téléphone portable. Elle leur propose un logiciel particulier qui leur permet de faire leurs rapports sur les accidents.

Tenant compte de l’extrême difficulté d’une grande partie de la population à remplir des formulaires, MobMe propose des services novateurs en matériel et en logiciels pour remplir une seule fois les formulaires administratifs. L’information ainsi collectée est disponible pour être réutilisée.

Cet exemple n’est pas le seul. Les changements dans l’agriculture le montrent : les OGM ont été utilisés dans un premier temps pour diminuer la consommation de pesticides et d’engrais et pour réduire la pollution de l’eau, de même que pour augmenter la production de produits alimentaires. Puis il est apparu que la dépendance par rapport à la société qui produisait les semences ne correspondait pas aux habitudes traditionnelles.

Jusqu’à présent, la recherche dans les domaines de l’agriculture mais aussi de la défense était faite dans le secteur public. Les universités étaient censées ne faire que de l’enseignement, pas de la recherche. Il faut maintenant créer des liens entre enseignement et recherche. Des réformes sont en cours.

Le contexte culturel va devoir évoluer : les chercheurs sont encore peu motivés pour créer des entreprises, même s’ils sont un peu plus intéressés par les relations avec l’industrie.

En matière de propriété intellectuelle enfin, les attitudes devront changer : le respect de la propriété intellectuelle résulte non de la volonté du gouvernement, mais de la manière dont la propriété intellectuelle est interprétée, voire comprise par les juges, les services de police ou des douanes. Il est par ailleurs difficile de faire comprendre aux entreprises ce qu’est la propriété intellectuelle. Les changements ont débuté : les moyens en personnel de l’Agence chargée de la protection des droits de protection intellectuelle viennent d’augmenter.
b. L’exemple chinois

En Chine, le modèle est différent. On ne parle pas d’innovation frugale, mais de philosophie et d’histoire.

Les chinois considèrent que l’innovation signifie qu’on cherche à créer de nouvelles connaissances sur le monde et les hommes, ce qui ne peut pas être nocif. C’est notamment le cas pour les communications ou l’électronique. L’invention, c’est-à-dire la création de nouveaux objets peut avoir au contraire des effets positifs ou négatifs. Un couteau permet de faire la cuisine. Il peut aussi être une arme qui peut tuer un autre homme. Il faut donc être très prudent quand on met en place un nouveau produit, afin d’éviter qu’il ne porte atteinte à la vie, qu’il s’agisse d’énergie nucléaire ou de nanotechnologies. L’innovation est néanmoins perçue différemment quand elle permet d’améliorer la qualité de la vie.

Etre innovant pour une entreprise, un laboratoire, un Etat, c’est toujours être comparé à ses rivaux. Mais l’innovation est totalement liée au monde financier. Elle doit rapporter de l’argent, ce qui conduit à améliorer les rendements (dans les cellules solaires par exemple) sans penser aux conséquences et aux risques. Aussi, ne faut-il pas négliger les effets négatifs de certaines innovations.

Les effets économiques ne sont pas la finalité de l’innovation qui est d’améliorer la qualité de la vie humaine. L’évaluation de la sécurité d’une nouvelle technologie est essentielle avant de la développer pour le grand public.

Toute l’innovation s’explique par la demande de la société : dans le domaine de l’énergie, comme on sait qu’on va vers un épuisement de l’énergie fossile, pourquoi ne pas imaginer le problème d’une autre façon, en consommant l’énergie différemment ? Mais personne ne pense à changer son comportement pour consommer moins d’énergie. Il faut trouver des solutions plus rationnelles plutôt que de pratiquer une fuite en avant.

Comme le remarquent des responsables de l’ITTN (International Technology Transfer Network) et de la commission science et technologie de Pékin, la Chine accorde aujourd’hui beaucoup d’importance à l’innovation, essentiellement pour des raisons historiques : jusqu’en 1978, la Chine était un pays très fermé aux plans économique et politique. Il en a résulté un niveau de développement technologique et scientifique qui laissait à désirer. L’ouverture vers le monde initiée par Deng Tsiao Ping a permis aux chinois de se rendre compte de ce qui se passait ailleurs. Le gouvernement a alors proposé l’innovation à la population. C’était une approche top-down. Mais il y a aussi une approche bottom-up : Les entreprises qui comparent leurs produits avec ceux créés à l’étranger ont conscience qu’ils ne sont pas toujours adaptés à la demande extérieure, qu’ils sont souvent vieillots et qu’il est indispensable d’innover pour survivre. Le gouvernement, pour sa part, se rend compte qu’il doit changer de comportement pour ne pas constituer un obstacle à la vie de la société.

L’esprit d’innovation a pénétré dans la culture chinoise depuis cette époque. C’était une question de survie qui est devenue culturelle. Les chinois considèrent en outre que toute innovation est binaire. Le caractère positif ou négatif dépend de la politique du pays et des gens qui contrôlent ces innovations. Il peut y avoir aussi des aspects négatifs liés à la recherche exagérée des profits ou à l’insuffisance de la réflexion sur les effets négatifs d’une technologie innovante.

Tant que la Chine était fermée, elle ne voyait de l’extérieur que les bonnes choses (nourriture, vêtements). Les chinois avaient alors l’impression que l’innovation ne pouvait être que positive, alors que les occidentaux étaient plus raisonnables dans leurs réflexions car voyaient l’ensemble du cycle de l’innovation, ce qui les amenait à lier l’innovation aux risques et aux peurs.

Actuellement, ces préoccupations sont prises en compte par les autorités publiques. Depuis cette année, le gouvernement central ne parle plus seulement de croissance, mais de développement harmonieux et équilibré du pays, et cherche à prendre en compte la protection de l’environnement. Ce même type de raisonnement peut être utilisé pour l’innovation, en pensant à ses effets nocifs éventuels avant de la développer.

La Chine se rapproche ainsi des pays développés, et a pour objectif de devenir le laboratoire du monde après avoir été l’atelier du monde. Après avoir développé des produits manufacturiers simples, elle fabrique maintenant des avions, des voitures, des trains à grande vitesse. Elle consacre d’ores et déjà 1,8 % de son PNB à la recherche et développement, et prévoit d’augmenter son effort financier de manière significative, en le portant à 2,2 % en 2015 et 2 ,5 % en 2020.

c. L’exemple américain

La culture joue un grand rôle dans l’approche de l’échec et dans la réponse au risque. La comparaison entre la France et les Etats-Unis le montre clairement.

(i) Une attitude différente face à l’échec

Les Etats-Unis sont un pays de pionniers, où il est accepté d’échouer, contrairement à la France. La question n’est pas d’avoir échoué, mais d’échouer rapidement en cas d’idée inadaptée, pour pouvoir rebondir plus rapidement et perdre moins de temps.

L’échec est approché différemment en tentant tout d’abord d’éviter la peur de l’échec. Il faut montrer des exemples de réussite, et en cas d’échec mettre l’accent sur les leçons qui en découlent.

C’est une différence culturelle importante, même s’il y a des différences régionales : la Californie est particulièrement ouverte au risque, le sud est plus conservateur.

(ii) Des facteurs de blocage et de changement différents :

Les blocages sur la science sont d’origine religieuse aux Etats-Unis : la théorie de l’évolution, le darwinisme sont devenus des questions non plus scientifiques, mais religieuses. Il en est de même pour toutes les questions touchant la reproduction humaine. En France, les blocages proviennent souvent d’associations environnementalistes.

Les changements sont plus rapides aux Etats-Unis, où il y a une très grande facilité d’adaptation, une plus grande réactivité et une plus grande capacité à s’adapter aux conditions économiques en temps réel. Les règles qui en découlent ne sont pas forcément transposables en France.
Il y a aussi dans ce pays un intérêt plus grand pour le suivi des réseaux sociaux, et une aptitude des épargnants ayant une certaine fortune à se transformer en business angels.

L’acceptation du risque est enfin beaucoup plus grande aux Etats-Unis. Or, c’est fondamental pour la recherche et l’innovation. Ce n’est pas l’argent qui manque le plus en France, mais le goût du risque, l’esprit d’aventure, l’acceptation du risque par le public, et l’acceptation de la rémunération du risque.

(iii) Une capacité de rebond plus importante 

Dans les années 50, la Caroline du Nord était connue pour ses champs de pommes de terre. En l’espace de cinquante ans, elle est devenue célèbre pour son triangle scientifique et les universités qui s’y sont installées, telles Duke University et l’Université de Chapel Hill.

Dans les années 70, Boston était une ville en désarroi, du fait de la crise du textile et de l’aluminium. Puis l’Etat du Massachussets a eu un rôle très important dans le développement des biotechnologies. L’innovation a permis une reconversion remarquable.

(iv) Une gestion différente des carrières

Les comparaisons sont éclairantes :

En France, le salaire est fixe, l’emploi des chercheurs confirmés sécurisé. Les avantages sociaux sont acquis et connus, la reconnaissance passe souvent par le groupe. La hiérarchie cantonne souvent les jeunes chercheurs à des projets limités et bloque les ambitieux. Les postes de haute responsabilité découlent du diplôme initial, souvent celui de l’Ecole Polytechnique ou de l’Ecole Normale Supérieure. En France, pendant longtemps, les chercheurs ne se sont pas intéressés à la valorisation, mais au développement de la connaissance. Cette situation change cependant assez rapidement.

Aux Etats-Unis, le salaire est variable et compétitif. Les chercheurs changent d’emploi en moyenne tous les cinq ans. La promotion est compétitive, de même que le statut. Les avantages sociaux dépendent du salaire et peuvent varier. La reconnaissance est individuelle. La motivation est plus personnelle, la hiérarchie moins pesante et la culture valorisent l’individu. Les possibilités financières de mener des coopérations internationales sont beaucoup plus importantes.

(v) Une approche différente des questions de sécurité

Le rôle qu’assume actuellement le FBI dans le domaine de la recherche est très étonnant pour un français.

Il s’explique largement par le traumatisme causé par les évènements du 11 septembre 2001, et par les épisodes terroristes qui l’ont suivi, et notamment l’affaire de l’anthrax.

Le FBI a maintenant pour mission d’améliorer la manière dont le public prend conscience des questions de sécurité et de sûreté, afin d’éviter de nouveaux dangers terroristes.

Il sponsorise à cette fin des séminaires de jeunes inventeurs pour les rendre conscients de ces problèmes. Son champ d’intervention est très large. Il recouvre les sciences de la vie, la biologie synthétique, les vaccins, toutes les possibilités de bioterrorisme. Il s’intéresse au danger de dissémination des traces d’ADN, et plus particulièrement à la diffusion de l’ADN de la variole par le courrier.

Les universités, qui se sont au départ étonnées de son intervention, le contactent maintenant pour organiser des séminaires.

Le contexte est en fait différent : l’innovation est perçue dans ce cas comme une menace pour la sécurité nationale, par crainte du terrorisme. Il s’agit donc de réconcilier innovation et sécurité.

4. Les multiples formes de l’innovation

Au cours de nos auditions, nous avons pu rencontrer de très nombreuses formes d’innovation : l’innovation technologique (de produit, de procédé ou de service), l’innovation organisationnelle, mais également, l’innovation financière, l’innovation pédagogique, l’innovation sociale, l’innovation marketing…
Nous nous concentrerons prioritairement sur les deux premières formes d’innovation, qui sont les plus structurantes. Toutefois, pour dépasser les goulets d’étranglement qui constituent les blocages, il faut parvenir à ce que ces innovations soient des innovations de rupture.

Il convient ainsi de différencier dans notre approche l’innovation incrémentale, qui se fait étape par étape, de l’innovation de rupture, qui induit ou est induite par un changement radical de paradigme.

a. L’innovation de produit et l’innovation de procédé

L'innovation de produit correspond à l'apparition d'un produit nouveau ou encore à un produit déjà existant mais incorporant une nouveauté. C’est l’innovation qui touche le grand public le plus directement, et à laquelle correspond la définition courante de l’innovation, généralement assimilée à l’invention.

L’innovation de produit est source de profits car l'entreprise innovante est la seule à fournir le produit et peut donc, tant qu’elle est la seule, en fixer le prix à un niveau plus élevé que son coût marginal, le différentiel étant la plus value de l’innovation.

L'innovation de procédé correspond à la mise au point ou à l'adoption de méthodes de production ou de distribution nouvelles. Par exemple, une optimisation de la chaîne de montage, comme nous l’avons vu sur le pôle de décolletage de Haute-Savoie (démarche lean). La production assistée par ordinateur (P.A.O.) et la vente sur internet sont ou ont été des innovations de procédé.

Elles permettent une amélioration de la productivité et des coûts de production inférieurs afin de gagner des parts de marché.

b. L’innovation organisationnelle

L’innovation peut être aussi organisationnelle. C’est cette innovation qui permet l’architecture de l’écosystème d’innovation, notamment dans sa mise en place actuelle par les pôles de compétitivité et les alliances de recherche.

Ces innovations organisationnelles permettent de mutualiser les compétences et de répandre les bonnes pratiques.

La création d'alliances de recherche a pour objectif de décloisonner les relations entre les acteurs qui partagent la légitimité dans un domaine, et de développer des initiatives de coordination et de partenariat.

Les pôles de compétitivité permettent le regroupement sur un même territoire d'entreprises, d'établissements d'enseignement supérieur et d'organismes de recherche publics ou privés qui ont vocation à travailler en synergie pour mettre en œuvre des projets de développement économique pour l'innovation.

c. Innovation incrémentale et innovation de rupture

On distingue l’innovation incrémentale et l’innovation de rupture. Elle est incrémentale quand elle s’inscrit dans la poursuite d’un processus déjà engagé. Si ce n’est pas le cas, on parle de rupture.

Cette innovation de rupture est souvent le résultat du hasard : c’est souvent la plus intéressante, mais aussi la moins prévisible. Qui, en effet, a prévu le développement si rapide d’Internet ? Certainement pas Thomas Watson, PDG d’IBM, qui déclarait en 1943 : « Je pense qu'il existe un marché mondial pour environ 5 ordinateurs ».

La capillarité se fait de manière non prédictive. On peut créer des programmes pour chercher des ruptures. Mais c’est insuffisant. Il faut leur adjoindre une cellule de transfert, une cellule observant les évolutions, et les projetant dans des marchés potentiels. C’est ce que font les générateurs technologiques.

Les innovations de rupture peuvent porter par exemple sur les nouvelles technologies de stockage de l’électricité, sur la chirurgie robotique, sur le passage de la chimie du silicium à la chimie du graphène.

L’innovation peut aussi être managériale, pédagogique, financière.


L’innovation est donc multiple.

C. RISQUE ET INCERTITUDE DANS LE PROCESSUS D’INNOVATION

Il est un élément que l’on oublie trop souvent dans le système français : sans entreprise, il n’y a pas passage de la recherche à l’innovation.

Dans le monde entier, on enseigne en même temps l’innovation et l’entrepreneuriat. L’une et l’autre doivent aller de pair, faute de quoi les connaissances restent dans les laboratoires et n’atteignent pas la vie quotidienne. En Inde sont formés chaque année plus de 10 millions d’entrepreneurs – on leur apprend à créer, à innover, à entreprendre.

De nombreuses innovations sont en préparation partout dans le monde. Ces innovations font face à deux types d’aléas : ceux mesurables, prévisibles, prévus, que l’on appelle généralement « risques », qui sont étroitement intégrés au sein du processus d’innovation, et ceux qui ne sont pas mesurables, qui sont incertains, qui rendent le processus flou et peuvent faire dévier la dynamique du progrès vers les abimes de l’échec.

1. Les deux temps de l’innovation

La notion de risque telle qu'elle est utilisée aujourd'hui apparaît ainsi comme un obstacle à l'innovation. Dans un registre plus sociologique, Beck baptise les sociétés contemporaines "sociétés du risque".

Il met ainsi l'accent sur le fait que le progrès et l'innovation sont aujourd'hui sur le banc des accusés, les citoyens ayant pris conscience des menaces technologiques générées par l'alliance parfois illégitime de la science et de l'intérêt économique, avec une perte du sens de l’idéal qu’il semble nécessaire de rattacher à toute innovation.

Mais en réalité, le risque est l’auxiliaire de l’innovation, de l'entrepreneur, le risque accompagne tout au long le processus d'innovation, aux différentes échelles de temps.

En effet, le processus d’innovation peut être scindé en deux sous-processus aux temps caractéristiques très différents. Le premier, à temps long, constitue le cadre global de l’innovation. Le risque s'inscrit préférentiellement dans cet univers au temps long, qui permet de calculer les rendements espérés sur des séries statistiques historiques. Mais lorsque le cadre global change, c’est tout le système de financement et de sécurisation du processus global d’innovation qui perd pied.

Ainsi, il faut un cadre global stable, cela signifie que l’on évite à tout prix l’incertitude. Car c’est cette incertitude qui cause les plus grands torts, et non le risque en soi. Un entrepreneur qui se met à son compte pour développer son produit sait qu’il prend un risque. Un financeur qui monte au capital d’une start-up sait qu’il peut perdre son capital, il a évalué le risque. Lorsque nous avons auditionné le représentant français de l’association des business angels et lors de nos auditions de financeurs particuliers ou institutionnels, tous étaient bien conscients qu’ils ne pouvaient attendre un retour sur investissement positif pour chacun de leurs placements.

Ainsi, le risque est parfaitement intégré, imbriqué, dans le processus normal d’innovation, et accepté par ses acteurs. La société Apple par exemple est souvent considérée comme l’entreprise la plus innovante du monde. Mais si l’on considère tous les produits qu’elle a commercialisés depuis sa création, on s’aperçoit que les trois quarts d’entre eux ont été des échecs ou des succès très moyens. Il n’y a eu que six véritables succès. Cependant, si un échec fait perdre 50 ou 100 millions de dollars à Apple, un succès rapporte 100 milliards. Et pour l’entreprise, six échecs pour un succès constituent un bon rapport.

En France, malgré un crédit impôt recherche dont ils profitent parfois démesurément, les grands groupes ne prennent généralement pas de tels risques.

C’est même ce risque qui constitue l’un des attraits de l’entrepreneuriat et de l’innovation, c’est ce risque qui crée la volonté de se surpasser pour réussir, pour faire mieux que ses concurrents, pour développer un produit en premier.

Mais cette évaluation du risque doit pouvoir reposer pour partie sur des éléments objectifs et invariants. L’incertitude juridique et fiscale, par exemple dans les cas du crédit-impôt recherche ou du statut de jeune entreprise innovante, voilà qui tue l’innovation dans notre pays.

Nous avons les connaissances scientifiques. Nous avons des gens prêts à prendre des risques, même si comme nous le verrons une part du problème vient de notre aversion au risque par une trop grande stigmatisation de l’échec, notamment à l’école. Nous avons des gens prêts à financer des entreprises. Mais tous ces acteurs veulent savoir à quoi s’en tenir avant de signer un chèque, ce qui est bien compréhensible.

2. La dynamique de l’innovation face à la demande de précaution

Le deuxième sous-processus, à temps bien plus court, constitue le temps rapide de l’entrepreneur innovant, de l’entreprise innovante.

Aux temps plus courts correspond la dynamique de l’entrepreneur, qui souhaite développer son produit, conquérir son marché. C’est cette impression de mouvement que chacun ressent lorsque l’on évoque l’innovation et qui semble de prime abord la plus naturelle.

Naturelle car une entreprise innovante se doit d’être protéiforme pour s’adapter à chaque instant à son environnement, et affronter l’imprévu, l’incertain, qui est le contexte courant de toute action et de toute prise de décision à cette échelle temporelle. L’entrepreneur doit savoir manœuvrer dans le brouillard, et être convaincu de son produit et de sa qualité pour arriver à bon port.

Mais cette rapidité soulève aussi de nombreuses questions sur le bien-fondé d’une innovation ou d’un nouveau produit, et sur son intérêt pour l’utilisateur. Ces questions, souvent légitimes, la société dans son ensemble demande à ce qu’elles soient posées.

Quelle est l’éthique de telle innovation ? Quel est le but recherché et atteint par telle innovation ? Quel est le « mieux-être » apporté par telle innovation ? La balance « bénéfice-risque » est-elle positive ?

Or, les temps étant de plus en plus courts, et les environnements de plus en plus concurrentiels, certaines des réponses apportées se révèlent incertaines. Il n’est plus toujours possible d’apporter des réponses claires en termes d’éventualités possibles, de vraisemblance plus ou moins grande. Le mot probable est ainsi nuancé par les adverbes peu, assez, très, infiniment,…

La probabilité qu’un danger survienne, lié au risque par sa gravité, n’est ainsi plus connue en termes clairs. L’incertitude, due à une connaissance partielle, s’insère dans ce cadre et y ajoute de la confusion.

C’est de cette incertitude nouvelle que découle le principe de précaution. Poussé à l’extrême, celui-ci requiert en effet l’exigence de preuve de l’inexistence d’un danger, et donc de la connaissance totale et parfaite d’un produit, connaissance utopique et frein à l’innovation.

Nous évoquerons le principe de précaution plus en détails dans la deuxième partie.

D. DÉVELOPPER L’INTÉRÊT DES JEUNES POUR LES SCIENCES ET L’INNOVATION

La peur de l’échec, que l’on inculque à tort dans l’esprit de nos enfants dès le plus jeune âge, n’a-t-elle pas sa part de responsabilité dans notre volonté de vouloir tout planifier, tout prévoir, que pas une tête ne dépasse ?

Cette approche négative de l’échec, non comme un évènement à surmonter, mais comme une marque indélébile, n’est-ce pas là une des causes de nos réticences à toute possibilité créative, à toute prise d’initiative ?

1. Remettre en cause la peur de l’échec comme moteur de la motivation à l’apprentissage

Notre pays connaît un vrai problème d’adhésion au risque, au point que l’on n’a pas vraiment le droit à l’erreur. Cette mentalité s’acquiert dès la petite enfance, ce qui explique pourquoi elle est tellement ancrée dans nos esprits. Mais comme nous l’avons vu précédemment, cette mentalité est très différente dans d’autres pays, par exemple aux Etats-Unis, mais également dans les pays émergents.

On peut prendre l’exemple du système de notation à l’école : alors qu’en France, on enlève généralement des points pour chaque faute, dans d’autres pays, on attribue des points quand le résultat est juste. Au final, cela revient au même, mais la philosophie est complètement différente : dans un cas, on punit l’erreur, dans l’autre, on encourage la réussite.

De même, un entrepreneur n’a pas vraiment le droit de se tromper en France. Le créateur des cafés Starbucks a connu sept dépôts de bilan avant de connaître la réussite ; un entrepreneur français pourrait-il se le permettre ?

Le questionnera-t-on ad vitam aeternam sur les raisons de ses échecs, ou regardera-t-on le temps qu’il a mis pour se relever ?

2. L’importance de la confrontation de l’école au monde réel par les projets innovants interdisciplinaires

La société dans son ensemble a évolué, en particulier les technologies, mais notre école n’a pas suivi cette évolution.

Si un individu du XVIIIe siècle revenait parmi nous, c’est très probablement dans une école qu’il serait le moins surpris. Les jeunes générations réalisent parfaitement qu’il existe un décalage énorme entre ce qu’ils apprennent à l’école et ce qu’ils apprennent à l’extérieur – et qui les stimule en général beaucoup plus.

Le rôle de l’école est déterminant. Comme au XIXe siècle, les enfants doivent apprendre à lire, écrire et compter. Mais à l’aube du XXIe, ils doivent savoir aussi créer et naviguer sur un site web et utiliser l’ordinateur au maximum de sa capacité. Or, dans nos écoles primaires, au collège et lycée, le programme s’arrête trop tôt. Ce n’est pas cela qui aidera les jeunes à entrer dans le XXIe siècle !

Il faut inciter les jeunes à se poser des questions, à poser des questions, et leur apporter les éléments qui leur permettent d’y apporter eux-mêmes une réponse.

Une expérience menée aux États-Unis relatée par M. François Taddei montre que des enfants de quatre ans peuvent faire de l’électronique avec de la pâte à modeler. Il faut développer le côté « bricolage » de la fonction d’ingénieur. Les Américains ont ainsi développé un logiciel open source qui permet à chacun de modifier son téléphone, que l’utilisateur peut s’approprier et améliorer. Les nouveaux téléphones sont de formidables instruments scientifiques dont la puissance de calcul est supérieure à celle que la NASA a utilisée pour envoyer une fusée sur la lune, et ils possèdent des capteurs extrêmement performants. Le fait de pouvoir modifier, même légèrement, leurs applications permet de mieux les utiliser.

Qui sait que le plus jeune développeur d’application sur smartphone a onze ans, et les plus jeunes auteurs de publications scientifiques dans des revues internationales entre huit et dix ans ? Les jeunes sont capables d’expérimenter et d’innover, à condition qu’on leur en donne les moyens.

3. Apprendre à trouver l’information pertinente dans une société de l’information

Alors que l’accès à la connaissance se faisait auparavant dans les bibliothèques, nous sommes aujourd’hui face à une surabondance d’informations. Notre système de formation, lui, n’a pas changé. Comment apprendre aux enfants à faire la différence entre des informations pertinentes et celles qui le sont moins ?

Ils ne trouveront sans doute pas ces informations lors du prime time à la télévision, qui ne délivre, sauf rares exceptions, aucune information scientifique ou technologique intéressante.

Les comparaisons internationales du niveau de culture scientifique des jeunes montrent que 20 % des Français ne comprennent même pas la question, contre seulement 5 % dans d’autres pays, et que 0,8 % sont capables de répondre à une question qui n’entre pas dans le cadre du cours contre 4 % en Finlande.

Nous avons en France cinq fois plus d’enfants présentant de graves problèmes de compréhension qu’en Finlande et cinq fois moins d’enfants capables de répondre de manière originale et créative.

Comment faire parvenir l’information aux jeunes ?

II. LE SYSTÈME ACTUEL : ENTRE INNOVATION ORGANISATIONNELLE ET MILLE-FEUILLE INSTITUTIONNEL

La France possède un système d’enseignement supérieur et de recherche qui présente une double spécificité qui le rend unique, mais pas forcément plus compliqué, à l’échelle de l’Europe.

En effet, historiquement, l’Université n’y occupe ni la place centrale dans le système de recherche, ni dans la formation des élites. Les organismes de recherche assument la majeure partie de l’activité de recherche et les grandes écoles, que se soient les écoles d’ingénieurs, les ENS, les écoles d’administration ou les écoles de commerce, s’occupent de la formation des élites et notamment des grands corps de l’État.

Ces écoles n’avaient pas intégré la formation par la recherche dans leurs priorités, comme il nous l’a été rappelé lors de l’audition sur Saclay par exemple par le Général Xavier Michel, directeur général de Polytechnique.

Cette situation, largement héritée d’une longue tradition remontant à l’époque napoléonienne, voire même à l’ancien régime, est en passe d’évoluer. Un certain nombre de réformes tendent à octroyer, non sans heurt, une place plus centrale aux universités.

Ces réformes tendent principalement à accroitre l’autonomie des universités et à remodeler les institutions de recherche. Il ne faut néanmoins pas surestimer les évolutions de ces dernières années et remarquer que ces évolutions, loin d’être isolées et nouvelles, sont la marque d’une véritable lame de fond tant historique que globale.

A. L’ÉMERGENCE DE NOUVELLES STRUCTURES

Notre système de recherche et d’innovation peut apparaître quelque peu complexe, d’autant plus aux yeux d’un étranger. Néanmoins, contrairement à une idée bien ancrée, une rapide comparaison des différents systèmes nationaux peut montrer que le système français, avant l’émergence d’assez nombreuses structures de coopération, n’était pas fondamentalement plus complexe que le système américain ou allemand par exemple. Il était et est différent, mais pas plus complexe.

Ainsi, les community college américains sont-ils à leurs universités ce que nos formations de techniciens du supérieur sont à nos universités. Des institutions comme le NASA Jet Propulsion Laboratory (JPL) américain ou les Instituts Max Planck et les Instituts Fraunhofer allemands ne sont-ils pas des organismes de recherche non-universitaires, de la même façon que nous avons le CEA, le CNES ou le CNRS ?

De fait la différence essentielle est que les allemands ou les américains, pour ne citer qu’eux, savent bien mieux que nous faire la pédagogie de leur système et surtout savent mettre de côtés leurs différends locaux lorsqu’il s’agit de coopération internationale.

Un rapide passage dans un congrès scientifique international permet très rapidement de prendre la mesure de cette différence : ainsi, les affiches et autres présentations visuelles de chercheurs britanniques, allemands ou américains appartenant à une même institution présentent la même charte graphique, alors que cette pratique est très rare pour des chercheurs français, qui ont plutôt tendance à faire référence à leur laboratoire voire à leur équipe de recherche …

La création de structures de coopération constitue une avancée, à condition que celles-ci soient des structures de transitions permettant la fusion d’établissements, et non des structures surnuméraires permanentes. Elles doivent être mises en relief avec la nécessaire mais lente évolution des mentalités ; évolution qui ne pourra pas se faire par le biais d’une règle émanant d’une autorité centrale mais uniquement par le fruit d’une longue coopération inter-établissement et inter-discipline voulue par les différentes communautés.

Ainsi, toute la question de la simplification de notre système de recherche et d’innovation, et plus largement d’une meilleure communication de leur part,  se résume sans doute à savoir comment montrer aux différentes institutions et communautés l’intérêt qu’elles auraient à coopérer soit au sein des alliances de recherche, soit grâce aux regroupements universitaires, soit en prenant part à des pôles de compétitivité.

1. Les Alliances de Recherche

Cinq alliances thématiques regroupent les principaux acteurs de la recherche publique par secteur, afin qu'ils élaborent des programmes transversaux et nouent des partenariats avec les entreprises travaillant dans le même domaine. Concernant les domaines de la santé, du numérique, de l’énergie, de l'environnement, sans oublier les sciences humaines et sociales, elles ont pour vocation de répondre à l'ensemble des défis du futur.

L’Office parlementaire leur a consacré une audition publique le 23 novembre 2010. A cette occasion, leurs présidents en ont présenté les objectifs et les activités. Leurs propos sont repris ci-dessous, qu’il s’agisse d’AVIESAN, d’ALLISTENE, dANCRE, d’AllEnvi et d’ATHENA.


Comme l’a indiqué M. André Syrota, président d’AVIESAN, « lors des crises du prion et du chikungunya, la réunion par le ministre des directeurs des organismes concernés – une trentaine, tous incompétents sur la question traitée, mais munis de notes préparées par leurs collaborateurs – avait fait apparaître l’absence totale de coordination, les uns étudiant le moustique, les autres l’eau que boit celui-ci, d’autres encore faisant des prélèvements sanguins ou de la génomique. Au niveau européen et pour l'ensemble des milieux scientifiques, la recherche menée en France était peu lisible ».

Il était nécessaire de changer de modèle, car « dans le domaine des sciences du vivant, pour des raisons historiques, le paysage était plutôt diversifié : outre les nombreux organismes spécialisés dans ce domaine, la tendance était de créer un nouvel institut pour chaque nouvelle maladie – comme l’Agence nationale de recherche sur le sida et les hépatites virales (ANRS) ou l’Institut national du cancer (INCa) – à quoi se sont ajoutés, au fil du temps, les Réseaux thématiques de recherche avancée (RTRA), les Réseaux thématiques de recherche et de soins (RTRS) et les génopôles, cancéropôles, infectiopôles, neuropôles et gérontopôles ».

La création des alliances correspond donc à une volonté politique marquée de rassembler les structures existantes et de coordonner leurs actions, afin de permettre des programmations plus efficaces.

AVIESAN regroupe ainsi tous les partenaires qui s'occupent de sciences du vivant : l’INSERM , le CNRS ( le CNRS fait autant de recherche médicale et de recherche en sciences du vivant que l'INSERM et l’INSERM fait autant de recherche fondamentale que le CNRS), l’INRA pour la nutrition, l’INRIA pour l'informatique (cette institution consacre 20 % de son budget aux sciences de la vie et de la santé, notamment en matière de télémédecine et de logiciels de traitement d'images), le CEA avec sa Direction des sciences du vivant, l'Institut Pasteur, l’Institut de recherche pour le développement (IRD), la Conférence des présidents d'université, et la Conférence des directeurs généraux de CHU. Plusieurs organismes y sont associés, comme l'Institut Curie, la Fédération des luttes contre le cancer, l'Etablissement français du sang, l’Institut de radioprotection et de sûreté nucléaire (IRSN), le service de santé des armées ou l’Institut Télécom.

Dans le cas d’ALLISTENE, sont concernés la Conférence des directeurs d'écoles et formations d'ingénieurs (CDEFI), le CEA, le CNRS, la Conférence des présidents d’Université, l’INRIA et l’Institut Télécom, tous membres fondateurs, mais aussi sont l’INRA, l’INRETS, l’ONERA et le CEMAGREF, en tant que membres associés.

Pour l’ANCRE, il s’agit de l’ensemble des organismes de recherche publique impliqués dans le secteur de l’énergie, notamment le CEA, le CNRS, IFP Energies nouvelles, la conférence des présidents d’Université et de nombreux organismes dont l’IFREMER.

AllEnvi réunit l’INRA, le CNRS, l’IFREMER, le CEMAGREF, la Conférence des présidents d’université, le CIRAD, Météo France, le BRGM, le Laboratoire central des Ponts et Chaussées, ainsi que l’INRIA, l’INERIS, l’ANSES, l’IRSN, l’ANDRA, le CNES, la Conférence des grandes écoles, la Conférence des directeurs des écoles françaises d’ingénieurs (CDFI), l’IGN, le Laboratoire national de métrologie et d’essais (LNE), Agreenium, l’Institut polaire français Paul-Émile Victor (IPEV), le SHOM (Service hydrographique et océanographique de la marine), IFP Énergies nouvelles et la Fondation de recherche pour la biodiversité (FRB) dont les huit membres fondateurs sont également membres fondateurs de l’Alliance.

ATHENA, la plus récente, réunit le CNRS et la CPU qui en sont les co-pilotes, ainsi que l’Institut national d’études démographiques (INED), la Conférence des grandes écoles et différents organismes. Les présidents des autres alliances, AVIESAN, AllEnvi, ALLISTENE et ANCRE feront donc partie du directoire d’ATHENA, ce qui en fait une sorte d’alliance des alliances.

Leurs missions sont proches. La présentation qu’en fait M. Olivier Appert, Président de l’ANCRE pourrait être reprise par ses collègues : « Les missions de l’ANCRE tendent à favoriser et renforcer les partenariats et les synergies entre les organismes publics de recherche, les universités et les entreprises en intégrant les contraintes propres à chacun – notamment en ce qui concerne les questions liées à la propriété intellectuelle et à la valorisation de la recherche – mais également à identifier les verrous scientifiques, technologiques, économiques et sociétaux qui limitent le développement industriel des technologies et, enfin, à proposer des programmes pluriannuels de recherches communes, à réaliser des programmations et à proposer des structures qui permettront de les mener à bien ».

Selon M. Michel Cosnard, président d’ALLISTENE, « la France n’ayant pas les moyens de s’attaquer à tous ces sujets, il nous faut choisir, mieux coordonner notre effort de recherche, renforcer notre collaboration avec nos partenaires européens et être ainsi présents dans le concert des nations. Ce dont il s’agit n’est aucunement de dicter aux chercheurs ce qu’ils doivent faire mais de définir de grandes thématiques, dans un processus associant recherche publique et recherche privée ».

Les défis auxquels il s’agit de répondre sont globaux. Pour M. Roger Genet, président d’AllEnvi, les enjeux sont de nature écologique, économique, sociétale et politique.

Les détailler dans le domaine couvert par AllEnvi permet de se rendre compte de l’ampleur de la tâche à accomplir, de l’ambition qui anime les dirigeants de cette alliance et de l’importance de la pluridisciplinarité.

« L’objectif étant d’arriver à nourrir 9 milliards d’individus à l’horizon 2050, les enjeux écologiques portent sur la sûreté et la sécurité alimentaires, l’agroécologie et les défis agronomiques, la gestion des ressources en eau, l’érosion de la biodiversité, la gestion des risques et la restauration des milieux naturels.

Les enjeux économiques, également très nombreux, consistent à assurer une agriculture compétitive, le développement rural, l’exploitation raisonnée du milieu marin et des ressources naturelles, l’adaptation aux changements globaux, et le développement des écotechnologies.

Les enjeux sociétaux concernent les impacts de l’économie verte sur l’emploi ainsi que sur l’adaptation des comportements et des modes de vie.

Quant aux enjeux politiques, ils se traduisent tant en termes d’aménagement des territoires – relations entre les espaces urbains, ruraux et naturels, trames vertes et bleues – qu’en termes d’adaptation des politiques publiques ».

Il en découle pour AllEnvi quatre objectifs : « faire jouer à la recherche fondamentale et finalisée un rôle central dans la construction et l’élaboration des politiques publiques ; développer une approche pluridisciplinaire, intégrant très largement les sciences expérimentales, humaines, sociales, économiques et politiques – un des grands enjeux transversaux de la SNRI (stratégie nationale de recherche et d’innovation) – ; promouvoir une société innovante et ouverte à l’économie, dans le cadre d’un renforcement des relations avec le monde industriel ; maîtriser les risques environnementaux et renforcer la sécurité ».

Il en découle ses missions : assurer la coordination programmatique et opérationnelle d’une recherche systémique pour l’environnement ; renforcer la synergie entre les opérateurs de recherche, les universités, les écoles et les acteurs du monde économique, au travers notamment d’une association des pôles de compétitivité et du monde industriel ; assurer la cohérence et le pilotage d’ensemble des grandes infrastructures de recherche, notamment des systèmes d’observation, d’expérimentation et de recherche en environnement – SOERE –, favoriser et de renforcer les collaborations avec les pays du Sud, en lien avec l’AIRD (l’Agence inter-établissements de recherche pour le développement).

Quant à ATHENA, son principal objectif est de servir à une meilleure structuration des sciences humaines et sociales en France en constituant un lieu entre les universités, les grands établissements, les grandes écoles et les organismes actifs dans les SHS. L’Alliance doit devenir l’interlocuteur de l’Agence nationale de la recherche (ANR) pour engager une réflexion commune sur la programmation en sciences humaines et sociales.

Son positionnement est particulier, car comme le remarque M. Alain Fuchs, son président, « le sigle SHS recouvre en effet des objets d’études, des pratiques et des communautés extrêmement diverses, mais dont la préoccupation centrale est l’homme et la société. Il aurait été illusoire de mettre tout de suite en place des groupes de travail sur les priorités de telle ou telle thématique en sciences humaines et sociales dans les années qui viennent ».

Les groupes thématiques qu’elle a constitués sont révélateurs des besoins. Ils ont pour objet :

- de structurer les SHS en développant des interfaces entre disciplines et en précisant ce qu’est une unité mixte de recherche afin que les rôles soient mieux répartis entre grands organismes et universités ;

- de traiter des infrastructures qui doivent faire l’objet d’une programmation pluriannuelle concertée, disposer d’une gouvernance claire et être évaluées de façon régulière et rigoureuse ;

- d’internationaliser les pratiques de recherche, en renforçant les réseaux des institutions et des laboratoires français à l’étranger, en intensifiant les coopérations et en améliorant la visibilité internationale de la recherche française par des multi-traductions, y compris en japonais et en chinois ;

- de valoriser les recherches en SHS auprès des entreprises (l’analyse des dynamiques sociales, l’épistémologie des représentations et des croyances, l’étude rigoureuse des corpus de divers ordres, la traduction automatique et l’analyse de l’occupation de l’espace sont autant d’exemples de recherches encore trop peu valorisées) ;

- de définir des indicateurs en sciences humaines et sociales, afin de disposer de critères objectivables pour mesurer l’impact de la recherche en SHS.

Toutes les agences travaillent avec l’ANR pour assurer le financement de projets communs. Comme le souligne le président d’AVIESAN, « le financement de la recherche est assuré par l’ANR. Le rôle de l’alliance de donner une cohérence à la recherche ».

Ces propos sont confirmés par le président d’Alllistène, pour qui les alliances n’ont pas vocation à lancer des appels à projet. Leur objectif est par contre de mieux coordonner l’action collective de manière que leurs membres répondent plus efficacement aux appels d’offres lancés par l’ANR. L’effet de levier est important, car les organismes investissent trois euros pour un euro apporté par l’Agence nationale de la recherche pour conduire un programme.

Les agences sont également en relation avec les pôles de compétitivité, ce qui leur permet de tisser des liens avec la recherche industrielle.

Un premier bilan de leur action a été présenté le 15 février 2011 à l’Office parlementaire par son président, M. Claude Birraux. Un an après, cette analyse conserve toute sa pertinence :

« L’expérience apparaît très concluante, avec une forte implication des grands organismes de recherche publique qui trouvent dans les alliances une instance de dialogue et de concertation assurant une collaboration étroite, de nature à dynamiser la recherche française. Ce dispositif innovant s’est donc révélé positif, en regroupant les initiatives, dans les domaines où les acteurs étaient nombreux et dispersés, comme celui des sciences du vivant, et en concentrant les moyens dans les domaines où les acteurs étaient limités et où il était nécessaire d’opérer des choix stratégiques, comme le numérique. En outre, la création d’une alliance consacrée aux sciences humaines et sociales, ATHENA, répond à la nécessité de mieux assurer le lien entre la science et la société. Cette alliance a vocation à constituer un axe horizontal entre toutes les alliances et à traiter des questions de l’interface entre les différentes alliances. Elle vient donc compléter utilement le dispositif d’ensemble.

Bien que récentes, les alliances de recherche ont déjà accompli un important travail de réflexion et constitué des groupes programmatiques déclinés par thématiques. Ces initiatives doivent d’autant plus être saluées que les différents acteurs concernés prennent sur leur temps et leurs moyens, dans la mesure où le principe même des Alliances est de fonctionner sur des structures légères, avec des ressources mobilisées uniquement en tant que de besoin.

Il est essentiel, pour la réalisation des objectifs de la stratégie nationale de recherche et d’innovation, que cet enthousiasme et cette mobilisation indéniables des grands organismes publics à l’égard du dispositif des alliances débouchent sur des réalisations concrètes. Pour y parvenir, le travail réalisé au sein des groupes programmatiques doit être valorisé par une prise en compte dans les différents circuits de financement de la recherche.

Du côté de l’Agence nationale de la recherche, la prise en compte des premiers travaux de structuration des priorités par les Alliances a été rendue difficile par l’antériorité de la programmation pluriannuelle fixée pour la période 2011-2013. Néanmoins, les responsables de l’Agence ont marqué leur volonté que les options retenues par les Alliances soient intégrées, à l’avenir, dans le processus de sélection opéré par les appels à projets thématiques. Cette dimension supplémentaire d’identification des priorités apportée par les alliances apparaît d’autant plus importante que les moyens de l’Agence vont se resserrant (il est question d’une réduction de 14 % pour l’année prochaine), et que les appels à projets thématiques ne portent que sur la moitié du budget d’intervention, compte tenu de la part de 50 % des projets dits « blancs ».

S’agissant du Commissariat général à l’investissement, les alliances n’ont pas participé de manière directe à la première vague des projets retenus dans le cadre des investissements d’avenir. Une deuxième vague d’appels à projets est prévue dans les prochains mois. Il serait souhaitable que la programmation élaborée par les alliances puisse y trouver sa place. A cet égard, j’ai rencontré récemment M. René Ricol, Commissaire général à l’investissement, lors d’un contact informel qui a ouvert la voie à une prochaine réunion d’ici l’été entre lui-même et les présidents des Alliances. M. Ricol perçoit la mise en place des Alliances comme un effort bienvenu de simplification des instances de pilotage de la recherche publique française, et n’exclut pas la possibilité d’une coopération avec les structures de gestion du grand emprunt, au moins à l’échelon des processus de valorisation.

Dans la mesure où les alliances font jouer les synergies entre organismes publics de recherche, évitent le saupoudrage, les empilements et les chevauchements, et au contraire, concentrent les moyens financiers, elles devraient permettre de faire émerger plus facilement les partenariats public-privé indispensables pour que la recherche se traduise en innovation et débouche sur davantage de croissance et d’emploi. Il ne pourra, en effet, être remédié efficacement à l’insuffisance chronique de la recherche privée française qu’à la condition que la recherche publique donne une impulsion forte, en faisant jouer un effet de levier, une des vocations de la recherche publique étant d’ouvrir la voie pour inciter les industriels à concentrer des moyens supplémentaires sur les objectifs poursuivis. Une mobilisation plus efficace des ressources publiques devrait en outre servir de support au développement de collaborations avec les fondations privées, comme avec les fondations de recherche créées par les universités.

Enfin, les alliances devraient contribuer à orienter de manière plus efficace les ressources européennes de financement en direction de la recherche française. Elles devraient donner un poids plus important aux démarches directes de la recherche française pour l’accès aux soutiens ouverts par les programmes communautaires. Par ailleurs, en facilitant le dialogue avec les instances équivalentes, existantes ou à venir, dans les autres pays membres, elles pourraient devenir l’instrument de projets communs de recherche, construits sur le modèle « Eureka » des coopérations interétatiques. La logique « Eureka », telle qu’elle a été conçue en 1985, tire sa force d’une gestion équilibrée entre, d’une part, les soutiens nationaux, et d’autre part, les retombées pour chacun des pays membres des projets « Eureka ». Des coopérations au niveau des alliances nationales seraient une manière de réactiver ce schéma d’organisation au profit, non plus seulement de la recherche précompétitive, mais aussi, en amont, des recherches appliquée et fondamentale, en suscitant, le cas échéant, un complément de financement communautaire. A terme, de telles coopérations interétatiques, combinant l’ambition des objectifs et le réalisme des partenariats, devraient favoriser l’émergence de véritables clusters européens associant entreprises, centres de recherche et universités autour de projets innovants.

Les alliances, en tant qu’instrument d’une concertation approfondie entre les organismes publics de recherche française, apparaissent ainsi comme l’une des manières de mettre en œuvre concrètement la stratégie  Europe 2020 ».

La stratégie d’alliance doit aller de pair avec des moyens affectés à ces axes stratégiques prioritaires. Il faut ainsi choisir de renforcer les coopérations au niveau national et européen mais également de financer ces secteurs. A notre avis, ce n’est pas à l’ANR de fixer seule les orientations stratégiques, celles-ci devant être discutées ainsi que les moyens qui leurs sont consacrées notamment au travers de l’OPECST, en amont du vote du budget.

2. Les regroupements universitaires

Les Pôles de Recherches et d’Enseignement Supérieurs, ou PRES, ont été mis en place par le Pacte pour la recherche de 2006, et sont définis dans l’article 5 de cette loi. Les PRES ont été pensés comme des dispositifs de coopération essentiellement destinés à accroître les interactions et mutualisations entre les différents établissements d’enseignement supérieur et de recherche, et à renforcer leur visibilité à l’international.

Ils visent ainsi à remédier à une triple fragmentation de notre système d’enseignement supérieur :

- la dualité organismes de recherche – établissements d’enseignement supérieur ;

- la dualité universités - grandes écoles ;

- le morcellement disciplinaire des universités issu de la loi Faure de 1968.

Cette dernière division est le fruit de découpages opérés parfois sur des bases politiques qui aboutirent dans certaines villes à une forte illisibilité, comme par exemple à Aix-Marseille ou en Lorraine, où les sciences étaient réparties dans trois universités.

Malgré une grande liberté laissée aux différents porteurs de projets quant aux missions et à la forme juridique des PRES, suite à une forte pression du ministère, la quasi-totalité de ceux-ci ont pris la forme d’EPCS : Etablissement Public de Coopération Scientifique. Cette forte implication du pouvoir central et surtout l’injonction de rapidité due dans un premier temps au contexte électoral, et, dans un second temps, à la coordination avec l’appel à projet Plan Campus, a pesé sur les projets locaux et condamné certains projets de taille modeste ou uniquement tournés vers la coopération intra-universitaire, sans organisme national de recherche.

Etant donné les contraintes temporelles, les discussions se sont engagées essentiellement entre les présidents des établissements (universités et grandes écoles) parties prenantes des PRES créés. Les équipes des établissements se sont ainsi assez peu impliquées, ce qui constitue à présent l’un des obstacles les plus importants au bon fonctionnement d’un certain nombre de PRES.

Un autre fait marquant concernant les PRES est que les organismes nationaux de recherche, malgré le fait qu’ils y aient été invités, n’ont en général pas voulu intégrer les PRES en tant que membres fondateurs. Ainsi, l’un des objectifs de la création des PRES, à savoir un rapprochement entre établissements d’enseignement supérieur et organismes de recherche, n’a pas pu être pleinement satisfait, d’une part, en raison de leur volonté d’indépendance de ces derniers et d’autre part en raison de leur caractère national qui s’accorde mal avec des projets locaux.

Toutefois, les PRES ont servi de formidable booster à l’accélération de projets locaux d’enseignement supérieur et de recherche. L’exemple de la Lorraine l’illustre parfaitement. Le PRES Nancy-Université a, dans un premier temps, regroupé les trois universités de Nancy, et grâce à l’impulsion des collectivités territoriales, l’Université de Lorraine a vu le jour le 1er janvier 2012. Cet exemple en fait aujourd’hui une des premières universités de France, accueillant 55 000 étudiants. Les régions, notamment, ont vu en eux un formidable outil de renforcement de leur visibilité et ont surtout trouvé là une institution dont le périmètre géographique est comparable aux leurs (à l’exception des régions Île de France et Rhône Alpes), qui leur permettait aussi de sortir des conflits purement universitaires en s’adressant à l’ensemble de la communauté au travers d’une seule structure.

Néanmoins, la rapidité de la mise en place des PRES et le manque d’implication des équipes des différents établissements partenaires a pu aboutir à des situations contre-productives.

Par exemple, Grenoble, qui était cité comme exemple de coopération interuniversitaire, est aujourd’hui englué dans des conflits internes, pour partie liés à cette précipitation, qui la desservent très largement.

Enfin, étant donné la tournure qu’a prise le développement des PRES et dans le cas où ils ne feraient que s’additionner à des structures existantes, ils n’accompliraient pas totalement leur fonction première, à savoir la simplification du système de recherche et d’enseignement supérieur.

En effet, dans leur logique première, à savoir favoriser la coopération entre établissements d’enseignement supérieur et organismes de recherche, les PRES avaient pour raison d’être de durer. Néanmoins, comme ils n’ont finalement eu pour membres fondateurs que des grandes écoles et des universités, les PRES, dans leur forme actuelle, ne sont finalement qu’une structure supplémentaire rajoutée à un mille-feuille déjà bien complexe.

Pour mener à bien leur mission, ils devraient donc avoir un caractère éphémère et aboutir à une fusion des universités qui les composent.

3. Les clusters et les pôles de compétitivité

Instaurés en 2004, ces pôles ont une utilité certaine lorsqu’ils sont tournés vers les entreprises et lorsque les entrepreneurs se sont appropriés les outils à leur disposition. Ils permettent de dépasser l’innovation technologique et d’aboutir à différentes formes d’innovation organisationnelle.

On y retrouve des partenaires ayant des intérêts conjoints : des entreprises, leurs clients, des universités et des centres de recherche. Leur financement est mixte Etat-régions. Des doctorants sont souvent associés à leurs travaux, ce qui permet de changer le regard que leur portent les entreprises.

Certains sont importants, d’autres de taille plus moyenne.

(i) En Haute- Savoie

En Haute-Savoie, nous avons pu voir d’une part le pôle d’activités en sciences de la vie, biotechnologies, et technologies médicales, d’Archamps, ainsi que le pôle spécialisé dans le décolletage. 

Au technopôle d’Archamps, les élus locaux ont utilisé plusieurs outils pour des activités nouvelles, en constituant un pôle d’activités en sciences de la vie, biotechnologies, et technologies médicales qui regroupe maintenant 750 personnes. Ils ont ainsi favorisé la constitution d’une communauté de chercheurs transnationale, et rendu attractive l’implantation d’entreprises.

Pour ce faire, ils ont créé en 2009 une plateforme regroupant diverses technologies, constituant un dispositif intégré de technologies, permettant des analyses cellulaires, moléculaires et in vivo, dans des stations d’expertise. Cette plateforme, financée par le soutien du Fonds européen de développement régional (FEDER) à la région Rhône-Alpes, est gérée par une association GIP qui regroupe le syndicat mixte Aménagement du genevois, l’université Joseph Fourier de Grenoble et la SEMAG. Cette plateforme, où sont menés divers projets tant académiques que de valorisation industrielle, est utilisée par d’autres entreprises qui externalisent une partie de leurs activités. Son efficacité est renforcée par une pépinière d’entreprises biotech. Plusieurs laboratoires académiques y sont associés.

C’est un exemple de réussite d’un mélange entre public et privé, qui permet les vraies innovations d’aujourd’hui. S’y rajoute une dimension transfrontalière.

La constitution d’un pôle consacré au décolletage était particulièrement appropriée dans une région où sont situés les deux tiers de ce type d’activité, dans un contexte où le marché français représente un dixième du marché mondial.

Ce pôle qui génère 100 brevets par an, regroupe 266 entreprises qui emploient 23 000 salariés. Plus de deux tiers de ces entreprises participent à deux projets du pôle.

Les financeurs ont voulu en faire une structure très légère (moins de 3 employés) qui mutualise plusieurs acteurs économiques du territoire, dont le syndicat du décolletage, l’université de Savoie, l’observatoire stratégique de la sous-traitance, la CIC de la Haute Savoie, la chambre des métiers et de l’artisanat, l’union des industries et métiers de la métallurgie, l’association pour la valorisation des connaissances, MIND, Thésame (association faisant émerger des projets collaboratifs dans le domaine de la mécatronique et du management), et l’Agence économique départementale. Une convention avec le Conseil général permet le fonctionnement du pôle.

Son objectif est d’emmener les sous-traitants vers l’excellence, dans l’ensemble des processus, y compris commercial et pas seulement industriel, et dans le développement durable, grâce à des gains de productivité, en les amenant à proposer à ses clients des assemblages de pièces de diverses origines. Il permet de garder des emplois sur place et de ne pas délocaliser en restant compétitif. Il facilite aussi l’évolution des emplois vers des fonctions plus nobles (gestion de production, études).

(ii) En Lorraine

En Lorraine, trois pôles de compétitivité ont été mis en place : le premier Materalia, dans le domaine des matériaux innovants, le second, Fibres Grand Est dans le domaine des fibres en lien avec l’Alsace, le troisième Hydreos dans le domaine de l’eau, en lien avec l’Alsace lui aussi.

Ces pôles poursuivent les mêmes objectifs : développer la compétitivité, conforter la présence sur le territoire d’activités industrielles à fort contenu technologique, accroître l’attractivité de la région, favoriser la croissance et l’emploi.

Leur action est également identique, puisqu’ils cherchent à favoriser des partenariats entre industriels, enseignants et chercheurs autour de projets d’innovation collaboratifs axés sur des marchés à haut potentiel de croissance.

Materalia s’est constitué dans un contexte où l’industrie régionale représente plus de 15 % de la métallurgie et de la sous-traitance automobile française. Ses priorités stratégiques portent sur l’énergie, l’aéronautique, l’automobile et le médical. Traitant de la métallurgie, des nanomatériaux, des composites, des nouveaux procédés de fabrication et du développement durable, il est aujourd’hui le premier pôle français pour la fonderie, la forge et l’estampage, ainsi que pour la fabrication d’équipements automobiles et la recherche collaborative sur les matériaux. C’est le deuxième pôle français pour les services industriels du travail des métaux.

Fibres Grand Est a pour ambition de faire émerger une industrie moderne des fibres, domaine qui recouvre le bois, le papier, les textiles et les composites. Ce pôle entend susciter et accompagner l’innovation dans les produits et process des entreprises qui y appartiennent, en promouvant des activités nouvelles à forte valeur ajoutée.

Il entend également remplacer les matériaux à faible « écobilan » par des matériaux nouveaux issus des fibres et de leurs dérivés, et susciter des interactions entre les technologies du textile, du papier et du bois. Il a pour objectif de devenir d’ici 2015 le pôle de compétitivité leader national des éco-matériaux.

(iii) Une dynamique nationale

Au cours de nos auditions, nous avons également pu entendre les représentants des pôles Finance-Innovation, Medicen, Minalogic et Végépolys, dont le rôle attracteur et structurant sera décrit dans les différents chapitres les concernant.

Cette dynamique de mutualisation doit continuer à s’ouvrir aux PME, pour leur permettre, par la mutualisation de moyens, services, marchés et réseaux qui leurs seraient inaccessibles autrement, de développer un tissu d’Entreprise de taille intermédiaire (ETI) dynamique et créateur d’emplois et de valeur.

Tous les pôles n’ont pas vocation à être compétitifs à l’échelon mondial, mais chacun doit avoir pour vocation de structurer autour de lui un écosystème propre à son domaine, alliant compétences techniques et juridiques, investisseurs et centres de recherches.

C’est grâce à ces structures à échelle humaine que l’on fera émerger les bonnes pratiques, les bonnes idées, qui pourront ensuite remonter dans une stratégie bottom-up vers les pôles à rayonnement international, à l’inverse du jacobinisme top-down dont nous savons généralement faire preuve pour tuer dans l’œuf les initiatives locales.

Cet élan sans précédent doit permettre de dégager des stratégies de branche, en lien avec les régions et les collectivités locales pour leur donner une porte d’entrée sur les marchés européens et internationaux.

4. Le cas du plateau de Saclay

Tout ne va pas pour le mieux pour le plateau de Saclay.

Ce projet devrait à notre sens être la vitrine de l’enseignement supérieur et de la recherche française. Mais l’enchevêtrement de multiples dispositifs (Grand Paris, Plan Campus, Opérations d’intérêt national, Investissements d’avenir), la création de nouvelles structures (Fondation de Coopération scientifique, Etablissement public Paris-Saclay) se superposent à celles déjà existantes (Pôles de compétitivité, PRES). La difficulté de s’accorder sur une gouvernance claire et acceptée par tous les acteurs rend ce projet opaque.

En tant qu’élus, cette question nous intéresse au plus haut point, non seulement parce que nous avons des mandats nationaux, mais aussi parce que nous pensons que la création d’un pôle d’excellence et de prestige au niveau mondial bénéficiera à la France dans son ensemble si ce projet se déroule dans de bonnes conditions.

Les universités et le monde de la recherche, avec les organismes et les établissements publics à caractère scientifique et technologique (EPST), bougent partout. Trois universités ont fusionné à Strasbourg et quatre ont fusionné en Lorraine. Les universités de Marseille ont fusionné et la procédure est en cours à Bordeaux. En Rhône-Alpes, les rapprochements s’accélèrent et la fusion est prévue à moyen terme.

À l’étranger, nous sommes allés voir quels étaient les modèles dans des pays développés, tels le Georgia Institute of Technology (Atlanta), la Duke University (Caroline du Nord), Harvard, le Massachusetts Institute of Technology (MIT), le Karolinska (Suède), l’Université de Heidelberg (Allemagne). Nous avons fait la même démarche en Chine et en Inde.

L’interaction entre les structures, entre les disciplines et les chercheurs, c’est la clé. La mise en réseau, la mise en relation, la mutualisation, le dialogue, l’interdisciplinarité, l’ouverture, voilà quelques pistes qui devraient résonner au sujet de Saclay.

Aux côtés de Paris XI, Polytechnique, le CEA, le CNRS, SupElec, l’INRA, d’autres écoles prestigieuses veulent rejoindre Saclay. C’est pourquoi nous avons fait une audition sur l’avenir du Plateau de Saclay, pour sortir de la situation que certains comparent à un feuilleton « je t’aime moi non plus ».

Même si la situation semble s’être améliorée depuis l’audition du 27 octobre, il faut dynamiser ce formidable potentiel à notre sens sous exploité en associant mieux 

- un projet scientifique articulé autour de thématiques porteuses d’avenir,

- un renforcement de la composante innovation favorisant la création d’entreprises,

- le développement sur l’exemple de l’INRA (ver) d’une filière verte,

- un projet d’urbanisation accueillant étudiants, chercheurs, personnel des organismes de recherche,

- le système de transports,

- dans un modèle de sobriété énergétique et de respect de l’environnement,

- une gouvernance associant l’Etat chargé de la stratégie, les industriels et les collectivités locales concernées.

Le compte rendu intégral de l’audition publique sur ce thème est accessible dans le tome 2 du rapport, ainsi que les documents écrits que nous avons demandés aux établissements et organismes.

Nous les avons résumés dans le tableau qui suit :

 

Infrastructures

Développement

Autres



AgroParisTech

-1000 personnels

- 500 doctorants

- 1800 étudiants

- 68 000 m²

- Coût : 228 M€

- Urgence et caractère essentiel des transports, caractère ouvert du campus.

- Projets de logement étudiants et du personnel à intensifier et lieux de vie à développer.

· Développement de nouvelles directions de recherche en synergie.

· Plus grande facilité d’identification internationale

- Partenariat étroit avec l’INRA

- La question spécifique du lien aux entreprises est un des sujets à approfondir.

Dans le domaine agro, le caractère essentiel de la démonstration est essentiel pour l’appropriation des résultats de recherche.

Si tous les outils ad hoc ne peuvent être présents sur Saclay (maquettes de produits, de procédés ou démonstration de conditions de cultures innovantes et durables), leur absence pénaliserait toute la cohérence du projet.

Communauté d’agglomération du Plateau de Saclay

- Cloisonnement des établissements

- Transports insuffisants : nécessité d’une intermodalité forte.

- Plateau séparé des villes.

- 10 fois moins de start-up créées que dans les pôles américains équivalents.

- Les investissements d’avenir doivent être en partie utilisés pour l’aménagement urbain.

- Promotion des Instituts Carnot, CIR, JEI si contrôle adéquat.

Gouvernance : mieux associer les élus locaux, notamment pour l’urbanisme et l’aménagement.

Ne pas avoir uniquement recours aux appels à projet, qui privilégient trop la recherche appliquée.

CEA

- Il faut qu’une liaison directe vers Paris et Roissy soit prévue,  et une liaison en bus ou tramway vers l’Ouest de Paris.

- Bonne surface disponible à court et moyen terme, en maintenant des terres agricoles.

- Construction de lieux de vie (commerces, restaurants, hôtels, installations sportives) impérative à l’attractivité.

- Regrouper des équipes de recherche sur une thématique commune au sein de structures en interactions.

- Les difficultés actuelles seront largement compensées par les bénéfices tirés de la dynamique collective qui

s’est mise en place entre les partenaires du Campus.

Toutes les clés sont là, il faut maintenant agir rapidement.

Mise en place d’une structure permettant d’organiser la transversalité : trop peu d’innovations à l’université, grandes écoles pas assez académiques, organismes de recherche sans liens avec les étudiants. Objectif : Université Paris-Saclay à l’horizon 2014.

Le CEA rebaptisera son centre de Saclay : université Paris-Saclay CEA, et affectera 10% de ses recrutements pour la consolidation des projets communs du Campus.

CNRS

94 UMR, UPR, UMI…

3 100 personnes dont 1 441 chercheurs et 1 682 ingénieurs, techniciens

- Il est indispensable que soit réalisée dans les meilleurs délais la ligne de métro automatique desservant trois stations du campus avec une connexion directe avec la ligne 14 permettant au site de se trouver en quelques 40mn au cœur de Paris.

- Université de Paris-Saclay : continuum depuis les sciences fondamentales jusqu’aux sciences appliquées en mettant l’accent sur l’interdisciplinarité et l’ouverture internationale.

- les IRT, les IEED, les SATT permettront de créer la synergie nécessaire rassemblant équipes universitaires et industrielles.

Levier essentiel : la gouvernance. Le CNRS souhaite participer à la gouvernance et au management de l’IDEX et donc être un membre actif du comité exécutif en charge du pilotage opérationnel.

Levier essentiel : la gestion des ressources humaines - politique d’excellence et accueil de chercheurs étrangers.

EPPS

- ligne « verte » du métro solution très satisfaisante (centre de Paris à partir du campus en 30mn).

D’autres infrastructures primaires seront nécessaires pour

réaliser le projet : pour le traitement des eaux, pour la desserte routière, pour les transports en

commun de proximité.

La loi relative au Grand Paris a fixé les limites de la disponibilité du foncier. La compacité est une nécessité positive, car elle permet la mixité,

l’apparition de vrais lieux de vie sur le plateau, l’utilisation optimale des transports en commun,

toutes choses qui favoriseront la mutualisation et la coopération entre les acteurs.

Le Contrat de Développement Territorial, créé par la loi Grand Paris est un outil pertinent pour mettre en œuvre un projet d’une telle

ampleur à la bonne échelle, c’est-à-dire en réfléchissant à la programmation au-delà des limites des

communes. Le projet a une ambition mondiale, mais il doit être porté localement. Le rôle des

collectivités locales est crucial.

L’EPPS, grâce à sa double vocation d’aménagement et de développement économique, contribue à favoriser la mutualisation

maximale des fonctions, en organisant la coopération des acteurs dans un même espace de vie et de

travail.

Suite infrastructure :

Il n’est pas imaginable d’accueillir ces programmes nouveaux dans des conditions identiques à celles que connaissent aujourd’hui les établissements et entreprises

présents sur le site.

Il faut les intégrer au contraire dans un ensemble de quartiers mixtes, de haute

qualité architecturale et environnementale, combinant les dimensions enseignement supérieur,

recherche, développement économique et vie urbaine (habitat, services, équipements publics et

privés)

HEC

- Marginalisation fâcheuse d’HEC, car pas de desserte de Jouy-en-Josas.

- Les infrastructures de transport adéquats ne seront pas en place en 2016 quand les établissements ayant le plus de liens avec HEC migreront vers Saclay.

Révision du PLU nécessaire car la CCI-HEC n’aura pas assez de réserves foncières après le développement des actions de l’UPS

- Pour l’instant, le projet vise avant tout à la création d’un pôle universitaire et non d’un pôle d’émergence de start-up innovantes.

- Un dispositif de prospection et d’accueil des investisseurs et des bailleurs de fonds potentiels devra être mis en place.

- Renforcer la culture de l’entrepreneuriat sur le campus.

Gouvernance : associer les entreprises aux orientations stratégiques de l’outil de pédagogie et de recherche, intellectuellement et financièrement.

ENS Cachan

Chacun mesure que la réussite de tous ces projets passe par l’accessibilité de ce

nouveau campus

La qualité de la vie sur le campus, qui sera un facteur déterminant de l’attractivité tant pour les étudiants, pour les enseignants-chercheurs et chercheurs que pour tous les autres personnels, passe par un urbanisme de qualité, par la construction de restaurants à tarifs sociaux, de logements pour toutes les catégories d’usagers du site, et par l’installation de commerces ou d’équipements sportifs et culturels, dont les

bibliothèques.

- un vaste écosystème de formation pour les étudiants, permettant des parcours individualisés au

service de leurs projets professionnels ;

- une politique de développement de l’attractivité internationale vers tous les publics : étudiants, chercheurs et acteurs économiques ;

- une accélération de la recherche partenariale et de l’innovation, par la création de liens forts entre les mondes académique et économique, fondés sur des dispositifs suivants : IRT, IEED, Instituts Carnot, SATT, avec l’ambition de créer un écosystème de l’innovation de niveau

mondial ;

· une action au service de la Société, mettant le potentiel de l’Université à l’écoute de ses enjeux

et défis.

On attend aussi de l’Université Paris-Saclay,

la capacité de construire puis d’être responsable de bâtiments communs (hall de technologie, enseignement, laboratoires ou instituts, espaces de documentation, de

restauration ou de logement) facilitant les synergies entre établissements. Cet objectif

passe par la création et la consolidation de cette université afin qu’elle puisse mener des

opérations de maîtrise d’ouvrage, ce qui devrait raisonnablement être possible à partir

de 2015.

La promotion au niveau mondial d’une marque collective, d’une signature unique, et la création du doctorat de l’Université Paris-Saclay, qui deviendra le diplôme de référence conformément au standard international.

FCS

Campus Paris-Saclay

Les transports sont un élément vital pour la réussite du projet et constituent aujourd’hui l’élément faible du territoire.

Les calendriers annoncés sont en phase avec la montée en puissance du campus, toutefois il y a peu de marge, il est vital pour la réussite du projet que l’ensemble des mesures annoncées soient effectivement implémentées.

Les disponibilités foncières de court et moyen terme ne paraissent pas à ce stade constituer une préoccupation au vu des projets immobiliers annoncés.

Un élément important pour le développement du site est la politique en matière d’habitat : compacts, entre 40 et 100 logements à l’hectare, et mixtes, mêlant activités d’enseignement et de recherche, activités économiques, habitat, services et moyens de transport.

Une telle logique d’aménagement nécessite que les PLU soient revus pour permettre cette évolution.

Structure globale et compréhensible par la communauté internationale, par les entreprises, par les étudiants…et par la communauté académique, impératif pour la lisibilité et l’attractivité de l’ensemble : l’Université Paris-Saclay.

-La mise en place de l’Université Paris-Saclay doit se faire dès janvier 2014, elle permettra une mutualisation de certaines fonctions et elle bénéficiera de l’effet d’entrainement vers l’excellence de l’IDEX

Les investissements d’avenir jouent un rôle central dans la constitution de l’Université Paris-Saclay (aménagement, IDEX, equipex, SATT, …)

Faire émerger un cluster puissant multithématique prenant appui sur des pôles de compétitivité (Systematic, Movéo, Medicen, etc) sur les grappes d’entreprises (Opticsvalley etc) et sur les CCI, sur de nouveaux réseaux organisés autour des Instituts Carnot (six dans son périmètre) de l’incubateur Incuballiance et autour des nouveaux outils que sont la SATT et les IRT. Une action spécifique est prévue pour attirer les financeurs privés (capital risque business angels) et pour mettre en place un fond d’amorçage

Toutes ces actions seront menées en partenariat étroit avec l’EPPS et les collectivités territoriales Région, CG91 et CG78.

La mutualisation des équipements, le respect de l’environnement et le décloisonnement sont parmi les principes directeurs du projet de campus.

La gouvernance de l’Université Paris-Saclay s’appuiera sur :

-un conseil d’administration où seront représentés les principales parties prenantes et le monde socio-économique ;

-un sénat académique porté par la communauté scientifique et d’innovation ;

-une direction exécutive restreinte et légitime ;

-un comité stratégique composé de personnalités externes de niveau international (universitaires et chefs d’entreprise).

INRA

- L’amélioration de

l’accessibilité et des conditions de déplacement sur le territoire du plateau de Saclay, du Nord au Sud (en passant par Jouy-en-Josas) et d’Est en Ouest sont une condition sine qua non du succès du projet. La réalisation du métro léger, dans le calendrier prévu, est déjà

tardive et ne saurait être différée. Vite !

Logement : coûts correspondants à leurs revenus : étudiants,

jeunes professionnels, sur place ou à proximité accessible.

En association étroite avec AgroParisTech, l’INRA a la volonté de créer, en s’implantant au sein de ce dispositif, un pôle thématique unique en Europe, dédié aux

enjeux de recherche, formation, développement et innovation dans le domaine de

l'Alimentation, de l'Environnement et de l'Agriculture.

Interdisciplinarité : les sciences du climat et de

l’environnement, les sciences de la vie, les sciences économiques et sociales, les

mathématiques, les STIC, les Sciences de l’Ingénieur.

L’AgroParisTech, le CNRS, l’INRA et Paris Sud 11 soulignent le besoin de terrains dédiés à l’expérimentation agricole et environnementale, d’autant plus que les projets immobiliers vont diminuer la superficie

expérimentale aujourd’hui disponible au Moulon.

Gouvernance : Il est souhaitable d’amplifier l’association de l’ensemble des parties concernées : collectivités

territoriales, profession agricole, tissu industriel local, monde associatif, riverains, ….

Polytechnique

Les liaisons Nord-Sud (Versailles, Jouy-en –Josas, Saclay, Palaiseau) ne paraissent pas suffisamment renforcées.

Le calendrier paraît décalé. Une accélération de la mise en place des nouveaux moyens de transport, si elle est possible, serait de nature à favoriser le rythme de développement du

Plateau.

Synergies importantes en termes de formation, de recherche, d’innovation, de vie étudiante et d’organisation du campus. Sans le plan campus, cette nouvelle dynamique ne pourra prendre corps.

Au-delà du levier financier, le développement du campus Paris-Saclay reposera sur le couplage entre

l’enseignement et la recherche.

Un deuxième levier résidera dans la capacité d’ingénierie sur le campus grâce aux moyens additionnés

et combinés des écoles d’ingénieurs. Le campus doit être un grand cluster d’innovation et

d’entrepreneuriat.

Les partenariats avec les entreprises constitueront un autre levier symbolisé par leur présence

renforcée sur le Plateau.

C’est donc un double lien qui est à établir :

- un lien de co-activité lié à l’interdépendance ;

- un lien de solidarité lié à l’unité de destin.

PRES ParisTech

Les écoles de ParisTech ont depuis le début insisté sur l’indispensable amélioration à la fois à très court terme, à moyen et à long terme des transports du plateau, et en particulier du site de Palaiseau.

A très court terme, il y a urgence : la situation est déjà difficile avec un effectif actuel de 7500 personnes, et on en peut prévoir 9500 en 2013 et encore plus dès 2015

7 equipex, 16 projets de labex dont 6 retenus, deux IEED, un IRT, et un engagement dans le projet d’idex de la FCS du plateau de Saclay.

- Renforcement des liens avec nos très grandes entreprises partenaires : plus de 50 chaires d’enseignement et de recherche.

- Favoriser de manière sélective l’installation de centres de R&D de haute technologie à proximité des établissements, et notamment la constitution de laboratoires mixtes.

Entrepreneuriat, formation à l’innovation, développement d’incubateurs, SATT, extension d’incuballiance et de l’hôtel d’entreprises sont autant de clés.

Suite infrastructures :

- des liaisons routières (TCSP) plus nombreuses, en particulier au départ de

la gare de Massy-Palaiseau, et afin de permettre la liaison entre les différents quartiers de Saclay, et en particulier entre les implantations de ses écoles sur Palaiseau et sur Jouy-en-Josas ; le plan d’amélioration prévu pour 2016 doit être impérativement respecté

- assurer une plus grande régularité des liaisons du RER B,

- améliorer la liaison entre la gare RER de Lozère et le site de Palaiseau.

PRES Universud

Si le projet de développement des transports envisagé apparaît raisonnable en termes de besoins, son calendrier de réalisation ne manque pas d’inquiéter et tout retard risquera de porter atteinte à la crédibilité même du projet d’ensemble.

L’intégration au sein d’une seule structure d’établissements de statuts divers, de culture et d’histoires différentes ne peut se réaliser que par étapes successives de structuration et de mutualisation.

Les Investissements d’avenir et le Plan campus semblent pouvoir accélérer le processus.

C’est par les applications de ses résultats et l’utilisation des outils qu’elle développe que la recherche ouvre la voie à l’innovation sociale et économique en fonction des potentialités entrepreneuriales d’un territoire (écosystème d’innovation).

- dégager une vision prospective commune de recherche ;

- synergies sur des projets de recherche partagés ;

- détectant les enjeux de formation en construisant une offre lisible et coordonnée

- adaptant le contenu des formations en y introduisant des modules de connaissance de l’entreprise ou de la société ;

- se donnant la possibilité de répondre à des enjeux industriels et de société par la production de connaissances nouvelles

- les partenariats avec les industriels (contrats de recherche en partenariat, réponses communes aux appels à projet, prestations de service, l’accès partagé à des plates-formes de haute technologie)

- favoriser tout particulièrement les liens entre universités et PME-PMI

Après la création de l’Université Paris-Saclay (envisagée pour 2014), l’objectif stratégique d’UniverSud Paris sera pleinement atteint et à plus grande échelle qu’initialement prévu. L’existence même d’un PRES, structure intermédiaire entre la nouvelle université et ses établissements-composantes, n’aurait alors sans doute plus lieu d’être.

Il convient de passer d’un projet plutôt issu des équipes dirigeantes des établissements

(ce qui fut inévitable compte tenu des délais impartis) à une volonté réellement partagée par les acteurs de terrain de l’enseignement et de la recherche dans les divers établissements engagés dans la démarche de création de l’Université Paris-Saclay. Management bottom-up.

Université

Paris Sud

La question des transports doit être traitée à 3 niveaux :

- au niveau du maillage des transports de proximité : exigence immédiate, nécessaire avant même que de

nouveaux établissements s’installent sur le plateau. Les liens entre Vallée-Plateau doivent constituer les axes vertébraux de ces transports de proximité.

- au niveau des liaisons rapides à l’intérieur du territoire : La traversée Est-Ouest du territoire en 2015 est adaptée à l’arrivée de premières installations nouvelles (2016 pour les premières relocalisations de l’université), mais sa capacité comme sa vitesse de croisière est sans doute déjà insuffisante pour répondre à l’arrivée de flux étudiants importants.

- au niveau des connexions du territoire avec le dispositif francilien.

Le succès de la Silicon Valley tient beaucoup à l’engagement des capitaux risqueurs spécialisés dans le financement des entreprises émergentes de hautes technologies. Il faut associer de telles structures directement au développement du cluster.

Le succès durable de la Silicon Valley a été dans sa capacité à évoluer et diversifier ses orientations technologiques.

Il faut se doter d’outils de prospection technologiques et économiques, pour diversifier les pôles

d’activité en nouvelles technologies, notamment pour développer les secteurs des

biotechnologies et celui des technologies pour les énergies renouvelables.

Le conseil d’administration de

l’EPPS, dont la majorité est constituée d’élus des collectivités, ne comprend aucun représentant des établissements d’ESR, et seulement deux scientifiques à titre individuel. Il est donc nécessaire de mettre en place une structure de concertation et de pilotage - associant l’EPPS, les élus, et les établissements scientifiques- pour identifier/accompagner les entreprises susceptibles de venir s’installer dans le cluster.

Ce projet va au-delà du seul projet scientifique. Bien sûr, l’Etat doit définir les grandes priorités, les collectivités locales doivent être parties prenantes, mais elles ne doivent pas rester seules. Il faut donc établir un véritable partenariat sur des bases équitables, pour que chacun sache quel est son rôle, ce qui va advenir de lui, et ce qu’il peut en attendre. Si l’on veut que les choses avancent, chacun doit y trouver un minimum d’intérêt.

Il ne semble pas que dans un premier temps il y ait eu une cohérence d’ensemble du Plateau. Non pas qu’il faille créer une superstructure, mais il faut peut-être au moins un bureau de liaison, afin que certains documents ne restent pas à la merci d’un pointillisme qui serait malvenu.

On ne peut pas implanter une université nouvelle s’il n'y a pas au moins une interaction avec les gens qui vont vivre, avec ceux qui sont élus et qui essaient de partager ce qui va se faire. Ce projet n’est pas un château fort. L’envie de connaître l’ouverture, n’est-ce pas l’identité même de l’université ?

Une université n’est pas quelque chose de recroquevillée sur elle-même. Le rapprochement est indispensable entre grandes écoles et universités. Il ne doit pas se traduire par la main mise des parties sur un nouvel ensemble, mais par la mise en commun intelligente des richesses de chacun. Elle doit être ouverte à tous les courants, à la discussion. Avec non seulement des disciplines, mais aussi des institutions, sa pluridisciplinarité sera originale.

B. UN NOUVEAU MODE DE FINANCEMENT : L’APPEL À PROJET

Le système d’enseignement supérieur et de recherche français a été marqué par la croissance du financement sur projet, notamment via la mise en place de l’Agence Nationale pour la Recherche (ANR) et les appels d’offre dénommés « Plan Campus » et « Grand Emprunt ». L’appel à projet est, par ailleurs, le mode de fonctionnement de l’Union européenne et de la plupart des pays européens.

1. L’ANR

Les activités de l’ANR ont été plus particulièrement évoquées par sa directrice générale, Mme Jacqueline Lecourtier, lors de l’audition organisée par l’Office parlementaire le 23 novembre 2010 sur les alliances.

Créée il y a six ans, l’ANR a pour mission « d’augmenter la dynamique du système français de recherche et d’innovation en lui donnant davantage de souplesse. A ce titre, l’ANR doit favoriser l’émergence de nouveaux concepts, accroitre les efforts de recherche sur des priorités économiques et sociétales, intensifier les collaborations public-privé et développer les partenariats internationaux. L’ANR accompagne l’ensemble des communautés scientifiques publiques et privées ».

L’agence finance la recherche sur appels d’offres compétitifs et sous forme de projets. Ce mode de financement dynamique permet de promouvoir de façon naturelle les démarches pluridisciplinaires, à l’origine, souvent, des avancées les plus importantes.

Ses crédits vont pour moitié à un programme non thématique, dit « blanc ». Le processus est purement bottom-up, de sorte qu’il n’y a pas là de problème de programmation : n’importe quel projet peut être présenté s’il est de haut niveau scientifique et porteur d’innovations susceptibles d’améliorer notre compétitivité aussi bien scientifique qu’industrielle.

L’autre moitié de ses crédits sert à financer des programmes thématiques, sur la base d’appels à projet, dans huit grands domaines : sciences et technologies de l’information et de la communication (STIC) ; nanotechnologies ; énergie ; environnement et systèmes urbains ; écosystèmes et développement durable ; biologie et santé ; sciences humaines et sociales ; ingénierie, procédés, sécurité. 80 à 90 millions d’euros sont ainsi consacrés, en moyenne, aux STIC et aux nanotechnologies, 60 à 80 millions aux questions d’énergie et de santé, 60 aux écosystèmes.

Dans chacun de ces domaines, un comité scientifique sectoriel décide de la programmation. Investis d’une mission de réflexion prospective, ces comités sont chargés de faire évoluer la programmation tous les trois ans – durée qui garantit une certaine continuité aux responsables de projets –, en la réajustant à la marge chaque année. Ils aident le conseil d’administration de l’Agence à faire des choix. Ils assurent la convergence entre propositions bottom-up et top-down. Ils doivent ainsi prendre en considération les feuilles de route issues de la Stratégie nationale de recherche et d’innovation (SNRI) et du Grenelle de l’environnement, celles de l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME) et du programme-cadre européen de recherche et développement (PCRD), mais aussi les propositions venant de la société civile, par exemple des associations de malades.

Ces comités rassemblent des représentants de l’alliance concernée, des scientifiques de haut niveau nommés intuitu personae, des industriels – les projets thématiques étant majoritairement menés en partenariat public-privé –, ainsi que des représentants des ministères et de la société civile.

Pour construire les programmes thématiques, les comités scientifiques sectoriels doivent savoir ce qui est sorti des appels à projets de l’année précédente. Ils s’appuient pour cela sur les conclusions des groupes de réflexion de l’ANR – conseil de prospective, actions de recherche prospective, bilan des programmes –, ainsi que sur l’analyse des alliances, essentielle pour réajuster le tir.

La pertinence d’un appel à projets sur la toxicité des nanotechnologies, qui avait suscité trop peu de réponses, a ainsi été réexaminée afin de prendre en compte l’impact de la pollution des écosystèmes sur la santé. On a substitué à la thématique « contaminants et santé » une thématique « contaminants, écosystèmes et santé ».

Les propositions des comités sectoriels font ensuite l’objet d’une discussion entre la Direction générale pour la recherche et de l’innovation (DGRI), qui exerce une tutelle, et les autres ministères techniques. Sur la base de ces discussions, évidemment fortement influencées par la stratégie nationale de recherche et d’innovation, le conseil d’administration de l’ANR adopte in fine la programmation de l’agence. Au total le processus est donc très consensuel.

Lorsqu’un sujet paraît intéressant à l’ensemble des acteurs, mais insuffisamment mûr pour susciter un appel d’offres, l’ANR finance, sur proposition du comité scientifique sectoriel et avec l’accord du conseil de prospective et du conseil d’administration, un atelier de réflexion prospective (ARP). Quatre à cinq ARP se constituent ainsi chaque année, sur des sujets aussi divers que mathématiques et industrie, l’adaptation des écosystèmes au changement climatique, l’e-éducation, REACH ou le changement global. Leurs résultats sont ensuite présentés aux comités scientifiques sectoriels en vue d’un éventuel appel à projets.

Le collège des présidents de comités scientifiques sectoriels facilite l’approche pluridisciplinaire, en évitant de limiter chacun des comités à son propre domaine. Il examine ainsi les propositions d’actions transversales et détermine les champs dans lesquels un effort transdisciplinaire pourrait être déployé.

L’agence est dotée d’un conseil de prospective qui examine des dossiers sectoriels et transversaux (tels que la contribution de la recherche à la sortie de crise) analyse l’impact des programmes et détermine les thèmes des ateliers de réflexion prospective. Ses avis permettent de nourrir le débat et de cadrer la réflexion des comités scientifiques sectoriels.

Même si la mise en place de l’ANR apparaît aujourd’hui comme une réelle nouveauté, on ne doit pas surestimer celle-ci. Tout d’abord à l’échelle internationale, de très nombreux pays se sont dotés d’agences en charge de la gestion des appels d’offres pour le financement de la recherche, tant amont que finalisée ; l’exemple le plus connu et sans doute le mieux doté à l’échelle de la planète est la National Science Foundation (NSF) américaine. Par ailleurs, dans son histoire la France avait déjà mis en place des appels d’offres dans le but de financer des activités de recherche. Enfin, pour créer l’ANR, le gouvernement s’est appuyé sur la fusion de deux fonds de financement de la recherche dont la gestion a été transférée à la toute nouvelle ANR (le fonds de la recherche technologique et le fonds national de la science).

L’effet le plus saisissant qu’a sans doute eu l’ANR dans le fonctionnement des laboratoires de recherche français, a été de transférer une partie importante du travail de recherche de financement des directeurs de laboratoires sur les chercheurs. Ce transfert a eu pour conséquence d’autonomiser un peu plus les chercheurs et les équipes de recherche. En effet, ceux et celles-ci ayant un accès plus direct et facile aux sources de financement ne sont plus obligés de passer par leur hiérarchie pour obtenir un financement. Ce nouveau mode de financement a eu pour effet de décentraliser la politique scientifique de certains laboratoires. A cet égard les appels d’offres européens ont eu un effet encore plus important. En effet, ceux-ci prévoyant des financements en coûts complets et d’un ordre de grandeur nettement supérieur à ceux de l’ANR, l’attribution d’un financement européen peut parfois aboutir à la création d’une nouvelle véritable équipe de recherche sans que cela soit fait de manière très concertée.

Il convient à notre sens de bien préciser le rôle de l’ANR. Cela devrait se faire en amont du vote du budget par une discussion à l’Office parlementaire sur le financement réservé aux appels à projets afin qu’il ne se substitue pas aux financements récurrents des laboratoires et des organismes de recherche. C’est à notre sens au parlement de discuter des grandes orientations de la recherche, au gouvernement de les fixer et non à l’ANR de décider seule de ses orientations. Nous insistons dans ce rapport sur l’importance du financement des innovations de rupture qu’illustrent la chimie du graphène et encore plus le stockage de l’électricité. Ces priorités stratégiques doivent être discutées en amont par les politiques. L’ANR doit donc être une structure d’interface. Elle doit réserver des financements à la recherche finalisée comme dans le cas de l’agronomie, à des priorités stratégiques mais également préserver au moins la moitié des crédits à des projets blancs. Comme l’a dit Albert Fert, prix Nobel de physique, « la recherche c’est la surprise ».

L’autre effet souvent attribué à la création de l’ANR est la précarisation d’une partie importante du personnel de recherche. En effet, certains projets de recherche prévoient des financements de personnels de recherche (notamment des post-doctorants et des ingénieurs) qui ne peuvent de manière évidente qu’être employés sur des contrats à durée déterminée. Que deviendront-ils si les projets sur lesquels ils ont été recrutés ne sont plus reconduits ? Il y a une nécessité à avoir une politique continue, une pensée stratégique de recherche. Toute politique sinusoïdale aboutit à un gâchis humain.

2. Le plan Campus

Le plan Campus a été lancé en 2008 et a marqué un renouveau dans l’effort d’investissement dans l’immobilier universitaire. En effet, depuis les débuts des années 2000 aucun plan à l’image d’Université 2000 et d’Université du 3ème millénaire, tous deux lancés dans les années 1990, n’avait été mis en œuvre. Aussi, le patrimoine immobilier des universités, d’une manière générale déjà dans un état passablement vétuste au début des années 2000, avait continué irrémédiablement à se détériorer.

Les nouveautés marquantes du plan Campus ont été le mode de financement et le mode d’attribution de celui-ci. En effet, ce plan s’est vu financé par la vente par l’État de 3 % du capital d’EDF, et les lauréats se sont vu affecter une partie du produit de cette vente non pas pour payer directement les travaux mais pour la placer afin de couvrir les loyers des bâtiments nouveaux ou rénovés avec les intérêts ainsi obtenus. Le plan Campus avait pour objectif de doter seulement dix sites universitaires français de moyens substantiels pour rénover leur patrimoine bâti notamment dans l’objectif de renforcer leur compétitivité internationale. Ainsi, l’attribution des financements issus du plan Campus s’est faite par le biais d’une procédure d’appel d’offre.

Ainsi, même-si le plan Campus prolonge en quelque sorte les plans des années 90 de rénovation du patrimoine universitaire, il s’en démarque par son objectif final et par sa sélectivité. Ainsi, le gouvernement a souhaité mettre un terme à une tradition dite de « saupoudrage ». Cela a abouti à concentrer les financements sur les grandes métropoles universitaires et, à l’intérieur de celles-ci, sur les secteurs académiques jugés excellents.

Un bilan financier du plan Campus est à notre sens nécessaire car il semble malheureusement que les financements n’aient pas tous été mobilisés et que des opérations à tiroir entre contrats de projets Etat-Région (CPER) et plan Campus masquent la réalité. L’Office pense qu’il serait utile que la Cour des Comptes fasse un bilan des opérations prévues dans le CPER 2007-2013 et dans les plans Campus.

3. Le Grand Emprunt

Le Grand Emprunt participe de la même logique que le plan Campus à ceci prêt qu’il est d’un ordre de grandeur supérieur en ce qui concerne les initiatives d’excellence et qu’il ne concerne pas directement que le patrimoine bâti et les universités.

Ainsi, de par la multitude d’appels d’offres (LabEx, EquipEx, IdEx, SATT, …), le Grand Emprunt a pour objectif de restructurer en profondeur le paysage de l’enseignement supérieur et de la recherche français, notamment en ce qui concerne son double fractionnement universités/organismes de recherche et universités/grandes écoles.


Les investissements d’avenir en chiffres

è Initiatives d’excellence (IDEX) : 7.7 milliards d’euros

è Laboratoires d’excellence (LABEX) : 1 milliard d’euros

è Équipements d’excellence (EQUIPEX) : 1 milliard d’euros

è Instituts de recherche technologiques (IRT) : 2 milliards d’euros

è Instituts d’excellence en matière d'énergies décarbonnées (IEED) : 1 milliard d’euros

è Sociétés d’accélération de transfert technologique (SATT) : 1 milliard d’euros

è Instituts Carnot : 0.5 milliard d’euros

è Santé et biotechnologies : 1.55 milliards d’euros

è Opération Campus : 1.3 milliards d’euros

è Plateau de Saclay : 1 milliard d’euros



M. Ricol a dressé un bilan des investissements d'avenir lors de l'audition publique du 12 Octobre. Reprenons ses propos : "Depuis juin 2010, ce sont 74 appels à projet qui ont été lancés. 49 sont clos. Nous avons ouvert six guichets, trois OSEO, dont un très important sur des prêts participatifs pour des entreprises innovantes. Les règles de financement des fonds que nous finançons ont été changées.

Jusqu’à présent, la plupart des fonds sont financés de la manière suivante : les collaborateurs reçoivent une rémunération fixe. Lorsqu’ils font un bénéfice, ils recueillent un intérêt de 20 %. Plus vite vous vendez, plus vous encaissez rapidement, démarche extraordinairement destructrice de valeur pour ce pays, qui a une recherche merveilleuse, notamment dans le domaine des biotechs. Qu’observe-t-on en la matière ? Des chercheurs trouvent quelque chose, déposent des brevets, vont chercher des fonds d’amorçage pour faire la preuve du concept. Dès que cette preuve est faite, elle est vendue, neuf fois sur dix à l’étranger. Conclusion : ni création de richesse, ni d’emplois, donc.

Pour pallier cette difficulté, nous avons pris deux mesures correctrices. Premièrement, la règle de financement des fonds est différente, avec mise en place d’un bonus qui pourra être très important s’il y a de l’industrialisation en France. Deuxième effet correctif : nous avons créé des sociétés d’accélération de transfert de technologie qui financeront la preuve du concept.

Ce sont des centaines de projets qu’on a financés à ce jour, et dont je vous communiquerai la liste. La plupart ont été sélectionnés par des jurys internationaux, le seul critère étant celui de l’excellence mondiale, étant entendu que je fais tout sauf de l’aménagement du territoire. De même, je m’interdis de faire de la politique industrielle. Nous avons pris une option, celle du bottum up. Nous faisons remonter les projets, et sélectionnons ceux qui sont d’un niveau d’excellence mondiale. A Clermont-Ferrand, on a ainsi découvert trois laboratoires exceptionnels, de niveau de réputation mondiale, et six à Montpellier. Lorsqu’on dresse la carte de France, on s’aperçoit que beaucoup de territoires seront couverts, certains pensant, à tort, qu’ils étaient les meilleurs dans le domaine des biotechs, alors qu’ils le sont dans celui des matériaux. On les aide donc à se développer sur les lieux où ils ont la meilleure recherche.

Les directions d’administration centrale voudraient que je prédétermine où inscrire l’argent. Un institut hospitalo-universitaire est un lien entre les chercheurs et les industriels. Pas plus que vous, je ne saurais contester qu’au regard d’un jury international d’une qualité non contestable, aucun IHU sur le cancer n’a été primé. C’est un problème, compte tenu de tous les crédits qu’on consacre à la lutte contre ce fléau. Les membres du jury me disent qu’aucun institut ne s’est mis en situation de rupture de recherche, notamment à cause de l’influence des laboratoires, qui rêvent encore à des « blockbusters » dans le système – des médicaments qui génèrent des milliards. Or une telle conception est périmée, la recherche sur le cancer exigeant des recherches beaucoup plus fines, bref, une rupture. Le commissariat général a convoqué tous les porteurs de projet, et nous avons annoncé le lancement d’un nouvel appel à projet sur le cancer. Si aucun projet A+ n’émerge, j’ai indiqué que je me demanderai pourquoi distribuer autant d’argent à de telles recherches qui font fi de toute rupture.

Cet exemple est intéressant, car il montre que la recherche est en train d’être handicapée par les laboratoires, ces derniers n’allant pas dans la bonne direction. Voyez Sanofi Aventis, qui vient de racheter pour plusieurs milliards Genzyme, société qui n’a eu de cesse d’aller à la rencontre de nos meilleures équipes pour les financer. La conséquence ? Ce sont 10 milliards d’incorporels.

Cela dit, nous avons trois règles d’or dont nous ne dérogeons pas.

Première règle : nous avons mis un terme à la logique des subventions, maladie bien française s’il en est. Tout le monde veut être subventionné. Nous utilisons la notion juridique de subvention dans les investissements d’avenir. Pour autant, nous voulons un retour sur investissement, des retours suffisants pour financer la recherche sur le long terme, exigence que nous avons imposée à un formidable projet pour transformer de la paille en pâte à papier et en bioéthanol, et qui ne s’était pas posé cette question dans un premier temps. Se poser tous ensemble la question du retour sur investissement est déjà une révolution culturelle.

Deuxième règle : nous voulons « plugguer » – j’utilise ce terme à dessein car il va plus loin que « brancher » – la recherche et l’industrie, à la fois les grands groupes, les PME et les start-up. Nous avons lancé des appels à projet qui tous intègrent cette dimension, et pris la décision que les gens doivent respecter scrupuleusement leurs engagements, une fois les projets sélectionnés. Les industriels nous ont assuré qu’ils mettraient de l’argent pour financer de la recherche. S’ils ne tiennent pas leur promesse, nous relancerons un nouvel appel à projets.

Troisième règle : nous sommes en train de monter un écosystème qui ressemblera à celui que nous avions monté pour la médiation du crédit. On aurait pu penser que le système était simple en disant que lorsqu’un banquier et une entreprise sont en désaccord, c’est le banquier qui a tort, et qu’il doit financer. Or la situation est beaucoup plus complexe, car le banquier, comme l’entreprise, peuvent chacun avoir en partie tort. Il a donc fallu prendre des décisions, en mettant en place un écosystème avec la Banque de France, les administrateurs des finances publiques, OSEO, la Caisse des dépôts et consignations, et des tiers de confiance, qu’on a pris dans le domaine industriel. Au total, ce sont 1 000 personnes qui sont en capacité d’aider les entreprises à refaire leur stratégie. Nous avons ainsi pu sauver 18 000 entreprises, et pas loin de 200 000 emplois. Les statistiques de mon successeur montrent que le taux de risque des entreprises sauvées est le même que celui de la moyenne des entreprises françaises. Nous sommes parvenus à ce résultat parce qu’on s’est attaché à identifier la bonne stratégie, la bonne connexion, les bons financements et les bons capitaux propres. Nous avons également travaillé en lien avec les tribunaux de commerce, le Parquet et les parlementaires. Nous allons poursuivre, en organisant sur le terrain la coordination de l’ensemble de ces dispositifs, avec la médiation de la sous-traitance, aussi, pour que les grands groupes soient solidaires des petits.

Tous seront autour de la table, en associant les collectivités locales, l’essentiel étant de transcender les débats politiques pour faire de la gestion au quotidien. Les 35 milliards des investissements d’avenir – 70 milliards avec les effets de levier – doivent assurer le bon fonctionnement de l’ensemble. Tel est notre état d’esprit, l’essentiel étant de faire en sorte que tout le monde travaille ensemble sur le terrain, les écosystèmes pouvant être plurirégionaux, notamment pour les instituts de recherche technologique.

Dans un pays aussi compliqué que la France, fait de multiples chapelles, de multiples directions d’administration, autant d’organismes supposés financer la recherche, sans compter les alliances, une réflexion sur les structures et les fusions n’est pas réaliste, chacun d’entre nous étant sûr d’être à la retraite avant que 5 % des objectifs aient été atteints. Par contre, on avance très vite dès lors qu’on demande aux gens de se mettre en réseau et de travailler ensemble. Telle est la tactique que j’avais mise en avant lorsque j’étais médiateur du crédit : c’est également celle que nous mettons en place pour les investissements d’avenir. Chacun est convaincu qu’il faudra dépenser l’argent le plus intelligemment possible, pour créer du potentiel de recherche et d’emploi pour demain."

La dynamique créée par les investissements d'avenir, couplée au Plan Campus et aux Pôles de compétitivité, permet de faire émerger des structures d'envergure par des regroupements et des mutualisations, avec une meilleure lisibilité à l'international, et capables de rivaliser avec les clusters de niveau mondial.

Toutefois, en tant que parlementaires, il nous apparait important que, sans pour autant remettre en cause la procédure de jurys internationaux et souverains, le développement et les investissement restent équilibrés sur le territoire : il ne faudrait pas que la France perde le Nord, comme l’a dit Jean-Yves Le Déaut, ou que les financements ne s'orientent que vers les projets les plus gros, à même de financer du personnel pour répondre aux appels d'offres et donc de financements annexes. "Les chiens maigres courent plus vite que les chiens gras", et les projets les plus gigantesques ne sont pas forcément ceux sur lesquels le retour sur investissement sera le meilleur.

L’OPECST se pose plusieurs questions. Quelle est la réalité du grand emprunt ? Où en sont aujourd’hui les traductions financières ? A quel taux se fait l’emprunt ? Qui l’a contracté ? Il faut en effet dissiper les craintes, comme l’a dit Jean-Pierre Gorges, député d’Eure-et-Loir, que des baisses de crédit budgétaire soient compensées par les intérêts du grand emprunt. Il faut éviter la tentation de combler les effets de la disette budgétaire par l’octroi d’une compensation issue du grand emprunt. Nous souhaitons obtenir sur ce sujet la réalité des chiffres et faire que l’organisation de l’enseignement supérieur en France ne soit pas limitée à 10 centres d’excellence mais qu’elle soit fondée sur un maillage en réseau où chaque site universitaire trouve sa place. L’exemple des IRT illustre bien le décalage entre la vision théorique et la réalité.

Ainsi que l’indique le Code général des impôts (CGI) «  les IRT sont des instituts thématiques interdisciplinaires qui :

- pilotent des programmes de recherche couplés à des plates-formes technologiques et des formations ;

- effectuent des travaux de recherche fondamentale, mais aussi de recherche appliquée et de développement expérimental ;

- veillent à la valorisation socio-économique des résultats obtenus.

Les objectifs des IRT sont de :

- produire des innovations, c’est-à-dire des inventions qui trouvent un marché, dans leurs domaines thématiques avec une efficience plus importante que les dispositifs préexistants ;

- viser une position dans le peloton de tête mondial dans leur(s) domaine(s) avec une finalité de développement industriel et/ou de services ;

- couvrir l’ensemble du processus d’innovation, y compris la démonstration, le prototypage industriel et l’ingénierie de formation ;

- faciliter la concentration des acteurs en mobilisant sur un même lieu physique une taille critique suffisante de compétences pour notamment disposer d’une visibilité internationale et permettre des collaborations fructueuses de longue durée ;

- contribuer à la compétitivité des filières industrielles et/ou de services ».

Mais la réalité est très éloignée de ce que voulaient les concepteurs car les services de Bercy ont contribué à augmenter l’incertitude juridique pour les industriels qui avaient pourtant répondu présents. Les pères du grand emprunt, Michel Rocard et Alain Juppé n’y retrouveraient pas leur bébé car l’intendance en a totalement modifié le fond.

D’après les services de législation fiscale, les IRT sont à but lucratif dans la mesure où ils apporteraient un avantage concurrentiel aux entreprises. Ils sont donc soumis aux impôts commerciaux et ne sont pas éligibles au mécénat.


S’ils ont fait le choix du statut de fondation de coopération scientifique, ils sont éligibles au crédit impôt recherche sur les seules prestations externes mais pas sur les programmes de recherche et développement propres car ils ne sont pas imposables à 100 % à l’impôt sur les sociétés.

L’encadrement européen complique encore le système. Or, l’intérêt des IRT était précisément de contribuer à la compétitivité des filières industrielles et de services. Leur rôle est de motiver les industriels sur les sujets qui intéressent l’industrie à moyen et à long terme.

L’intérêt était de développer des recherches par filière, ce qui n’a pas été fait. L’usine à gaz actuelle fera que les industriels ne s’engageront jamais dans ce contexte caractérisé d’incertitudes juridiques.

4. La place des financements récurrents

Malgré la multiplication des financements sur appel d’offre il faut tout de même rappeler que les financements récurrents représentent encore la plus grande majorité des financements en termes quantitatifs. Ils ont toutefois baissé, comme au CNRS (- 10 % pour certains laboratoires en 2011). En effet, ceux-ci couvrent encore les financements des postes permanents ou encore des coûts liés à l’utilisation des bâtiments.

Néanmoins, dans un contexte de grand bouleversement quant aux modes de financement de l’enseignement supérieur et de la recherche français, les financements récurrents ont eux aussi évolué. Ainsi, la mise en place du logiciel permettant le calcul des sommes allouées aux universités (système SYMPA) a été synonyme de l’introduction de critères de performance dans l’attribution des financements. Ainsi, dans son nouveau système le ministère de l’Enseignement supérieur et de la recherche prend par exemple en compte le nombre de chercheurs publiant ou encore le nombre d’étudiants présents aux examens.

Le parlement doit trouver l’équilibre entre les financements sur appel à projets et les financements directs et récurrents des laboratoires.

5. Quel rôle pour les contrats quinquennaux ?


Dans un contexte de crise (Grand Emprunt) et de nécessaire remise à niveau rapide du patrimoine bâti (plan Campus) on peut aisément comprendre l’utilité de procédures d’appels d’offres. Néanmoins, une fois cette situation d’urgence dépassée, il semblerait qu’un financement basé sur les contrats quinquennaux déjà existants serait plus à même de renforcer l’autonomie des établissements. Il est regrettable que les objectifs de ces contrats aient été remis en cause, comme si le plan Campus ou les investissements d’avenir étaient substitués aux interventions de l’Etat.

En prenant exemple sur les différentes vagues de décentralisation au profit des régions, on peut sans doute imaginer un mode de partenariat renouvelé entre l’Etat et des universités et des organismes autonomes. Ainsi, de véritables phases de négociations entre deux partenaires autonomes cherchant à concrétiser des objectifs de portée géographique et de finalité déférentes, pourraient aboutir à un renforcement de l’autonomie des établissements et in-fine à un meilleur service rendu au public.

Ces divers financements relèvent du niveau national. Ils sont complétés par des financements communautaires, mais ceux-ci souffrent de l’absence de réalisme des stratégies mises en place par l’Union européenne.

C. LES LIMITES D’UNE APPROCHE GLOBALE AU NIVEAU EUROPÉEN

Depuis le début du XXI° siècle, l’Union européenne a défini par deux fois des stratégies pour dynamiser la recherche et stimuler la compétitivité européenne. La première, dite Stratégie de Lisbonne n’a pas atteint ses objectifs. La seconde, intitulée Horizon 2020 (ex Stratégie 2020), risque de connaître le même sort, sauf si elle est redéfinie.

1. La stratégie de Lisbonne a échoué

Elle fixait en effet des objectifs à la fois trop généraux et trop ambitieux, mais sans préciser les moyens de les atteindre.

Ces objectifs, louables mais vagues, sont clairement affichés dans le texte des conclusions de la présidence du Conseil européen de Lisbonne des 23 et 24 mars 2000 qui stipule que le « nouvel outil stratégique » de l’Union pour la décennie à venir doit lui permettre de « devenir l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale ».

Il s’agit de mettre en place « les infrastructures nécessaires à la diffusion des connaissances », de réformer l’innovation, ainsi que de créer un espace européen de la recherche et de l’innovation. Celui-ci doit permettre de mieux coordonner les activités de recherche au niveau national et au niveau de l’Union, de manière efficace, novatrice et attrayante.

Les programmes nationaux et communs de recherche seront mis en réseau, à titre volontaire et en fonction d’objectifs librement choisis. Des moyens seront mis en place pour diminuer les obstacles à la mobilité des chercheurs et des enseignants en Europe, et pour favoriser l’investissement privé dans la recherche, « en recourant à des mesures fiscales, au capital risque et au soutien de la BEI ». Un brevet communautaire devra être disponible à la fin de 2001.

Des objectifs plus précis sont formulés : le taux d’emploi doit être proche de 70 % d’ici 2010 ; la proportion de femmes actives doit dépasser 60 % à cette date, et le nombre de personnes de 18 à 24 ans n’ayant accompli que le premier cycle de l’enseignement secondaire et qui ne poursuivent pas leurs études ou leur formation doit être réduit de moitié.

Ces objectifs n’ont pas été réalisés. L’Union européenne n’est pas aujourd’hui l’économie la plus compétitive du monde, et les indicateurs proclamés sont loin d’être atteints. Les raisons de cet échec doivent être analysées. Il n’est pas possible de se satisfaire de l’explication globale traditionnellement avancée selon laquelle la stratégie de Lisbonne n’a pas réussi à cause de la crise financière de 2008.

Il apparaît clairement que ses objectifs étaient trop vagues et qu’ils correspondaient à une approche volontariste qui ne s’était pas donné les moyens de les réaliser.

Les moyens juridiques qui auraient pu contribuer à son succès n’ont pas été mis en place. Les discussions sur le brevet européen, par exemple, n’ont pas progressé assez rapidement, de même que les débats sur la standardisation : les délais pour élaborer des standards européens sont encore trop longs.

Tirant le constat de cet échec, l’Union européenne a redéfini une nouvelle approche globale en 2010.

2. La stratégie Horizon 2020 risque de connaître le même sort

La stratégie Horizon 2020, adoptée par le Conseil européen du 17 juin 2010, identifie quant à elle des objectifs chiffrés en matière d’emploi, de recherche et d’innovation, de changement climatique et d’énergie, d’éducation et de lutte contre la pauvreté.

Cherchant à tirer les conséquences de la crise économique de 2008, ses auteurs constatent que l’Europe a une croissance structurellement plus faible que celle de ses principaux partenaires économiques, que les taux d’emploi y sont bien inférieurs, et que si l’interdépendance des économises est un avantage pour l’Europe, la concurrence des économies développées et émergentes s’intensifie.

Il en découle trois priorités : une croissance intelligente, fondée sur la connaissance et l’innovation ; une croissance durable et une croissance inclusive.

Les objectifs poursuivis en matière d’éducation et de recherche sont affichés : 75 % de la population âgée de 20 à 64 ans devrait avoir un emploi, contre 69 % actuellement ; 3% du PIB de l’Union devrait être investi dans la recherche et l’innovation (contre 2% actuellement, et 2,6 % aux Etats-Unis et 3,4 % au Japon) ; le niveau d’éducation devra être rehaussé, en réduisant à 10 % le taux d’abandon scolaire, qui s’élève aujourd’hui à 15 %.

De manière plus concrète, la stratégie Horizon 2020 prévoit :

- la mise en place d’un brevet européen unique et d’une juridiction unique en matière de brevets, afin que le dépôt d’un brevet en Europe coûte beaucoup plus cher en Europe qu’aux Etats-Unis, ce qui est le cas aujourd’hui ;
- la mise en place d’instruments incitatifs, y compris fiscaux, pour favoriser le niveau d’investissement du secteur privé ;

- l’accélération de la promotion des liens entre l’enseignement supérieur, l’industrie et l’innovation ;
- plus d’opportunités pour les PME qui devraient avoir un meilleur accès à la protection de la propriété intellectuelle.

La question est maintenant de savoir si la stratégie Horizon 2020, qui a pris la suite de la stratégie de Lisbonne, a plus de chance de succès.

Or ce succès est loin d’être garanti : ni son approche, ni ses objectifs ne sont vraiment différents, tandis que les moyens envisagés restent imprécis.

La mise en œuvre de cette stratégie vient de faire l’objet d’une proposition de règlement du Parlement européen et du Conseil portant établissement du programme cadre pour la recherche et l’innovation « Horizon 2020 (2014-2020) ».

Mais sera-ce suffisant, au vu de l’expérience passée ?

Les nouvelles propositions de la Commission permettront-elles de répondre à des difficultés réelles ? La tâche est complexe.

En fait, il est extrêmement difficile d’avoir une influence sur la compétitivité, d’autant plus qu’il n’y a pas de véritable politique économique européenne. La législation européenne se préoccupe plus du respect de la concurrence entre sociétés européennes que de promouvoir une réelle compétitivité des entreprises face à leurs concurrents américains ou asiatiques. La bureaucratie bruxelloise, assaisonnée à la sauce des contraintes de Bercy est sans doute l’un des freins les plus efficaces au développement de l’innovation. Les politiques économiques des Etats membres restent très différentes, tout comme la diversité de leurs structures. Il ne suffit pas de définir quelques technologies clés. Il est tout aussi insuffisant de mettre en avant les technologies diffusantes qui permettent pourtant la fluidité d’un domaine à un autre et la diffusion des résultats de la recherche.

La définition régulière de grandes orientations de politiques macroéconomiques ne peut pas se substituer à une véritable coordination des politiques économiques d’Etats qui ne le souhaitent pas vraiment. Les mentalités doivent encore évoluer.

Il faut par ailleurs restaurer la confiance des citoyens dans la science et la regagner si elle a été perdue, comme dans le cas des OGM. C’est pourquoi il est si important de ne pas répéter, pour les nanotechnologies ou la biologie synthétique, les erreurs faites pour les biotechnologies et ne pas transformer le débat OGM en controverse sur les Objets atomiquement modifiés (OAM).

III. ENSEIGNEMENT SUPÉRIEUR, RECHERCHE,
ET SERVICE À LA SOCIÉTÉ

Notre système universitaire n’a que peu évolué au cours de son histoire, et ce malgré la révolution qu’a été la massification de l’enseignement supérieur. Depuis le 1er Janvier 2012, toutes les universités sont autonomes. Ainsi, il convient de proposer une boite à outils pour les universités autonomes, en faisant le lien entre enseignement supérieur, place du doctorat, valorisation de la recherche, et service à la société.

A. LA FORMATION APRÈS LE BAC

Bien souvent dans notre pays, les formations universitaires sont soit perçues comme totalement coupées des réalités matérielles, soit complètement inféodés au monde économique ; à croire qu’il n’existe pas de juste milieu. Or la plus pure des théories n’est pas forcément découverte dans le cadre d’une recherche fondamentale, et la recherche fondamentale a bien souvent, tôt ou tard, une application.

De plus, pour les jeunes diplômés, un nécessaire équilibre entre émancipation intellectuelle et émancipation matérielle est nécessaire. Une société composée de citoyens sans aucune ouverture d’esprit serait à terme plus conservatrice qu’innovante ; néanmoins pas plus qu’une société composée de personnes intéressées uniquement par les idées et non pas par leur mise en application.

1. Les avantages et inconvénients d’un système dual : quelle valeur pour les diplômes ?

Historiquement, notre système d’enseignement supérieur et de recherche est doublement dual. Il existe d’une part une séparation entre universités et organismes de recherche et, d’autre part, entre universités et grandes écoles. Cette dernière séparation entre différentes formes d’établissement d’enseignement supérieur, souvent présentée comme une bizarrerie hexagonale, est en fait assez commune même si elle se présente dans des termes différents.

Les grandes écoles, et notamment les écoles d’ingénieurs, dès leur création, ont répondu à un besoin du monde économique : disposer de travailleurs diplômés de hautes études et aptes à s’intégrer au monde du travail très rapidement.

Le système des écoles d’ingénieurs mis en place à des moments particuliers de notre histoire (deux vagues principales de création : fin XVIIIème et début XIXème siècle, sortie de la seconde guerre mondiale) nous ont permis de construire puis de reconstruire notre industrie. Dans les deux cas, il nous a permis de rattraper un retard (sur l’Angleterre dans le premier cas, sur les USA dans le second). Néanmoins cette formation a en partie montré ses limites dans le cadre de la compétition mondiale engagée dans les 20 dernières années.

En effet, la dualité de notre système a abouti au fait que les grandes écoles, très proches du milieu économique, ne faisaient jusqu’à présent peu de recherche, alors que les universités menaient des activités de recherche mais n’entretenaient que peu de liens avec les entreprises. Cette situation a entraîné un ralentissement de l’innovation en France au fur et à mesure que la recherche a pris de plus en plus de place dans l’innovation et la compétitivité mondiale.

Un double mouvement des universités en direction du monde économique d’une part et des grandes écoles vers la recherche doit permettre de remédier à ce problème. La question de l’utilité de ce système dual pourra éventuellement se poser, étant donné que chacun a fait un pas vers l’autre.

Mais, les deux systèmes gardent chacun leurs spécificités, au premier rang desquelles la différence de taille. En effet, les grandes écoles sont bien souvent, pour ne pas dire toujours, de taille plus modeste que les universités. Elles offrent un maillage territorial bien plus important que les universités. Les universités ont, quant à elles, permit la massification de l’enseignement supérieur, ce que les grandes écoles n’auraient pas pu faire.

La concurrence et surtout la comparaison raisonnée et non idéologique ou passionnée entre les deux systèmes pourraient produire un effet bénéfique pour les deux systèmes en leur permettant de se renforcer l’un l’autre, notamment en s’inspirant des réussites de chacun des systèmes. Néanmoins, à l’heure actuelle, on assiste à un véritable phénomène de vampirisation des meilleurs éléments au profit des grandes écoles qui ont un quasi monopole sur la formation des élites de notre pays. D’aucuns diraient que cela aboutit d’ailleurs à un certain formatage.
2. Un renouveau des outils pédagogiques

Le système universitaire français est marqué par un taux d’échec à l’issue de la première année d’enseignement supérieur très, pour ne pas dire trop élevé. Ce taux d’échec aboutit au fait qu’à l’entrée en master 2 le taux de sélection est comparable au taux de sélection à l’entrée des classes préparatoires aux grandes écoles, à la différence que dans un cas la sélection se fait a priori et dans l’autre se fait à l’usure avec les dégâts que l’on peut imaginer sur les étudiants.

Le taux d’absentéisme en milieu universitaire est assez important. On peut y remédier soit en augmentant la sélection pour lutter contre l’échec et réprimer plus durement l’absentéisme, soit en revoyant la pédagogie afin de garantir une meilleure réussite de tous et un intérêt accru des étudiants dans des cours par conséquent plus productifs pour eux. 

Des universités et des écoles ont réussi ce pari risqué mais nécessaire. A cet égard le cas de la réforme de l’enseignement en première année de médecine à l’Université de Grenoble est intéressant. Par le biais d’une pédagogie innovante utilisant au mieux les nouvelles technologies de l’information, cette faculté a non seulement amélioré la qualité de ses cours et le jugement que ses étudiants en font. Elle a aussi augmenté l’égalité des chances en rendant le recours aux classes préparatoires privées inutile. En effet, le résultat des étudiants suivant des cours privés n’est plus supérieur à ceux qui n’y ont pas recours.

Il est évident que cet exemple isolé n’est pas directement applicable à l’ensemble des formations. Néanmoins la pédagogie doit réellement reprendre la place qui lui revient au sein des formations universitaires. A ce titre la part congrue qui lui a été réservée dans les différents appels d’offres gouvernementaux est le signe du désintérêt qu’elle inspire actuellement. Nous proposons par exemple que les jeunes maîtres de conférences puissent la première année bénéficier d’un encadrement pédagogique et d’un service d’enseignement à mi-temps, leur permettant de démarrer des activités de recherche. L’évaluation des enseignants chercheurs, essentiellement basée sur la recherche et dans une moindre mesure sur les activités administratives, est elle aussi révélatrice d’un état d’esprit qu’il faudrait corriger.
Par le biais d’échange de bonnes pratiques et d’incitations financières, il est indispensable d’engager un renouveau pédagogique des universités. La question de la répartition entre charge d’enseignement et charge de recherche est à poser, tout comme celle de la répartition entre enseignants chercheurs, chercheurs et professeurs agrégés.

3. Le développement d’un langage commun : les projets inter-formation et le décloisonnement des filières

Les formations en France sont marquées par un cloisonnement disciplinaire très important. Les étudiants en différentes disciplines (même s’ils poursuivent des études longues jusqu’au doctorat) n’ont que peu de chances d’interagir. Cette situation aboutit au fait qu’en arrivant dans le monde du travail, les nouveaux diplômés ne disposent pas d’un langage et d’une culture commune alors qu’ils sont amenés à travailler ensemble. Des ingénieurs, des commerciaux, des juristes ou encore des responsables des ressources humaines ou des relations publiques doivent communiquer entre eux sans l’avoir jamais fait auparavant.

Il apparaît donc indispensable de repenser une partie de la pédagogie afin de laisser plus de place à des projets interdisciplinaires faisant interagir des étudiants de différentes disciplines. Nous souhaitons que les passerelles soient facilitées entre disciplines ainsi qu’entre universités et grandes écoles.

Par ailleurs, la réforme LMD qui devait aboutir à décloisonner les formations et permettre aux étudiants de plus facilement moduler leurs formations n’a que très partiellement rempli son objectif. Il est évident que la multidisciplinarité ne doit pas se faire au détriment de l’excellence. Néanmoins, une pédagogie de projets interdisciplinaires doit aussi permettre, en se basant sur le cœur de compétences de chacun des membres du groupe, de renforcer la pluridisciplinarité des formations sans pour autant nuire à la qualité de la formation disciplinaire.

La modularité des formations devrait enfin renforcer les filières les plus théoriques et les plus éloignées du monde du travail en permettant aux étudiants de ne pas s’enfermer dans une voie à issue très étroite.
B. DE LA RECHERCHE À L’INNOVATION : BOITE À OUTILS POUR DES UNIVERSITÉS AUTONOMES

La loi Liberté et Responsabilité des Universités (LRU) peut apparaître comme le dernier pas dans la longue marche d’autonomisation des Universités françaises. En effet, depuis la loi Faure de 1968, les universités ont évolué, au fil des lois, comme par exemple la loi Savary de 1983, des décrets et circulaires, vers de plus en plus d’autonomie.

Historiquement, l’Université française n’avait que peu de marges de manœuvre. Ainsi les décisions concernant les deux composantes primordiales de ses fonctions, à savoir son personnel enseignant-chercheur et son offre de formation, lui échappaient très largement ; la gestion des postes et des carrières était largement dirigée par les sections du Conseil national des universités (CNU) et les commissions de spécialistes, et l’offre de formation était largement pilotée par le pouvoir central.

Une première inflexion dans ce centralisme apparaît avec les procédures de contractualisation en 1989. Le pouvoir exécutif de l’époque met en place un système de contrat, renégocié périodiquement, entre les universités et l’État et portant tant sur l’offre de diplômes que la stratégie de l’établissement. Cette réforme, suivie de différents appels d’offres visant à remettre à niveau un patrimoine bâti déjà en voie de dégradation (plan Université 2000 et Université du 3ème millénaire), tend à donner plus d’autonomie aux universités et notamment à leur pouvoir exécutif.

Au niveau de la recherche, la large vague « d’UMRisation »1 entamée à la fin des années 60 et achevée au cours des années 90, a largement renforcé le potentiel de recherche des universités en les associant de manière très étroite aux organismes de recherche. De plus, ce processus leur a donné un réel pouvoir de décision sur la recherche via des procédures de négociation et de contractualisation, notamment avec le CNRS.

1. Les apports et limites de l’autonomie des universités

Au 1er janvier 2011, 90 % des universités françaises étaient passées aux compétences élargies. Le reste des universités est passé, comme le prévoit la loi, aux compétences élargies le 1er janvier 2012.

La LRU, comme il est spécifié dans son premier article, vise à rendre les universités autonomes. Pour réaliser cet objectif, deux moyens ont été utilisés.

Le premier a été de largement remodeler les équilibres de gouvernance et les compétences des différents conseils décisionnaires des universités. Le second a été d’opérer un vaste transfert de compétences au détriment du ministère de l’Enseignement supérieur et de la recherche.

a. Des instances de gouvernance plus efficaces ?

La LRU a eu pour premier effet de réformer profondément la gouvernance de l’université, notamment en ce qui concerne l’équilibre entre le conseil d’administration (CA), le conseil scientifique (CS) et le conseil des études et de la vie universitaire (CEVU).

Les deux principaux changements qui ont affecté ces conseils sont une réduction du nombre des administrateurs et un transfert de pouvoir au CA au détriment du CS et du CEVU qui deviennent des conseils consultatifs. L’idée était d’en finir avec l’image d’institutions très complexes à gouverner.

Dans la nouvelle organisation des universités, le CA devient l’élément clé de la gouvernance. Afin de renforcer la stabilité et l’efficacité, l’élection des membres académiques du CA se fait par un scrutin de liste à un tour avec prime majoritaire. L’idée était de permettre au président de disposer d’une majorité forte. Néanmoins, ce mode de scrutin peut conduire au blocage des CA. En effet, dans le cas où les listes qui arrivent en tête dans les collèges professeurs et maîtres de conférences ne sont pas les mêmes, l’effet des primes majoritaires s’annihilent. Nous souhaitons ainsi une évaluation de la loi sur la responsabilité des universités (loi LRU).

De plus, le mode d’élection par collège a pour effet d’aboutir à une représentation « corporatiste » et surtout donne lieu à un débat pré-électoral essentiellement tourné vers les intérêts de chaque collège.

Ainsi, bien souvent le débat politique de projet global pour l’université ne se fait jour que lors de l’élection du président par le conseil d’administration restreint (sans les représentants extérieurs).

Les CA, dans leur mode d’élection actuel, sont donc plus sur des « super-CTP » (conseils techniques paritaires) que de vrais organes politiques nécessaires à des universités autonomes.

Lors d’une de nos visites préparatoires à ce rapport, nous avons eu l’occasion de nous rendre à l’université de Louvain-la-Neuve. Nous y avons appris que le président y est élu au suffrage universel direct par les personnels et les étudiants avec pondération des voix. Le président nouvellement élu y a la charge de constituer son équipe de présidence. L’avantage de ce mode d’élection est qu’un réel débat quant à l’avenir de l’université et à son projet peut être mené. Ainsi, lors des dernières élections le débat s’est notamment porté sur la création d’une direction de service à la société (valorisation, au sens large tel qu’évoqué précédemment, des connaissances créées).

Nous souhaitons plus de démocratie et plus de collégialité dans le processus de prise de décision.
Sans copier cet exemple qui est très éloigné du modèle français, nous devons réfléchir à une évolution du mode d’élection des membres des CA de nos universités. Nous devons notamment tendre à ce que le débat pré-électoral porte sur un projet d’avenir global pour l’université et pallier le problème de majorité parfois difficile à trouver.

L’utilisation d’un scrutin de type « régional » (élections dans différents collèges à la proportionnelle avec prime majoritaire sur la base du résultat global) pourrait tout à la fois garantir la représentation des différentes populations de l’université mais aussi une majorité stable et faire porter le débat sur un projet global.

b. Un vaste transfert de compétences paralysé par de nombreux appels d’offres ?

Les réformes qui ont touché les universités françaises ont eu pour but affiché de rendre plus autonomes ces dernières. Par exemple, la création des PRES (Pôles de recherche et d’enseignement supérieur) a laissé au premier abord beaucoup de liberté aux acteurs locaux qui avaient le choix de créer ou de ne pas créer un PRES.

La forme juridique et les missions des PRES sont laissées elles aussi à la discrétion des acteurs locaux, hormis la signature unique des publications et la gestion des écoles doctorales. On peut considérer que cette réforme donne un peu plus d’autonomie aux acteurs en ce qui concerne leur structuration, car avant cette réforme les établissements et organismes n’avaient que peu de libertés dans ce domaine.
Le premier but affiché de ces appels d’offre a été de promouvoir l’excellence académique, notamment pour figurer en meilleure place dans la compétition internationale.

Le second but était de développer de l’excellence dans le domaine du transfert de connaissances, notamment technologiques. Ainsi, le Plan Campus a accéléré la création de PRES, sous la forme d’établissements publics de coopération scientifique. En effet, le ministère, qui avait dans un premier temps laissé le choix aux acteurs locaux quant à la forme des PRES, a par la suite précisé que seuls des PRES sous forme d’EPCS seraient éligible au Plan Campus.

La mise en concurrence très forte des établissements et des chercheurs les « oblige » à l’excellence et laisse parfois de côté certaines initiatives locales. Ainsi, il convient d’aider les petites structures de taille régionale, en les incitant à se regrouper, par exemple sous la forme de PRES, afin de mutualiser leurs moyens pour mieux répondre aux appels à projets. La concurrence ainsi créée, qui n’est pas mauvaise en soi, même si elle ne faisait pas partie de la culture française, permettra de financer les meilleures initiatives, qu’elles soient locales, régionales ou nationales.

Nous pensons que l’actuel mille-feuille institutionnel est un frein à la créativité et à l’efficacité. Pour nous, l’université doit être au centre de l’offre de formation et de recherche, à chaque territoire doit correspondre une grande université. Les exemples de l’université de Haute-Savoie et de l’université de Metz nous ont marqués. La mutualisation doit être recherchée pour valoriser au mieux les droits de la recherche française et ne doit pas conduire à ce qu’on appelle improprement les universités de seconde zone. Nous voulons, comme l’université de Haute-Savoie a su le faire avec Grenoble, ou comme dans le cas de l’université de Lorraine qui a conduit à la fusion des trois universités de Nancy et de Metz, privilégier la mutualisation et le travail en réseau sur tout le territoire, en privilégiant l’échelon régional pour faire progresser la recherche.

c. Des équipes supports au montage et à la gestion des projets

Le basculement d’une partie des financements de la recherche d’un mode récurrent vers un mode sur projet a abouti à un renouvellement des fonctions des chercheurs. Les chercheurs statutaires bénéficiant d’un poste permanent ont vu la part de leur temps de travail consacrée à la recherche de financement et de gestion de projet nettement croitre. Or les chercheurs ne sont pas forcément bien formés à ces différentes tâches qui, pour certaines d’entre elles, sont bien éloignées de leur mission première.

Les pratiques universitaires dans des pays tels que le Royaume Uni ou les Etats-Unis, où l’histoire des financements sur projet est plus ancienne, peuvent sans doute nous inspirer. Le cas britannique est d’autant plus intéressant pour nous que son taux de réussite aux appels d’offre européens est presque deux fois plus élevé que le nôtre ; pour ne pas noircir le tableau, il faut porter au crédit de la recherche française sa très bonne place dans les financements européens (généralement dans les trois premières nations en terme de chiffres globaux).

La première explication de ce meilleur taux de réussite Outre-Manche tient essentiellement à la professionnalisation croissante de la fonction de recherche de financements. Dans la plupart des grandes universités d’autres pays, comme par exemple à Louvain-la-Neuve et à Leuwen, des équipes supports à la candidature et à la gestion de projets permettent de dégager les chercheurs d’une bonne part du travail administratif lié à ces nouvelles activités.

L’encouragement au développement ou à la création de tels services lorsqu’ils n’existent pas encore apparaît comme une nécessité. Cet encouragement devra permettre, par la professionnalisation des équipes, d’aboutir à une meilleure gestion de l’argent public et, à terme, d’améliorer le taux de réussite des chercheurs français aux appels d’offres européens.

d. Un transfert des connaissances plus efficace vers le monde économique

Le transfert des connaissances vers le monde économique, première étape indispensable à leur valorisation, apparaît comme relativement faible dans notre pays comparé à des pays comme les Etats-Unis ou l’Allemagne. Dans le cas des Etats-Unis notamment, les universités américaines sont plus impliquées dans le développement économique local, et ce, depuis plus longtemps.

En France, la dichotomie universités/grandes écoles a abouti au fait que les universités ne s’intéressaient que peu au monde économique alors que les grandes écoles elles, plus proches des entreprises, ne menaient quasiment pas d’activités de recherche. Le transfert des connaissances vers le monde économique s’en trouvait, et s’en trouve encore, forcément fragilisé.

Les deux mots « recherche » et « innovation » sont souvent associés comme s’il suffisait d’avoir une recherche publique et privée de qualité pour que l’innovation suive. Le très bon niveau de notre recherche ne trouve qu’un écho limité dans la création de produits, de services, de méthodes, de procédés. Aider l’innovation c’est améliorer la qualité de la recherche, c’est mieux former les chercheurs et les professionnels, c’est enseigner les règles du jeu de l’innovation et de la diffusion, c’est apprendre au chercheur comment créer son entreprise à partir de son invention, c’est l’associer à un manager, c’est l’accompagner efficacement.

La loi de 1983 sur le CIR, modifiée plusieurs fois notamment à partir de 2004, la loi Allègre de 1999 sur l’innovation et la recherche, la possibilité donnée aux chercheurs de déposer des brevets, l’implication croissante d’OSEO et de la CDC dans la financements, le rôle accru des régions, constituent des avancées mais il reste encore beaucoup de freins à lever.

Le développement de ces transferts ne pourra se faire que par différents vecteurs et non par le biais d’une solution unique. Le double mouvement des universités vers le monde économique et des grandes écoles vers la recherche a certes nettement amélioré la situation. Mais la valorisation économique par le biais de la prise de propriété intellectuelle sur les résultats de la recherche ne saurait être l’alpha et l’oméga d’une politique de transfert des connaissances vers le monde économique.

En effet, la valorisation économique par les universités et les organismes de recherche, même si elle est importante, n’est pas l’unique moyen de valoriser les résultats de leur recherche, et ce, d’autant plus que celle-ci n’a pas forcément un impact sur leur environnement dans le cas ou les brevets et licences sont exploités par des entreprises n’opérant pas sur leur territoire.

Afin d’attirer les meilleurs étudiants, les universités ont un intérêt certain à ce que le tissu économique qui les entoure soit actif et en capacité d’employer les nouveaux diplômés. Les organismes de recherche quant à eux trouvent souvent dans les entreprises locales de formidables partenaires de recherche tant technologique que sociologique et tant fondamentale qu’appliquée. La recherche fondamentale qui a besoin d’équipements matériels importants a besoin d’avoir des partenaires locaux pour lui fournir des équipements qui ne sont pas toujours produits de façon industrielle.
Le transfert des connaissances par le biais d’un lien continu et proche entre recherche et formation tout au long des études supérieures apparaît comme un double avantage. Ce lien garantit que les nouveaux diplômés emporteront avec eux dans leurs entreprises les dernières connaissances. Il garantit aussi que ces nouveaux diplômés seront en capacité d’importer de nouvelles connaissances dans leur entreprise pour garantir leur compétitivité. En outre, avoir travaillé dans des laboratoires (notamment durant un stage ou une thèse) permet aux nouveaux diplômés de connaître un minimum la recherche académique, ce qui est sans doute le moyen le plus sûr de faire tomber les préjugés tenaces dont elle souffre dans le monde de l’entreprise.

Le développement des formations en alternance ou par apprentissage dans le supérieur, qui sont à cet égard sans doute les plus à même de renforcer ce lien, devrait être une priorité de notre pays. D’autant plus que ce type de formations présente l’avantage de renforcer l’égalité des chances car les alternants et apprentis perçoivent une rémunération leur permettant de poursuivre des études longues.

Enfin, les questions d’attribution de la propriété intellectuelle restent trop souvent une pomme de discorde entre universités, organismes de recherche et entreprises partenaires. La réglementation doit absolument être simplifiée afin de faciliter les procédures et mettre un terme aux effets dévastateurs sur la dynamique de recherche que peuvent avoir ces questions.

Afin d'accélérer et de professionnaliser ce transfert de connaissance, il est prévu de mettre en place des Sociétés d'accélération du Transfert de Technologies, ou SATT. Toutefois, nous aimerions souligner qu'un des risques de ces SATT ad hoc est une forme de déconnexion et de découplage avec les équipes de recherche.
Nous insistons sur l’indispensable proximité entre les personnels des cellules de valorisation et les chercheurs. Créer une personne morale supplémentaire présente un certain nombre d’avantages, mais présente également des difficultés, notamment pour les chercheurs voyant toujours d’un drôle d’
œil une personne d'un organisme apparemment externe à l'université venir dans leur laboratoire.

Si les projets de SATT sont maintenus, il faut impérativement trouver des solutions qui permettront au chercheur d’être convaincu que cette personne n’est pas déconnectée de l’établissement, n'est pas une personne qui n’a à l'esprit que les questions économiques ; elle doit être ressentie comme membre à part entière de l’université, en charge du service à la société et de la diffusion et de la valorisation des connaissances et de leurs applications.

L’accompagnement du transfert de technologie est devenu de plus en plus complexe. Aux incubateurs se sont ajoutés des clusters, des pôles de compétitivité, des réseaux thématiques de recherche avancée, des instituts Carnot, des instituts de recherche technologique, des sociétés d’accélération du transfert de technologie, des instituts d’excellence pour les énergies décarbonnées...

L’Etat a souhaité que tous ces outils soient dotés de structures juridiques indépendantes alors que dans le même temps il prône l’autonomie des universités, ce qui se révèle être un choix incohérent comme par exemple dans le cas des IRT. Il est également paradoxal de demander à des SATT d’atteindre l’équilibre financier alors que les règles françaises interdisent à ces structures de prendre des participations dans la création de start-up ou de spin-off. Dans ces conditions très contraintes, ces structures n’atteindront jamais, à notre sens, leur autonomie financière.

2. Les structures de valorisation et le service à la société : l’apport des comparaisons internationales

En France, il est prévu d’ailleurs d’installer des Sociétés d’accélération du transfert de technologie (SATT) pour financer les phases de maturation des projets et permettre une meilleure valorisation de la recherche. Toutefois, il semble que la mise en place de ces structures ad hoc soit faite sans comparaison internationale préalable. Or, il convient de s’intéresser plus en détails aux exemples étrangers pour profiter des meilleures pratiques.

En effet, dans un monde où l’utilisation des connaissances est devenue une arme de compétitivité extrêmement importante, la valorisation des résultats de la recherche est devenue le fer de lance de certaines écoles ou universités.

Mais comme nous l’avons vu lors des premières parties de ce rapport, même une valorisation de la recherche efficace est incomplète sans intégrer la société au processus d’innovation et de développement.

a. L’exemple du MIT révèle une puissance financière qui rend difficile une transposition directe des mesures qui y sont mises en œuvre.
Alors que
le MIT n’accueille que 1000 étudiants par promotion, ses 6000 chercheurs génèrent un budget de recherche d’un milliard de dollars, dont la moitié provient de la recherche militaire. Ils déposent 500 brevets par an. Une vingtaine de start-up reçoivent des licences d’invention du MIT par an.

Son bureau des licences technologiques, où travaillaient 33 personnes, a été créé il y a vingt ans, et fait le travail des avocats qui jusque là s’occupaient du dépôt des brevets. L’objectif de ce bureau est de déposer des brevets sur les inventions qui sortent des bureaux de recherche et de négocier des licences commerciales auprès des entreprises. Il faut donc faire des licences qui attirent les industriels. L’objectif financier – des profits pour le MIT – ne vient qu’après. Il faut surtout déployer les inventions du MIT dans la société, aussi vite et aussi largement que possible, et encourager les industriels à financer la recherche au MIT.

Ce bureau gère les brevets, les licences et les accords de confidentialité. Il comprend par exemple 4 spécialistes des licences dans le domaine de la santé et des sciences de la vie (médicaments, ADN), et 4 autres dans le domaine des sciences physiques  (énergie, électronique, chimie, logiciels).
Pour le MIT, toutes les inventions ne doivent pas être brevetées
. Les brevets ne sont pris que lorsqu’un brevet est nécessaire. Le brevet est en effet un outil qui bloque, et

beaucoup d’inventions sont mieux protégées par le secret que par un brevet. L’Institut ne met jamais le brevet devant la publication scientifique, car la publication est une mission très importante de l’université. Or, quand il y a publication, on ne peut plus breveter. Il faut donc faire un choix. Il est possible de déposer très rapidement un brevet si nécessaire, éventuellement en quelques jours même si la qualité du brevet peut être amoindrie. Un tel délai relève parfois de l’exploit.

Le résultat financier de ces activités est important : Le bénéfice annuel de la commercialisation qui en découle est de 60 millions de dollars. C’est le produit net des licences, frais de structure et frais légaux déduits (environ 25 millions de dollars par an). Ces 60 millions sont divisés en trois parts : un tiers va aux inventeurs ; un tiers au département ou la recherche a été faite ; un tiers au fonds de réserve et d’investissement de l’université (endowment).

Le MIT présente par ailleurs l’originalité d’avoir créé une porte d’entrée pour les industriels, l’Industrial liaison program qui a un chiffre d’affaires de 150 millions de dollars. Le ticket d’entrée, de 65 000 dollars pour deux ans, permet à l’industriel qui a un besoin spécifique de négocier un programme de recherche qui lui sera propre et de bénéficier automatiquement de l’utilisation du brevet si un brevet est déposé.

La relation qui en découle entre l’industriel et le professeur diffère de celle entre l’industriel et le MIT. L’industriel finance, le professeur en charge de ces recherches est personnellement responsable et doit trouver les fonds pour son laboratoire. Le MIT paye pour l’instruction.
Le MIT garde toujours la propriété intellectuelle des inventions qui y sont faites. C’est un choix philosophique, pour deux raisons : la recherche est basée sur des résultats antérieurs. Il faut pouvoir améliorer une invention et ne pas être bloqué par un propriétaire différent. Quand il y a des recherches coopératives, le MIT est copropriétaire avec l’employeur des autres inventeurs, ce qui peut certes bloquer certains projets collaboratifs.

Le MIT essaie de trouver des solutions scientifiques, pas forcément commerciales, et en trouve souvent qui ont un intérêt plus important que ce qui intéressait l’industriel à l’origine.


Alors que beaucoup d’universités américaines créent des filiales, le MIT ne le fait pas. Il n’investit pas non plus dans des start –up.

b. L’exemple de la Belgique et des Pays Bas pourrait être suivi pour mieux valoriser la recherche

(i) A l’Université de Leuven

La KU Leuven est spécialisée en sciences, en ingénierie, en technologie, en humanités et sciences sociales, et en sciences biomédicales. Forte de ses 7000 chercheurs, 1500 professeurs, 4400 doctorants, 1100 post-docs, elle poursuit deux objectifs : contribuer à un niveau élevé d’éducation ; être l’un des leaders dans le domaine de la recherche en Europe, où elle occupe la 6ème place dans les universités européennes en matière de recherche.

Cette université fait un effort particulier de valorisation du potentiel économique de la recherche en remplissant plusieurs tâches : rédaction des contrats de recherche, gestion des droits de propriété intellectuelle, création d’entreprises (spin-off), promotion de l’esprit d’entreprise et de l’innovation, contribution au développement régional. Elle a reçu le prix IPTEC qui récompense l’excellence en matière de transfert technologique et de diffusion des connaissances, en battant le MIT.

Ses dépenses pour la recherche sont de 350 millions par an. 25 % viennent de l’Université, 75 % de l’extérieur. Les fonds de l’Université font levier pour ces fonds extérieurs : pour un euro de l’université, les chercheurs collectent 3 euros à l’extérieur au titre du transfert de technologie.

30 % des efforts de recherche de financements sont dirigés vers l’Europe. Les financements européens représentent 7 % des sommes disponibles pour la recherche.

Un bureau de 28 personnes (23 équivalents temps plein) informe les chercheurs des possibilités de financement, et apporte une aide pour monter les projets européens (une part des budgets européens peut être affectée à ce type de services). Il informe les chercheurs des possibilités de financement extérieurs, et communique à l’extérieur sur ses équipes de recherche. 5 personnes travaillent à temps plein pour l’audit et le contrôle européen.

L’Université de Leuven dépense 15 % de son budget dans des coopérations avec l’industrie, ce qui la met à la première place en Europe.

Chaque année, elle signe plus d’un millier de contrats de coopération avec l’industrie dans le domaine de la recherche. En 2010, 1384 nouveaux accords ont été conclus, tandis que les revenus liés à la propriété intellectuelle ont atteint 51 millions d’euros.

Entre 2005 et 2010, l’Université a investi 4,7 millions dans des spin-off, ce qui a incité des tiers à y investir 476 millions d’euros. 82 spin-off sur les 92 ainsi créées sont encore actives, et emploient 3000 salariés. L’Université a généralement 10 % du capital de ces entreprises.

Le rapport entre investissement propre et investissements extérieurs est de 1 à 100, ce qui montre combien l’Université est intégrée dans sa région dans un environnement de technologie de pointe.

Cette démarche découle du cadre juridique instauré par les pouvoirs publics en Flandre : l’Université est autonome et très libre. Selon la loi, les revenus qu’elle touche sont répartis pour un tiers au chercheur (ce qui permet souvent un double salaire), un tiers au département, (somme qui peut être réinvestie dans la recherche), un tiers à l’Université. Les impôts sur ces suppléments de revenus pour les chercheurs sont de l’ordre de 15 %.

De même, en Flandres, toute Université doit avoir un bureau de transfert de technologie, ce qui permet d’éviter des abus liés aux sociétés de consultants autrefois créées par des professeurs. Les domaines les plus concernés sont les sciences dites « dures » et la médecine. Mais on trouve aussi une entreprise créée par des psychologues dans le domaine musical.

Le transfert de technologie rentre dans le cadre des services à la société, troisième tâche des universités, après l’éducation et la recherche.

Le transfert de technologie résulte de la combinaison d’outils centralisés et décentralisés.

65 personnes font partie d’une équipe centralisée qui ont pour tâche de faciliter le transfert de technologie des professeurs en recherchant des partenaires potentiels, en protégeant la propriété intellectuelle, en aidant à la création de sociétés. Bien connaître la propriété intellectuelle est essentiel pour créer une spin-off, et cette activité doit être centralisée alors qu’elle est trop souvent dispersée dans la plupart des universités.
Ses employés du service transfert de technologie doivent être de bons professionnels et non des personnes mises sur le côté, comme dans beaucoup d’universités.

Mais l’Université utilise aussi des outils qu’elle appelle décentralisés : elle crée pour un chercheur qui veut avoir des relations avec l’industrie, une petite PME, un espace budgétaire indépendant dont il est responsable. Le chercheur possède un compte bancaire virtuel (car l’argent est propriété de l’université). Il a ainsi une vision de son activité, qu’il s’agisse du nombre de personnes qu’il emploie, du nombre de contrats qu’il a obtenus et des revenus générés.

Le professeur ne peut pas employer ces revenus pour des buts privés, mais il peut embaucher, investir. Il y a une identification forte entre l’activité et les résultats.

Ces revenus reviennent au compte bancaire virtuel du chercheur. 17 % sont prélevés pour les frais généraux et les frais de recherche de l’université. 50 % des bénéfices nets peuvent servir à augmenter la rémunération du chercheur, sans dépasser toutefois deux fois son salaire académique. Mais ce système est peu utilisé. Les professeurs préfèrent investir ce bénéfice, pour des raisons fiscales. 55 personnes ont utilisé ce droit à prime, sur 800 projets différents.

Une cellule de 8 personnes rémunérées par le compte virtuel du professeur et non par l’Université, est chargée de la propriété intellectuelle. Ce système permet de rationaliser le brevetage en filtrant les projets. Toutes les découvertes, toutes les inventions sont la propriété de l’Université. Un tel système a permis de passer de 20 demandes de brevets en 1999 à 146 en 2010.

Les critères de succès de l’ensemble de ces activités ont été clairement identifiés : une recherche de haute qualité, menée par des équipes multidisciplinaires ; une structure incitative claire pour les chercheurs ; un environnement d’affaires favorable au sein de l’université ; un cadre juridique favorable ; des outils et des réseaux de soutien.

(ii) A l’Université de Louvain-la-Neuve

A Louvain-la-Neuve, des solutions proches ont été trouvées. Comme à Leuven, l’université a une nouvelle tâche à remplir : celle de service à la société, mais cet objectif semble davantage proclamé.

Forte de 26 000 étudiants, de plus de 5 000 enseignants chercheurs et de 140 000 anciens étudiants dans le monde, l’Université de Louvain participe à 6 programmes Erasmus Mundus, à 500 conventions bilatérales Erasmus et à 120 conventions bilatérales hors de l’Union européenne.

Elle regroupe 4 000 personnes actives dans la recherche, 600 chercheurs étrangers, 200 laboratoires, 20 écoles doctorales qui forment 220 docteurs par an. Elle signe plus de 1 000 contrats de recherche par an. Elle a créé plus de 50 spin-off.

Son intérêt est marqué pour l’innovation sociétale, le développement durable et la valorisation de la recherche Son budget de la recherche atteint 340 millions d’euros. Un tiers de cette somme provient de crédits de recherche extérieurs.

Dès le moment où elle a démarré ses activités à Louvain la Neuve, à la suite de ses démêlés politiques avec l’Université de Leuven, elle a créé un parc scientifique avec des spin-off et des centres de recherche développement des entreprises. Ouvert à la technologie, à la santé, mais aussi aux sciences humaines, son parc scientifique regroupe 140 sociétés et a permis de créer 5000 emplois très qualifiés.

A cette fin, l’université encourage ses professeurs à s’impliquer davantage dans l’offre d’avis d’experts, dans la participation au transfert de technologie, dans la prise de brevets et dans la création de spin-off. Les professeurs savent qu’ils seront évalués sur trois critères : l’enseignement, la recherche et le service à la société.

Il en résulte une motivation très différente du personnel de l’université, qui s’intéresse davantage aux brevets et à l’entreprise.

Elle a élaboré une Charte du service à la société, de même qu’une Charte de Préincubation et de Maturation qui indique aux chercheurs leurs droits et devoirs. C’est un outil utile pour éviter le départ des chercheurs. La définition des règles du jeu permet de préciser les tâches de chacun : le chercheur a vocation à rester dans son laboratoire, l’université n’a pas pour but de le transformer en homme d’affaires ; il va par contre être associé avec des hommes d’affaires afin de créer une spin-off.

L’université a créé une société anonyme, la Sopartec, qu’elle contrôle à 100 %. Il s’agit d’une société de participations technologiques, qui permet de les gérer. L’Université reste propriétaire de tous les résultats de la recherche menée en son sein.


L’université a également créé un bureau de transfert de technologie de Louvain - le LTTO -, à partir de l’ADRE, (l’Administration de la Recherche de l’Université) qui existe depuis 1979 et de la Sopartec (créée à la fin des années 90), après un audit de 15 mois réalisé par Mc Kinsey, à la suite de divergences.

Ce bureau dépend de 2 conseils d’administration : celui de l’Université ; celui de la Sopartec.

Le LTTO est articulé avec des incubateurs. On parlerait en France de pépinière d’entreprises. L’Université possède à 50 % sa pépinière d’entreprises, la région wallonne les 50 % restants.

L’Université a ainsi un groupe de détecteurs de résultats de recherche valorisable, qui font le tour des laboratoires. Financé par la région, ce groupe est composé de docteurs ayant souvent une expérience industrielle, qui proviennent de plusieurs disciplines (scientifiques durs, ingénieurs, juristes et économistes). Ce sont des contractuels de l’université, financés en partie par des fonds FEDER, employés à plein temps.

Cette équipe comprend une quarantaine de personnes, dont un tiers sur des contrats extérieurs publics de recherche. Le LRD à Leuven a à peu près la même taille. L’Imperial College aussi. Leur objectif est de faciliter l’incubation et la valorisation à l’intérieur de l’université. Cette équipe est aidée par une équipe de la Sopartec qui est plus orientée vers les affaires. La combinaison de ces deux équipes est facteur d’efficacité.
L’objectif poursuivi est clair : faire reconnaître le métier de valorisateur de la recherche au sein de l’Université. C’est un métier spécifique, qui exige une grande stabilité, et  qui tend à la recherche de contrats européens et à la création de spin-off.

C’est une structure qui vise à renforcer les synergies et les complémentarités, et qui travaille avec les pôles de compétitivité et les administrations de la région wallonne.

Ce travail est basé sur une approche très volontariste. L’Université a la triple volonté d’inculquer l’esprit de création d’entreprise chez les étudiants en faisant travailler ensemble étudiants ingénieurs et étudiants d’écoles de commerce ; de créer un continuum entre la transmission de valeurs aux étudiants et la recherche dans les laboratoires ; d’établir un autre continuum entre le financement de la recherche en amont du transfert de technologie et l’accord de licence ou la création de spin-off (transfert effectif). Ce processus est géré par des équipes pluridisciplinaires afin d’éviter les ruptures.

La conviction de l’université est que le transfert de technologie doit être en son sein. Elle mobilise à cette fin des moyens financiers permettant de financer les brevets et d’assurer la preuve de principe.

Il en résulte un retour de la valorisation sur l’enseignement et la recherche, dans le cadre d’un cercle vertueux. Le message adressé aux professeurs et aux doctorants est clair : « Publiez, mais rencontrez nos détecteurs. Votre brevet peut être déposé en urgence en deux semaines. »

On note une corrélation positive entre la politique de publications et la politique de valorisation. Les projets qui aboutissent ont souvent mûri en laboratoire pendant 20 ans. Le transfert de technologie dure quant à lui de 2 à 3 ans.

Cette action cohérente s’appuie sur deux fonds d’investissement, gérés par la Sopartec. Le premier, Vives 1, a permis de collecter 15 millions d’euros. Des banques en sont notamment actionnaires. Le second, Vives 2, est plus important (Ses possibilités d’intervention globales atteignent 45 millions d’euros. Ses lignes d’investissement peuvent atteindre 4 millions d’euros). Ouvert à l’international, il intègre la Caisse des Dépôts et Consignations.

Le résultat de ce processus est important : 3000 emplois ont été ainsi créés.
Il faut néanmoins constater qu’il est encore difficile de trouver des moyens financiers lorsque l’idée n’est pas encore sortie du laboratoire ou lorsque la société a finalisé son produit et cherche à le commercialiser.

(iii) A l’Université de Twente

La manière dont l’Université de Twente met ses talents au service de la vitalité économique régionale ont été présentés lors de l’audition publique du 24 novembre 2011 par M. Wilbert Pontenagel.

« Deux mots sur Twente. Souvent, les gens pensent à « twenty » comme « twenty talents », mais ils pourraient être beaucoup plus. D’abord la région. Enschede est situé à l’est des Pays-Bas, c’est une commune qui comprend 14 municipalités et quelque 2 600 PME. Le marché est assez fragmenté, il n'y a pas de secteur d’activité dominant. Il y a quelque 300 000 emplois dans la région.

Le campus de l’Université de Twente est un espace vert où l’on peut faire de la randonnée et de l’aviron. C’est assez sympathique. Nous avons été créés en 1971 et nous allons fêter notre quarantième anniversaire la semaine prochaine. Avec 9 000 étudiants, notre identité se fonde plus sur la recherche que sur l’éducation. Notre université est reconnue pour son travail de recherche, notamment sur les nanotechnologies et les technologies de la communication et de l’information.

Aux Pays-Bas, chaque département a son slogan pour se présenter au reste du monde. Il faut être ni trop spécifique, ni trop long. Le nôtre, c’est : « High Tech and Human Touch », que l’on pourrait traduire par « Technique de pointe et Dimension humaine ». Nous nous intéressons aux applications des nouvelles découvertes technologiques que sont les applications de la recherche fondamentale.

Au cours des années 80, on était défini comme une université entrepreneuriale. A l’époque, ce n’était même pas acceptable d’être à la fois dans le monde de l’entreprise et dans le monde de l’université. Nous étions vraiment des francs-tireurs. Depuis, quelque 750 sociétés sont nées du travail de recherche dans notre université.

C’était une région où il y avait beaucoup d’emplois autour du textile. Ce n’était peut-être pas très attrayant, mais la population en était très fière. Cette tradition a commencé à décliner dans les années 50 et 60. C’est à ce moment-là que l’Université de Twente a été fondée. On aurait pu penser que c’était l’ouverture d’une nouvelle ère, mais les capitaines d’industrie de ce secteur n’étaient pas contents du tout. Ils ne voulaient pas d’enseignement supérieur. La compétition étant farouche, ils voulaient de la main-d’œuvre bon marché pour survivre. Notre gouvernement a insisté en disant : « c’est ce qu’il faut : un établissement d’enseignement supérieur et de recherche ».

Notre université s’est développée au fil des ans, jusqu'aux années 90, où elle a fini par prospérer. Cela a abouti à la création de Kennispark, le parc de la connaissance. En néerlandais, « Kennis » a un double sens : la notion de savoir-faire, les connaissances scientifiques, et comme en français, les personnes que l’on rencontre et qui deviennent des « connaissances ». Avec Kennispark, nous avons créé un campus de l’innovation qui a été générateur de nouvelles connaissances qui se sont développées.

Autre point important, la triple hélice. On dit qu’il n'y a pas de survie sans idées innovantes, mais il n'y a pas d’idées innovantes si elles ne sont pas liées aux centres de décision, c'est-à-dire la classe politique, la classe universitaire et les milieux d’affaires. Le monde économique, l’Etat et le monde universitaire doivent travailler de manière triangulaire comme une triple hélice.

Il faut ensuite que les gens puissent tenir la tête haute, être fiers de ce qu’ils font. Notre rôle est de permettre aux gens de tenter le risque, quitte à essuyer quelquefois des échecs. Cette attitude a porté ses fruits. Notre objectif est de créer 10 000 emplois à Twente en 2020, « Twente twenty-twenty ».

D’autres universités sont jumelées à la nôtre. Sur le campus, il y a l’un des premiers incubateurs « Business & Science », pépinière de la science et du commerce. Il ne regroupe pas seulement des consultants ou des juristes qui sont concernés par le développement intellectuel. Il rassemble aussi des sociétés high tech. Le cycle de la connaissance jaillit de l’université pour se répandre dans l’environnement et créer de nouveaux emplois et de nouvelles activités économiques.

En même temps, nous veillons à ce que l’université soit suffisamment ouverte pour accepter les idées venant de l'extérieur. Ça se passe dans les deux sens. Il ne suffit pas de transmettre, de diffuser notre savoir, pour permettre au secteur économique de se développer. Inversement, les nouvelles idées doivent venir de ce nouvel environnement. C’est un cycle. Souvent, ces nouvelles idées font intervenir de nouvelles approches qui n’étaient pas dans le quotidien de l’université. Là, nous profitons de la diversité culturelle européenne, des idées, des contextes différents. Parmi les têtes pensantes, il y a énormément d’idées nouvelles qui viennent alimenter notre réflexion.

Nous avons des installations communes Open Innovation qui sont partagées entre le secteur économique et l’université. Les gens de l’extérieur que nous accueillons pour qu’ils nous apportent leur concours peuvent aussi utiliser nos installations. Cela suppose des investissements importants. Dans le domaine des nanotechnologies, il a fallu construire des cellules blanches dans les locaux de l’université. Les spin-off, les petites entreprises peuvent se servir de ces installations pour commencer la production d’objets qu’ils auront imaginés, créés, grâce au savoir qui vient de l’université. La boucle est ainsi bouclée.

Les idées émergentes qui viennent de l’Université nécessitent une protection de la propriété intellectuelle et un réseau de financement. Des portails de coopération offrent un accès aux PME qui souhaitent former des entreprises communes, des joint-ventures, avoir accès à la connaissance, et participer à des projets de R&D. Des infrastructures hôtelières et routières contribuent à le permettre. Kennispark mettra le lubrifiant pour que tout fonctionne.

Quand on veut un esprit d’entreprise dans une université, il faut laisser une place à la perception extérieure, sur une période de plusieurs années. Quelque 6 500 emplois ont été créés. Tous ne sont pas liés à notre écosystème. Il y a l’héritage du passé, qui est indépendant de l’université. Mais comme je l’ai dit, les nouvelles connaissances que nous créons aboutissent à de nouveaux emplois.

650 spin-off ont essaimé des premières entreprises créées, même si ces entreprises restent toujours petites. Nos PME ont un maximum de 15 salariés. Pour nous, ce qui est important, c’est d’avoir un écosystème qui donne beaucoup de fleurs, beaucoup de plantes qui puissent s’épanouir, mais pas d’arbres qui prendraient toute la place.

On compte une vingtaine d’entreprises dans le secteur biomédical qui existent depuis une vingtaine d’années mais qui restent toutes petites avec un maximum de 40 à 60 personnes. Pourtant, le biomédical, c’est l’exemple type de la croissance et de l’ouverture sur le reste du monde. Je suis allé demander aux PDG de ces entreprises pourquoi ils étaient si petits. Voici leurs réponses : ce sont des gens originaires de la région. Ils y sont nés et ils y ont grandi. Ils sont allés à Twente et ils ont créé leur entreprise. Ils ont fait le choix de rester à cette petite taille. Ils n’ont pas besoin de devenir une méga-entreprise. On voit que cet écosystème s’auto-entretient, il trouve en quelque sorte ses ressources sur place.

C’est donc très bien si l’on veut créer des PME. Ce n‘est pas propice à la création de grosses entreprises. L’an dernier, quelque 50 millions d’euros ont été investis dans la création de nouvelles installations, avec un financement à peu près à parts égales entre le privé et l’Etat.

Pour conclure, je dirais que notre écosystème n’a pas de figure dominante. C’est probablement ce qui est le plus important dans l’expérience de Twente. L’esprit d’entreprise caractérise cette université, les gens ayant le sentiment, à juste titre, qu’ils peuvent s’appuyer sur l’université pour ensuite voler de leurs propres ailes.

Il s’agit de construire cela dans l’excellence. Un écosystème ne peut pas survivre s’il n’est pas fondé sur l’excellence. Il faut mettre l’accent sur l’excellence dans l’éducation. C’est le point de départ, sans quoi, ça ne survivra pas.

La triple hélice, c’est très important dans notre dispositif. Les initiatives public-privé peuvent être extrêmement cohérentes Je n’ai pas fait référence aux projets d’affaires ou aux cas d’affaires que nous avons suscités, mais soyez assurés que tous ceux sur lesquels nous nous penchons à Kennispark sont ceux qui peuvent résister à de fortes mesures. Seuls sont retenus les projets qui ont des critères draconiens et dont on peut être fiers.

Enfin, Kennispark, grâce à l’écosystème, c’est une toute petite structure de 15 personnes à temps partiel, comme le mien. »

c. L’expérience des clusters de pointe en Allemagne, mais aussi la mise en place de nouvelles structures à Karlsruhe, ne peut que stimuler l’imagination

(i) Les clusters de pointe

Le cluster de pointe Forum Organic Electronics en Allemagne, à Heidelberg, a pour ambition  de créer un pôle international d’excellence, à partir d’une expérience réussie menée au niveau d’une région européenne, en regroupant des entreprises de taille mondiale, qui installent des laboratoires sur place. Ses dirigeants estiment que la contrainte principale est de tenir dans la durée et d’obtenir des financements suffisants.

Un autre cluster, dans le domaine de la santé, est particulièrement intéressant.

Le cluster de Heidelberg spécialisé en biologie et en santé

Ce cluster regroupe 77 PME (qui représentent 3 100 emplois), 3 grandes entreprises d’échelle internationale - Roche, Merck Serono, Abbott (qui ont créé 16 000 emplois), 6 universités et plusieurs instituts de recherche (dont l’Université d’Heidelberg, classée n° 45 au niveau mondial, (tandis que Cambridge est n° 2), l’Hôpital universitaire de Heidelberg (dont le budget est d’un milliard d’euros), le Centre allemand de recherche sur le cancer et le Laboratoire Européen de Biologie Moléculaire.
Ce cluster est situé sur un campus  de 140 hectares, avec un parc technologique de 50 000 m2 d’espace pour des laboratoires et des bureaux. Cet espace étant devenu insuffisant, il est actuellement prévu de créer un nouveau campus de 20 hectares, ainsi que 19 000 m2 de laboratoires et de bureaux.

Son financement provient de 4 sources : l’association régionale de biologie, le parc technologique de Heidelberg, la chambre de commerce Rhin-Neckar, et la métropole-région Rhin-Neckar qui regroupe 2,5 millions d’habitants dans trois Länder (Baden Wurtemberg, Hessen, Rheinland-Pflaz). Son budget est de 1,6 millions d’euros, provenant notamment de la vente de services (organisation de transferts de technologies, formation continue en management et en leadership pour des jeunes talents en biologie, proposition d’infrastructures immobilières, développement d’espaces). Le cluster s’est fixé comme objectif de ne plus avoir besoin de financement public en 2013.

Il coopère avec des clusters comparables en Angleterre (celui de Cambridge) et en Belgique (celui de Leuven) dans le cadre de l’organisation Health Axis Europe.

Son succès repose sur un réseau de relations et sur la possibilité d’organiser des contacts rapides au plus haut niveau avec des maires des grandes villes, des recteurs, des directeurs de centres de recherche. Il tient également à la combinaison de compétences qu’il permet entre science, politique, économie, finance et recherche.

(ii) La création d’une structure ambitieuse, regroupant université et grand centre de recherche

Le KIT (Karlsruhe Institute of Technology) est une entité juridique nouvelle résultant de la fusion d’une université et d’un centre de recherche (l’Helmholtz Center). Sa structure originale lui permet de poursuivre des missions complémentaires et de se consacrer non seulement à l’enseignement et à la recherche, mais également à l’innovation. Ce souci d’innovation organisationnelle résulte de sa volonté d’être un partenaire important pour l’industrie, en exerçant trois fonctions : la production et le transfert d’idées ; le développement et l’établissement de liens commerciaux ; l’échange de ressources humaines entre université, recherche et entreprises. Son financement est assuré par l’Etat fédéral et le Land du Bade Würtemberg.

La loi qui l’établit en 2009 a voulu le doter de moyens permettant de réagir plus rapidement, en utilisant les infrastructures et le potentiel humain présent dans l’enseignement et la recherche à Karlsruhe. Cet objectif est atteint : malgré les difficultés inhérentes à toute fusion, les divers partenaires considèrent qu’ils sont plus efficaces.

Cette structure qui reste unique en son genre en Allemagne permet de nombreuses synergies, et un travail commun entre des milliers de chercheurs et d’enseignants (Son campus nord comprend 20800 étudiants, 5567 scientifiques, 2500 doctorants, 375 professeurs, 11 facultés, et 157 instituts).

Les contacts avec les centres du KIT spécialistes de la mobilité, des nanotechnologies, de l’environnement et du climat ont permis de mettre en évidence une méthode permettant de tirer parti de diverses synergies : entre l’enseignement supérieur et la recherche, entre ces deux entités et l’industrie, mais aussi entre pays différents grâce à la constitution de projets communs et de clusters, et à la participation à quatre programmes européens.

Son positionnement est original : l’un de ses instituts, l’ITAS, assiste la structure du Bundestag -le TAB- chargée de le conseiller en matière d’évaluation des choix scientifiques et technologiques. Ses centres Climat et Environnement, Astrophysique et Optique ont une méthode d’enseignement originale : les doctorants doivent passer trois mois à aborder une discipline différente (telle que le management ou la comptabilité) ce qui les prépare à la création d’entreprises ou à la gestion de PME.

Son approche est profondément interdisciplinaire. Le regroupement de compétences diverses en un même lieu permet d’être plus efficace, notamment dans le domaine de la gestion des catastrophes, dans un environnement politique en évolution rapide qui rend nécessaire une plus grande adaptabilité et la recherche de nouvelles solutions.

d. La situation des pays émergents doit être suivie avec attention, car elle peut préfigurer certaines orientations nouvelles

(i) En Inde

Plusieurs structures contribuent à un développement rapide de potentiels scientifiques importants : ses parcs technologiques, les chambres de commerce et les universités.

- Le rôle des parcs technologiques.

Les objectifs poursuivis par le parc de Pune, clairement définis, montrent bien ce que peut faire une telle structure. Le parc a en effet pour buts de créer un endroit favorable à la croissance économique, basé sur la technologie, respectueux de la nature et de la qualité de la vie, et soucieux du développement durable ; d’attirer les meilleurs chercheurs internationaux ; de faciliter l’adaptation à la demande technologique émergeant d’un marché globalisé ; de développer de nouvelles demandes ; d’accélérer le développement d’une industrie de niveau mondial.

Son ambition est d’attirer 25000 chercheurs du monde entier et de créer un nombre très important d’emplois primaires et secondaires. Il repose sur la volonté philosophique de créer une ville caractérisée par sa sagesse, ses connaissances, et sa créativité.

- Le rôle des chambres de commerce.

La CCI de Pune, forte de 2800 membres, dont 1500 PME, travaille sur les nouveaux secteurs émergents et sur l’amélioration de la qualité. Elle élabore des « white papers » pour le gouvernement et fournit des consultations gratuites sur les brevets, les marques et la protection intellectuelle, ainsi que sur l’utilisation de l’énergie. Elle diffuse les informations utiles aux entreprises sur les programmes gouvernementaux.

Elle aide aussi les start-up à trouver des financements, qui proviennent notamment du Fonds fédéral de développement des technologies. Elle les met en relation avec des capital riskers, qui sont souvent des investisseurs indiens ayant vécu à l’étranger ou qui y vivent encore, ou des entreprises cherchant à se diversifier. Même si les possibilités de financement sont moins importantes qu’en Californie, les sommes disponibles sont importantes et la difficulté principale vient de la difficulté à trouver des entrepreneurs.

Cette CCI a créé le premier cluster pour l’industrie automobile, ainsi qu’un laboratoire de test des aliments. Elle travaille sur le contrôle de l’émission de carbone et est impliquée dans la construction d’aéroports, de métros et de systèmes de transport de masse. Elle a reçu des récompenses pour sa contribution à l’innovation.

- Le rôle des structures créées par l’université.

En Inde, l’accompagnement de l’innovation passe principalement par les instituts de technologie (les ITT, Indian Institutes of Technology), centres d’excellence universitaires hautement compétitifs où sont formés 70 % des docteurs ingénieurs du pays. Sponsorisés par l’industrie, ils se sont dotés de structures leur permettant de trouver des applications commerciales pour la recherche qui y est faite, comme la Fondation pour l’innovation et les transferts de technologie à Dehli.

Cette fondation, qui ne dispose pas de financements publics, cherche à créer une culture de l’innovation dans des milieux très divers. Elle fournit à cette fin des conseils, fait de la recherche pour l’industrie, facilite la création de start-up et les aide à trouver des financements publics. Elle gère également les brevets dont le produit est partagé entre l’innovateur qui en perçoit 60 % et l’ITT qui en reçoit 40 %.

Dans un contexte où les subventions à la recherche augmentent de 25 à 30 % par an, et où l’inflation est de 7%, son action est néanmoins freinée par l’insuffisante motivation des chercheurs indiens à créer leur entreprise et par l’absence de liens historiques entre les universités et les entreprises.

C’est pourquoi l’ITT de Bombay a créé pour sa part une société pour l’innovation et l’entreprenariat qui sert d’incubateur pour les projets de ses chercheurs. Cette société est une entité juridique distincte, contrôlée par l’ITT et considérée comme un département de l’université. Elle a le droit de détenir des actions et de les vendre, ce que ne peut pas faire l’université. Elle réunit actuellement 15 entreprises dans cet incubateur, et bientôt 50, à qui elle offre divers services de secrétariat, et des contacts. Elle assure les relations avec ses réseaux, fournit une aide en management et facilite la levée de fonds.

L’une des entreprises qui a bénéficié de son action, Zeus Numerix, spécialisée en haute technologie, emploie après 7 ans d’existence 40 employés et travaille sur la réduction du poids des lanceurs spatiaux, sur la réduction de la pollution sonore des avions, sur le refroidissement des réacteurs nucléaires, sur la simulation des courants d’air pour les champs d’éoliennes, et sur la simulation des incendies.

(ii) En Chine

La Chine a également des parcs de développement technologique dont l’efficacité est largement liée au centre TORCH, une structure nationale finançant des parcs technologiques.

- Le centre TORCH

Etabli en 1990, il relève du ministère des sciences et des technologies et emploie 108 personnes.

Il a pour missions de commercialiser les résultats de la recherche et développement ; de leur donner une suite industrielle ; d’internationaliser les entreprises scientifiques et technologiques. Son action repose sur les agences de transfert de technologie, sur les centres de promotion de la productivité, et sur du capital risque.

Il soutient des projets ayant atteint un certain niveau de maturité, dispose de fonds pour aider la création d’entreprises innovantes et le développement de nouveaux produits.

Son action est complétée par des avantages fiscaux : crédit d’impôt pour les entreprises d’high tech, pour les entreprises de services utilisant la haute technologie, pour les transferts de technologies et pour les pépinières d’entreprise. Il facilite par ailleurs l’introduction en bourse.

- Les parcs technologiques.

Beaucoup d’entreprises innovantes naissent dans les 84 parcs technologiques chinois. Participent à leur action 375 universités, 303 centres de recherche, 406 laboratoires ouverts, 292 plateformes de tests et 118 centres de transfert de technologie.

Les investissements dans ces parcs, qui représentent 40 % de la totalité des investissements de recherche et développement en Chine, se sont élevés à 20 milliards d’euros en 2009. Il en découle 53 000 brevets, soit la moitié des brevets chinois.

Ils sont financés par un fonds de soutien à la création d’entreprises (Innofund, doté par l’Etat de 300 millions d’euros chaque année, abondés par les autorités locales, le total atteignant 3 milliards d’euros), et par des fonds de capital risque où investit TORCH.

Ils permettent la mise en place de marchés de produits technologiques qui conduisent à la commercialisation des innovations technologiques. Ces marchés facilitent la circulation des technologies sur l’ensemble du territoire et l’utilisation par la Chine des technologies étrangères.

A titre d’exemple, le parc technologique de Zhongguancun ouvert en 1988, dans un quartier regroupant des universités centenaires, regroupe aujourd’hui 16000 entreprises sur des centaines d’hectares. Le premier du genre, il a aujourd’hui pour ambition de passer du concept de parc technologique à celui de ville de l’innovation.

e. Vers d’autres structures ? Vers de nouvelles règles à respecter ?

Christian Tidona, biologiste devenu entrepreneur et créateur de plusieurs start-up, dont BioRN en Allemagne, a défini des règles permettant aux clusters de réussir et d’atteindre l’excellence :

- Un cluster ne devrait accepter que des entreprises privées. Les laboratoires universitaires qui souhaitaient en profiter doivent d’abord trouver un partenaire privé, afin que cette expérience débouche sur des créations d’emplois.

- Les petites entreprises et les grandes entreprises n’ayant pas les mêmes possibilités d’accès au financement public, toutes les entreprises du cluster, indépendamment de leur taille, devraient toucher le même pourcentage des fonds publics et privés disponibles. Cela permettrait de ne pas discriminer les PME souvent plus innovatrices.

- Il faut éviter les comportements prédateurs du financement public de la part d’associations qui veulent en profiter sans pour autant envisager des coopérations de long terme. Il faut donc sélectionner attentivement les partenaires du cluster, en cherchant des entreprises qui créeront de la valeur grâce au financement public et gagneront de l’argent, en prenant comme premier critère de qualité le nombre d’emplois créés.

Il faut changer la manière dont le transfert de technologie est organisé, car il repose trop souvent en Europe sur des bureaux trop petits qui emploient des collaborateurs qui n’ont pas d’expérience industrielle et qui n’arrivent pas à susciter des liens dynamiques entre chercheurs, entrepreneurs et capital riskers.

- Il convient d’attirer davantage d’investisseurs, grâce à des incitations fiscales attractives, telles que le crédit impôt recherche et le dispositif en faveur des jeunes entreprises innovatrices, deux outils employés en France mais refusés en Allemagne.

- Il faut enfin donner aux jeunes le goût de créer leur entreprise, comme en Israël.

3. Quelle place pour les docteurs ?

La situation des doctorants s’est nettement améliorée au cours des 15 dernières années. La revalorisation des rémunérations et l’amélioration des conditions sociales (reconnaissance de l’expérience professionnelles dans la recherche publique et cotisations pour la retraite entre autres) a permis d’augmenter le nombre de doctorants et d’améliorer l’égalité des chances, tandis que les diplômés des grandes écoles se lancent de plus en plus dans des études doctorales.
a. Le doctorat comme expérience professionnelle

Néanmoins, l’état des lieux est encore loin d’être idyllique. Les docteurs sont souvent boudés par les entreprises alors que dans nombre d’autres pays ils constituent le cœur du système d’innovation. Suivant les disciplines, les doctorants sont plus ou moins bien traités (salaire ou plutôt non salaire, encadrement –jusqu’à plus de 10 doctorants par encadrant dans certaines disciplines, thèse durant plus de 5 ou 6 ans du fait de conditions de travail inadéquates).

En France, les docteurs souffrent d’un manque de lisibilité de leurs compétences. A contrario des ingénieurs, les docteurs ne sont pas reconnus dans les conventions collectives.

L’accès aux postes de la haute fonction publique leur est de fait compliqué. Les plus jeunes docteurs sont âgés de 26 ans, et de par leur formation ne peuvent bien souvent pas directement concurrencer les jeunes diplômés qui préparent spécifiquement ces concours (notamment l’ENA et l’INET). Ce handicap les oblige à prendre un an ou deux ans de plus pour préparer les concours. Ainsi, sont-ils très peu à tenter l’aventure. D’autant plus, la voie interne leur est difficile d’accès car il faut être employé dans le secteur public au moment des concours.

Néanmoins, la réforme des barrières d’âges leur a récemment entrouvert la porte. Pour aller plus en avant et permettre à la fonction publique de recruter plus de docteurs parmi ses rangs, il faut engager soit une réforme des concours internes (en ouvrant directement ce concours au docteurs ayant fait leurs doctorat dans le public) soit des concours dits de « troisième voie » (en diminuant les années d’expérience requises pour ce concours).

Pour améliorer encore l’attractivité de la formation doctorale au sein de l’ensemble des disciplines et à destination de l’entreprise, il apparaît nécessaire de faire reconnaître le doctorat dans les conventions collectives, notamment en s’appuyant sur les différentes initiatives visant à définir les compétences génériques des docteurs. La question de la fin des doctorats non rémunérés doit enfin être posée dans toute sa complexité.

Egalement, il convient de renforcer les liens entre

b. Les résultats de notre questionnaire

Dans le cadre de cette étude, nous avons décidé de réaliser un questionnaire à destination des jeunes docteurs et doctorants pour les interroger sur leur situation, la façon dont ils envisagent leur avenir professionnel, et leur sensibilisation aux questions d’innovation.

Ce questionnaire a été un véritable succès, puisqu’il a permis à l’Office de toucher, avec l’aide des associations de doctorants et de docteurs, des organismes de recherches et notamment du CEA, et des universités, plus d’un millier de jeunes docteurs, en France et à l’étranger.

L’ensemble des résultats brut sont mis à disposition en accès libre sur le DVD-Rom ainsi que sur le site internet de l’Office. Un certain nombre de résultats qui nous ont paru parmi les plus importants sont également présentés sous la forme de graphiques en annexe de ce rapport.

Majoritairement masculin, le panel de répondants provient à plus des 4/5 des sciences dites « dures » et à moins d’un cinquième des sciences humaines et sociales.

L’étude souffre de certains biais méthodologiques, par exemple la surreprésentation de certains organismes ou de certaines disciplines. Toutefois, dans son état actuel, elle permet de dégager certaines considérations d’ensemble fort intéressantes.

Nous noterons notamment les points suivants :

- le doctorat sensibilise de mieux en mieux aux questions de propriété intellectuelle et à la création d’entreprise. En effet, près de 70% de ceux l’ayant soutenu avant 2000 nous ont dit ne pas avoir entendu parler de ces questions, contre 50% pour les promotions les plus récentes.

- quelle que soit l’année de soutenance, 50% environ des sondés nous ont indiqué que l’établissement de préparation ne disposait d’aucune structure de valorisation, d’aide à la création d’entreprise, ou d’aide à la réponse aux appels d’offre. Cette stagnation, au regard des exemples internationaux qu’il nous a été donné de voir, est dramatique et notre rapport doit contribuer à faire évoluer ce pourcentage à la hausse.

- plus de 80% des doctorants et docteurs interrogés pensent que de nouveaux mécanismes doivent être mis en place pour favoriser l’innovation, et plus de 75% des répondants qui étaient ou sont encore à l’étranger pensent que l’innovation y est plus dynamique qu’en France.

- si les partenariats public-privé sont relativement bien développés, la mise en place de cellules de détection des résultats valorisables est balbutiante, ce qui s’accorde bien avec l’absence de structure professionnelle de valorisation de la recherche indiquée précédemment.

- près de 60% des sondés pensent que les peurs constituent un frein important à l’innovation en France.

- plus de 85% des sondés considèrent que la France ne fait rien pour favoriser l’innovation de rupture ; pourtant, plus de 80% pensent que la France dispose d’un fort potentiel d’innovation.

Ainsi, ce sont bien les structures qui doivent permettre de passer d’une recherche considérée unanimement comme l’une des meilleures du monde à une innovation exploitable, qui font défaut.

C. UNE ÉVOLUTION DES MÉTHODES D’ÉVALUATION DE LA RECHERCHE ET DE L’INNOVATION

M. Jean-François Dhainaut, ancien président de l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AERES) a été auditionné le 9 mars 2011 par l’Office parlementaire.

Il a à cette occasion résumé les quatre premières années d’existence de l’AERES, après avoir rappelé l’originalité de l’Agence qui évalue tant la recherche que l’enseignement supérieur, ce qui est unique en Europe.

Reprenons ses propos :

« L’Agence est aujourd’hui reconnue au niveau national, tant par les anciens organismes évaluateurs que par les entités évaluées. Les 84 universités existantes ont été évaluées, ainsi que 86 écoles et 13 organismes de recherche. Le CNRS et l’ANR seront évalués cette année. Enfin, nous avons évalué l’ensemble des unités de recherche (4 000) et l’ensemble des formations LMD (10 000 diplômes).

Quel est notre impact sur les universités, les organismes de recherche et les unités de recherche ?

Notre impact sur les universités a été important :

- leur gestion de la politique qualité s’est améliorée ;

- l’auto-évaluation a progressé : les équipes de direction constituent aujourd’hui de véritables plans stratégiques ;

- l’évaluation des enseignements par les étudiants s’est développée : il s’agit d’une évaluation de la forme et non du fond des enseignements, conformément aux recommandations européennes ;

- le suivi des étudiants s’est beaucoup amélioré ;

- les universités ont progressé dans leurs stratégies de recherche, en concertation avec les établissements publics à caractère scientifique et technologique (EPST).

Dans les universités que nous avons évaluées deux fois, nous avons observé que nos recommandations avaient été suivies d’effet. Leurs performances se sont améliorées, notamment dans le domaine de la gestion des ressources humaines.

Notre impact est également important à l’échelle des organismes de recherche. Par exemple, notre évaluation de l’Institut national de la santé et de la recherche médicale (INSERM) a abouti à la constitution de l’Alliance des sciences des vivants, car six ou sept organismes travaillent dans ce domaine. Ces Alliances se sont ensuite multipliées.

Notre impact sur les unités de recherche est de plusieurs ordres :

- les unités de recherche ont toutes été examinées au regard des mêmes critères, ce qui constitue un progrès important. Auparavant, seules les unités dépendant des organismes de recherche étaient évaluées.

- nous avons mis en place une notation afin d’être en mesure d’établir des comparaisons et, finalement, une cartographie des unités de recherche.

- la méthodologie, concertée avec les universités et organismes de recherche, a été adaptée à chaque spécialité. Par exemple, la bibliométrie joue un rôle important dans le domaine des sciences du vivant, mais un rôle faible en archéologie, en mathématiques et en ingénierie. Nous avons promu autant que possible le critère de la valorisation de la recherche, qui était peu pris en compte auparavant.

Enfin, nous avons participé au financement à la performance par l’Etat, puisque ce financement dépend aujourd’hui, entre autres critères, de nos notations des unités de recherche et du nombre de personnes qui y travaillent.

Nous avons établi environ 10 000 rapports d’évaluation ainsi que des synthèses, notamment régionales. Les étudiants sont très intéressés par ces analyses régionales. Nous avons également publié de nombreuses informations sur notre site internet.

Par ailleurs, nous avons constitué un vivier d’environ 10 000 experts dont 20 % d’étrangers.

A l’issue de nos quatre premières années d’existence, nous bénéficions d’une reconnaissance nationale, puisque plusieurs ministères nous demandent des évaluations pour leurs formations.

Comment envisager l’AERES « deuxième génération » ?

En premier lieu, je pense qu’il faut évaluer « moins » pour évaluer « mieux ». Il faut simplifier les procédures et renforcer le rôle de l’auto-évaluation. Les experts effectueraient alors des audits sur des points de dysfonctionnement, ou sur des thèmes tirés au sort. Des tableaux de bord issus de l’auto-évaluation permettraient de suivre, par ailleurs, l’évolution des différents indicateurs. Nous aurons, fin avril, le résultat d’une étude de l’impact de l’Agence sur la gouvernance des universités.

En deuxième lieu, il faut renforcer le caractère discriminant de nos évaluations. Nous travaillons avec l’Observatoire des sciences et technologies (OST) pour affiner les indicateurs, notamment dans le domaine de la valorisation. Nous travaillons également à l’établissement d’indicateurs communs avec nos homologues anglais et allemands. Nous souhaiterions que ces indicateurs permettent de suivre des évolutions au cours d’une année. Beaucoup d’indicateurs, notamment ceux utilisés dans les classements d’universités, sont beaucoup trop stables pour permettre d’identifier des changements sur une période courte.

En troisième lieu, nous allons multiplier les analyses de portée générale sur des spécialités, dans une perspective de comparaisons internationales. Nous souhaiterions travailler sur des activités sociétales ou transversales comme les sciences de l’éducation, le sport, la santé publique, l’épidémiologie, l’écologie, l’énergie, pour faire progresser la recherche dans ces domaines ».

Le débat qui a suivi cet exposé a permis d’apporter plusieurs réponses aux questions des parlementaires :

« Les conseils scientifiques des universités sont montés en puissance, ce qui a rendu possible une vraie concertation. Les relations entre organismes et universités s’améliorent incontestablement. Le grand emprunt a favorisé l’élaboration de projets communs.

La lisibilité des structures de recherche est effectivement problématique. Les Pôles de recherche et d’enseignement supérieur (PRES) n’ont pas vocation à persister : ils doivent être conçus comme des lieux de dialogue pour aller plus loin. Aujourd’hui, les PRES « pré-fusionnels » jouent un rôle très important, mais les autres PRES ont un rôle plus difficile à établir.

Les Réseaux thématiques de recherche avancée (RTRA) sont à revoir en fonction du grand emprunt et des initiatives d’excellence. Il faut faire le bilan de ces nouvelles structures, clarifier leur gouvernance et améliorer la coordination. Les universités doivent être le point de ralliement de l’ensemble, avec une gouvernance centrale.

Les Alliances ne sont que des instances de consultation et de concertation. Pour les questions de fond, les organismes demeurent seuls interlocuteurs.

Les questions de l’inter et de la pluridisciplinarité sont actuellement examinées par une commission au sein de l’AERES, afin d’en améliorer l’évaluation.

L’évaluation des sciences humaines sociales (SHS) est plus difficile que celle des autres disciplines. Des progrès considérables ont toutefois été réalisés en quatre ans. L’évaluation devient monnaie courante, y compris dans le domaine des SHS.

L’évaluation des UMR est phasée avec celle des universités dont elles dépendent en premier, c’est-à-dire leur porteur principal, ce qui permet de ne pas prendre en compte leurs résultats plusieurs fois ;

L’homogénéisation des notations fait partie de nos préoccupations majeures. Prenons un exemple : en immunologie, 15 évaluations ont été réalisées au cours d’une même vague. En fin de processus, nous avons réuni les 15 présidents pour interclasser les unités et définir les niveaux d’échelle.

Pour la définition des niveaux d’échelle, nous tenons compte de ce qui existe sur l’ensemble du territoire français. Il se peut, par exemple, qu’aucune note A+ ne soit attribuée au cours d’une vague d’évaluations. Par ailleurs, les experts qui réalisent les évaluations des universités parisiennes sont provinciaux ou étrangers : on ne peut pas les soupçonner de favoriser les universités de la capitale. Les experts n’évaluent jamais des entités de leur région.

Certaines universités de province sont jugées très performantes : à Grenoble en sciences et technologies ou à Toulouse en économie, par exemple. Il est vrai que les universités parisiennes demeurent en tête dans le domaine des SHS. 7 500 chercheurs A+, c’est-à-dire exerçant leur activité au sein d’unités notées A+, sont localisés en région parisienne, 4 000 en Rhône-Alpes et 1 700 à Toulouse. La performance des chercheurs franciliens s’explique aussi par un effet « volume », car le nombre de chercheurs y est très important.

Concernant les recours possibles, il faut souligner, d’une part, qu’à l’issue d’une évaluation, le directeur de l’entité évaluée nous fait parvenir ses observations qui sont intégrées au rapport. D’autre part, il existe une commission des conflits, issue du conseil de l’AERES, qui examine les plaintes formulées. Sur un total de 33 plaintes, 3 évaluations ont été refaites soit en raison d’un conflit d’intérêts, soit, dans un cas, parce qu’un expert avait présenté un faux curriculum vitae.

Concernant la langue employée au cours de l’évaluation, presque la moitié de notre vivier d’experts étrangers est francophone. Très peu d’experts anglophones sont sollicités dans le domaine des SHS. C’est essentiellement dans le domaine des sciences de la vie, où les chercheurs sont habitués à s’exprimer en anglais, que nous employons des experts anglophones. Dans le cas d’une évaluation en anglais, l’avis du directeur est toujours sollicité et suivi par l’AERES. Quant aux établissements, ils sont presque toujours évalués en français. L’évaluation peut être mixte, en anglais et français, par exemple dans le cas de l’INSERM. Dans tous les cas, nous essayons autant que possible de trouver des experts étrangers francophones ».

Les critères d’évaluation traditionnels des Unités de recherche et des chercheurs par l’AERES doivent mieux prendre en compte les relations partenariales avec les entreprises.

Sur cette thématique, il est ainsi proposé deux orientations :

- la définition d’indicateurs pertinents de recherche partenariale pour l’évaluation, comme le chiffre d’affaires réalisé ou les emplois générés par les entreprises partenaires.

- la mise en place, par les établissements publics, des possibilités d’intéressement des chercheurs découlant du décret du 7 juin 2010.

Le financement des unités de recherche pourrait, de plus, se faire pour partie sur les travaux de maturation de projets et d’élaboration des preuves de concept, relatifs à des technologies transférables vers le monde socio-économique ».

Cet exposé appelle plusieurs remarques.

L’évaluation constitue un progrès mais la communauté scientifique ne peut pas consacrer le quart de son temps à des tâches d’évaluation non reconnues. Jules Hoffman, prix Nobel de médecine, déclarait récemment qu’il ne connaissait plus les évaluateurs du laboratoire de recherches dans lequel il travaille.

Est-ce à dire que les meilleurs éléments de la communauté scientifique rechigneraient à passer trop de temps à une activité non reconnue dans les carrières ? Il faut de plus déconnecter l’évaluation des financements et faire que le système serve à progresser et à évoluer et non seulement à sanctionner. Pour l’OPECST, l’évaluation doit être transparente, collective et contradictoire. La dimension collective de la recherche et son caractère souvent interdisciplinaire doivent être mieux prise en compte dans le processus d’évaluation.

Enfin le système d’évaluation est trop disparate, trop hexagonal pour les organismes, pas assez représentatif des communautés scientifiques pour les équipes et les personnels. Toutes les activités (recherche mais aussi formation, relations industrielles, rayonnement international, diffusion de la culture scientifique et technologique, administration, gestion, médiation scientifique) doivent être évaluées et donc prises en compte dans les carrières.

IV. LE DÉVELOPPEMENT DES ENTREPRISES INNOVANTES

Ce développement, facilité par les incubateurs, passe principalement par l’accompagnement des petites structures. Il nécessite des dispositifs fiscaux et juridiques stables, des financements permettant de passer la « vallée de la mort », ainsi qu’une réflexion approfondie sur le rôle de la normalisation et les brevets. Il repose aussi sur la mise en place d’une politique européenne plus dynamique.

A. INCUBATEURS, START-UP ET PME

Plusieurs participants aux tables rondes de l’OPECST ont abordé ce sujet, qu’il s’agisse de MM. Christian Tidona (BioRN) ; Vincent Charlet (Futuris) ; Stéphane Distinguin, Steeve Augoula, Philippe Braidy (CDC) ; de Mme Valérie Chanal (IEP de Grenoble), de MM. Albert Ollivier, responsable financement des PME et de l’innovation au pôle de compétitivité mondial « finance innovation », Matthias Fink, ou des représentants du Comité Richelieu.

1. Le rôle des incubateurs

Plusieurs exemples peuvent stimuler la réflexion.

(i) L’exemple de l’ATDC en Géorgie : le rôle du « venture lab »

Cette structure d’incubation créée il y a 31 ans, regroupe actuellement 500 entreprises, a contribué a la création de 4000 emplois, et a permis de lever plus d’un milliard de dollars d’investissements extérieurs.

Elle demande seulement 50 dollars aux jeunes entreprises pour appartenir à cette structure qui loue des espaces à des prix très abordables (à 25 % du prix du marché la première année. Ce prix augmente en fonction de la durée de présence.

Ses forces correspondent à différents clusters technologiques que promeut la Géorgie (USA) et qui sont spécialisés dans la santé et les technologies de l’information ; la sécurité de l’information ; les technologies financières, les biosciences, les technologies propres, les technologies mobiles.

Une fois par mois, le Centre réunit ses anciens. Son objectif est de créer des liens entre des créateurs de start-up et les membres de l’incubateur.

25 entreprises sont actuellement présentes dans cet incubateur. Elles y resteront jusqu’à ce que leur projet ait réussi sur le marché. Mais avec le temps, elles recevront des subventions moins importantes.

L’incubateur a pour rôle de créer une communauté où l’entreprise vient pour avoir des relations, et rencontre des parrains qui sont des volontaires.

L’ATDC considère que le succès dépend de l’interaction entre l’idée d’un chercheur et son accompagnement par un venture lab qui lui permet de trouver plus facilement argent et relations. Une petite équipe de 6 personnes va dans les laboratoires pour trouver les bonnes idées. Les individus qui les portent seront alors mis en relation avec des financiers et des experts qui les aideront à vérifier si leur technique correspond à un besoin, et si le marché existe.

Une telle expérience pourrait être transposée prochainement en Lorraine, où Georgiatech est implantée.

(ii) L’hébergement des créateurs d’entreprises afin d’accélérer l’innovation : l’exemple du Cambridge Innovation Center 

Cette structure, créée il y a douze ans, héberge 400 entreprises qui y restent généralement deux ans. Elle leur propose pour un loyer mensuel un petit local de 3 m2 pour 900 dollars, ou un siège dans une grande salle pour 250 dollars.

Le centre, qui ne reçoit aucun soutien public, permet ainsi la création de réseaux, en proposant d’une part des services de base (salles de réunion, bureau, téléphone, photocopieuse, cafeteria, réceptionniste), d’autre part la possibilité de rencontrer d’autres entrepreneurs ou des spécialistes du venture capital.

Une cinquantaine de personnes y travaillent afin d’offrir ces services à 400 entrepreneurs dont la majorité vient de pays étrangers, ce qui est également le cas dans la Silicon Valley.

C’est en fait un micro-cluster qui permet une aide mutuelle et la création de liens avec des investisseurs ou des consommateurs. Ses tâches sont certes limitées : le CIC ne forme pas les entrepreneurs qui y sont hébergés. Mais son utilité est certaine. C’est un écosystème, permettant des contacts non seulement avec les universités voisines de Cambridge et de la région de Boston, mais aussi avec des business angels, des juristes et des experts comptables spécialisés en start-up.

Le Cambridge Innovation Center travaille surtout avec le MIT, beaucoup moins avec Harvard, essentiellement pour des raisons culturelles : le MIT a une culture d’entreprenariat, ce qui n’est pas le cas d’Harvard qui s’intéresse plus aux idées qu’au commerce. En outre, c’est le MIT qui possède le bâtiment loué par le CIC.

2. L’importance des petites structures dans l’innovation
Le rôle joué dans l’innovation par les petites structures est très important. Certaines sont du reste créées pour faciliter l’innovation : c’est le cas des start-up et des spin-off. Mais ces deux cas de figure correspondent aux premiers pas des innovateurs. L’enjeu est clairement de leur permettre de devenir des PME.

Les PME sont, de l’avis de nombreux observateurs, beaucoup plus innovantes que les grandes entreprises, ce qui a nécessairement des implications sur la manière de concevoir le soutien à l’innovation.

C’est notamment l’avis du Comité Richelieu qui considère que l’innovation provient essentiellement des petites structures, pas des grands groupes. En conséquence, cette association a mis en place il y a six ans le pacte PME, afin d’élaborer des guides de bonnes pratiques entre les grands groupes et les PME innovantes françaises et faciliter leur rapprochement.

Le Comité Richelieu propose maintenant de créer un statut de l’entreprise innovante, qu’on nomme EIC, pour entreprise d’innovation et de croissance. Cette idée innovante permettrait d’institutionnaliser dans le paysage français l’entreprise innovante, pour permettre de simplifier les procédures et faciliter l’aide à ces entreprises. Ce statut doit englober les start-up, les PME et les Entreprises de taille intermédiaire (ETI).

Pour M. Christophe Lecante, président de la commission Innovation du Comité Richelieu il faut distinguer PME et start-up. Contrairement à des start-up qui se créent, les PME ont l’accès au marché, la connaissance et le savoir-faire de la mise en œuvre industrielle des projets. Elles disposent malgré tout d’un peu de fonds propres, et surtout d’une certaine visibilité de la part des grands groupes. Les PME ont donc un rôle de courroie de transmission dans le dispositif de l’innovation.

Or, le rôle des PME est largement sous représenté dans ce dispositif, alors qu’elles représentent plus de 50 % des dépenses internes de R&D, 21 % pour les PME indépendantes et les ETI. En matière de financement, les PME ne représentent pourtant que 23 % des subsides du crédit impôt recherche, et 28 % seulement des aides publiques à l’innovation.

Pour M. Vincent Charlet, directeur de Futuris, il y a deux univers distincts : les grands groupes, les PMI. Les grands groupes sont sur des produits matures : ils innovent, mais en calculant soigneusement leur risque afin de ne pas faire de paris aventureux, même s’il y a des exceptions, comme la société Michelin. Les PMI raisonnent différemment et acceptent de prendre plus de risques.

C’est également l’avis de M. Christian Tidona, biologiste devenu entrepreneur, qui a créé plusieurs start-up, travaille pour des entreprises familiales et des spécialistes du venture capital. C’est pourquoi il a proposé au ministère fédéral allemand de la science qui l’avait contacté en 2007 pour déterminer les règles de fonctionnement d’un cluster, d’établir une égalité absolue entre petites et grandes entreprises pour obtenir des fonds du cluster : la moitié serait réservée aux petites entreprises.

Pour M. Stéphane Distinguin, fondateur de FaberNovel, les grandes entreprises ne savent pas gérer les compétences, surtout à partir d’un certain âge. C’est un gâchis énorme. Ces personnes plus âgées mais compétentes pourraient accompagner les start-up, comme le font les business angels dans le domaine financier. En outre, les grandes entreprises ne jouent pas leur rôle de rachat d’autres entreprises. Or c’est essentiel si les investisseurs veulent récupérer les sommes qu’ils ont investies. Le problème n’est pas dans l’argent qu’on investit, mais l’argent qu’on récupère à la fin.

Pour M. Albert Ollivier, responsable financement des PME et de l’innovation au pôle de compétitivité mondial « finance innovation », l’innovation est plus riche dans les PME, parce qu’elle est plus libre. Le problème des grands groupes, c’est que leurs dépenses en matière de recherche, même si elles sont élevées, ne sont pas toujours aussi productives que dans des entreprises plus petites.

Pour M. Michel Cosnard, président d’ALLISTENE (Alliance des sciences et technologies du numérique), « c’est majoritairement par le biais de petites structures de recherche que s’opère le transfert de la recherche publique vers l’industrie – petites entreprises dont certaines prospèrent de manière vertigineuse : voyez ce qu’il est advenu de Google dont le chiffre d’affaires est passé en dix ans de zéro à 40 milliards de dollars... C’est un secteur où la création passe pour beaucoup par la création d’entreprises qui sont parfois consolidées chez de grands acteurs. Ainsi, plusieurs entreprises de l’INRIA ou de l’Institut Télécom sont maintenant intégrées chez le premier éditeur européen de logiciels, Dassault Systèmes ».

Pour M. Matthias Fink, qui abordait cette question lors de l’audition publique du 26 mai 2011, l’innovation s’intègre mal à l’échelle de grands groupes aux procédures lourdes. Elle nécessite de passer par la création de start-up. Le système français permet d’aider celles-ci, mais n’offre pas la possibilité aux entreprises d’atteindre ensuite une grande taille. Il manque en France des firmes employant un millier de personnes comme on en trouve en Allemagne et qui font la force de son économie. En France, au-delà d’un effectif de 40 ou 50 personnes et d’une durée de cinq ans, les investisseurs veulent se retirer et revendre leur participation à des groupes, qui, pour la plupart, ne sont pas français.

Aux États-Unis, les chercheurs universitaires peuvent, eux, librement créer des sociétés, se positionner en entrepreneurs et agir sur la conduite de ces entreprises. En France, la loi sur l’innovation et la recherche du 12 juillet 1999 permet aux chercheurs de devenir actionnaires de start-up. «  Toutefois, le CNRS interprète mal la loi : il exige des chercheurs fonctionnaires d’obtenir d’un comité de déontologie l’autorisation de participer aux sociétés créées à partir de leurs inventions. Pour que celle-ci soit accordée, il faut que la société ait déjà été constituée par d’autres personnes ». Les chercheurs doivent donc faire appel à des tiers pour créer une société, ce qui les amène à entrer tardivement dans le capital et les empêche de la contrôler, voire même leur interdise d’entrer dans la société.
Il résulte de ces analyses des conséquences importantes : il est probable que les innovations de rupture ne seront pas le fait de très grandes entreprises, qui sont par nature moins aptes à prendre des risques que de petites structures. Il faut en effet accepter l’idée d’échec pour innover, ce qui est peu accepté en France.

Comme le souligne M. Matthias Fink, il faut réfléchir à la façon dont l’État pourrait aider les sociétés ayant le potentiel de devenir de grands acteurs dans leur secteur. « Il convient d’éviter que les sociétés innovantes ne soient constituées qu’avec des capitaux privés. Lorsque l’innovation proposée par une entreprise s’apparente à une rupture technologique, il faut se demander comment l’État pourrait l’aider à s’agrandir ».

Comme le souhaite M. Fornès, président de la commission Recherche et Innovation de Croissance Plus, il serait probablement nécessaire d’augmenter les subventions proposées aux plus petites structures, afin d’augmenter leurs fonds propres et de leur faciliter l’accès aux financements privés. OSEO a certes déjà beaucoup fait pour les PME, notamment en simplifiant ses procédures. Mais son système d’avance remboursable est, lui, plus complexe, non seulement pour l’entreprise elle-même, mais aussi pour OSEO qui est obligée de suivre les dossiers sur une longue durée.

Cet accompagnement va au-delà du financement et de ce que fait une structure comme OSEO, dont le rôle essentiel sera présenté ci-après. Il est particulièrement développé aux Etats-Unis qui s’intéressent à la sponsorisation des jeunes entreprises.

La sponsorisation : l’exemple du CDC innovation Fund

Lors de notre déplacement à Atlanta, nous avons appris que les CDC (Centers for Disease Control) avaient créé un fonds de l’innovation pour donner des moyens à ceux qui, en interne, présentent des idées nouvelles et leur permettre de prouver l’intérêt de ces idées.

Son objectif est triple : identifier systématiquement les nouvelles idées et les tester ; identifier les individus qui vont mettre en cause le statu quo et vont prendre des risques ; faciliter les échanges entre disciplines.

Les projets sélectionnés recevront une aide de 100 000 dollars. Leur évaluation se fait sur la base de critères précis : Quel est l’intérêt du projet ? Répond-il à un besoin particulier ? Quel est son impact potentiel ? Quelles leçons doivent être tirées des échecs précédents ?

Pour les CDC, la réussite de ces projets dépendra de l’importance des fonds levés, des collaborations engagées, des publications et des brevets, et du nombre de projets développés et reconnus.

3. La place des grands groupes

En France, les grands groupes nationaux ne jouent pas suffisamment le rôle clé qu’ils devraient jouer, et qu’ils jouent dans d’autres pays.

Si les grands groupes ne sont pas naturellement des moteurs de l’innovation par leur taille et leurs rigidités internes, ils ont par contre un rôle important à jouer dans son financement.

En effet, comme nous le verrons dans le chapitre suivant, l’un des problèmes français n’est pas tant l’amorçage, où le secteur public joue son rôle, mais dans le passage à l’échelle industrielle, et l’absence notable de financements en quantité suffisante.

C’est dans ce secteur que les grands groupes nationaux doivent impérativement redoubler d’efforts, par la montée au capital, le rachat, ou toute autre activité permettant d’apporter financement, liquidités et compétences, à des start-up dynamiques en développement rapide.

C’est par cette participation active au développement de jeunes entreprises innovantes que les grands groupes peuvent éviter « l’aveuglement du leader » et rester à la pointe de la technologie en réorientant, au fur et à mesure, leurs compétences sur les secteurs et dans les domaines des start-up dont ils ont facilité le développement et dont ils peuvent détenir une part du capital.

C’est cela, le développement d’un écosystème dynamique.

B. LES DISPOSITIFS FISCAUX ET JURIDIQUES

Plusieurs dispositifs ont été mis en place, qu’il s’agisse du crédit impôt recherche, du statut de la jeune entreprise innovante et de l’investissement en FCPI. Tous ont vocation à évoluer.

1. Le crédit impôt recherche : entre critiques et réforme

Si le crédit impôt recherche est indéniablement un atout pour la compétitivité et l’attractivité de la France, il n’est pas exempt de tous reproches et son efficacité économique pourrait être améliorée.

a. Un système favorable à la recherche des entreprises, mais perçu comme trop instable

(i) Ses dispositions correspondent à ses objectifs.

Etabli en 1983, profondément modifié en 2004, le crédit impôt recherche a certainement contribué au développement de la recherche en entreprise. C’était son objectif.

Il s’inscrit dans le cadre de la mise en œuvre de la stratégie de Lisbonne de l’Union européenne qui entend développer la recherche industrielle. Il a pour but d’encourager la recherche financée par les entreprises, qui est en France traditionnellement faible.
De manière plus précise, le CIR a pour objectif de baisser pour les entreprises le coût de leurs opérations de recherche-développement, et de soutenir leur effort de recherche-développement afin d'accroître leur compétitivité.

Ses dispositions permettent également la promotion de la société de la connaissance.


Cinq types de dépenses sont retenus :

− les dotations aux amortissements des biens et des bâtiments affectés directement à des opérations de R&D ;

− les dépenses de personnel concernant les chercheurs et techniciens (le salaire des jeunes docteurs recrutés en CDI est pris en compte pour le double de son montant pendant deux ans après leur embauche) ;

− les dépenses de fonctionnement qui sont fixées forfaitairement à 75% des dotations aux amortissements et 50% des dépenses de personnel (200% pour les dépenses concernant les jeunes docteurs) ;

− les dépenses de R&D confiées à des organismes publics, des universités, des fondations reconnues d’utilité publique ou des associations de la loi de 1901 ayant pour fondateur et membre un organisme de recherche ou une université qui sont retenues pour le double de leur montant à condition qu’il n’existe pas de lien de dépendance entre l’organisme et l’entreprise ;

− les dépenses de R&D confiées à des organismes agréés par le ministère de la Recherche tant en France que dans un pays de l’UE. Ces dépenses sont retenues dans la limite de 3 fois.

Sont concernées les entreprises industrielles, commerciales et agricoles soumises à l’impôt sur les sociétés ou à l’impôt sur le revenu dans la catégorie des bénéfices industriels et commerciaux.

Les jeunes entreprises innovantes peuvent par ailleurs bénéficier d’une restitution immédiate du crédit impôt recherche.

(ii)

- L’évaluation de ce dispositif prête à débat

Deux premières questions se posent :

De quelles sommes parle-t-on ? La réponse est en fait complexe, car son montant peut être évalué de manière très différente.

Dans quelle mesure les PME en bénéficient-elles ? En d’autres termes, à qui profite-t-il ? Surtout aux grandes entreprises pour M. Christophe Lecante, (audition publique du 12 octobre 2011), qui souligne que seulement 1,1 milliard d’euros sur les 4,7 milliards d’euros du crédit impôt recherche sont allés en 2009 aux PME innovantes indépendantes.

Une manière de faire bénéficier davantage les PME du CIR serait de lier l’incitatif fiscal pour les grands groupes au renforcement de leurs partenariats avec des PME innovantes et des laboratoires académiques.

D’autres questions mériteraient d’être posées, ce qui permettrait d’apporter des réponses plus élaborées.

Pour M. Christophe Lecante, « le problème de ce dispositif est qu’il finance désormais les phases amont, celles de génération de nouvelles connaissances. La phase de développement, elle, n’est que partiellement couverte par le crédit impôt recherche ».

(iii)

- Ses remaniements constants ont créé un climat d’instabilité fiscale préjudiciable à des décisions qui doivent porter sur le moyen et le long terme.

La première réforme permettait de prendre en compte le volume des dépenses de recherche (avec un crédit d’impôt égal à 5 % des dépenses engagées) ainsi que leur accroissement, ouvrant droit à un crédit d’impôt de 45 % des dépenses engagées minorées de la moyenne des dépenses des deux années précédentes.

La deuxième réforme a supprimé la réduction d’impôt au titre de l’accroissement des dépenses de recherche, tandis que le crédit d’impôt pour les dépenses de recherche était considérablement augmenté, atteignant 30 % dans la limite de 100 millions d’euros (et même 50 % pour les entreprises qui demandent à en bénéficier pour la première fois, taux ramené à 40 % la deuxième année). Au-delà de ce seuil, le crédit d’impôt est limité à 5 % des investissements.

Ses dispositions, ainsi que ses adaptations sont décrites dans le rapport spécial de la commission des finances consacré aux politiques de la recherche prévues par le projet de loi de finances pour 2012 (n° 3805 annexe 33).

Les critiques portant sur son instabilité ont été maintes fois été évoquées lors des auditions publiques de l’Office parlementaire.

b.

Le crédit impôt recherche innovation

C’est une mesure proche de celle promue par le comité Richelieu. Il a pour objectif de faire évoluer le crédit impôt recherche vers un crédit d’impôt recherche innovation, afin de favoriser la couverture de l’ensemble de la chaîne de l’innovation, le « R », comme le « D », et de permettre une incitation fiscale non seulement pour la recherche fondamentale mais également pour la fabrication du prototype et le passage du prototype au marché.

Ce type de mesure, qui consisterait à étendre le CIR aux activités en aval de la recherche développement, existe en Espagne depuis la fin des années 90.

Le livre blanc 2012 des entreprises innovantes du Comité Richelieu précise qu’il s’agit de rétablir un plus juste équilibre entre PME et grands groupes, ce que permettrait la réactivation du Programme Passerelle qui n’a abouti jusqu’à présent qu’à la conclusion de 12 accords.

c. Il faudrait poser des conditions pour l’accès des grands groupes au crédit impôt recherche

D’une part, plusieurs des personnes que nous avons auditionnées proposent que les grands groupes n’aient accès au crédit impôt recherche qu’à la condition qu’ils embauchent des docteurs.

D’autre part, il faut éviter que le crédit impôt recherche n’entraîne des effets d’aubaine. Notre collègue Alain Claeys, député, a en effet récemment évalué à 1 milliard d’euros sur les 4,4 milliards d’euros du CIR les effets d’aubaine et les optimisations fiscales de certains grands groupes.
2. Du statut de la Jeune Entreprise Innovante à celui de l’Entreprise d’Innovation et de Croissance

Le statut de jeune entreprise innovante (JEI) est récent. Il aurait pu lui aussi être instable, s’il n’avait pas été défendu in-extremis.

Créé en 2004, il concerne les PME indépendantes créées depuis moins de huit ans et qui ont réalisé au cours de l’exercice des dépenses de recherche représentant plus de 15 % des dépenses totales. Ces entreprises doivent employer moins de 250 personnes, avoir un chiffre d’affaires inférieur à 40 millions d’euros ou un total de bilan inférieur à 27 millions d’euros.

Il permet à ces PME de bénéficier d'une réduction de leur fiscalité et des charges sociales relatives à des emplois hautement qualifiés tels que ceux d’ingénieurs et de chercheurs. Leurs bénéfices sont totalement exonérés pendant trois ans, et à hauteur de 50 % pendant deux ans.

Il n’est toutefois pas certain que le meilleur moyen de soutenir l’innovation soit de favoriser une entreprise innovante uniquement parce qu’elle a été créée récemment.

Comme le remarquait M. Christophe Lecante, lors de l’audition publique de l’Office du 12 octobre 2011, « le problème de la jeune entreprise innovante est qu’elle ne concerne que la jeune entreprise. N’importe quelle entreprise industrielle française doit pouvoir, si elle s’en donne les moyens, devenir une entreprise d’innovation. C’est tout le problème du JEI, qui repose sur la création d’une entreprise. Une entreprise vieille de cinquante ans, qui invente de nouveaux dispositifs, n’est pas considérée comme une jeune entreprise innovante. Il faut pourtant absolument l’aider à passer le cap de l’innovation. »

M. Denis Bachelot remarquait quant à lui qu’une entreprise comme Clairefontaine, la plus vieille entreprise française située dans les Vosges – 150 ans d’âge – est devenue, dans les années 90, le leader mondial des papiers technologiques malgré la crise ravageuse provoquée par l’émergence des papetiers des pays émergents. Nokia, en Finlande, a connu le même type d’expérience.

C’est pourquoi il serait préférable de faire bénéficier de ce type d’avantage les entreprises d’innovation et de croissance, plutôt que les entreprises créées récemment, en créant un statut de l’entreprise innovante afin d’institutionnaliser dans le paysage français l’entreprise innovante, simplifier les procédures et faciliter l’aide à ces entreprises. Ce statut engloberait les start-up, les PME et les Entreprises de Taille Intermédiaire (ETI).

Selon la proposition contenue dans son livre blanc 2012 des entreprises innovantes, il s’agirait « d’entreprises indépendantes de moins de 5 000 salariés dont l’activité principale est de développer des produits innovants. Dans une première approximation, un produit innovant est un produit brevetable dans un pays de l’OCDE ».

Ces EIC bénéficieraient d’une réduction de l’impôt sur les bénéfices et des taxes locales ainsi qu’une exonération des plus-values pour les détenteurs de parts et d’actions, et une exonération de charges sociales.

En contrepartie, ces entreprises d’innovation et de croissance devraient s’engager à privilégier les investissements sur le territoire européen et à maintenir ou développer leur effort de recherche et développement.

Ces entreprises d’un type nouveau auraient ainsi un statut permettant de combiner les caractéristiques des JEI et Gazelle (PME « de croissance » comptant 5 à 250 salariés, et dont le chiffre d’affaires a fortement augmenté pendant deux années consécutives). Le dispositif Gazelle est en effet devenu suranné, peu d’entreprises s’en prévalant.

3. L’investissement en FCPI et l’ISF-PME, outils pour favoriser les PME innovantes

Les FCPI (Fonds commun de placement dans l’innovation) ont été créés en 1997.

Ces fonds doivent investir au moins 60 % des sommes qu’ils collectent dans des PME à caractère innovant et non cotées.

Les sociétés concernées doivent consacrer une part importante de leurs dépenses à la recherche-développement. OSEO intervient éventuellement pour s’assurer du caractère innovant de ces dépenses.

L’avantage pour le souscripteur est double et d’autant plus important qu’il est soumis à l’ISF. D’une part, il réduit son impôt sur le revenu. D’autre part, il réduit les sommes dues au titre de l’ISF, depuis la loi TEPA (loi sur le travail, l’emploi et le pouvoir d’achat) du 21 août 2007.

Le contribuable acquérant des parts de FCPI peut déduire 25% du montant de son investissement du montant de son impôt sur le revenu. La réduction est plafonnée à 3000 € pour un célibataire et à 6000 € pour un couple. Il bénéficie aussi d’une exonération des plus-values à la sortie. L’investissement peut donc atteindre 12 000 euros pour un célibataire et 24 000 euros pour un couple marié.

Ce dispositif permet également aux souscripteurs de parts de FCPI de réduire leur ISF de 50 % du montant de leurs versements, dans la limite annuelle globale de 18 000 euros. Les titres devront être conservés cinq ans.

Cette réduction d’ISF est cependant parfois recherchée pour des raisons uniquement fiscales, et son impact sur l’innovation n’est pas toujours évident.

Selon les chiffres de l’AFIC et d’OSEO, publiés en mars 2009, 216 FCPI ont permis de collecter 4,4 milliards d’euros entre 1997 et 2007. Ces sommes ont bénéficié à 800 entreprises innovantes.

C. LES OUTILS DE FINANCEMENT

1. La preuve du concept : l’importance des business angels

France Angels est une association créée en 2001, qui a pour objet la promotion de l’investissement par les Business Angels.

Elle rassemble aujourd’hui 70 réseaux actifs en France. Ses principaux objectifs sont de sensibiliser l’opinion, de rendre accessible toute information concernant les Business Angels et de développer et fédérer les réseaux.

La France manque en effet de financeurs privés pour l’amorçage, pour franchir le premier pas, et c’est là que se situent les business angels.

Il est nécessaire de leur faire davantage confiance. C’est notamment le cas pour OSEO car, faut-il le rappeler, ils investissent leur propre argent dans les entreprises.

Il est souhaitable que le système français se rapproche du système anglais : pour 1 euro investi par un business angel, 2 euros sont investis par la puissance publique, sans avoir à passer par N vérifications qui aboutissent généralement au fait que la puissance publique donne son accord beaucoup trop tard.

2. Le passage à l’échelle industrielle : la traversée réussie de la « Vallée de la mort »

a. La Vallée de la Mort

Le graphique qualitatif suivant illustre, par « La vallée de la mort », le manque de concrétisation des projets de recherche, qui a été évoqué plusieurs fois lors d’autres auditions. Il incite à mettre en œuvre l’idée d’un crédit impôt innovation et à réfléchir à des outils permettre de renforcer le capital risque en France pour « faire le pont » entre la phase préindustrielle et le lancement du produit.

En effet, le processus qui permet de passer de la recherche à l’innovation peut-être décomposé en différents niveaux de maturation technologique.

L’innovation requiert la mise en œuvre de compétences pluridisciplinaires en amont, au niveau de la recherche fondamentale. Ces compétences, qui n’ont que très peu de chances d’être présentes au sein de chacune des TPE et des PME, peuvent être trouvées auprès des unités de la recherche publique, par exemple auprès de structures comme les instituts Carnot. L’accès à ces compétences est d’ailleurs encouragé par la prise en compte de l’augmentation des dépenses possibles grâce au CIR, qui est un outil efficace pour la recherche.

Les Instituts Carnot proposent notamment de faire en sorte que le partenariat avec les entreprises, et, notamment avec les PME, puisse se développer sur des activités assurant l’accompagnement jusqu’à la phase industrielle.

Or, les dispositifs de financements publics interviennent de façon importante sur le terrain de la recherche jusqu’au prototype, mais cessent d’être accessibles dès qu’il s’agit de poursuivre plus en aval, notamment sur les phases d’industrialisation.

Les concours bancaires classiques savent ensuite prendre le relais que lorsque tous les risques ont été levés et que la phase de commercialisation a débuté.

Entre les deux zones, il y a une « Vallée de la mort » : les soutiens financiers des pouvoirs publics ou les dispositifs incitatifs s’arrêtent en cours de route, sans aller jusqu’au stade où les entreprises, notamment les PME, peuvent faire appel à ces autres ressources.

Il y a donc un problème pour passer à « l’échelle supérieure » ; l’innovation reste souvent bloquée à la phase « prototype » ou « start-up » avant soit d’être bloquée faute de financement, soit délocalisée par le rachat de nos start-up par des grands groupes étrangers.

b. Le rôle d’OSEO

Les activités d’OSEO ont été présentées plusieurs fois à l’Office parlementaire par sa directrice générale déléguée, Mme Laure Reinhart

OSEO est une structure originale, combinant des activités relevant de la banque, de l’assurance et d’une agence de financement de l’innovation.

Elle est née en 2005 de la fusion de l’ANVAR (qui était une agence publique de financement de l’innovation), de la SOFARIS et de la BDPME (Banque des PME, ex-CEPME, crédit hôtelier et caisse des marchés de l'Etat). Elle a par la suite intégré l’Agence d’innovation industrielle (AII) en 2008 et devient OSEO SA le 31 décembre 2010, ce qui lui permettra d’achever ce processus de rapprochement des équipes de ces diverses entités.

Ce rapprochement lui permet d’offrir aux entreprises une compétence technique – pour comprendre l’ensemble des apports immatériels du projet –, une capacité de financement et un système d’assurance, apporté par l’ancienne SOFARIS.

Son financement est assuré par des fonds de l’Etat, de l’Union européenne et des régions. Elle perçoit quelques recettes propres, en qualifiant des entreprises innovantes pour des FCPI. L’Etat lui verse une dotation pour garantir des prêts bancaires d’entreprises et du capital risque (OSEO garantit 50 % du capital risque français).

Son budget de fonctionnement est de 50 millions d’euros TTC, son budget d’intervention de 500 millions d’euros pour 2011.
Elle aide 3000 à 4000 entreprises par an, en finançant divers types de projets : certains de grande ampleur, tels les PMII (projets mobilisateurs d’innovation industrielle) ou les ISI (investissements stratégiques industriels) ; d’autres moins importants, inférieurs au seuil européen de 7,5 millions d’euros, comme l’a souhaité l’Etat.

L’une de ses priorités vise le financement de projets collaboratifs : ainsi un projet liant une entreprise de biotechnologie, une entreprise fabriquant le test diagnostic correspondant au produit visé, une entreprise qui purifiera la molécule et un centre de recherche qui accompagne l’entreprise en amont. Cela permet de financer les pôles de compétitivité, via le fonds unique interministériel et les programmes « innovation stratégique industrielle », destinés à créer de petites filières industrielles à partir des résultats de la recherche.

Une autre priorité importante pour OSEO est le développement de projets structurants, créateurs de valeur sur le marché. Alors que le crédit impôt recherche laisse entièrement à l’industriel la charge de créer de la valeur, il est de la responsabilité d’OSEO d’identifier les projets qui apportent le plus de valeur sur le marché.

Depuis un an, elle met en place des contrats de développement participatif, permettant d’attribuer des prêts avec un différé relativement long en fonction du chiffre d’affaires de l’entreprise.


Les projets qui lui sont présentés sont analysés selon plusieurs critères : Comment l’innovation envisagée s’intègre-t-elle dans la stratégie et l’organisation de l’entreprise ? Y a-t-il les ressources humaines et des compétences nécessaires pour mener à bien le projet ? Quel est le risque commercial : le projet va-t-il aboutir au bon moment à un résultat souhaité, attendu par le public ? Quel est le risque financier : l’entreprise est-elle capable de mener son projet de bout en bout ? Quel est le risque juridique : l’environnement de l’entreprise lui permet-elle de mettre les produits concernés sur le marché de façon sereine ? S’y ajoutent depuis peu deux nouvelles composantes, l’une environnementale, l’autre sociétale.

OSEO n’intervient pas seulement en accordant des avances remboursables à taux zéro.

Elle accompagne aussi les entreprises dans leur projet de mise sur le marché, en les rencontrant régulièrement pour vérifier si elles ont réussi à lever leur capital, à réaliser leur chiffre d’affaires prévisionnel, et à avancer sur les plans technique et réglementaire. Elle organise des rencontres régulières, des étapes clés financières pour adapter le projet, car le projet final n’est pas celui de départ.

Ce faisant, elle réduit les risques de mise sur le marché. C’est une démarche originale : peu d’entités dans le monde proposent des avances remboursables tout en suivant les projets des PME de manière quasi personnalisée. Il faut en effet une ingénierie spécifique. C’est le résultat de l’activité passée de l’ANVAR.

Elle aide aussi les entreprises à trouver les meilleurs partenaires et à identifier les meilleurs résultats de la recherche, en relayant leurs besoins auprès des organismes de recherche. Ses clients ne sont pas les organismes de recherche, mais des PME et des entreprises de taille intermédiaire (ETI).

Elle contribue également à l’amplification qualitative des transferts de technologie, à travers la participation des organismes aux projets collaboratifs et aux aides aux transferts : elle participe au financement des travaux d’adaptation des résultats de recherche aux besoins des industriels, en particulier des PME. Elle apporte un concours à la création d’entreprises innovantes, dont elle est l’opérateur pour le ministère de l’enseignement supérieur et de la recherche.

c. Le Fonds unique interministériel (FUI)

Le FUI est un programme destiné à soutenir la recherche appliquée, pour aider au développement de nouveaux produits et services susceptibles d’être mis sur le marché à court ou moyen terme.

Doté de 600 M€ sur la période 2009-2011 dont 495 M€ pour les projets de R&D et 105 M€ pour les plates-formes d’innovation, il finance notamment les projets de recherche et développement collaboratifs des pôles de compétitivité.

Les projets FUI sont ainsi ciblés sur les thématiques des pôles et ont une action très structurante, du fait de la mise en réseau des différents acteurs de l’innovation sur notre territoire.

Des auditions que nous avons pu menées, le FUI semble bien répondre aux besoins des adhérents des pôles et permet de lever certains verrous à l’innovation, en particulier en ce qui concerne la coopération entre l’industrie et la recherche publique.

d. Le rôle de la Caisse des dépôts et du FSI

La Caisse des dépôts a notamment pour rôle de financer la petite PME, quelque peu délaissée par le marché, comme l’a souligné M. Philippe Braidy, président de la CDC-Entreprises, directeur général délégué du Fonds stratégique d’investissement, lors de l’audition publique du 12 octobre 2011.
Elle a consacré, sur les six dernières années, 2,5 milliards d’euros d’argent public, pour 6,5 milliards d’argent privé, dans un dispositif, France Investissement, qui réunit plus de 220 fonds, afin de faciliter le démarrage des sociétés par le capital risque et l’amorçage.

Mais avec la crise, ce système rencontre un problème particulier. Entre 2008 et 2010, les fonds de capital risque et de développement sont passés sur le marché de 570 à 45 millions d’euros, le capital d’amorçage passant de 74 à 26 millions d’euros.

L’investissement privé restant insuffisant en France, il faut mettre en œuvre des financements publics importants, comme le montre l’exemple du programme d’investissements d’avenir où il a été demandé à la CDC de gérer 400 millions d’euros pour abonder les fonds d’amorçage.

La question est donc d’arriver à attirer les investisseurs privés, et notamment les banquiers et les assureurs. Un tel objectif est possible, car, comme le souligne M. Braidy, ces créneaux sont rentables, à condition de faire preuve de patience et de financer tous les étages. Aussi faut-il garder des moyens financiers pour accompagner une entreprise le plus longtemps possible, et trouver des moyens de passer le relais, soit par des introductions en bourse, soit par la création de liens entre PME et grands groupes.

Si la mise en place d’un Fonds stratégique d’investissement (FSI) pour soutenir en fonds propre les petites et moyennes entreprises de croissance est une bonne chose, il serait judicieux que celui-ci soit décliné régionalement pour promouvoir les filières locales et régionales. Ce manque lui fait perdre une partie de sa force stratégique qui permettrait de développer et soutenir le tissu d’entreprises moyennes dont nous avons besoin.

e. Le pôle de compétitivité Finance-Innovation

Le pôle de compétitivité Finance-Innovation a pour but :

- de favoriser le positionnement de l'industrie financière sur les marchés innovants ;

- de développer et coordonner des projets de recherche en finance et mener des actions de promotion du pôle de recherche en finance français ;

- d’accélérer le développement d'entreprises financières de croissance en France ;

- d’encourager l'émergence de projets industriels dans les différents métiers − banque, assurance, gestion, service aux institutions financières − associant les milieux académiques et les professionnels de la finance.

L’analyse d’Albert Ollivier, responsable financement des PME au Pole de compétitivité, est que les moyens consacrés à l’innovation par la puissance publique sont sensiblement supérieurs à ceux dégagés par le marché dans son segment du capital-risque technologique.

Les différents réseaux et mécanismes publics comptent plusieurs milliers de personnes et disposent de crédits très importants qui alimentent des entreprises qui, par la suite, auraient besoin de l’apport de capitaux privés et qui éprouvent beaucoup de difficultés à les trouver sur un marché atrophié.

Un des enjeux majeurs des années à venir, en période de crise et de sortie de crise, consistera donc à éviter que le marché – déjà étroit – du capital-risque français ne s’écroule. Nous savons en effet aider, par le biais de moyens publics, le démarrage d’entreprises issues de la recherche mais le marché peine à prendre le relais nécessaire dans la phase de développement.

Alors même que l’État et les autres collectivités publiques consacrent des moyens importants à l’innovation, sa règlementation, ajoutée à la frilosité du secteur privé, peut aboutir à des dysfonctionnements non négligeables.

Une comparaison des principales entreprises cotées en Amérique du Nord et en Europe montre que, là bas, 75% des entreprises sont nées après la Seconde Guerre mondiale, alors que la proportion est inverse dans notre pays. La capacité à financer l’innovation est une chose, celle à la soutenir jusqu’à atteindre le plus haut niveau mondial en est une autre.

Plusieurs entreprises en Europe auraient pu devenir des équivalents de Microsoft si elles avaient pu progresser plus vite. Les prises de positions, notamment sur le marché des Nouvelles techniques de l’information et de la communication (NTIC), dépendent beaucoup de l’opportunité du moment. La mobilisation des capitaux étant plus lente ici qu’ailleurs, les concurrents prennent la tête et imposent leurs marques de référence et leurs normes.

Les investisseurs privés en France se montrent en général réticents à financer l’innovation dès son premier stade. Les résultats des activités de capital-risque ne sont pas excellents, connaissant un taux de rentabilité d’environ 3%, ce qui est faible par rapport au risque pris, et il est donc normal que les pouvoirs publics apportent leur appui lors du premier stade d’amorçage.

La faiblesse des engagements privés dans le capital-risque doit normalement le tirer vers les stades ultérieurs du développement de l’entreprise.

Selon M. Albert Ollivier, il faut savoir opérer des arbitrages entre quantité et qualité, car le but n’est pas de lancer chaque année un millier de jeunes entreprises innovantes qui ne seront pas aussi nombreuses à réussir. Il vaut ainsi mieux choisir, quitte à les regrouper, quelques entreprises capables d’atteindre un certain niveau de développement.

En effet, selon lui, une des raisons de la faible popularité de l’innovation provient de ce qu’on ne perçoit guère ses résultats en termes d’emplois. Il vaut mieux, dans le bouillonnement des initiatives, sélectionner quelques projets qui fourniront ensuite de bons exemples de la transformation de l’innovation en croissance et en emploi.

3. Mettre en place une véritable politique de venture capital

Nous avons, tout au long du rapport, utilisé la nomenclature anglaise, venture capital, ou plutôt latine de venturi capitale, à la place du terme français de « capital-risque ». En effet, il nous semble important de faire sortir la notion de risque, et de faire apparaitre l’idée de partenariat et d’aventure.

a. Un type d’activités actuellement en difficulté en France et en Allemagne, mais aussi dans une moindre mesure aux Etats-Unis

En France, entre  2008 et 2010, les fonds de venture capital sont passés de 570 à 45 millions d’euros, le capital d’amorçage passant de 74 à 26 millions d’euros, selon les données indiquées lors de l’audition publique du 12 octobre 2011, par M. Philippe Braidy, président de la CDC-Entreprises, directeur général délégué du Fonds stratégique d’investissement.

Pour M. Philippe Braidy, « il y a une amplification par la crise du financement par les financiers de ce segment. Pourquoi ? Il s’agit traditionnellement d’un segment plus risqué. Pour l’expliquer, on met souvent en avant le critère de rentabilité. En réalité, ces créneaux sont rentables, à condition de faire preuve de patience et de financer tous les étages ».

M. Albert Ollivier, responsable du financement des PME et de l’innovation au Pôle de compétitivité mondial « Finance Innovation» (Innovation financière, soutien au financement de l’innovation et au développement global de l’activité économique), qui est intervenu lors de l’audition publique du 26 mai 2011, « un des enjeux majeurs des années à venir consistera à éviter que le marché – étroit – du capital-risque français, qui, après avoir bien débuté, a connu une crise en 2002 avant de se rétablir et d’être soutenu par des dispositifs fiscaux, ne s’écroule. Nous savons aider, par le biais de moyens publics, au démarrage d’entreprises issues de la recherche mais le marché peine à prendre le relais nécessaire dans la phase de développement. 


La capacité à financer l’innovation est une chose, celle à la soutenir jusqu’à atteindre le plus haut niveau mondial en est une autre.

Les investisseurs privés se montrent en général réticents à financer l’innovation dès son premier stade. On peut les comprendre : les résultats des activités de capital-risque ne sont pas excellents, connaissant un taux de rentabilité d’environ 3%, ce qui est faible par rapport au risque pris. Il est donc normal que les pouvoirs publics apportent leur appui.

La faiblesse des engagements privés dans le capital-risque tire alors celui-ci vers les stades ultérieurs du développement de l’entreprise.

Il est difficile, dans un système entièrement basé sur des fonds communs de placement à durée de vie limitée, d’empêcher les investisseurs de vouloir sortir du capital. Il faudrait redonner de l’attractivité à la société de capital-risque perpétuelle, qui peut participer à une entreprise plus longtemps, et mêler, dans son portefeuille, des titres d’entreprises ayant une certaine maturité à des parts de jeunes entreprises ».

En Allemagne, un entretien avec les responsables du Fonds d’investissement Heidelberg Innovation a été particulièrement éloquent.


Selon leurs propos, les modèles classiques de venture capital ne fonctionnent plus. Le marché est asséché. Le problème est structurel. L’intervention de l’Etat est bien sûr possible, mais elle ne fait souvent que déplacer le problème.

Ce fonds, créé en 2001, a investi cinq années durant, en espérant que les profits apparaîtraient et croîtraient dans les cinq années suivantes, ce qui aurait permis de revendre les structures dans lesquelles il avait investi. Mais la réalité fut différente. Cette société n’a plus d’argent frais. Son activité depuis deux ans est limitée à la gestion du portefeuille existant.

Cette situation n’est pas isolée. Dans toute l’Europe, il y a une réduction des moyens alloués au venture capital, ce qui empêche les nouveaux projets. A Munich, ancienne capitale du venture capital en Allemagne, ne restent qu’Edmond de Rothschild et Sofinova.

Le rapport sur la biotechnologie d’Ernst et Young fait part de cet assèchement du venture capital depuis la faillite de Lehmann Brothers.

La situation est grave, car les aides de l’Etat servent surtout au moment de la création d’une entreprise innovante. Mais vient un moment où cette entreprise a besoin de fonds supplémentaires, et l’Etat ne les fournit plus. Il faut alors une intervention du marché, mais celui-ci est déprimé. Les banques sont réticentes à intervenir depuis Bâle 3 qui fixe de nouvelles règles de contrôle des risques.

La situation est moins grave aux Etats-Unis

Aux Etats Unis, la situation est plus difficile qu’auparavant, mais est moins problématique, du fait de la culture d’entreprenariat, des investissements des fonds de retraite, et de l’existence de « business angels » qui sont prêts à intervenir au début du processus d’innovation (30 à 50 % des investissements de venture capital sont faits à ce stade).

Alors qu’en France le venture capital s’élevait en 2008 à environ 600 millions d’euros, il atteignait 25 milliards de dollars aux Etats-Unis. Au Massachussets, il s’élevait à un dixième de cette somme, ce qui en fait le deuxième Etat américain pour ce type de capital, derrière la Californie, mais devant New York et le New Jersey. A Boston même, il y a des investisseurs qui sont prêts à apporter de 20 à 200 millions de dollars à une start-up.

Son utilité apparaît clairement lorsqu’on examine la manière dont est financée une innovation.

Selon M. Marvin Ritchie, banquier d’affaires, il faut distinguer quatre types de situations :

Les sources de financement des start-up

et des entreprises innovantes qui ont grandi

Jusqu’à un million de dollars : les amis, la famille, éventuellement des business angels.

Jusqu’à 5 millions de dollars, voire jusqu’à 50 millions de dollars : le venture capital grâce à des fonds sectoriels (dédiés par exemple aux biotechnologies ou à la pharmacie). Cette forme de financement a connu récemment des difficultés car les investisseurs ont eu peur.

De 10 millions de dollars à 1 milliard de dollars : le recours au capital privé, sous forme d’actions non cotées. C’est une solution intéressante quand l’entreprise croît rapidement et a un cash flow positif.

Au-delà : l’accès à la bourse et aux actions cotées.

Pour ce banquier, la méthode que doivent suivre les entreprises qui souhaitent obtenir du venture capital est clairement définie :

Les cinq étapes de la recherche du venture capital


- Evaluation des objectifs de l’entreprise, identification des responsables, de leur rôle et des étapes de développement déjà parcourues ; premières propositions.

- Etudes de marketing : positionnement des produits, identification des investisseurs potentiels, préparation de premiers documents, réflexion sur le positionnement par rapport aux investisseurs possibles.

- Sollicitation d investisseurs, sélection des investisseurs intéressés.

- Evaluation des premières propositions d’affaires, sélection des investisseurs qui seront retenus.

- Décision finale et signature du contrat

b. Les préconisations d’un acteur français : le Comité Richelieu

Le constat du Comité Richelieu, association qui représente les PME innovantes est clair : il faut répondre en France à la faiblesse du capital développement et à la difficulté des entreprises innovantes à fortifier leurs fonds propres, notamment au niveau des phases d’amorçage.

A cette fin, le comité Richelieu propose un certain nombre de mesures pour permettre aux entreprises innovantes un meilleur accès par les fonds propres et privilégie le recours à un business angel, c'est-à-dire un entrepreneur qui a réussi et qui accepte de partager son expérience. C’est la manière la plus efficace pour amorcer un processus qui doit comprendre des moyens pour drainer l’épargne des grands investisseurs vers le capital développement.

c. La recherche de solutions au plan européen

Il faut définir de nouvelles modalités de financement de l’innovation au plan européen, en définissant une véritable politique européenne de venture capital, ce qui nécessitera de doter le Fonds européen d’investissement de moyens suffisants.

Il faut tout d’abord veiller aux termes utilisés et parler de venture capital plutôt que de capital risque. Cela permettra de faire évoluer les mentalités dans un contexte assez défavorable où l’on constate une forte aversion au risque des épargnants européens (l’investissement en capital risque en Europe a encore baissé de 25 % au 1er trimestre 2011 par apport au 1er trimestre 2010).

Il faut ensuite mettre en place une véritable politique de venture capital au plan européen, ce qui implique de renforcer les moyens actuellement mis en œuvre par le Fonds européen d’investissement (FEI).

Le Fonds européen d’investissement, dont l’activité doit véritablement démarrer en 2014, doit avoir pour objectif de promouvoir des filières et développer des partenariats. Un tel fonds pourrait être géré par la BEI afin de faciliter le passage d’une valorisation à petite échelle à un véritable stade industriel.

Créé à l’initiative de la France et doté d’un capital détenu par la BEI à 80 %, ce fonds a vocation à devenir un pilier du venture capital qui deviendra réalité en 2014. La BEI, quant à elle, continuera à s’occuper principalement des grosses opérations. Le FEI gérerait un fonds des fonds et alimenterait des fonds plus spécialisés, dans des domaines particuliers. Le montant de sa dotation est fondamental s’il veut avoir une capacité d’intervention significative. On parle actuellement de quelques milliards d’euros.

Il devrait permettre la mise en œuvre d’une politique plus ambitieuse de venture capital au plan européen en structurant un marché qui aujourd’hui résulte de marchés nationaux compartimentés. Il est cependant probable qu’il ne se développera que s’il est accompagné au niveau national ou régional par des mesures fiscales incitatives.

L’insuffisance des sommes disponibles pour le venture capital tient en effet pour beaucoup à l’absence de stratégie de sortie pour les investisseurs. Trop souvent, ceux-ci n’ont pour seul choix que de vendre leurs actifs à des entreprises non européennes, et notamment chinoises, sachant que les fonds souverains chinois sont prêts à un retour lent sur investissement.

Aussi faut-il envisager la manière d’organiser un deuxième tour de table, qui n’existe pas actuellement pour les PME. Il serait souhaitable de mettre en place un instrument financier de partage des risques entre la Commission et la BEI, permettant de combiner venture capital et prêts bancaires. Un tel projet, actuellement étudié par la Commission doit être encouragé, car les instruments communautaires ne parviennent pas à financer efficacement les projets des PME. C’est indispensable pour faciliter le passage du stade artisanal à un stade industriel de nombreuses PME.

Les indicateurs de l’innovation ne sont pas au vert.

La part des PME innovantes et exportatrices est deux fois plus faible en France qu’en Allemagne qui compte deux fois plus d’entreprises intermédiaires.

Nous n’anticipons pas suffisamment sur les transmissions d’entreprise. Il suffit, pour s’en convaincre, de voir le nombre d’entreprises pour fabriquer des éoliennes en Allemagne (Avantis, Dewind, Enercom, Nordex, Repower, Siemens) et le faible intérêt de cette technologie pour les grands groupes français (sauf Vergnet pour les petites puissances et Alstom). Les éoliennes installées en France sont donc principalement de fabrication allemande ou danoise. C’est également le cas des panneaux solaires photovoltaïques, fabriqués pour une grande part en Chine (Suntech power), au Japon (Sharp), aux USA (First Solar) ou en Allemagne (QCells).

L’empilement des structures dont nous avons déjà parlé rend le paysage illisible, et même inefficace. Les résultats des classements des Etats en matière d’innovation utilisent des paramètres très différents, mais les évaluations donnent toujours les mêmes résultats avec la France dans les pays suiveurs.

Ainsi, nous sommes 22ème dans le classement de l’INSEAD 2011, alors que 6 pays européens sont dans les dix premiers et que l’Allemagne est douzième.

Dans le classement du Boston Consulting Group, nous sommes 19 ème alors que 6 Etats européens figurent à nouveau dans les douze premiers.

Les performances en matière d’innovation sont mesurées par les capacités des politiques publiques (notamment fiscales) à stimuler l’innovation, par le capital humain et l’organisation du système d’éducation et de recherche, par la capacité de valorisation de la recherche, par le dynamisme de la propriété intellectuelle, par la qualité des infrastructures et des plateformes, par les liens entre innovation et marché et innovation et entreprises.

Nous proposons donc un dispositif d’accompagnement simplifié décliné dans chaque région française ciblant davantage les PME et les PMI. Nous proposons d’orienter une part de l’épargne publique vers les investissements de moyen et de long terme en direction des entreprises innovantes. L’investissement privé restant insuffisant, il faut que l’Etat regroupe tous les acteurs régionaux et nationaux du financement (CDC, OSEO, FSI, Fonds régionaux de participation, FUI) au sein d’une banque publique d’investissement.

L’innovation ne pourra se développer qu’à la condition de laisser une large initiative aux écosystèmes régionaux. Le nouvel outil d’investissement devra être régionalisé et géré en commun entre l’Etat et les régions. Cette avancée constituerait ainsi le troisième acte de la décentralisation.

D. L’IMPORTANCE DES NORMES ET DES BREVETS DANS LA DIFFUSION D’UNE INNOVATION

Les normes et les brevets constituent un aspect important de la diffusion et de la réussite d’une innovation. En effet, être à l’origine d’une norme ou se conformer à une norme préexistante permet de diffuser une innovation très rapidement. Déposer un brevet permet de protéger son produit face à la concurrence, certes pour un temps limité, mais qui permet de conquérir des parts de marché.

1. Le rôle de la normalisation

Mme Christine Kertesz, responsable de Projet Innovation, Recherche et Enseignement à l’Association Française de Normalisation (AFNOR) en a fourni une démonstration brillante lors de l’audition publique du 26 mai 2011.

Cette démonstration peut être ainsi résumée :

La normalisation peut constituer un outil de valorisation de la recherche, susceptible d’accélérer la diffusion des innovations vers le marché.

Les normes, qui sont des outils que l’on utilise au quotidien sans en être forcément conscient, facilitent l’interopérabilité des systèmes et des produits, et leur utilisation dans le monde entier. Elles s’étendent aujourd’hui au champ des services et des méthodes d’organisation des entreprises.

Fruit d’un consensus entre l’ensemble des acteurs du marché, établi par des organismes reconnus, elles prennent la forme de documents d’application volontaire dans 99 % des cas.

« 

Elles favorisent les échanges, participent à la régulation des marchés et facilitent les contrats commerciaux, tant privés que publics. Le code des marchés publics stipule qu’au-dessus d’un certain montant, les acheteurs publics sont fortement incités à recourir aux normes en vigueur. À l’inverse, l’absence de normes peut constituer une entrave aux échanges et bloquer l’entrée d’un marché. Il est donc très important de se préoccuper des normes lorsque l’on innove ».

Les normes permettent de définir des langages communs et de mesurer de la même façon les performances de technologies innovantes.

« 

Lors de la normalisation, les risques environnementaux et les impacts que les produits peuvent avoir sur l’environnement sont pris en compte. Les normes sont là pour donner confiance aux utilisateurs, aux acheteurs et aux prescripteurs. Mais elles sont là aussi pour ouvrir et développer les marchés. L’harmonisation des pratiques permet de pénétrer des marchés beaucoup plus larges que le seul marché national ; avoir un produit conforme à une norme internationale donne accès aux marchés internationaux ».

En définissant des règles du jeu sur des technologies innovantes, le plus en amont possible, elles facilitent le transfert des technologies du monde de la recherche vers le monde industriel, et donc vers le marché.

« La normalisation est un outil de sécurisation des choix stratégiques des entreprises et un outil d’intelligence économique. Participer à des instances de normalisation donne accès à un nombre incalculable d’informations, peut permettre d’orienter les choix stratégiques de l’entreprise et les choix de recherche, et d’anticiper l’élaboration des futures règles. Les entreprises qui contribuent à ces travaux sont bien évidemment là pour influer sur le contenu des futures normes. Pour une entreprise innovante, cela peut s’avérer déterminant ».

Dans le cas des OGM et des nanotechnologies, la normalisation se développe pour définir des règles du jeu acceptées par tous. Aujourd’hui, elle est au cœur des enjeux du développement du véhicule électrique. La prise électrique qui sera choisie pour recharger les batteries et le système de recharge qui sera retenu auront une importance fondamentale pour l’avenir de ces nouvelles technologies.

L’innovation ne concerne pas que des produits, mais aussi des modes d’organisation. De la même façon, la normalisation permet de définir des méthodes pour mieux gérer, par exemple, l’utilisation de l’énergie.

Innovation et normalisation sont complémentaires. La normalisation est un outil de la compétitivité des organisations. « Comme disent les Allemands, « qui fait la norme détient le marché ». Le premier à proposer aux autres acteurs du marché une norme définissant les règles du jeu bénéficie d’un avantage concurrentiel et contribue à la compétitivité des organisations. Il ne faut pas l’oublier et en tenir compte dans les stratégies de développement de l’innovation. L’innovation conduit à la rencontre d’une idée et d’un marché et crée de la valeur en termes d’emplois et de créations d’entreprises. Elle peut aussi contribuer au progrès social et environnemental.

La normalisation intervient à toutes les étapes du processus d’innovation : en amont, à l’occasion des commissions de normalisation, elle permet de capter des idées et de repérer les demandes sensibles du marché ; en aval, par les règles du jeu qu’elle propose, elle facilite la diffusion de l’information et l’accès au marché. Elle contribue à la mise au point des outils utilisés en management de l’innovation ».

À l’échelle européenne, se répand l’idée que la normalisation doit être intégrée, le plus en amont possible, à la recherche et à l’innovation. En la matière, les Allemands ont une longueur d’avance sur nous. Dans notre pays, la normalisation pourrait devenir un outil de sélection des projets de recherche et d’évaluation de la qualité des projets menés.

Les acteurs de l’innovation devraient intégrer une veille sur les normes existantes, et participer plus souvent aux travaux de normalisation sur les technologies ou les solutions innovantes.

La normalisation est donc un avantage concurrentiel, un outil, une arme stratégique et un véritable atout. C’est une opportunité, bien plus qu’une contrainte.

2. Les conditions d’une utilisation efficace des brevets

L’utilité des brevets tient à la protection juridique qu’ils confèrent. C’est le moyen de s’opposer à la contrefaçon. Or celle-ci est réelle. Il ne se passe pas un jour sans que l’Institut national de la propriété industrielle ne soit saisi par une entreprise éprouvant des difficultés dans l’accès à des marchés extérieurs pour des raisons liées à la contrefaçon de brevets ou de procédés.

L’efficacité du système des brevets n’est toutefois ni absolue, ni éternelle. Des défis nouveaux apparaissent, et la situation est très évolutive, comme le montre la situation des pays émergents. Les remises en cause radicales restent néanmoins marginales. Mais il est de plus en plus nécessaire de trouver de nouvelles solutions plus efficaces en Europe pour permettre une protection efficace et moins coûteuse de la propriété intellectuelle.

a. Des défis nouveaux

M. Fabrice Claireau, directeur des affaires juridiques et internationales à l’INPI a souligné les défis auxquels les organismes de protection de la propriété intellectuelle sont aujourd’hui confrontés, lors de l’audition publique du 26 mai organisée par l’OPECST.

La situation se caractérise par un fort accroissement du nombre de brevets. Aux États-Unis, 450 000 demandes sont déposées chaque année ; en Chine, 380 000 ; au Japon, 350 000. En Europe, 235 000 demandes sont déposées auprès de l’Office européen des brevets. Cela entraîne un certain nombre de défis, tenant à ce nombre, mais aussi à la multiplicité des langues dans lesquelles sont déposés les brevets.

Plusieurs projets de mise en réseau des bases de données des offices de propriété industrielle sont en cours pour répondre au défi de l’accès des différents inventeurs à l’information. La diffusion de l’information technologique est en effet la contrepartie du monopole conféré par le brevet. L’Organisation mondiale de la propriété intellectuelle cherche notamment à développer une bibliothèque numérique pour permettre à l’ensemble des acteurs économiques de savoir ce qui se passe sur les différents marchés.

Il faut par ailleurs permettre un accès à l’information technologique diffusée dans d’autres langues que la sienne – notamment aux brevets chinois qui sont en train de monter en puissance –, ce qui nécessite la mise en place de systèmes de traduction. L’Office européen des brevets travaille sur un projet de traduction automatique dans les vingt-huit langues parlées par les trente-huit États qui en sont membres, ainsi qu’en japonais, en chinois, en coréen et en russe.

Il faut veiller à maîtriser les délais de délivrance des nouveaux brevets. L’ensemble des offices de propriété industrielle dans le monde réfléchit donc à des moyens de partager le travail afin d’éviter les opérations redondantes.

Il est également crucial de maintenir leur qualité pour que l’innovation reste dynamique et pour que les entreprises puissent accéder au marché dans des conditions optimales de sécurité juridique. C’est la raison pour laquelle l’Europe continue à défendre une politique stricte en matière de recherche d’antériorité des brevets délivrés et d’application des critères de brevetabilité.

Quant au coût des brevets, il reste plus élevé en Europe qu’aux États-Unis et au Japon. « Ainsi, un brevet européen coûte environ 25 000 euros – ce qui inclut les frais de procédure et un maintien de la protection pendant vingt ans –, contre 7 000 euros aux États-Unis, 11 000 euros au Japon et 7 500 euros en France. Ce coût élevé tient notamment aux frais de traduction. Malgré le protocole de Londres – que seuls quatorze États membres de l’Union européenne ont signé – il est en effet toujours nécessaire de traduire les revendications pour que les brevets soient valides sur le territoire des autres États ».

Un écueil doit enfin être évité : il serait dangereux d’aller vers un système de reconnaissance mutuelle des brevets, car tous les pays n’ont pas le même régime de brevetabilité. Ainsi, le droit des brevets dans le domaine des biotechnologies n’est pas le même en Europe, aux États-Unis, en Chine et au Japon. Il est donc essentiel que nous ne soyons pas obligés d’accepter, sans un examen de la brevetabilité, des brevets délivrés par des offices de propriété industrielle n’appliquant pas les mêmes règles qu’en Europe.

b. La prise en compte des évolutions dans les pays émergents

(i) En Chine

En Chine, l’intérêt grandit pour les brevets, normes et les certificats de qualité. Le nombre de brevets qui y sont déposés croît actuellement de 25 % par an.

Parallèlement, le niveau des normes y augmente. La Chine vient ainsi d’adopter en 2010 un code de bonnes pratiques pour la production manufacturière. Elle se rapproche ainsi de plus en plus des normes occidentales. Elle s’intéresse aussi, comme la France, à la défense des appellations d’origine, notamment pour le thé et les liqueurs.

Les entreprises chinoises obtiennent de plus en plus des certificats de qualité européens ou américains, qu’ils soient délivrés par l’ETQM (European Territorial Quality Mark), l’EMEA, la FDA. Certains proviennent de la SFDA (State Food and Drug Administration). Ce n’était pas le cas il y a dix ans.

Il reste certes un thème de débat particulier à ce pays, qui considère traditionnellement que ce qui est bon doit l’être pour le plus grand nombre, ce qui pourrait conduire à un débat sur le sens profond des brevets (débat, on le verra ci-dessous qui se développe dans certains pays industrialisés).

(ii) En Inde

En Inde, la protection découlant des brevets l’emporte de plus en plus sur leur contestation.
La propriété intellectuelle devient plus respectée, du fait de l’évolution du contexte économique.

Le regard de l’Inde sur la protection intellectuelle évolue, en fonction des transferts de technologie et de la production de biens à plus forte valeur ajoutée. Ses intérêts changent, et l’Inde est de plus en plus dans une situation où elle peut être amenée à défendre la propriété intellectuelle, ce qui n’empêche pas des approches différentes, comme dans le cas des génériques.

C’est ainsi que l’Inde recrute actuellement du personnel pour accompagner le mouvement vers plus de protection des brevets sur les produits ou sur les dessins.

Les problèmes tiennent davantage à la corruption et au sous dimensionnement d’un appareil judiciaire, qui est relativement indépendant. Les entreprises pharmaceutiques hésitent ainsi à déposer des brevets car elles craignent que la confidentialité ne soit pas respectée et qu’il y ait des contrefaçons.

Toutefois, la situation est plus complexe, du fait de la durée limitée des brevets et du développement rapide des génériques. L’insuline étant fabriquée depuis 20 ans, les brevets sont tombés dans le domaine public, et les Indiens en fabriquent maintenant à des conditions économiquement plus avantageuses.

En quelques années, l’Inde est devenue le 3ème fabricant de médicaments génériques au monde et est le premier fournisseur de l’Afrique. Cette réalité est reconnue dans le monde, tant aux Etats Unis qu’en Europe qui importent des génériques indiens. Les prix de ces médicaments sont peu élevés dans un pays où il y a besoin de médicaments peu chers, ce qui entraîne une suspicion des grands laboratoires occidentaux à enregistrer, puis à transférer leurs nouveaux médicaments en Inde. Leur attitude est toutefois ambivalente : d’une part, ils craignent des piratages, et d’autre part ils prennent des participations dans les laboratoires indiens, ce qui pousse le pouvoir politique à restreindre l’ouverture de leur capital, attitude fortement ancrée dans ce pays où dans un autre domaine, et pas seulement celui de la défense, la législation nationale interdit aux étrangers de détenir plus de 26 % du capital dans les sociétés indiennes, taux qui augmente parfois à 50 % .

On retrouve la même prudence des semenciers français en Inde. Mais la préoccupation principale aujourd’hui est surtout d’être certain de la qualité des produits fabriqués en Inde. L’insuline, par exemple, est-elle aussi pure lorsqu’elle est fabriquée en Inde que lorsqu’elle est produite dans les pays industrialisés ? C’est une question qui ne concerne pas que les laboratoires. C’est une des préoccupations des grandes ONG.

En fait, plusieurs situations coexistent : les laboratoires indiens qui exportent des génériques sont généralement agréés par l’OMS et par les organisations qu’ils fournissent, en termes de qualité. Mais seuls les plus grands et les plus performants exportent vers les Etats Unis et l’Europe. Les problèmes apparaissent avec les petits laboratoires, où les dosages peuvent être moindres et où il y peut y avoir des substitutions d’emballages, non-conformes aux caractéristiques du produit (ce qui nécessite certes des complicités locales, qui ont été parfois prouvées et dénoncées dans certains pays africains). L’amélioration de la situation passera par l’amélioration des contrôles douaniers indiens sur les exportations vers le tiers monde.

c. Vers une nouvelle approche des brevets ?

Cette question, qui aurait été perçue comme impertinente il y a peu reste certes provocatrice. Mais elle reflète l’apparition d’idées nouvelles aux Etats-Unis et dans d’autres pays développés. Celles-ci sont certes marginales, mais reflètent une réalité marquée par des difficultés récurrentes.

(i). Le regard du docteur John Frangioni, directeur du centre ‘d’imagerie moléculaire du Beth Israel Deaconess Medical Center, professeur de médecine à l’école de médecine de Harvard

Pour le Docteur Frangioni, le système actuel des brevets n’est pas efficace. Les décisions auxquelles il conduit sont basées sur l’argent et le profit, sur l’exclusivité, l’exclusion, sur une volonté de contrôle. Un tel système décourage l’évolution.

M. Frangioni remarque que certaines entreprises arrêtent leur production lorsque leur brevet vient à expiration.

C’est pourquoi il propose un autre système, basé sur l’idée de la maximisation du bénéfice public. Les brevets seraient non exclusifs, afin de permettre un accès ouvert à la connaissance et d’encourager l’évolution technologique et l’utilisation des technologies.

Selon lui, la suppression des brevets permettrait une compétition pour de meilleurs produits. Cela suppose bien sûr que des besoins existent et que le marché soit présent.

(ii). Les idées de chercheurs français

De telles idées ne sont pas très lointaines de celles qui sont reprises dans le dernier numéro de la revue Recherche de l’année 2011.


Hervé Lebret, polytechnicien, interviewé par Nicolas Chevassus-au-Louis, y déclare notamment : «  Quitte à être iconoclaste, je pense que les brevets sont un frein à l’innovation. Je me demande s’il ne faudrait pas les supprimer, sauf peut-être dans des domaines particuliers, telles les biotechnologies, où un brevet correspond grosso modo au procédé de fabrication d’une molécule. Mais dans la plupart des domaines industriels, il faut des milliers de brevets pour protéger une innovation commercialisée. L’entretien très onéreux de ce portefeuille de brevets mobilise de l’argent qui pourrait être mieux utilisé dans la recherche et l’innovation. Là où le brevet favorise l’inventeur, il est devenu une arme défensive pour préserver des positions dominantes ».

(iii). Une réponse à des problèmes récurrents ?

Cette approche critique tient à la faible protection qu’offrent de nombreux brevets, à leur coût et à la réticence de certains chercheurs qui préfèrent publier les résultats de leur recherche plutôt que de les breveter avant publication.

De plus, la possession d’un brevet ne garantit ni la continuité de l’activité qu’il permet, ni la poursuite dans son pays d’origine, ni son contrôle par le titulaire du brevet.

M. René Ricol a illustré ce processus lors de l’audition publique du 12 octobre 2011, en remarquant que des chercheurs qui ont une idée déposent des brevets, vont chercher des fonds d’amorçage pour faire la preuve du concept, mais que dès que cette preuve est faite, elle est vendue, neuf fois sur dix à l’étranger. Il n’en résulte pour le pays concerné ni création de richesse, ni emplois.

d. La recherche de solutions plus efficaces en Europe

Il n’existe pas de brevet international où une demande effectuée dans un pays serait valable à l’échelle régionale ou mondiale. Dans ce contexte, le brevet européen actuel, régi par une convention de 1973, n’est pas totalement satisfaisant, et le texte le plus significatif des dernières années est le protocole de Londres qui détermine le régime linguistique des brevets dans les pays européens qui l’ont adopté. Ce protocole ne saurait toutefois satisfaire ceux qui souhaitent l’avènement d’un véritable brevet communautaire. Celui-ci fait l’objet de discussions depuis de nombreuses années. Son adoption est pour l’instant bloquée par un arrêt de la Cour de Justice de l’Union européenne.

(i) Le protocole de Londres n’est pas suffisant

Le protocole de Londres, signé en octobre 2000 entre une dizaine de pays membres de l’Office européen des brevets n’a été ratifié par la France en 2007 qu’après de longs débats. Il est entré en vigueur le 1° mai 2008 dans treize pays. L’Espagne, comme l’Italie le contestent toujours.

Ce protocole prévoit que le brevet peut être déposé dans l’une des 3 langues suivantes : français, anglais, allemand, avec un résumé dans les deux autres langues. Les Etats signataires renoncent à l’exigence de traduction de la partie « description » du brevet, qui est la plus longue et donc la plus coûteuse à traduire.

Mais il reste que les inventeurs de pays ne parlant pas une de ces langues doivent traduire les revendications abrégées, comme l’a souligné lors de l’audition publique du 26 mai 2011 M. Gérard Dorey, président du concours Lépine qui a rappelé les frais occasionnés par le dépôt d’un brevet : 38 euros pour le dépôt lui-même, 500 euros pour la recherche, et 85 euros pour la publication. Ce coût n’intègre pas la traduction. C’est tout l’intérêt du futur brevet communautaire.

Les difficultés actuelles sont en effet nombreuses, comme l’a souligné ce même jour M. Albert Ollivier : le marché européen, unifié sur le plan monétaire et commercial, ne l’est pas sur le plan technique, notamment en matière d’autorisation de mise sur le marché ou de dépôt de brevet. Trop de réglementations nationales disparates subsistent. Il est donc difficile pour une entreprise française d’aller se développer sur les marchés voisins. Cela explique que sur le marché des logiciels, une entreprise née en Europe va, dans un premier temps, se développer aux États-Unis, marché volumineux et homogène, avant de revenir en Europe.

(ii) Les négociations sur le brevet européen progressent, mais lentement

L’Union élabore actuellement un projet de brevet unitaire, qui offrirait une protection unique sur le territoire de vingt-cinq de ses États membres – l’Espagne et l’Italie n’ayant pas souhaité participer. Les inventeurs seraient protégés sur le territoire de presque toute l’Union européenne à un coût correspondant à un brevet européen pour huit États membres. Ce texte serait basé sur la coopération renforcée, ce qui permettrait de dépasser les oppositions de l’Italie et de l’Espagne.

Ce projet comporte la mise en place d’une juridiction spécifique et unique pour juger du contentieux des brevets en Europe, qu’il s’agisse de la validité des brevets ou de leur contrefaçon Mais la Cour de Justice de l’Union européenne a rejeté cette disposition le 8 mars 2011. La Commission doit donc reprendre sa copie, sous l’impulsion du commissaire en charge de la propriété intellectuelle, M. Michel Barnier.

(iii) De nouvelles pistes, plus pragmatiques sont actuellement explorées

La Caisse des dépôts s’est ainsi fixé comme objectif de fédérer les universités et les laboratoires qui le souhaitent, de créer des grappes, d’acquérir de la propriété intellectuelle pour valoriser les portefeuilles. Elle a découvert avec surprise que cette démarche intéressait aussi les entreprises, les grands groupes, qu’on pensait méfiants, et les PME qui n’ont pas toujours accès à la propriété intellectuelle. Cela montre qu’on peut donc investir dans la recherche autrement, en obtenant des retours financiers qui pourront se réinvestir dans la recherche et les entreprises.

En collaboration avec l’Allemagne et le FEI, elle vient de proposer de développer un fonds des brevets, qui les achèterait principalement aux universités et les combinerait avec d’autres brevets, pour avoir un intérêt technologique plus grand, et pour mieux les revendre.

La Commission européenne n’a pas encore pris position sur une telle approche, mais la Commissaire chargée de la recherche considère qu’il est très important d’échanger, de combiner et de revendre. Les grandes entreprises savent combiner, pas les petites. Cela va de pair avec le brevet européen.

Cette idée française de grappes de brevets est une nouvelle manière de valoriser les résultats de la recherche. Elle pourra aussi émaner des demandes des industriels. Un tel système permettrait une intermédiation entre l’offre et la demande, alors qu’aujourd’hui, beaucoup de brevets ne sont pas exploités, tandis que certains besoins des entreprises ne sont pas satisfaits.

Faudrait-il aller plus loin, et prévoir des chasseurs de brevets, comme en Californie ?

Aux Etats-Unis, souvent cités comme modèle, des établissements privés achètent des portefeuilles de brevets, constituent des grappes importantes, achètent des inventions, parfois auprès de particuliers, et réussissent à être bénéficiaires. Intellectual Venture détient ainsi plus de 40 000 brevets, fait 2 milliards d’investissements, et génère 300 millions d’euros de bénéfices annuels grâce aux licences qui découlent de ces brevets, comme l’a rappelé le 12 octobre M. Philippe Braidy, président de la CDC-Entreprises, directeur général délégué du Fonds stratégique d’investissement.

E. DONNER UNE NOUVELLE IMPULSION À L’ACTION DE L’UNION EUROPÉENNE

L’action de l’Union européenne en matière de recherche et d’innovation est multiple. Elle repose sur un volet financier qui peut paraître imposant mais qui reste insuffisant face aux objectifs proclamés et sur un dispositif juridique diversifié mis en œuvre par une multitude d’organismes.

1. Prendre en compte l’évolution prochaine des financements mis en œuvre par l’Union européenne

Ces financements, qui sont importants, restent toutefois marginaux par rapport aux sommes consacrées à la recherche par les Etats membres, comme l’a souligné avec force M. Marcel Van de Voorde lors de l’audition publique du 24 novembre 2011.

Ils découlent des programmes cadre de recherche et de développement mais aussi des fonds structurels et reposent sur de nombreuses actions et de nombreux mécanismes. Ils s’inscrivent dans un cadre conceptuel, défini en 2000 et actuellement redéfini.

Il faut toutefois se rappeler que la plupart des dépenses de recherche sont financées par les Etats membres. La part des dépenses communautaires dans l’ensemble des dépenses de recherche en Europe reste faible, autour de 7 %. La question principale sera donc d’imaginer comment coordonner les efforts engagés au niveau national et au niveau européen, tâche particulièrement ardue.

Les programmes cadre de la recherche et du développement technologique (PCRDT, anciennement PCRD) mettent en place des crédits pluriannuels. Le programme actuellement mis en œuvre est le septième. Il est doté de 52 milliards d’euros. Son action est complétée par les fonds structurels qui disposent de sommes disponibles plus importantes pour la recherche : 86 milliards d’euros. Le rapport entre ces deux sources de fonds va s’inverser lors du prochain PCRDT auquel seront affectés 80 milliards d’euros contre 56 pour les fonds structurels.

Le 8ème PCRDT est en cours d’élaboration, mais ses grandes lignes sont déjà connues.

Le nouveau programme sera axé sur l’excellence, sur la compétitivité et sur les grands défis, tels le vieillissement, le changement climatique ou la sécurité énergétique. L’objectif est de parvenir à un juste équilibre entre la recherche fondamentale et l’innovation, en mettant davantage l’accent sur l’innovation et le marché.

Une ligne budgétaire sera consacrée aux technologies, dont les nanotechnologies et l’espace.

Les réflexions portent actuellement sur la définition d’un nombre limité de priorités sur les secteurs clés, sur les priorités transversales et sur les manières de simplifier l’accès aux programmes.

Ces financements s’inscrivent dans le cadre de nombreux programmes.

2. Tirer parti du foisonnement de textes et de programmes mis en œuvre par de nombreuses structures

Ce cadre repose sur plusieurs directives européennes et sur la mise en œuvre de politiques débouchant sur des « paquets », tels que le paquet Energie Climat. Il permet la définition d’initiatives et la mise en place de programmes, tout en fixant des règles souvent contraignantes, comme celles qui régissent la concurrence et les aides d’Etat.

Les dispositifs en place concernent par exemple les OGM, les pandémies, les médicaments et les précautions à prendre en matière vétérinaire, les expérimentations animales, le transport des matériaux dangereux, les pesticides.

Il repose sur l’action de nombreuses agences, dont l’efficacité est souvent mise en cause, car de nombreuses questions ne sont toujours pas résolues : Les préconisations des agences européennes sont-elles véritablement suivies d’effets ? Quel degré d’appréciation existe-t-il au niveau national ? Les règles prévues sont elles compréhensibles ? Sont-elles de nature à permettre la plus grande efficacité ? Faut-il les clarifier ? Sont-elles adaptées à un contexte de crise ?

Les organismes qui existent doivent être soutenus, même s’il est souhaitable d’évaluer leur efficacité. Citons à titre d’exemple l’Agence européenne des recherches en énergie, le Consortium européen de la recherche en informatique, l’Institut européen des technologies de Budapest, l’Association européenne pour la gestion de la recherche industrielle et l’Institut européen d'innovation et de technologie.

L’action de ces centres aboutit notamment à la mise en œuvre du programme post-doc dans le domaine numérique qui facilite la mobilité des chercheurs et au regroupement des équipes ICT des grandes entreprises en Finlande, en Suède, aux Pays Bas, en Allemagne et en France. Sont notamment concernées : Nokia, Thalès ; Ericsson, Deutsche Telekom, France Telecom, et Phillips.

Citons aussi l’ITER dont la dimension internationale est un véritable atout. Il faut en effet parfois raisonner au niveau mondial, comme en matière agricole ou dans le domaine du changement climatique, où le niveau planétaire devient le plus pertinent. Dans ce dernier domaine, des résultats intéressants sont attendus du développement des réseaux informels de chercheurs, à l’initiative de la Nouvelle Zélande.

Citons enfin le rôle particulier du Centre commun de recherche (CCR).

C’est la seule direction générale en charge de la recherche directe, tandis que les autres directions ne font que de la recherche indirecte. Elle dispose d’un volant de scientifiques spécialisés dans tous les secteurs, à même de procéder à des analyses scientifiques poussées, et de 7 instituts installés dans 5 Etats membres : trois à Ispra, en Italie, sur l’environnement, sur la santé et la sécurité et la protection des citoyens, un aux Pays Bas sur le transport, un à Séville sur les études macroéconomiques, un en Belgique et un à Karlsruhe sur le nucléaire.

Le CCR va prochainement lancer un réseau regroupant les grandes organisations nationales en charge du transfert de technologie, comme le CEA en France.

Son diagnostic est clair : il est nécessaire de dégager des priorités. Il faut créer les conditions permettant à des structures telles que les Académies nationales des sciences d’intégrer la dimension européenne dans leurs avis.

De nouvelles structures ont été créées plus récemment, tels les centres technologiques portant sur l’information et la communication, le climat, les énergies renouvelables. Mais leur action reste peu visible, alors que leur domaine d’intervention est de plus en plus primordial. Il en est de même pour l’Institut européen d’innovation technologique.

3. Insuffler un nouveau dynamisme.

Une nouvelle impulsion est en effet nécessaire. Le diagnostic est largement consensuel sur les faiblesses à compenser et les obstacles à éviter. Il permet de déboucher sur plusieurs préconisations.

a. Les faiblesses à compenser sont connues

- le manque de lisibilité des objectifs, trop généraux, trop vagues, ou trop angéliques;

- une gouvernance difficile à appréhender, conduisant à une bureaucratie excessive, à des procédures particulièrement lourdes, ce qui entraîne une lenteur manifeste du processus décisionnel ;

- l’insuffisance relative des crédits consacrés à la recherche, par rapport à nos grands concurrents (Etats-Unis, Japon, mais aussi et de plus en plus, Chine, Inde, Corée du Sud), dans un monde où la globalisation implique de ne pas se mettre en position d’infériorité : il en est de même de l’insuffisance du financement privé de la recherche.

- une excessive fragmentation des dépenses à tous les niveaux : régional, national et européen, qui s’additionne à l’insuffisance des articulations entre niveau régional, national et européen.

Il n’est certes pas souhaitable de copier en Europe de manière simpliste le modèle de la Silicon Valley, où sont concentrés 40 % des investissements dans la science et la technologie, mais l’éparpillement actuel doit cesser, car il rend l’Europe souvent impuissante et inexistante, du fait de son absence de stratégie et de l’insuffisante dimension de sa politique.

- l’inexistence d’un marché du venture capital en Europe, même si la Commission doit prochainement faire des propositions pour résoudre la crise actuelle qui affecte ce marché dans les Etats membres (l’investissement en venture capital a encore baissé en Europe de 25 % au 1° trimestre 2011 par apport au 1° trimestre 2010, contrairement à ce qui se passait aux Etats-Unis.

- une trop grande aversion au risque, liée à des cultures très différentes de celles prévalant aux Etats Unis et dans les pays émergents.

b. Les obstacles à éviter sont identifiés 

- le recours à la concurrence plutôt qu’à la coopération (les réticences actuelles de l’Allemagne à s’engager dans une politique de coopération volontariste en matière d’énergies renouvelables montrent la difficulté et l’ampleur de la tâche à accomplir).

- l’enfermement dans le questionnement sur la nature de la coopération –communautaire ou intergouvernementale.

- une approche de nature idéologique, privilégiant soit le top-down (cas des grands programmes), soit le bottom-up, alors qu’il faudra combiner ces deux méthodes.

c. Une autre approche est possible

Il faut au contraire tenir compte des avantages respectifs de ces deux méthodes ; faire une analyse en termes de coût-bénéfices ; garder des modalités ouvertes et flexibles ; et enfin trouver des enveloppes institutionnelles permettant d’atteindre les objectifs poursuivis.

Pour stimuler la réflexion, il convient de se rappeler qu’Eurêka, dont le succès a été dans un premier temps salué, mais dont ne parle plus guère aujourd’hui, a résulté d’une approche bottom-up et d’une coopération de nature intergouvernementale. C’est notamment lui qui a permis des progrès significatifs sur les normes de télévision.

Il faudrait s’interroger sur le potentiel de synergie qui peut découler d’une telle formule, ainsi que sur l’intérêt des réflexions qu’il avait promues au sein de ses conférences parlementaires. Il faudrait également évaluer quel serait l’intérêt de financements beaucoup plus importants pour promouvoir ce type de coopération, et se demander comment lever les réticences de la Commission en matière de financement devant des projets qui lui échappent.

On a gardé les principes d’Eurêka pour Eurostar. Le modèle n’est donc pas désuet. Ne faudrait-il pas l’adapter, en s’inspirant du SBIR et du STTR américains, qui ont une approche bottom-up, et qui peuvent s’adresser à un seul acteur, pas forcément à un consortium ?




Le SBIR et le STTR

Comme le souligne la mission pour la science et la technologie de l’ambassade de France aux Etats-Unis, le SBIR (Small Business Innovation Research Program) et le STTR (Small Business Technology Transfer Program) ont permis de financer 100 000 projets pour une valeur de 24 milliards de dollars. Ils concernent 6 millions de PME-PMI qui emploient près de 40 % des chercheurs et ingénieurs et génèrent 13 à 14 fois plus de brevets par employé que les grandes entreprises.

Ces programmes ont débouché sur 85 000 brevets et sur la création de plusieurs millions de postes hautement qualifiés.

Toutes les agences fédérales finançant la recherche pour un montant supérieur à 100 millions de dollars ont pour obligation de consacrer 2,5 % de leur dotation au programme SBIR dont la gestion est décentralisée.

Selon M. Laurent Buisson, directeur de la recherche et du transfert de technologie à l’Université Pierre et Marie Curie (audition publique du 12 octobre 2011), le SBIR, qui n’a pas d’équivalent en France, se distingue des dispositifs français parce qu’il est subventionnel, sans avance remboursable et sans contraintes sur les fonds propres des entreprises. Il engage l’agence fédérale à accompagner la start-up pour trouver ses premiers marchés, quitte à ce qu’elle soit son premier client.  

d. Il faut aller plus loin et mener une politique plus volontariste

Cinq orientations apparaissent :

(i) Coordonner davantage la politique communautaire de recherche et les politiques de recherche des Etats membres

Une telle coordination est un facteur essentiel de toute politique tendant à améliorer la compétitivité globale de l’Union européenne. Cette coopération est essentielle, car les politiques nationales de recherche représentent 10 à 20 fois plus que le budget européen de recherche. La coopération entre la France et l’Allemagne en est l’une des prémisses.

Cet objectif n’est pas inatteignable s’il existe une volonté politique suffisante, ce qui n’est pas forcément le cas actuellement. La création de réseaux de laboratoires européens, largement insuffisante mais possible est l’une des clés d’une telle approche.

Mais les objectifs affichés nationalement restent différents, ainsi que les politiques mises en œuvre. L’objectif global de consacrer 3% du PIB à la recherche n’est pas atteint.

En résumé, il faut imaginer de nouveaux types de coopération au niveau européen afin de favoriser l’innovation au niveau qui paraît aujourd’hui le plus efficace. C’est de cette manière que se développera le sentiment d’appartenance à l’Europe et que se mettra en place non seulement l’Europe de la recherche et de l’innovation, mais aussi l’Europe de la culture et de l’expérience partagée.

Cette coordination sera facilitée par l’avènement prochain de l’espace européen de recherche.

Une étude fort intéressante d’un groupe de travail FutuRIS, présidé par Jacques Lesourne, et présentée par MM. Rémi Barré et Jérôme Fontaine en 2010 dans un rapport publié dans l’ouvrage « La Recherche et l’Innovation en France », pose trois questions-clés et met en évidence les quatre trajectoires envisageables qui en découlent :

Les Européens seront-ils capables de mettre en place des dispositifs intégrés de financement à l’échelle des grands défis sociétaux (énergie, climat, santé, alimentation…) ?

Les Européens seront-ils capables de créer un espace unifié de la recherche et de l’innovation, incluant l’ouverture européenne de financements publics nationaux ?

Les Européens seront-ils capables de stratégies de partenariat permettant l’intégration de leurs capacités de recherche en institutions d’excellence et en pôles d’ambition mondiale ? 

Il en découle quatre trajectoires possibles qui résultent de la combinaison d’hypothèses sur ces trois questions : un échec de l’Espace européen de recherche ; sa pleine réalisation ; un succès partiel porté par l’intergouvernemental ; un succès partiel porté par les acteurs de la recherche.

(ii). Alléger les procédures, simplifier et assouplir les règles trop strictes qui régissent tant l’encadrement communautaire des aides d’Etat que l’accès des PME aux financements possibles.

Les programmes actuels sont en effet souvent gênés par la lourdeur de leurs procédures administratives, par la lenteur du processus décisionnel, par un système de gestion trop bureaucratique et par la complexité des cofinancements.

Il est ainsi difficile de combiner les fonds structurels, ceux du programme Europe 2020, ceux des Etats membres et des régions, du fait des restrictions découlant des règlements actuels. Il faut donc envisager des réformes. Aux Etats-Unis, la seule contrainte vient des règles émanant de l’OMC. En Europe, on rajoute la contrainte « aide d’Etats », et la DG concurrence intervient, ce qui empêche de prévoir des financements jusqu’à la limite du plafond fixé par l’OMC.

S’agissant de la conception même des règles, il serait préférable de raisonner au niveau planétaire, en comparant ce qui se passe au sein de l’Union européenne et aux Etats-Unis en matière de recherche duale, tant civile que militaire, notamment dans le domaine aéronautique. Les règles sur les aides d’Etat doivent prendre en compte le contexte international, caractérisé par une forte concurrence internationale non seulement dans le domaine de l’industrie mais également dans celui de la recherche. Il faut en fait s’interroger sur la cohérence de l’approche européenne des aides d’Etat.

Il faut par ailleurs simplifier les conditions d’accès au financement pour les PME, en réduisant le nombre de lignes budgétaires concernées, en simplifiant les procédures et le contrôle financier, toutes pistes actuellement étudiées. Il est en particulier souhaitable d’établir un guichet unique pour les PME, mais on pourrait aussi imaginer d’autres instruments, avec la BEI, en prenant en compte les divers types de PME.

(iii) Faire émerger des équipes européennes

Il s’agit de faire émerger des équipes européennes et pas seulement des équipes nationales, pour constituer des champions européens dans le domaine de la recherche et de l’innovation, des équipes ayant une visibilité mondiale.

Un des moyens pourrait être la mise en place d’un Eurêka de la recherche de l’innovation autour de projets, ce qui permettrait l’émergence de ces équipes européennes. Cela permettrait de développer des coopérations bottom-up. Mais pour ce faire, il faudra dépasser les conflits entre approche communautaire et approche intergouvernementale. La réunion d’une conférence parlementaire dans le cadre d’Eurêka, solution qui existait autrefois, pourrait permettre de lancer ce genre d’idée.

Le développement de clusters européens est également une voie à explorer, de même que celui des autres structures d’accompagnement de la recherche qui ont fait leurs preuves au niveau national. Il faut se doter parallèlement de normes communes, et contribuer au développement d’un véritable marché européen qui permette d’absorber les produits nés de l’innovation partagée entre plusieurs pays. Ce marché n’existe pas toujours, ce qui a été le cas pour les panneaux solaires. Le développement du produit est enfin essentiel. N’oublions pas que Skype, dont le financement initial fut européen, a ensuite été développé hors d’Europe.

Selon Mme Marion Dewar, membre du cabinet de Mme Maire Geoghegan-Quinn, commissaire européenne en charge de la recherche, de l’innovation et des sciences, de tels clusters devraient être développés sur la base de l’excellence et de leur impact au plan mondial, en évitant de multiplier les petites structures. Or jusqu’à présent, les fonds structurels ont encouragé la prolifération de clusters trop petits. Il serait préférable d’envisager au plan régional une spécialisation intelligente (a smart specialisation) permettant de combiner les ressources des Etats membres pour financer les grandes infrastructures.

La capacité de tels clusters à prendre une dimension internationale est fondamentale, car les soutiens qu’ils sont susceptibles de recevoir seront très limités s’ils sont considérés comme des structures locales.

Il faut également que se multiplient les lieux d’échange sur les expériences qui réussissent, tant en Europe que dans le monde. Il faut faire connaître les exemples des universités de Twente aux Pays Bas, de Leuven et de Louvain la Neuve en Belgique, ou du Karlsruhe Institute of Technology en Allemagne.

La création de labels européens permettrait enfin une plus grande visibilité.

(iv) Faciliter la mobilité des chercheurs en Europe et au-delà de l’Europe

L’objectif est clair : la mobilité des chercheurs est un élément qui favorise leur coopération. Or pour l’instant, c’est surtout la mobilité des étudiants qui est promue, alors que les centres de recherche ont besoin de post doctorants qui acquièrent une dimension européenne et qui disposent d’un réseau international.

Il y a certes pour les docteurs le programme Marie Curie, mais son ampleur reste limitée. Il faut donc trouver un nouveau système, qui soit considéré comme une vraie référence.

Les actions Marie Curie

Ces actions ont vocation à répondre aux besoins de formation, de mobilité et de développement de carrière des chercheurs. Elles prévoient également des passerelles et des partenariats entre l’industrie et les universités.

Certaines d’entre elles sont destinées aux chercheurs qui souhaitent se réinstaller en Europe après une période de mobilité dans un autre pays européen ou dans un pays tiers.

Leurs conditions d’attribution sont très larges : il n’y a aucune condition d’âge, aucune thématique prioritaire, aucune condition de statut. Les règles de mobilité permettent de prendre en compte toutes les situations possibles.

Selon les cas, les bourses sont attribuées pour une durée allant de 3 mois à 36 mois.

Les actions Marie Curie sont dotées d’un budget global de 4,7 milliards d’euros sur 7 ans (de 2006 à 2013) et sont financées dans le cadre du PCRD, au sein du programme spécifique « Personnes ».


Mais au-delà, il est nécessaire de régler des questions beaucoup plus complexes, qu’il s’agisse des retraites, de la portabilité des droits de sécurité sociale et des droits à pension, ou de la gestion des carrières (la structure des carrières reste différente d’un Etat à l’autre). Il faudra de même développer les publications de postes au niveau européen.

Il faut aussi envisager une reconnaissance mutuelle de l’évaluation, car l’évaluation de la recherche reste actuellement de compétence nationale. On pourrait notamment envisager des lignes directrices communes, ainsi que la multiplication de jurys internationaux.

Il conviendra également de modifier les règles en cas de recherche pluridisciplinaire afin que les chercheurs ne soient pas seulement évalués qu’en fonction de la spécialité du laboratoire auquel ils sont rattachés (ce qui est malheureusement le cas en France).

Ces réformes seront longues et complexes, car certains Etats membres (et notamment le Royaume Uni) s’opposent au développement de règles législatives. Des formules souples et non contraignantes devront donc être imaginées.

(v) Promouvoir les études européennes comparatives

Sur les sujets de controverse, tels que les OGM, les nanotechnologies, les biotechnologies, les terres rares, l’Europe devrait lancer des études pour permettre des comparaisons, même si la sensibilité des Etats membres n’est pas la même sur leur opportunité. On pourrait dans un premier temps mettre en commun les analyses d’évaluation des risques sur ces sujets qui relèvent du grand marché unique européen et qui sont donc au cœur de la logique européenne. On pourrait aussi faire un appel à projets sur les substituts aux terres rares, et donner de la visibilité à ce type d’initiative.

Cela permettrait de définir de nouvelles politiques à partir de comparaisons des stratégies nationales.

DEUXIEME PARTIE : L’ACCEPTATION D’UNE INNOVATION PAR LA SOCIÉTÉ, CONDITION DE SA DIFFUSION

Au cours du dernier siècle, notre civilisation est lentement passée d’une ère de modernité, reposant sur la notion de progrès et d’idéal positif, à une ère de « post-modernité », tel que nous l’a exposé Etienne Klein.

En effet, le projet technique et scientifique, c'est-à-dire celui qui rend possible l’innovation par ses applications technologiques, est de plus en plus détaché de tout projet de civilisation, ce qui a entrainé le glissement sémantique du mot « progrès », devenu désuet, au mot « innovation ».

Toute innovation est ainsi interrogée pour elle-même, et n’est plus intégrée au sein d’un horizon plus général, d’un idéal plus grand, d’un cadre plus vaste, dans lequel il est impératif qu’elle s’inscrive. Les évolutions techniques et scientifiques ne sont plus considérées comme un moyen en vue d’une fin susceptible d’atteindre un idéal, comme le prévoyait le projet des Lumières, pour lesquels la science et la technique devaient à terme parvenir à maitriser la Nature pour que les hommes deviennent enfin libres et heureux.

Le processus d’innovation est déstabilisant, et place le citoyen, à chaque nouvelle étape, dans des situations nouvelles, qui le laissent sans repères ni références. Il ouvre l’horizon sur de nouvelles possibilités positives, mais également sur de nouvelles possibilités négatives, donc de nouveaux risques et de nouvelles peurs.

Aujourd’hui, l’innovation ne vaut que pour elle-même, sans conception de l’avenir d’une façon qui le rende désirable. Nos concitoyens, notamment en Europe et en France, ont de plus en plus le sentiment qu’à mesure que nous innovons, le nombre de problèmes et de risques à surmonter non seulement ne diminue pas, mais qu’il croît.

Sentiment qui justifie cette deuxième partie de notre rapport.

I. LA FORMATION SCIENTIFIQUE DÈS L’ÉCOLE PRIMAIRE

Comprendre le plus tôt possible les grands enjeux scientifiques d’aujourd’hui et de demain, apprendre à raisonner et à expérimenter, découvrir la démarche du chercheur, et comprendre le vocabulaire scientifique, permettent de mieux appréhender les innovations.

A. MIEUX ENSEIGNER LES SCIENCES À L’ÉCOLE

Quel est ce vocabulaire scientifique, dans notre cas ? Il y a les notions liées à chaque thème, bien évidemment, qui sont très difficiles à comprendre pour le non spécialiste. Plusieurs études ont montré que le vocabulaire d’une publication scientifique est devenu tellement spécialisé qu’elle en devient incompréhensible pour tout non-initié.

Mais il y a aussi des concepts tels que celui de risque et d’incertitude, plus généraux et utilisés transversalement dans les différents domaines des sciences, au sens également très précis.

Nous avons décidé d’ouvrir ce deuxième chapitre par la retranscription synthétique des interventions en audition publique de deux personnalités particulièrement exceptionnelles : Cédric Villani et Pierre Léna. Ces deux personnalités hors du commun, l’un médaillé Fields 2010, l’autre membre de l’Académie des Sciences et cofondateur de la Main à la Pâte pour apprendre aux enfants à lire, écrire, compter et raisonner, ont porté des jugements d’une extrême justesse sur l’école d’aujourd’hui. Il nous a donc semblé important de les reprendre dans le corps du rapport.

1. Les réflexions de Cédric Villani

Les propos de Cédric Villani, médaillé Fields en 2010, sont éloquents. La sélection qui en est faite est tirée de son intervention à l’audition publique organisée par l’Office parlementaire le 24 novembre 2011 sur les comparaisons internationales.

Elle porte sur l’évolution du contexte de l’enseignement, la nature de l’innovation, la manière de développer des solutions innovantes, les forces et faiblesses du système français de recherche et développement, la taille des classes, les critères permettant d’apprécier la performance du système éducatif, le temps nécessaire pour étudier correctement, l’accès aux références et l’importance de l’éducation non formelle.

Pour Cédric Villani, la science a changé depuis vingt ans, les attitudes de travail aussi. « On a assisté à la généralisation du courrier électronique permettant de collaborer d’une manière instantanée, à de longues distances et à un rythme effréné. Puis les outils électroniques sont entrés dans le quotidien. Les recherches électroniques menées, grâce à Google ou à d’autres, vont permettre des références et des contributions. Les articles sont devenus majoritairement électroniques, de même que les présentations dans les grandes conférences. Le logiciel TeX conçu par Donald Ervin Knuth permet à tous les mathématiciens du monde de fabriquer de beaux articles avec de belles formules mathématiques. Les simulations numériques sont devenues des outils indispensables pour le théoricien comme pour le mathématicien appliqué.

Tous ces changements sont des innovations qui font intervenir à la fois des innovations conceptuelles et des perfectionnements. Plusieurs types d’innovations sont empilés sur chacune de ces révolutions, le fine-tuning, ou le tweaking. Ce terme de tweaker est utilisé lorsque quelqu’un va prendre le concept d’un autre pour l’adapter, le tordre, le chambouler, jusqu'à ce qu’il arrive à obtenir un rendement considérable.

Que voit-on à travers ces exemples ? Qu’une vraie innovation, une vraie révolution, implique toujours à la fois une percée conceptuelle, et puis, derrière, des compétences assez différentes, dites d’ingénieurs, de type « bidouillage ». On voit le statut ambivalent de l’innovation comme le montre le rôle du courrier électronique, à la fois outil de collaboration extraordinaire et un frein à notre concentration et à notre création. C’est tellement sérieux que l’inventeur de TeX, l’un des informaticiens les plus réputés dans le monde, a décidé il y a quinze ans de couper court à tout courrier électronique. Dans un autre domaine, on connaît les problèmes considérables d’instabilité posés par l’efficacité bien trop puissante des échanges financiers qui s’opèrent à l’échelle de la milliseconde.

D’une manière générale, l’innovation arrive souvent en réponse à un problème. Si tout se passe bien, la solution résout le problème, mais permet idéalement d’aller au-delà de la simple résolution. D’une manière générale, dans notre monde où l’on est face à des problèmes liés à la surpopulation, à l’environnement, à l’extinction massive des espèces vivantes, au réchauffement climatique, problèmes difficiles à contester, on n’attend plus de solution miracle et l’on est bien forcé de compter sur l’innovation comme outil indispensable à la prévention de crises.

Qu'est-ce qu’il faut pour favoriser le développement de solutions innovantes ? Il faut trois maillons : d’abord former des têtes bien faites, des théoriciens comme des personnes formées sur tous les domaines théoriques prêtes à travailler sur n’importe quel problème. Il faut ensuite des têtes curieuses, des citoyens curieux et motivés, ce qui pose la question de la vocation. Il faut enfin des conditions institutionnelles, matérielles, fiscales, économiques, qui forment l’écosystème complexe de la R&D. Sur tous ces sujets, on peut utiliser des données quantifiées, et des indicateurs comme ceux de l’étude PISA (Programme for International Student Assessment), les indicateurs du Boston Consulting Group pour l’innovation, les données indiquées dans le rapport OCDE sur la science. A chaque fois, ce sont à la fois des indicateurs chiffrés et des impressions.

Le système français de recherche développement se caractérise par un système fiscal dans l’ensemble rénové et performant, mais souffrant d’une certaine instabilité sur les questions de définition. Il se caractérise aussi en France par quelques verrous psychologiques, soit du côté des innovateurs, soit du côté des bailleurs de fond. Sont cités, le plus souvent, une vision a priori trop pessimiste, qui n’est pas corroborée par les faits du système ; une autocensure sur le développement des entreprises ; une culture trop prudente vis-à-vis de l’échec considéré comme infamant ; une défiance réciproque entre le monde universitaire et le monde de l’industrie, défiance dont nous commençons à peine à sortir.

Du côté psychologique, en revanche, nous avons un point fort : l’esprit idéaliste, sans doute acquis dès l’éducation héritée des Lumières. Il va bien sans doute avec notre tradition abstraite, nos performances en mathématiques, et aussi avec nos bonnes performances dans les domaines de l’industrie classique.

Autre caractéristique du système de R&D français, c’est l’attractivité naturelle de la France, grâce au rayonnement de sa culture et à son système d’enseignement supérieur de haute qualité, mis en place en grande partie lors de la révolution française, et puis dans l’entre-deux-guerres. C’est un environnement attractif pour attirer des étudiants et des chercheurs étrangers.

Les paramètres de l’éducation sont très difficiles à évaluer mais grâce aux critères PISA, il est assez facile d’évaluer les performances des systèmes. En revanche, pour analyser les méthodes, c’est très compliqué. Prenons l’exemple de l’étude de la taille des classes. Quand on regarde les classements et les résultats PISA, la taille des classes influe relativement peu sur le succès des méthodes. Des pays comme le Japon ou la Corée, avec des classes très chargées, parviennent à des résultats remarquables en termes d’éducation. On peut néanmoins critiquer cette conclusion en disant qu’elle n’est pas significative car le niveau de discipline au lycée en Corée n’a rien à voir avec celui de la plupart des classes françaises. On voit qu’il est difficile d’analyser les résultats sans se référer de manière importante au contexte socioculturel.

Le Haut conseil de l’éducation a synthétisé les enseignements des classements internationaux en affirmant que les systèmes efficaces ont quatre ingrédients : premièrement, ils cherchent à réduire les écarts, sans création dans l’ensemble de filières de niveaux et sans redoublement ; deuxièmement, ils ont un objectif clair que l’on pourrait qualifier de socle commun faisant l’objet d’un large consensus, avec en particulier des connaissances opérationnelles et des capacités de raisonnement ; troisièmement, ils ont un système efficace de formation des enseignants à des pratiques éducatives qui favorisent le succès des élèves ; quatrièmement, ces systèmes ont une organisation souple qui laisse aux établissements des marges d’autonomie.

Au plan international, il y a des modèles qui sont reconnus par tous : la Finlande, et peut-être un autre, symbole remarquable, la Corée. Les enseignants coréens sont parmi les meilleurs. L’éducation est prise au sérieux comme nulle part ailleurs. En Corée, quand il y a des périodes d’examens, on adapte les horaires des avions pour ne pas déranger les étudiants au travail. La Corée est bâtie sur un système de cours obligatoires et une vraie foi dans le travail. Le dicton populaire dit que pour bien réussir, il faut veiller tard la nuit, dormir quatre heures et pas cinq les veilles d’examen. Information majeure, le cursus est classique. Pas de vraie originalité recherchée, l’essentiel, c’est la foi dans le travail. Au niveau de l’accès à l’éducation dans l’ensemble de la population, les résultats sont spectaculaires. Quels sont les revers de la médaille ? D’abord une tension imposée aux étudiants, avec pas mal de stress. Et puis l’absence d’une vraie élite performante de recherche coréenne, absence notée au niveau des prix Nobel ou médailles Fields au regard de leur place sur l’ensemble de l’innovation.

A l’opposé, on trouverait le système américain, médiocre en termes d’accès à la connaissance de l’ensemble de la population, mais qui arrive, par la liberté qu’il permet, à permettre à certains individus extrêmement atypiques et créatifs d’émerger en mathématiques. Ce sont des génies comme John Nash ou William Thurston.

Que dire de l’éducation française dans ce contexte ? L’éducation traditionnelle française, telle que je la comprends, repose sur un programme très développé, très solide. Ce tissu d’écoles d’ingénieurs, de grandes écoles, de classes préparatoires, d’écoles normales supérieures, est un des ingrédients clés qui a joué dans le succès français. L’équation est très complexe, en particulier en ce moment, où il y a plutôt un déséquilibre entre classes préparatoires et universités. Les universités sont sans doute trop nombreuses, les filières sont très réduites, il y a peu d’étudiants. Selon une opinion largement partagée dans la communauté scientifique, y compris par moi-même, le système est battu en brèche pour diverses raisons, à tous les niveaux, en particulier la diminution des horaires et la simplification des programmes.

Le collège en particulier a un bilan particulièrement piteux, avec un malaise enseignant perçu par 75% des maîtres, des problèmes de violence scolaire, et une proportion importante d’échecs.

Et puis il y a une question triviale : c’est la question des horaires. Nous sommes beaucoup à penser que seule une quantité suffisante de temps imparti aux cours permet de bien développer le sujet. En particulier, cela permet à l’enseignant de proposer suffisamment d’exercices pour assurer à la fois la bonne maîtrise par les élèves des concepts, mais aussi leur intégration. Les exercices ont ce double rôle d’assurer les bases, de la même façon qu’un virtuose doit commencer par faire ses gammes de manière systématique avant de créer. Et puis le deuxième rôle est de permettre la compréhension des concepts par l’exemple. Cette question des horaires est peut-être la pierre angulaire de la pétition qui a circulé récemment, « la France a besoin de scientifiques », signée par la plupart des grandes figures scientifiques de l’Académie des sciences et des institutions savantes.

La motivation est une question fondamentale : comment faire en sorte que les jeunes soient intéressés par les sciences, qu’ils se lancent dans de telles carrières et qu’ils soient intéressés par la recherche ?

Il y a aussi la question de l’accès aux références. Dans un monde où tout est mouvant, où l’on est submergé par le flot d’informations, est-ce que c’est la bonne tactique de soumettre aux jeunes élèves un tel flot d’informations et faire faire tout de suite de la recherche sur Internet, du tri de références ? Je n’en suis pas persuadé. Ma conviction intime, au contraire, serait plutôt de les élever dans un environnement très sûr et stable, avec des références incontestables, pour les laisser ensuite affronter en toute sûreté le grand chaos du monde dans lequel nous vivons.

Finalement, je crois que les à-côtés sont fondamentaux. C’est ce qu’apporte l’enseignement non formel, l’enseignement dispensé en dehors du cours, où l’on va, par des démarches originales, ou par une conférence, ou par une intervention extérieure, donner un regard culturel sur un sujet mathématique. Idéalement, l’enseignant veut faire un cours classique, et puis utiliser des intervenants extérieurs pour donner un éclairage, une étincelle en plus à leurs élèves, pour les motiver. Il suffit parfois de piquer la curiosité d’un élève, ce qui restera toute la vie. Il n'y a pas forcément besoin de rechercher des choses extravagantes ou très originales au niveau du cours en lui-même. Il n'y a pas forcément besoin de repenser tout le système ».

2. Les préconisations de Pierre Léna

Pierre Léna, membre de l’Académie des sciences, s’est exprimé à l’Office parlementaire lors de l’audition publique du 12 octobre 2011. Reprenons ses propos les plus marquants qui portent sur la nécessité d’intervenir dès l’école primaire, l’utilisation de la science, le rôle du professeur, la transmission du goût de l’innovation, le rôle de la Main à la Pâte et les difficultés rencontrées.

« La communication de la créativité, du sens de l’innovation, de l’esprit critique, se joue pour beaucoup avant l’âge de quinze ans. Ce qu’on n’a pas fait à ce moment devient difficile.

Comment s’attaquer à ces éléments de l’innovation que sont la capacité de raisonner entre disciplines, notamment scientifiques, de savoir s’exprimer, argumenter, échanger et convaincre ? C’est à de telles exigences que « la Main à la Pâte » s’est attaquée il y a une quinzaine d’années, en se disant qu’il fallait commencer tôt, dès l’école primaire, qu’il fallait changer de méthodologie, passer d’une transmission verticale du savoir à une élaboration commune, chacun dans son rôle, et introduire les sciences dites « dures », c’est-à-dire les sciences expérimentales et d’observation. Il s’agit de passer d’une forme d’enseignement vertical à un travail horizontal à trois – le maître, l’élève, la nature –, d’une science faite de réponses toutes faites à une science faite de questions, d’une science comme une série d’acquis intemporels – lois, théorèmes, résultats – à une science entendue comme processus, comme élaboration historique et aventure humaine.

Il s’agit aussi de mettre en avant l’unité du savoir derrière la diversité des disciplines, la science étant un processus de connaissance qui a une unité très profonde. J’ajoute que la science se dit avec le langage naturel. La maîtrise de la langue, tellement mise en avant dans les objectifs de l’enseignement primaire ne saurait se construire dans une forteresse isolée. Si cette maîtrise se construit autour de la poésie, pourquoi ne pas la construire également autour de l’activité scientifique ? « La Main à la Pâte » a eu beaucoup de mal à faire passer ce message. Les programmes de l’école primaire ont ainsi changé en 2008, en se focalisant sur la maîtrise de la langue comme élément d’intégration sociale. Un tel objectif est certes essentiel. Mais on entendait en tirer comme conséquence que la formation scientifique devenait secondaire. Le ministre a heureusement bien voulu nous entendre pour ne pas prendre en compte un tel argument.

Nous avons tenté de prolonger depuis six ans cette idée au collège, en mettant en jeu, en sixième et cinquième, un enseignement intégré de science et de technologie, où les catégories disciplinaires chères aux professeurs, mais illisibles pour les élèves, s’effacent devant une science-processus.

Nous n’avons pas abordé à ce jour la question de la science informatique. La pénétration de l’informatique dans la société est une banalité. Or le monde éducatif l’a jusqu’à présent entendu comme l’usage de l’informatique. Lorsqu’on étudie les chiffres de la R&D mondiale consacrée à ce secteur, on s’aperçoit que nous n’y préparons pas notre jeunesse. Un pas a heureusement été franchi récemment, avec la création d’une spécialité de science informatique. Reste qu’il faut faire remonter ce type d’intérêt pour la science informatique jusqu’à l’école primaire, avec des outils adaptés à chaque stade. Nous faudra-t-il trente ans pour réaliser cette transition ? Il s’agit donc d’un nouveau chantier essentiel.

Le rôle du professeur est central, qu’il soit généraliste au primaire ou plus spécialisé au collège. Un professeur a une carrière de quarante ans. Or c’est un fait que le développement professionnel est en totale dégringolade dans notre pays. Pour les professeurs de science, de l’école au primaire, on consacre environ 3 milliards d’euros par an, somme constituée essentiellement par les salaires des professeurs. Le résultat n’est pas à la hauteur de cette dépense, car la partie qui consiste à les maintenir en lien avec la science vivante a pratiquement disparu. L’Académie des sciences s’est penchée sur cet abandon et a publié en 2010 un avis sur le sujet. Un texte a également été publié par l’Inspection générale de l’administration à l’attention des ministères de l’Enseignement supérieur et de la recherche, et de l’éducation nationale, texte beaucoup plus sévère que le nôtre qui n’a pas été rendu public. Nous sommes dans une situation totalement bloquée. Pourquoi ? Parce que les professeurs sont opposés à faire du développement professionnel hors temps scolaire. S’ils le font sur le temps scolaire, il faut les remplacer, coût devenu insupportable. Seule une évolution, déjà débattue, de la fonction enseignante permettra de sortir de là.

Sur ce point, nous avons analysé l’exemple britannique, qui est remarquable, du National science learning center, qui offre des outils de développement professionnel au corps enseignant au bénéfice de leur capacité de transmettre une science et une technique vivante, donc de la capacité d’innovation.

Comment un système comme l’Education nationale, en très grande difficulté pour innover lui-même, peut-il transmettre le goût de l’innovation ? La première chose à faire, à mon sens, est de transformer le rapport du corps enseignant à la science et à la technique vivante. L’outil législatif permet désormais une initiative innovante du corps enseignant, mais est peu utilisé. Surtout, on est passé d’un extrême à l’autre, d’un système pyramidal et vertical, où les injonctions partent du sommet, à une latitude donnée au local. Beaucoup d’enseignants innovent, a-t-on rappelé. Encore faut-il rappeler que la propagation de ces innovations n’est pas assurée, contrairement à ce qui passe en recherche.

Il faut donc assurer un dispositif souple, hors système institutionnel, qui permette cette propagation, comme l’Académie des sciences l’a proposé au Grand emprunt, en mettant en place des prototypes de maisons régionales pour la science et la technologie, au service des professeurs. Nous allons ainsi ouvrir deux prototypes de développement professionnel, très inspirés par l’exemple britannique, où la mise en place des principes que j’ai mis en avant sera proposée au corps enseignant, le problème du statut du corps enseignant se posant toujours.

Face à l’urgence à laquelle notre pays doit faire face dans le contexte européen et international, nous avons des lenteurs qui sont vraiment terribles. « La Main à la Pâte » a été créée il y a quinze ans. Elle a été reconnue par tous les ministres que nous avons eu l’occasion de rencontrer. Mais elle pénètre aujourd’hui dans moins de la moitié des écoles primaires françaises. Moins de la moitié mettent en œuvre les deux heures d’enseignements scientifiques prescrits par les programmes. Pourquoi ? Parce que le minimum de formation professionnelle continue des professeurs n’a pas pu être mis en œuvre malgré tous nos efforts. Nous avons testé l’enseignement intégré de science et technologie sur cinquante collèges en cinq ans, le ministre de l’Education nationale ayant fixé l’objectif de 400 collèges pour le mettre en œuvre, sans donner d’échéances. Au rythme actuel, il faudra un demi-siècle pour changer l’enseignement dans nos collèges. Ce problème de la constante de temps d’un système éducatif face à de telles urgences est particulièrement préoccupant ». 

B. PROMOUVOIR LES SCIENCES TOUT AU LONG DE L’ENSEIGNEMENT

Après ces deux propos préliminaires, attardons nous sur les différentes structures agissant au sein de l’école ou en dehors de celles-ci pour sensibiliser les jeunes aux méthodes scientifiques, aux innovations, et à la compréhension des risques qu’elles engendrent et qu’elles réduisent.

1. L’action de La Main à la Pâte dans l’enseignement primaire et les premières années de collège

La Main à la Pâte intervient dans les écoles primaires et depuis quatre ans en sixième et en cinquième pour inciter les élèves à s’intéresser aux questions scientifiques, tout en ayant la volonté d’intervenir en école maternelle.

Cette action a découlé de plusieurs constats : les sciences sont peu pratiquées à l’école primaire malgré les textes officiels ; 80% des instituteurs n’ont pas de formation initiale en sciences, et se sentent mal à l’aise pour les enseigner. Seuls 3 à 5 % des enseignants pratiquent les sciences, souvent de manière assez prescriptive, et peu vivante, comme l’a souligné en 1995 une enquête du ministère de l’Education nationale.

Ce triple constat a entraîné une mobilisation de l’école Polytechnique, de l’école des Mines et de plusieurs universités qui ont rejoint le programme défini par La Main à la Pâte, l’Académie des sciences et les deux écoles normales supérieures qui l’avaient lancé à l’initiative de M. Charpark, prix Nobel de physique.

Ces trois institutions mettent du personnel à la disposition de La Main à la Pâte qui répond par ailleurs à des appels à projets, notamment européens, ce qui lui permet d’embaucher des contractuels. Ces 25 personnes, représentant 19 équivalents temps pleins, s’appuient sur l’action de nombreux bénévoles et de salariés en régions, voire en quartiers d’éducation prioritaire, qui sont financés par les collectivités territoriales dans le cadre de conventions sur des projets de 3-4 ans.

A Nancy, par exemple, une convention a été signée avec le grand Nancy pour créer un centre pilote de ressources, permettant de former et d’accompagner des enseignants, d’avoir du matériel, de faire suivre les enseignants qui débutent par un enseignant plus expérimenté. L’université de Nancy, et notamment le Centre Hubert Curien, s’est également mobilisée.

Les intervenants dans les écoles ont une démarche précise : ils mettent en place des activités plus orientées vers le questionnement des élèves, et s’appuient sur l’expérimentation. Ils font élaborer par les élèves des hypothèses qui sont ensuite vérifiées au sein de groupes sur des sujets du quotidien : la croissance des plantes, la mesure de la vitesse du vent, les méthodes et la problématique de la construction d’un véhicule. Chaque enfant consigne ses expériences dans un cahier.

Leur objectif est de promouvoir une démarche d’investigation et de stimuler la créativité, la rigueur scientifique et l’esprit critique. Cette démarche d’investigation consiste à partir d’un problème exposé par un élève, à partir duquel les élèves élaborent des hypothèses qui sont testées par expérimentation. Les résultats de différents groupes sont confrontés. Cette approche est celle du chercheur. Elle peut du reste être utilisée dans plusieurs domaines, au-delà des sciences. Elle permet plus tard une meilleure compréhension des enjeux des sciences et des innovations, de leurs limites et de leurs forces.

L’Académie des sciences a insisté pour que cette action porte sur l’école primaire, car c’est le moment où l’enfant est le plus créatif, le plus curieux, le plus réceptif. C’est le moment où il est particulièrement important de développer le travail de groupe, le sens de l’argumentation et le sens critique et d’aborder des questions de société.

Cette préoccupation rejoint les travaux d’un groupe de l’OCDE, le CERI, sur l’association entre innovation technologique et innovation pédagogique. Dans une enquête internationale – Réflexe – qui a concerné 70 000 diplômés de l’enseignement supérieur ayant eu leur diplôme cinq ans auparavant , ce groupe a dressé une liste de compétences qui se distinguaient le plus par rapport à leur formation, mais qui étaient nécessaires à leur activité : l’aptitude à la coordination d’activités ou du travail des autres, l’esprit critique, la créativité, l’esprit alerte pour saisir de nouvelles opportunités, l’aptitude de présenter des idées en public, compétences qui ne peuvent pas vraiment résulter d’un enseignement transmissif.

Il y a plus de quinze ans, une expérience pilote a démarré avec 300 classes, puis 600, puis 5000. En l’an 2000, le ministère de l’éducation a voulu généraliser ce type d’approche et couvrir l’ensemble du territoire. Cette généralisation est inscrite dans les programmes de 2002, puis de 2008 et 2009. Elle est inscrite maintenant dans la loi dans le socle commun de connaissances et de compétences. Mais faute de moyens, seuls quelques pourcents des 350 000 classes primaires en France sont touchées actuellement.

Le coût consolidé de l’ensemble des opérations menées par La Main à la Pâte s’élève actuellement à un million d’euros.

Les actions mises en œuvre dépassent les interventions dans les écoles. Elles comprennent l’identification des documents existants, mais aussi la publication de documents pédagogiques originaux et de DVD. Elles ont notamment été à l’origine d’une collection d’une dizaine de livres sur l’histoire des sciences, en montrant les controverses et les tâtonnements. Ces livres sont publiés sur Internet gratuitement et sont traduits.

Au-delà de ce travail de documentation et d’édition, La Main à la Pâte qui se veut un laboratoire d’idées, crée surtout un lien entre l’école et la communauté scientifique et ses laboratoires, qui n’existait pas auparavant.

La Main à la Pâte a plus de 200 modules d’activité. Elle travaille notamment sur les risques majeurs et les risques naturels, et sur les comportements à avoir face à ces risques. Elle touche ainsi 20 000 classes. Elle propose des séquences clé en main pour l’enseignant, d’une dizaine d’heures.

Elle travaille aussi sur le réchauffement climatique, sur les volcans, les tsunamis et sur les addictions à l’écran, en s’intéressant aux effets sur l’attention et la mémorisation, mais ne le fait pas encore sur les OGM et sur le génie génétique, ce qui est probablement un manque.

Dans l’un de ses programmes en école primaire, repris par le ministère de l’Education nationale, des étudiants en sciences ou des retraités viennent dans les classes sur une période de 7 ou 8 semaines. Il en découle une coopération entre l’enseignant et un scientifique, et au bout de quelques années une autonomie de l’enseignant. Cette expérience qui porte le nom d’ASTEP (Accompagnement sciences et technologies à l’école primaire) concerne 2000 classes.

Une expérience semblable est menée par des ingénieurs de Michelin qui interviennent régulièrement dans les classes pour leur montrer les défis à résoudre par l’industrie automobile. Des élèves ont ainsi été amenés à construire un prototype et à le tester sur les pistes de l’entreprise. Ils se sont posés les questions que se posent les ingénieurs de façon certes plus élaborée. Cela permet de démystifier les sciences et de les penser autrement.

La Main à la Pâte a également pour objectif de motiver les enseignants pour dépasser une simple transmission, par des expériences et des vérifications, pour développer rigueur scientifique et sens critique. C’est pourquoi elle s’intéresse à leur formation, tant initiale que continue. Elle déplore à ce titre la baisse des crédits consacrés à l’éducation continue y compris pour déplacer les enseignants, en s’appuyant sur un rapport de l’Académie des sciences de 2010 sur la formation continue en sciences et technologies dans le primaire et les collèges.

Elle préconise aussi de mettre en place des maisons pour la science et la technologie dans les régions puis dans les départements, en les plaçant au sein des universités. Ces maisons auraient pour objectif de faire de la formation continue des enseignants du primaire et du collège en sciences et mathématiques, de faire évoluer le contenu des apprentissages, et de travailler sur les zones d’éducation prioritaire qui ont le plus de besoins. Elle a déposé un projet en ce sens dans le cadre des investissements d’avenir.

Toutes les universités contactées ont répondu positivement. La Main à la Pâte les aide à créer des unités d’enseignement qui permettent aux étudiants impliqués de valoriser leur cursus en leur dispensant une formation adaptée. L’objectif est de toucher plus d’un quart des enseignants sur cinq ans en primaire et en collèges. Il s’inspire d’un programme anglais, les Science Learning Centers cofinancé par le gouvernement et des entreprises privées.

Les expériences européennes montrent que ce type d’activité change le rapport aux sciences : les élèves ont davantage confiance dans les sciences et les activités scientifiques.

Elle a des partenariats avec l’ADEME, ce qui permet de diffuser un module dans 20 000 classes sur deux ans, en présentant une séquence clé en main pour l’enseignant. Elle essaie de développer les rencontres « Graines de Science » entre scientifiques et enseignants qui ont eux aussi des peurs et des craintes. Ces rencontres qui se déroulent sur 4 à 5 jours, permettent de démystifier un certain nombre de questions.

Des rencontres avec les instituteurs, plus courtes et qui rassemblent souvent 350 personnes, ont permis d’atteindre plusieurs dizaines de milliers d’enseignants. Elles montrent souvent que la science est perçue comme inabordable, car elle est devenue trop difficile.

La Main à la Pâte est aujourd’hui confrontée à plusieurs types de questions :

- Peut-on aborder les sujets polémiques ? Le réchauffement climatique en est un exemple. La Main à la Pâte estime qu’elle peut fournir des données objectives sur 100 ans, mais qu’elle doit rester ancrée sur l’expérience. Elle aborde par contre les controverses historiques, comme celle sur les théories de la vision, qui font écho aux questions d’enfants.

- Faut-il développer le sens de la controverse ? Ce peut être intéressant, car il est très important de pouvoir relativiser ce que l’on lit ou ce que l’on voit à la télévision ou sur Internet et ce qu’on entend à la radio. Mais il faut trouver la manière d’intervenir tout en restant accessibles aux enfants.

Faut-il apprendre le doute aux enfants ? En effet, ils vivent dans une société qui doute, dans une société où l’on dit : tout est relatif ; à chacun sa vérité.

L’académicien Yves Quéré, que nous avons entendu, a souligné que ce n’est pas toujours le cas. Il y a aussi des vérités objectives, comme la molécule. Il est pour lui préférable de ne pas immerger trop vite les enfants dans le doute scientifique. Il vaut mieux apprendre aux enfants à raisonner, à discuter ensemble, à faire des hypothèses, à faire travailler leur imagination en toute liberté, à être modeste et à être réactif face à des évènements tels que le tsunami.

- Faut-il aborder la question des rapports bénéfices-risques d’une technologie dès l’école primaire ? Pour La Main à la Pâte, il convient d’être plus modeste. Il s’agit d’apprendre à l’enfant à raisonner, à séparer les paramètres, à construire des hypothèses, à expérimenter avec leurs mains si on le peut. Il faut par contre rajouter au tryptique « lire, écrire, compter », le mot raisonner. Cela concerne tous les domaines.

2. La formation et la sensibilisation des enseignants : l’action d’IFFO-RME

Comme l’a indiqué Mme Sylvette Pierron lors d’une audition des rapporteurs, IFFO-RME a pour mode d’action de former des personnes qui de par leurs métiers peuvent être amenés à leur tour à véhiculer cette formation/prévention/information. Cette association fait de la prévention dans les établissements scolaires, pour éviter des rumeurs, les paniques. Elle travaille sur l’information en amont, auprès des formateurs.

IFFO-RME ne forme donc pas directement les enfants mais des personnes en contact avec les enfants, des personnes ressources, ce qui permet, en ne formant qu’une personne, de toucher plusieurs dizaines de jeunes. Ces personnes ressources sont susceptibles de redéployer ces formations, et de véhiculer ses messages. Son action est facilitée par l’existence dans chaque académie d’un plan de formation destiné aux professeurs et au personnel, même si la formation à la compréhension des risques et leur mise en perspective n’est généralement pas considérée comme une priorité.

55% à 65% de ses membres travaillent dans l’éducation nationale où ils sont chefs d’établissement, professeurs, infirmières. Les autres sont des professionnels de la prévention des risques (et notamment des pompiers), tous bénévoles sauf pour le bureau national ou il y a 3 salariés. Son budget annuel est de l’ordre de 400 000 euros, provenant de subventions de différents ministères (surtout du ministère de l’environnement), des collectivités territoriales et de grands partenaires comme Radio France.

Sa tâche est donc de contribuer à la prévention des risques par l’éducation, la pédagogie et l’exercice.

Elle produit des outils pédagogiques ludo-éducatifs, en présentant les connaissances souhaitables, mais aussi des questions qui portent sur le positionnement par rapport à un évènement quelconque. Les thèmes abordés sont actuels : le transport de matériaux dangereux, les effets des tremblements de terre, les risques industriels et technologiques. Elle construit actuellement avec La Main à la Pâte un recueil de propos scientifiques, afin de valoriser l’enseignement des sciences et des métiers dans l’éducation. Plusieurs métiers sont concernés : ceux de la prévention et de la prévision, qui utilisent la modélisation et la quantification.
IFFO-RME fait partie d’un groupe de travail interdisciplinaire et inter-ministériel avec des partenariats avec des gestionnaires de crises, des experts scientifiques, afin de créer des supports pédagogiques et d’apporter une formation aux enseignants pour qu’ils puissent mieux en tirer parti.

Ce processus éducatif ne se contente pas de simplement de livrer de l’information, mais l’accompagne, ce qui apporte une valeur ajoutée par rapport à l’information disponible sur Internet.

Le cas d’AZF permet de montrer l’utilité d’une telle formation : dans 90 établissements proches d’AZF, il y avait eu une formation au plan SESAM d’organisation « des secours dans un établissement scolaire face à l’accident majeur ». Ce plan qui permettait de regrouper les élèves et enseignants en panique a été mis en œuvre lors de l’accident. Les proviseurs et professeurs ont bien réagi, mais les parents à qui on avait demandé de rester chez eux, se sont précipités pour aller chercher leurs enfants.

La prévention permet d’éviter de telles réactions. Elle permet aux citoyens de mieux cerner les risques et de les comprendre et d’avoir des peurs à la hauteur du danger.

IFFO-RME travaille aussi sur les pollutions chroniques, sur le Plan de protection de l’atmosphère (PPA), et, en classes de troisième et seconde, sur la pollution de l’air, le tabac, les gaz de mobylettes, ainsi que les risques liés aux transports.

Elle utilise les jeux de rôle qui obligent les participants à revenir sur leurs positions personnelles concernant tel ou tel domaine, et permettent de mieux intégrer les problématiques. Elle emploie des scénarios préfabriqués, portés localement par le responsable académique et par l’enseignant de son réseau.

A titre d’exemple, un jeu sur la pollution des voitures va conduire dans un premier temps à dire «il faut moins de voitures», mais dans un deuxième temps à s’interroger sur les ressources en pétrole, le type de transport, le type de voyage... IFFO-RME confronte un besoin de société, le quotidien et une réponse technologique. Son objectif est de permettre des nuances, une approche plus mesurée et réfléchie, et l’avènement d’autres thématiques qui peuvent être liées à l’innovation.

Paradoxalement, son action est davantage soutenue par le ministère de l’environnement que par celui de l’éducation nationale.

3. Universcience y contribue également

Le rôle et les activités d’Universcience ont été présentés lors de l’audition publique du 12 octobre 2011 par Joël de Rosnay, docteur ès Sciences, conseiller de la présidente d’Universcience.

« Bâtir une culture des sciences et de l’innovation est le travail quotidien d’Universcience, établissement né de la fusion de la Cité des sciences et de l’industrie, et du Palais de la découverte. Fort de notre expérience avec les jeunes, 50 % de nos 3,5 millions de visiteurs par an ayant moins de vingt-cinq ans, je veux vous présenter cinq points généraux.

En premier lieu, je veux apporter une nuance aux notions de culture et d’innovation, nuance qui prend sa source dans ces discussions. En France, on le sait tous, la science ne fait pas partie de la culture générale. Par ailleurs, on emploie souvent à tort la notion de culture scientifique et technique, notion intraduisible en anglais. Aux Etats-Unis, on parle de scientific literacy. Etre un lettré scientifique, c’est « être au courant de, être capable de s’exprimer dans ». La scientific literacy est une notion très différente de celle de culture scientifique et technique, qui renvoie à la transmission de culture. En France, on distingue la culture des cultivés et celle des spécialistes. La première est celle des gens qui savent des petits riens sur un peu tout ; la seconde, celle de gens qui savent tout sur de petits riens.

A Universcience, nous entendons la culture comme un ciment qui réunit les éléments épars d’un monde disjoint par les médias et notre formation analytique et disciplinaire. Comment donc créer ce ciment pour susciter l’éveil et la motivation ? Au passage, la notion d’innovation n’est pas compréhensible pour les jeunes si on ne la replace pas dans une chaîne linéaire, mais aussi matricielle. Les jeunes comprennent la découverte. Celle-ci conduit, via un brevet, à une invention. L’innovation, elle, désigne le prototype sociétal ou technologique, c’est-à-dire la traduction de la découverte et de l’invention dans un monde matériel qui résiste. L’innovation est donc bien en-deçà de la découverte ou de l’invention, ce système étant matriciel car il y a de relatives constantes entre plusieurs éléments.

En deuxième lieu, quel type de formation faut-il pour susciter l’éveil à l’innovation ? L’enseignement français, mais aussi européen, est beaucoup trop théorique, disciplinaire et analytique. J’ai été chercheur et enseignant au MIT, où j’ai participé au programme USSP – Unified Science Study Program – qui permettait aux nouveaux étudiants d’être confrontés à des innovations remarquables pour susciter leur motivation. Il n’y avait pas de laboratoires traditionnels, mais des DriveLab pour la physique, l’électronique ou les mathématiques, et des Wet Lab pour la chimie et la biologie. Pas de disciplines, donc. Les jeunes étudiants apprenaient les maths, la physique et la chimie dans un livre de biologie écrit par Jerry Zacharias et Joseph Walsh, Systemic biology, un classique, où l’on apprenait la dynamique des fluides avec la circulation sanguine, la résistance des matériaux avec les os, l’information avec le système nerveux. Le livre était pratique et théorique.

Bref, la formation doit être moins théorique, moins disciplinaire et moins analytique.

En troisième lieu, comment et où ? Par une approche pluridisciplinaire et systémique par groupes. On a parlé de multidisciplinarité et de transdisciplinarité, de pluridisciplinarité et d’interdisciplinarité. Je crains pour ma part qu’on entende par ces notions du juxtadisciplinaire, raison pour laquelle je prône le codisciplinaire, intégratif et collaboratif, notion qui implique une interrelation et le réseau. Pour former les gens à l’innovation, je prône donc le codisciplinaire, le systémique – la cybernétique des systèmes complexes – le travail en groupe, la formation par la recherche et à la recherche. J’y ajoute la nécessité d’un accompagnement, par des groupes projets, avec des objectifs clairs, un design, des groupes accompagnés par des incubateurs, des pépinières, des pôles d’excellence et des technopôles.

En France, dans trois lieux différents, j’ai pratiqué les incubateurs, dispositifs qui permettent de donner à des jeunes la possibilité de susciter des idées et de les partager, puis de se diriger vers la création d’une petite entreprise, via des pépinières, qui apportera des financements, une assistance logistique, de juristes et de secrétaires, dans un technopôle, qui permet l’échange d’informations.

En quatrième lieu, quelle est la position d’Universcience, pôle de référence nationale, en matière d’innovation ? Nous sommes pour une innovation ouverte et responsable. Nous ne nous considérons pas comme des diffuseurs de culture scientifique et technique, mais comme des catalyseurs d’éveil, de motivation et d’innovation. Nous sommes des passeurs plutôt que des pasteurs. Il s’agit pour nous de créer les conditions catalytiques de l’éveil, de la motivation et de l’innovation. Pour cela, nous avons créé un observatoire de l’innovation, une tech-galerie, qui expose toutes les innovations de ces dernières années, un carrefour numérique, une cité des métiers, une bibliothèque extrêmement fournie, un site web et, surtout, un centre de ressources, un laboratoire pratique, un laboratoire avec imprimantes en 3 D et des scanners à disposition des visiteurs, pour qu’ils puissent comprendre l’innovation, mais aussi la faire.

Nous avons donc mis en place un dispositif interdépendant de moyens qui doivent nous permettre de catalyser l’éveil, la motivation des jeunes et l’innovation.

En cinquième lieu, une innovation pédagogique s’impose. Celle-ci n’est pas suffisamment reconnue alors qu’elle existe : les professeurs la font au quotidien. Ils ont été les premiers à utiliser un micro-ordinateur dans les classes. Or on ne les a pas suffisamment suivis, alors que l’innovation pédagogique est valorisée chez nos voisins. En relation avec les industriels, ces pays laissent la parole aux jeunes. Ils sont considérés comme des partenaires créatifs et innovants de la pédagogie. A Universcience, nous les faisons ainsi collaborer à de serious games, des jeux sérieux, où l’on s’amuse et l’on apprend.

Nous avons lancé des journaux, Agora Vox, Natura Vox, Sport Vox, et, au début de l’année, Educa Vox, qui compte déjà des dizaines de milliers de participants, et qui fait une grande place à l’innovation pédagogique.

Les réseaux sociaux doivent être enfin plus utilisés pour le partage de savoir-faire et de l’innovation pédagogique, de manière à susciter ce grand courant de motivation et d’innovation.

En conclusion, la catalyse de la culture scientifique et technique est fondamentale pour Universcience. Comprendre, vouloir, aimer, construire l’avenir plutôt que le subir : tels sont nos mots-clés ».

II. LA PERCEPTION DE L’INNOVATION PAR LA POPULATION

Le génie de l’homme repose à égalité sur deux dimensions : raison et émotion. La peur, perception du risque, correspond ainsi à la face émotionnelle du cerveau, toute aussi respectable que la raison, mais plus difficile à canaliser. La gestion des peurs est des plus complexes, car elle implique souvent de connaître d’abord ses bases culturelles. Elle repose également sur la crédibilité de la communication et du communiquant.

C’est cette peur que le scientifique et le politique doivent décortiquer : est-elle fondée ? Correspond-elle au niveau de risque réel ?

Si oui, quel est ce niveau de risque réel ? Est-il acceptable au regard d’une balance bénéfice-risque objective ? Est-il acceptable au niveau individuel comme à l’échelon collectif ?

Si non, quelle est la cause de ce décalage ? Quelles sont les informations, ou sources d’information, mises en avant ?

Des questions transverses peuvent se poser : le risque lié à une innovation ou à un changement est-il perçu de la même manière par les différentes générations ?

A. PERCEPTION DE L’INNOVATION ET PÉRIMÈTRE DES RISQUES

Le risque est une notion aujourd'hui très courante. C'est un concept devenu générique, employé dans tous les domaines, accolé de tous les adjectifs imaginables : risque écologique, technologique, urbain, sanitaire, alimentaire, routier, domestique, risque majeur ou diffus, mais aussi population à risque, facteur de risque, conduite à risque, quartier à risque…

Le risque est une exposition à un danger potentiel. Il ne constitue pas en soi un danger. Il est possible, sur le plan scientifique, de démontrer l’existence d’un danger, mais en revanche, il est presque impossible de prouver l’absence d’un risque. Une substance, un événement peut être très dangereux, mais si sa probabilité d’occurrence est quasiment nulle, le risque est très faible. Le risque est donc le produit de la probabilité d’existence d’un événement par la gravité des conséquences induites par celui-ci. La perception que nous avons d’un risque est souvent celle du danger maximum, sans tenir compte du facteur de probabilité, et nous préférons souvent dénoncer un scénario catastrophe très improbable, sous-estimant des scénarios moins graves a priori, mais plus probables.

Depuis quelques années, le risque a suscité de nombreuses vocations, il est devenu le carburant de nouvelles professions, de nouveaux experts, dont certains tentent de comprendre pourquoi le public nourrit des peurs, par exemple à l'égard de l'industrie nucléaire civile ou des organismes génétiquement modifiés.

1. Risques naturels ou artificiels : ce que l’innovation résout, et ce qu’elle complique

Les sociétés contemporaines sont caractérisées par la prééminence des « risques manufacturés », c'est-à-dire créés par l'homme, et qui ont supplanté les risques naturels (famines, inondations…). Ces risques technologiques ou écologiques posent problème non seulement aux gouvernements, mais aussi à chaque citoyen.

L'une des déclinaisons contemporaines de la notion de risque renvoie en effet à la « risquophobie » grandissante du public, notamment en France et en Europe, de plus en plus hostile à l’entrepreneuriat, aux innovations technologiques, et même à la science.

2. Une innovation est-elle toujours plus risquée qu’une technologie bien rodée ?

De par son activité même, l'entrepreneur qui innove perturbe son environnement, et le fait basculer dans un monde différent, autre, dans un mouvement mondial de compétition l'obligeant sans cesse à réaliser ce travail de déstabilisation, de perturbation.

Une technologie éprouvée est généralement perçue comme dénuée de risque. En effet, chacun considère qu’il a pu vivre avec sans subir trop de problèmes, et que par conséquent, la balance bénéfice-risque étant connue, elle est à privilégier sur la balance bénéfice-risque incertaine d’une innovation.

Ce mode de pensée est confirmé par de nombreux paradoxes entrant en contradiction avec des principes fondateurs de la théorie de la décision. En effet, si l’élément généralement pris en compte par les décideurs et les scientifiques dans leurs décisions est le risque, ce n’est pas le seul élément déterminant pour le citoyen, dont les connaissances sont, par définition, moindres que celles de l’expert dans son domaine de compétence.

L’aversion à l’incertitude joue en effet un rôle majeur dans la prise de décision, et la réponse à la question de cette sous-partie est donc difficilement possible. En réalité, une innovation est souvent perçue comme plus risquée car les éléments qui la composent sont moins bien connus.

Cette méconnaissance engendre de l’incertitude, et l’Homme, à choisir entre un certain niveau de risque et un certain niveau d’incertitude, se détourne généralement de l’incertitude, comme le montre le paradoxe d’Ellsberg.

Le paradoxe d’Ellsberg

Le paradoxe d’Ellsberg est un phénomène issu de la théorie de la décision. En effet, il permet de montrer assez simplement que, face à un choix comportant risque et incertitude, l’esprit humain tend à écarter l’incertitude.

Le paradoxe émerge car, dans le cas particulier proposé par M. Daniel Ellsberg, les options retenues par l’individu écartent les situations incertaines, mais sont exclusives l’une de l’autre, donc incohérentes. Voici ce paradoxe :

Soit une urne contenant 90 boules dont :

- 30 boules de couleur rouge ;

- 60 boules dont x de couleur noire et y de couleur jaune.

Deux tirages indépendants sont proposés. Dans le premier tirage, il faut faire le choix entre l’une des deux options suivantes :

A. vous gagnez 100 euros si une boule de couleur rouge est tirée

B. vous gagnez 100 euros si une boule de couleur noire est tirée

Ensuite, dans la même configuration, un deuxième tirage est proposé :

C. vous gagnez 100 euros si une boule de couleur rouge ou si une boule de couleur jaune est tirée

D. vous gagnez 100 euros si une boule de couleur noire ou si une boule de couleur jaune est tirée

Ainsi, pour le A, le nombre de boules rouges (30) est connu.

Pour le B, le nombre de boules noires (x) est inconnu.

Pour le C, le nombre de boules rouges est connu (30) mais le nombre de boules jaunes (y) est inconnu.

Pour le D, le nombre de boules noires et jaunes est connu (60).

L’expérience menée par M. Ellsberg montre que l’écrasante majorité des personnes sondées choisiront A et D, c'est-à-dire qu’ils choisiront les tirages liés aux probabilités certaines. Pourtant, ces deux choix sont incohérents.

En effet, le choix de l’option A suppose qu’il y a plus de boules rouges que de boules noires dans l’urne, et donc qu’il y a plus de 30 boules rouges et moins de 30 boules noires. Donc il y a plus de boules rouges que de boules noires.

A contrario, le choix du pari D implique que l’on considère qu’il y a plus de boules noires que de boules rouges.

Ainsi, les deux fois, la décision est portée sur le choix où une probabilité est connue, et les choix incertains sont écartés.

3. Concilier risque individuel et risque collectif

La question du risque se pose également vis-à-vis de la prise de risque. En effet, l’attitude des individus vis-à-vis du risque dépend grandement de leur volonté consciente d’avoir pris ce risque, ou, au contraire, du fait qu’ils le subissent passivement.

Le cas de la cigarette est pour le moins frappant. Il n’est pas rare de voir des parents s’inquiéter de produits potentiellement cancérigènes (ou dénoncés comme cancérigènes) dans la nourriture de leurs enfants tout en fumant dans la même pièce qu’eux.

Mais en plus, la personne a le sentiment de subir un risque qu’elle ne contrôle pas, alors qu’elle contrôle celui lié à la cigarette.

La situation est la même en voiture ou en avion : les gens n’ont pas peur de prendre leur voiture pour aller au travail car ils sont maîtres de leur destin. Par contre, dans l’avion, ils ne maitrisent plus rien : le pilote est-il qualifié ? La météo permet-elle le vol ? La maintenance de l’avion a-t-elle été correctement effectuée ?

Toutes ces distinctions montrent ainsi qu’à nouveau, le distinguo entre risque et incertitude est la clé. Subir un risque, c’est ne pas le maitriser complètement, et donc ne pas avoir tous les éléments pour le juger convenablement ; il apparait donc plus flou qu’un risque que l’on décide soit même de prendre ; il est donc refusé a priori.

B. LA NÉCESSITÉ D’UNE APPROCHE INTERGÉNÉRATIONNELLE

Pour les jeunes de la « génération Y », le risque choisi – par exemple fumer, consommer de la drogue, rouler à grande vitesse, … – n’est pas un risque.

Dès lors que ce sont eux qui décident si une pratique est dangereuse ou non – la tribu joue un rôle essentiel dans l’appréciation du risque –, il n’y a pas, selon eux, risque.

Il en va tout autrement du risque subi, éventuellement invisible comme la radioactivité, les ondes électromagnétiques, les OGM, les nanoparticules ou peut-être un jour la biologie de synthèse, en quelque sorte imposé par la société.

1. Les jeunes face aux innovations et aux risques

Au cours de l’étude, en plus du questionnaire sur les docteurs qui a été conduit électroniquement, nous avons souhaité aborder la question intergénérationnelle de manière concrète et participative.

a. Méthodologie

Ainsi, nous avons fait parvenir à un peu plus de 200 lycéens de classes de première, en Lorraine et en Haute-Savoie, un questionnaire (disponible en annexe) les interrogeant sur leur perception de l’innovation, des peurs et des risques.

La première partie du questionnaire consistait en une étude qualitative, composée de dix questions sur l’innovation, de douze questions sur les risques et les peurs et de huit questions sur les liens entre innovation, peurs et risques. Les réponses étaient libres, et les lycéens ont généralement été très enthousiastes en écrivant plusieurs lignes de réponse pour chaque question.

La seconde partie du questionnaire consistait en une liste de risques qu’il était demandé de classer selon une échelle, de 1 pour le moins grave à 21 pour le plus grave, ou de noter.

Après avoir dépouillé les résultats, nous sommes allés ensemble dans nos deux circonscriptions, à la rencontre de ces jeunes lycéens, pour leur présenter leurs résultats en en discuter avec eux.

En parallèle, nous avons fait parvenir ce questionnaire à des étudiants en deuxième année à l’Institut d’études politiques de Paris du cours de Jean-Yves
Le Déaut, ainsi qu’à des membres de l’Institut de maîtrise des risques (IMdR), spécialistes de ces questions.

L’échantillon est trop faible pour que l’on puisse parler de sondage, mais la forte corrélation dans les réponses des lycéens de Lorraine et de Haute-Savoie et leur décalage avec les réponses des spécialistes du risque est un indicateur intéressant.

b. Quelques résultats

Voici quelques résultats de cette enquête ; quelques résultats sous forme de graphiques sont disponibles en annexe, et l’ensemble des données sont accessibles sur le DVD-Rom ou sur le site de l’OPECST.

A la question « Quelles innovations marqueront les vingt ou quarante prochaines années ? », les personnes interrogées ont répondu qu’elles concerneraient essentiellement le domaine des énergies vertes et des transports.

A la question « Que signifie pour vous le risque zéro ? », un consensus entre les générations s’est fait jour pour considérer que le risque zéro n’existe pas mais qu’il faut tout faire pour s’en approcher.

A la question « Vivez-vous dans une société plus risquée que celle de vos grands-parents ? », les lycéens ont répondu que la société actuelle étant plus technologique, avec davantage d’innovations, elle était donc plus risquée.

On note particulièrement le lien étroit établi par les jeunes entre technologie et risque. Les spécialistes de l’IMdR ont, quant à eux, insisté sur le fait qu’on communique aujourd’hui davantage sur les risques mais qu’il n’y en a pas plus qu’auparavant – pour certains, il y en aurait même moins, comme en témoigne l’allongement de l’espérance de vie.

On a donc là une différence de perception importante sur la perception du niveau de risque de la société actuelle par des personnes de générations différentes.

A la question « La créativité et l’inventivité sont-elles assez sollicitées à l’école ? », tous les lycéens ont répondu non, précisant « surtout après le collège » – les enseignements de musique et d’arts plastiques disparaissent au lycée. Les TPE (travaux personnels encadrés) sont, quant à eux, plébiscités, notamment car il s’agit d’un travail en groupe, souvent interdisciplinaire, et que les élèves se sentent porteurs d’un projet.

A la question « Quelles innovations vous font peur ? », une réponse récurrente chez les lycéens a été : la robotique. Ils ont également cité les innovations trop rapides en matière médicale, donnant l’exemple des vaccins, sans doute en lien avec la campagne de vaccination contre le virus A(H1N1). Les spécialistes de l’IMdR ont, quant à eux, fait part de leurs craintes face à la génétique et aux innovations questionnant l’éthique.

A la question « En qui avez-vous confiance pour vous informer sur les risques ? », la réponse majoritaire a été : les scientifiques et les experts. Les agences officielles ou les représentants politiques ne sont que très peu cités, même pas du tout chez les lycéens de Haute-Savoie.

2. Prospective : comment envisager le monde dans 30 ans ou 50 ans ?

Depuis les années 1970, les controverses et discussions publiques sur les questions technoscientifiques se sont considérablement développées. La sphère publique joue désormais un rôle important dans la légitimation des projets technoscientifiques.

a. Comment l’envisageait-on en 1970 ?

Ces évolutions politiques et sociales ont été rythmées par la publication de trois ouvrages marquants : La technique, ou l’enjeu du siècle de Jacques Ellul, au titre évocateur ; La prophétie antinucléaire d’Alain Touraine, dans les années soixante-dix, livre dans lequel l’auteur montre comment se cristallise, autour de la question nucléaire, la fabrique de la société ; La société du risque d’Ulrich Beck, en 1986.

Les questions technoscientifiques donnaient ainsi lieu à des batailles d’idées, portant sur la définition de ce qui fait enjeu dans les différents projets.

b. Comment les jeunes voient leur avenir ?

Les jeunes que nous avons pu rencontrer en circonscription étaient extrêmement sensibilisés à la question du réchauffement climatique, et aux nouvelles sources d’énergie.

En Lorraine et en Haute-Savoie, ils ont tous pu mener des projets sur ces thèmes, que ce soit en parlant directement des mécanismes ou des conséquences du réchauffement climatique, que de la nécessaire transition énergétique vers des énergies non carbonées.

Ainsi, les principales innovations à venir pour la quasi-totalité des jeunes interrogés auront lieu dans le domaine environnemental (énergies décarbonnées, voiture propre, …).

C. VERS UNE ÉCHELLE OU UNE MATRICE DES RISQUES PERÇUS

Il existe depuis une quarantaine d’années d’importants travaux en sciences sociales sur la perception du risque et le public understanding of science, dont il faut tenir compte si l’on veut aborder sérieusement ces questions.

1. Le baromètre IRSN

Le Baromètre sur la perception des risques et de la sécurité est publié par l’Institut de radioprotection et de sûreté nucléaire (IRSN).

Parmi les sujets de préoccupations majeures des Français, les risques économiques – le chômage pour 41 % des personnes interrogées, la misère et l’exclusion pour 35 % – devancent toujours les risques environnementaux et technologiques – la dégradation de l’environnement pour 21 %, les bouleversements climatiques pour 17 %, les risques alimentaires pour 4 %. S’agissant des situations à risque, les OGM se situent au 19e rang sur 32, loin derrière le tabagisme des jeunes, la drogue et la pollution atmosphérique.

En revanche, seuls 13 % des Français estiment qu’on leur dit la vérité sur les dangers que représentent les OGM pour la population – ce qui place ceux-ci en queue de classement, avec les nanoparticules, les antennes de réseaux pour la téléphonie mobile et les déchets radioactifs – et 19 % ont confiance dans les autorités pour assurer leur protection dans ce domaine. L’explication la plus convaincante est qu’il s’agit d’une famille de risque où l’exposition n’est pas volontaire : on a ipso facto une relation de défiance potentielle envers les institutions chargées de contrôler le risque.

L’échelle des risques a donc comme intérêt de mesurer le risque perçu et non le risque avéré, dans la mesure où il est possible de le déterminer.

2. L’échelle des risques mesurée par notre questionnaire

Les résultats du baromètre IRSN correspondent peu ou prou à ceux de notre propre enquête, qui portait sur un panel bien plus petit et donc qui ne peut être qualifiée de sondage.

Pourtant interrogés avant Fukushima, les lycéens considéraient déjà le risque d’accident nucléaire comme le risque majeur alors que les experts de l’IMdR et les étudiants de Sciences Po le tenaient, eux, pour faible. Il y a là une nette divergence alors qu’il existe une convergence par exemple sur le risque perçu du réchauffement climatique.

Tous considèrent le risque présenté par les OGM comme très faible. Les lycéens ne sont pas non plus inquiets pour les risques présentés par les ondes électromagnétiques ou les nanotechnologies. Sur ces trois thèmes, qui font pourtant régulièrement l’actualité, les lycéens de Haute-Savoie et de Lorraine sont d’accord.

En revanche, les spécialistes et les jeunes ne s’accordent pas sur les risques des manipulations génétiques. De même, les questions éthiques soulevées par la possibilité de disposer d’organes de rechange inquiètent les premiers, pas les seconds.

Les questions démographiques avec le vieillissement de la population mobilisent beaucoup les étudiants de Sciences Po alors que les lycéens, comme les experts de l’IMdR, perçoivent ce risque comme moyen.

Il y a ainsi une divergence d’appréciation sur les sujets comme la démographie, l’éthique, les manipulations génétiques, l’accident nucléaire et même l’accident industriel – les jeunes sont beaucoup plus sensibles à ces derniers que les spécialistes de l’IMdR.

S’agissant du stockage des déchets radioactifs, que celui-ci soit effectué en couche géologique profonde ou dans des conditions nulles de sécurité, les lycéens placent les deux mêmes niveaux de risque, alors que les étudiants de Sciences Po et les spécialistes de l’IMdR établissent une distinction nette.

On peut possiblement en déduire que, pour les lycéens, ce sont véritablement le mot « nucléaire » ou « radioactif » qui importent, et non les conditions dans lesquelles l’activité est menée.

D. L’IMPORTANCE DE LA COMMUNICATION SCIENTIFIQUE

Pénétrer le monde scientifique ou dans le monde de l’innovation est complexe. Il faut identifier la personne capable de représenter une thèse, puis, quand on se rend dans un laboratoire pour l’interroger, pouvoir résumer son travail en vingt secondes, dans le cas de la télévision ou de la radio, d’une conversation passionnante qui aura duré deux heures. La télévision est un média de masse, et elle contraint inévitablement à faire court : pour reprendre un propos adressé un jour à l’un de vos rapporteurs, dans journaliste, il y a « jour ».

C’est ce que nous constatons à l’Office : en voulant traiter de sujets sur le long terme, nous nous privons d’un certain nombre de médias, même ceux qui sont les plus proches du Parlement, qui ne considèrent pas qu’il soit possible de suivre un sujet sérieux sur une année entière.

La presse est un média plus élitiste, qui touche moins de personnes, et qui pourrait permettre un traitement plus approfondi des sujets et des controverses. Toutefois, dans la presse à grand tirage, confrontée à des problèmes financiers et des réductions d’effectifs, les journalistes scientifiques ont presque disparu au profit de journalistes multicasquettes pouvant écrire sur tous les sujets, de la transgénèse à la finance haute fréquence (ordres passés à la milliseconde), des problèmes de main d’œuvre dans le BTP à la critique d’un nouvel opéra musical.

1. La formation et le statut des journalistes

Pour les étudiants en journalisme, le seul enjeu scientifique est la vulgarisation. Dès qu’un débat devient complexe, les gens zappent, ce qui impose au journaliste de faire un travail considérable pour présenter les problèmes scientifiques ou technologiques.

Pour le producteur comme pour le téléspectateur de la société de masse, la science est rébarbative, c’est un sujet difficile qui ne cadre pas bien avec le très élégant concept de « temps de cerveau disponible ».

Les sujets scientifiques sont aussi complexes pour le journaliste, qui doit assimiler d’épais dossiers. Dans une rédaction, un seul journaliste est généralement chargé de toute la rubrique « Sciences » ou « Nouvelles technologies ». Elle recouvre des domaines extrêmement pointus, dont il ne peut connaître tous les aspects, alors même que, du jour au lendemain, il doit être capable de résumer en moins de trois minutes une information très précise.

Le plus simple est de transmettre une information qui concerne directement les citoyens, comme tout ce qui relève d’Internet ou de l’informatique. L’auditeur auquel on annonce une nouvelle application iPhone tend immédiatement l’oreille. L’intéresser aux nanotechnologies demande plus d’effort.

M. Frédéric Dupuis nous a expliqué en audition publique que dans l’émission Capital, Emmanuel Chain racontait des histoires à travers des personnages, ce qui supposait non seulement de trouver des gens susceptibles d’incarner un problème, mais aussi de faire comprendre aux téléspectateurs que leur histoire les concernait. C’est un exercice très difficile dans le domaine scientifique, mais c’est une méthode qui permet de garder l’attention du public.

Si, quand on donne un calcul mathématique à résoudre à un élève de troisième, on ne lui explique pas à quoi cela pourra lui servir plus tard, et qu’on ne lui cite pas quelques exemples, il risque de trouver la matière aride. Le rejet est tentant. C’est pour cela que ceux qui défendent une thèse éloignée de la science et qui fait écho aux peurs de chacun communiquent toujours très facilement.

Quoi de plus facile que de filmer un faucheur volontaire en train de saccager des plans d’OGM ou de tenir des propos enflammés qui donneront lieu à des réactions et seront repris par l’AFP ?

2. Les médias : diffusion des peurs ou informations sur les risques ?

Nombre d’émissions de vulgarisation scientifique, généralement destinées aux jeunes, fonctionnent très bien pourvu que la science soit mise en scène, c’est-à-dire présentée de manière simple et agréable.

Trop souvent, les relations entre les médias et la technologie se soldent par un gâchis. Quand un journaliste, faute d’envie ou de temps, renonce à lire 300 pages d’un dossier compliqué, l’information ne circule pas. Autre écueil : chaque fois qu’il est donné de la science une image austère, sinon ésotérique, le fossé se creuse entre ceux qui la connaissent et les autres.

Désormais, les sujets d’investigation connaissent une suite sur Internet, sur les blogs, forums et réseaux sociaux, ce qui crée une vie de l’information. C’est particulièrement vrai pour les grands formats, qui présentent beaucoup d’histoires.

Leur diffusion donne lieu à quantité de réactions, notamment sur Twitter, tandis qu’en amont, les journalistes ont annoncé leur sujet sur Facebook et que les sociétés de production ou les chaînes ont projeté des images en avant-première sur Dailymotion.

Les réactions, qui montent en puissance sur les tweets et les blogs, ne sont pas canalisées. Le débat échappe au journaliste, qui n’est plus en mesure de faire des mises au point. L’information est livrée à tout le monde, et tout le monde s’improvise journaliste.

C’est un des problèmes de l’hypercommunication : tout se vaut, sans pouvoir distinguer le meilleur du pire.

Le rôle de la télévision, si étrange que cela paraisse, est non d’informer, mais de sensibiliser le public à l’information, à charge pour lui, s’il s’y intéresse, de lire les journaux, d’acheter des livres, de rencontrer des gens ou d’assister aux débats.

III. LES RÉPONSES AUX PEURS EXPRIMÉES PAR LA SOCIÉTÉ

Dans la partie précédente, nous avons étudié le cas de figure où le risque est connu, et il était possible de statuer sur le décalage entre la peur, perception de ce risque par la population, et le risque objectivement mesuré. Dans ce cas, la réponse est la prévention.

Mais si le risque est indéterminé, on est, comme le dit Edgar Morin, dans le domaine « du risque du risque ». Ainsi, est-il possible de prendre des décisions ? Sur quels éléments se baser ? Peut-on faire des calculs subjectifs pour un risque pris collectivement ?

Comment se place le principe de précaution dans ce cadre ?

A. L’INNOVATION AU TRAVERS DU PRISME « PRINCIPE DE PRÉCAUTION »

Le mot « risque » lui-même est devenu polysémique puisqu’il désigne à la fois un risque objectif – la probabilité des dommages est connue, les techniques d’évaluation des risques s’appliquent sans problème – et un risque subjectif – les dommages peuvent être connus mais nous n’avons aucune idée de leur probabilité.

Dans ce dernier cas, les techniques d’évaluation des risques ne s’appliquent plus, sauf si l’on adopte une conception subjective des probabilités, que l’on considère alors comme un simple degré de croyance, pour pouvoir prendre la décision la plus éclairée possible.

1. L’attitude du public face à l’incertain : la recherche du « risque zéro » ?

Il ressort de notre questionnaire, des études que nous avons pu lire sur le sujet, et des entretiens qu’il nous a été donné de mener, que le public a conscience que le risque zéro n’existe pas.

En réalité, il semble que la question ne se pose pas en ses termes. Avant de parler de « risque zéro », il faut en effet s’assurer que les définitions sont les mêmes chez la personne qui pose la question et celle qui y répond.

Chacun s’accorde que le « risque zéro » mesuré objectivement est inatteignable. D’ailleurs, cette compréhension de l’impossibilité de s’affranchir de tous risques a franchi plus que la barrière de la compréhension puisqu’elle a également été formalisée dans le langage population sous le nom de loi de Murphy :

«  S'il y a plus d'une façon de faire quelque chose, et que l'une d'elles conduit à un désastre, alors quelqu'un le fera de cette façon ».

Toutefois, il est indéniable que la frilosité ambiante face aux innovations relève pour partie d’une peur de la prise de risques, même minime.

Deux raisons peuvent expliquer cette attitude :

- Tout d’abord, le confort dans les pays développés, tel que le nôtre, implique que le public ne s’intéresse plus uniquement au risque, mais à la balance bénéfice-risque, qu’il calcule inconsciemment. Dans un environnement aussi policé que le nôtre, nul doute que la balance bénéfice-risque d’une innovation doit pencher fortement du coté des bénéfices pour que celle-ci soit acceptée.

Ainsi, les consommateurs ne voient pas d’avantage aux OGM, mais simplement une innovation qui remplace leur produit « bien rodé », pour reprendre le vocabulaire de la sous-partie précédente. Si l’on veut bien prendre des risques pour se soigner, on n’accepte pas d’en prendre pour manger.

A contrario, peu de gens délaissent leurs téléphones portables à cause de déclarations, non prouvées scientifiquement, de risques majeurs liés aux ondes électromagnétiques.

- Le concept même de « risque zéro » est dénué de sens quand il se base sur un calcul objectif. Les individus raisonnent suivant une conception bayésienne des probabilités, conception qui n’est malheureusement plus enseignée à l’école, et évaluent les probabilités subjectivement. L’approche bayésienne permet en effet de combiner des éléments objectifs avec des éléments subjectifs, des avis d’experts ou de personnes considérées subjectivement comme tel, pour faire évoluer cette probabilité en un degré de croyance.

L’esprit humain est-il bayésien ?

L’approche bayésienne des probabilités considère que la « plausibilité » d’une hypothèse est fonction du nombre de preuves qui jouent en sa faveur, et du poids que l’on attribue à chacune, contrairement à l’approche classique, ou « fréquentiste », qui se base sur des séries longues d’observations et de données statistiques.

Ainsi, il ne s’agit pas uniquement de preuves expérimentales déjà obtenues, mais aussi de probabilités de preuves, d’avis d’experts, de connaissances par l’expérience personnelle, auxquels on attribue une valeur de façon subjective.

Alors que normalement une preuve ou un contre exemple permet de faire définitivement pencher la balance dans un sens ou dans l’autre, dans ce cas, on cherche surtout à accroître la plausibilité d’une hypothèse, par l’accumulation d’éléments. Plus l’hypothèse dispose d’éléments en sa faveur, plus elle sera considérée comme plausible ; et elle ne sera pas rejetée même si un certain nombre de personnes ou d’éléments la contredisent.

Or, face à une innovation, donc face une technologie comportant plus de paramètres incertains qu’une technologie éprouvée, une place plus importante est donnée aux éléments subjectifs.

Ainsi, la nouvelle frontière n’est pas de se prémunir du risque, mais de l’incertitude.

2. Evaluation du risque et précaution

Nous avons souhaité reprendre ici une partie de l’intervention de Mme Christine Noiville, juriste, directrice du Centre de recherche en droit des sciences et des techniques, Présidente du Comité économique, éthique et social du Haut Conseil des biotechnologies, et membre du comité de pilotage, qui a dressé un état des lieux clair et précis de la jurisprudence actuelle du principe de précaution, c'est-à-dire son application effective, ainsi que ses prises de position.

Dans un deuxième temps, nous présenterons notre propre perception du principe de précaution au regard de son application actuelle.

a. L’intervention de Mme Christine Noiville

L’intervention lors de l’audition publique du 26 mai de Mme Christine Noiville a porté sur le principe de précaution et ses effets sur le processus d’innovation : contribue-t-il à stériliser ce processus ? Est-il un facteur d’immobilisme ?

En voici les principaux éléments :

« La question s’est en effet posée dès que le principe de précaution a été inscrit en droit international, communautaire et interne. En effet, il constitue un retournement de logique : traditionnellement, le principe de la liberté d’entreprise conduisait à attendre, pour réagir et prendre des mesures, qu’un dommage survienne, à tout le moins que le produit développé – ou l’activité menée – se révèle risqué pour l’environnement et la santé.

Le principe de précaution impose l’idée inverse : il consiste à ne pas attendre qu’un produit – ou une activité – se révèle dangereux pour l’environnement ou la santé, pour prendre des mesures.

Il est faux de dire que le principe de précaution conduit mécaniquement ou par essence à des dispositifs ultrasécuritaires empêchant l'innovation. Le problème réside plutôt dans un manque de clarté des contours de ce principe, qui conduit à en faire le plus souvent des applications émotionnelles ou politiques – dans le mauvais sens du terme. Il faut dépasser ce manque de clarté en donnant le « mode d'emploi » du principe de précaution, comme le propose Philippe Tourtelier dans son rapport, en déterminant presque scolairement les conditions exactes de sa mise en œuvre ».

Une bonne trame de ce mode d’emploi se trouve dans la jurisprudence de ces dix ou quinze dernières années, au niveau français comme au niveau communautaire.

« Cette jurisprudence est, sinon foisonnante, du moins très riche : des dizaines et des dizaines de décisions indiquent de plus en plus précisément ce qu’est, ou n’est pas, le principe de précaution, ce qu’il oblige les autorités publiques et les entreprises à faire, ou à ne pas faire.

À de rares exceptions près – les affaires d’antennes relais de téléphonie mobile, il y a deux ou trois ans –, cette jurisprudence est assez équilibrée, mesurée et apte à articuler ces deux enjeux majeurs que sont l’innovation d’un côté, et la protection de l’environnement et de la santé de l’autre.

Elle repose sur trois grands points.

Premier point : le principe de précaution est d'abord un principe d'évaluation. Il est nécessairement adossé à une démarche scientifique et, plus précisément, à une évaluation du risque. Même si l’on s’interroge sur la sécurité d'un produit, soit parce qu'il est issu d'une technologie nouvelle, soit parce qu’on a reçu des signaux d’alerte, il n’est pas question de se précipiter pour le retirer du marché.

Le Conseil constitutionnel, lors de l'examen de la loi OGM, a été très clair : le principe de précaution ne suppose pas d'interdire les OGM, mais d'en organiser scrupuleusement l'évaluation. De fait, dans leur très grande majorité, les juges accordent beaucoup d’importance à la façon dont cette évaluation a été menée. Ils vérifient qu'elle n’a pas été qu’un alibi, qu’elle prend en compte l'ensemble des thèses disponibles, y compris les thèses minoritaires, qu'elle est rigoureuse, suffisamment détaillée et indépendante – à cet égard, le Conseil d’État a rendu deux arrêts importants sur les conflits d'intérêts dans le domaine de l’expertise.

Appliqué comme un principe d'évaluation, le principe de précaution ne se traduit pas par moins de science, mais par davantage de science, et, potentiellement, par l’émergence de nouvelles voies de recherche et d'innovation.

Deuxième point : exiger davantage d’évaluation scientifique est une chose, mais va-t-on jusqu’à demander au chercheur ou à l’industriel de prouver l’absence de risque pour mettre son produit sur le marché ou pour l’y maintenir ? La très grande majorité des tribunaux a pu éviter cet écueil. D’abord, un certain nombre d’entre eux – dont la Cour de justice de l’Union européenne – rappelle implicitement mais régulièrement que le risque zéro n’existe pas. Ensuite et surtout, pour retirer le produit du marché ou pour l’empêcher d’y accéder, il ne suffit pas d’une simple angoisse ou d’une élucubration : il faut non seulement que le risque redouté soit grave – grave « et irréversible », précise la Charte de l’environnement –, mais aussi que l’évaluation ait confirmé des indices de risque « suffisamment convaincants ». Ces dernières années, faute d’indices suffisamment convaincants, de nombreuses mesures de précaution ont été déclarées illégales par les tribunaux. Les exemples abondent, qu’il s’agisse des OGM, de l’alimentation – l’exploitation d’une source d’eau minérale il y a quelques mois – ou du bracelet électronique.

Troisième point : quand l’évaluation aboutit à des résultats suffisamment concluants, quelle mesure de précaution prendre ? D’après le juge, ce ne sera pas automatiquement une mesure drastique.

La mesure de précaution doit respecter le principe de proportionnalité. Cela signifie d’abord que la mesure doit être provisoire et donc révisable. On peut certes retirer pendant un certain temps un produit du marché, mais pour un temps seulement, cette mesure de retrait devant être accompagnée d’évaluations destinées à en savoir davantage sur le risque redouté, et éventuellement à rectifier le tir si nécessaire. Cela signifie ensuite que le décideur peut – et dans certains cas, doit – ne pas s’obnubiler sur le risque redouté et mettre en balance les avantages et les inconvénients qu’il y a à courir ce risque. C’est ce qui ressort d’un arrêt rendu il y a quelques années par la Cour de justice à propos d’un médicament que la Commission européenne souhaitait retirer du marché parce qu’un nouveau risque, qui n’avait pas été identifié au moment de l’AMM, était apparu. Il n’en reste pas moins que cet arrêt pose une règle de bon sens, selon laquelle le principe de précaution n’affranchit pas de la nécessité de mettre en regard les uns des autres les risques d’un côté, et les bénéfices de l’autre.

En France, plusieurs cours d’appel ont indiqué que « la notion de précaution doit être intégrée dans une analyse globale d’opportunité ». Il faut donc replacer le risque dans son contexte général et se poser la question de savoir s’il faut le prévenir à tout prix, ou s’il peut y avoir un intérêt à le courir.

En somme, selon la jurisprudence, l’interdiction est loin d’être la seule modalité de mise en œuvre du principe de précaution. Parfois, ce sera la seule option acceptable ou possible. Toutefois, elle n’est pas mécaniquement et obligatoirement dictée par le principe de précaution.

Reste que ce principe de précaution, s’il n’est pas en lui-même un facteur de blocage, peut le devenir, sous l’effet de décisions de décideurs publics ou privés qui, angoissés à l’idée de voir leur responsabilité engagée ultérieurement, en font un principe ultrasécuritaire. Un tel argument mérite de ne pas être balayé. Pour autant, la jurisprudence relative à la responsabilité ne contient que peu de décisions de nature à conduire à un tel blocage. Les tribunaux insistent surtout sur la nécessité pour les décideurs de faire preuve d’une vigilance renforcée et ne retiennent pas systématiquement de responsabilité, par exemple lorsque le produit s’avère dommageable alors même qu’il était impossible de le savoir au moment où il a été mis sur le marché.

Jusqu’à présent, le principe de précaution a très peu bouleversé les conditions d’engagement de la responsabilité, notamment civile, pour les entreprises. La Cour de cassation a même affirmé dans un arrêt que le principe de précaution ne remettait pas en cause les règles selon lesquelles celui qui demande l’indemnisation d’un dommage doit prouver le lien de causalité entre ce dommage et un fait générateur. Il s’agissait, en l’occurrence, d’un GAEC qui se plaignait des conséquences d’une ligne à très haute tension sur la santé de son élevage.

Pour l’essentiel, la jurisprudence s’est construite sur deux maîtres mots : rigueur scientifique, mais pas exigence de risque zéro ; posture d’action plutôt que d’abstention. »

Il paraît ainsi très important à Mme Noiville d’établir aujourd’hui un mode d’emploi, à partir du travail fait par la jurisprudence dominante et patiemment élaboré depuis une dizaine ou une quinzaine d’années. Ce ne sera évidemment pas une solution toute faite qui permettra de résoudre l’ensemble des problèmes auxquels on se heurte en la matière. Ce principe ne doit pas être brandi comme une arme, comme une « ressource politique » par l’administration pour se protéger, ou par les associations pour fragiliser l’action de l’administration et celle des entreprises.

b. Précaution, attrition, et raison : quel mode d’emploi ?

Mme Christine Noiville considère ainsi que  le principe de précaution en lui-même est relativement peu cadré et nécessite un mode d’emploi pour sa mise en application, mais que la jurisprudence est relativement bien faite et permet d’en définir un cadre plus précis : les juges, au delà de la 1ere instance qui a connu quelques ratés, sont raisonnables et comprennent que le principe de précaution ne doit pas être un principe d’inaction totale.

Durant ces auditions, nous avons également entendu Joël de Rosnay, qui a exposé un principe qu’il défend : celui de l’attrition. Ce principe d’attrition, c’est d’intégrer en amont l’éventualité d’une perte irréversible de choses ou de personnes. L’attrition, c’est le taux acceptable de pertes, qu’il s’agisse de pertes matérielles (objets, équipements, ressources, revenus, etc), immatérielles (liberté, clients, relations, pouvoir, langue, croyances, nation, convictions, illusions, etc) et humaines (individus).

Donc nous avons d’un coté un principe de précaution qui dresse un Etat protecteur, et de l’autre une sorte de laissez-faire, où l’Etat a un rôle pédagogue vis-à-vis de l’absence de risque zéro, et obtient l’acceptabilité par les citoyens des risques et des pertes qui leur sont irrémédiablement associées.

Existe-t-il un juste milieu ? Le principe de précaution, même si la jurisprudence est pour l’instant relativement acceptable, n’a-t-il pas un impact négatif sur notre état d’esprit : l’entrepreneur ou le scientifique ne peuvent rien faire par peur d’un procès, le citoyen exige d’être protégé de tout, et comprend le principe de précaution comme un principe universel à appliquer dans tous les domaines sans exception ?

Le principe d’attrition est à notre sens trop éloigné du modèle français d’un Etat présent et interventionniste, dont l’un des rôles est de protéger le citoyen contre les risques. Il est en quelque sorte « libertarien » en proposant à l’individu d’assumer seul les conséquences de l’innovation.

Ainsi, il convient de définir par la loi un mode d'emploi qui permette de pallier à ces inconvénients et de faire du principe de précaution un principe de dernier recours, dans le cas d'un manque flagrant d'expertise, tant à l'échelon national qu'international, et  l'impossibilité d'obtenir une évaluation objective du niveau risque.

3. La prise de décision en situation d’incertitude

Chaque jour, les dirigeants sont amenés à prendre des dizaines de décision La plupart de celles-ci sont prises facilement, le plus souvent automatiquement, lorsque la balance bénéfice-risque est évidente.

Néanmoins, dans bien d'autres cas, la bonne décision à prendre n'est pas immédiate lorsque l'efficacité d’une mesure n’est pas clairement établie, qu’une incertitude persiste sur l’un des paramètres de la décision, ou sur les risques associés à un produit.

L'éventail des choix possibles implique des arbitrages significatifs entre des objectifs contradictoires. En pareil cas, les avis des experts sont souvent divergents, il n’existe pas de données statistiques sur lesquelles il est possible de se reposer pour obtenir une évaluation fiable ; il devient alors difficile d’obtenir une démarche à suivre. L’exploitation d’informations divergentes a fait, on s’en doute, l’objet d’une vaste littérature.

Prendre une décision lorsqu’il y a dissensus entre les experts est délicat : la méthode usuellement préconisée, bayésienne, consiste à se forger son opinion propre à partir des rapports des experts, en attribuant à chaque argument un poids subjectif, combinant ces avis par accumulation selon une méthodologie claire et précise.

B. LES DÉBATS AU SEIN DE LA SOCIÉTÉ CIVILE

La société civile se pose de nombreuses questions quant au bien-fondé de certaines innovations. Ces interrogations sont importantes, et il convient d’y répondre, par exemple par la mise en place de comités d’éthique ou par une meilleure organisation du débat public.

1. Ethique de l’innovation

Les questions éthiques sont traitées par des comités d’éthique qui réunissent experts et citoyens, mais aussi leaders d’opinions et personnalités de la société civile.

La question éthique se pose au même titre que celle du progrès : l’innovation n’est possible que si elle a du sens, et ce sens est dépendant de l’éthique du public, et donc de sa culture.

Dans l’innovation de produit, le choix éthique trouve une nouvelle importance : d’une part car de plus en plus d’innovations touchent à des questions sensibles, d’ordre religieux ou philosophiques, comme par exemple les cellules souches ou la biologie de synthèse. D’autre part dans le contenu des innovations, car l'innovation de rupture consiste à créer de nouveaux produits pour des besoins qui ne sont pas encore révélés, de sorte qu’une telle innovation engage forcément un débat sur le sens de l’innovation.

Dans les innovations de processus, l'innovation ne peut se contenter des organisations cloisonnées et nécessite confiance et créativité. Ce jeu nouveau suppose de nouvelles règles, qui, si elles ne sont pas respectées, conduisent à l'échec. Ce respect des règles, de règles claires et admises, relève également de l’éthique.

2. Le rôle du débat public

En matière de débat public, il y a eu trois grandes étapes. La circulaire Bianco de 1992 a d’abord prévu d’organiser des réunions d’information du public avant la réalisation de tout grand projet d’infrastructure. Puis, la loi Barnier de 1995 a imposé de mesurer les impacts économiques, sociaux et environnementaux dans la région concernée. Enfin, la loi Gayssot de 2002 a étendu le champ du débat public aux options générales.

Le débat public ne se limite pas aux réunions publiques : même si certaines d’entre elles ont fait l’objet de boycotts et de manifestations, le public a pu s’exprimer par d’autres voies, notamment par l’intermédiaire d’avis transmis sur le site Internet de la Commission nationale du débat public, de cahiers d’acteurs et d’autres contributions.

Par ailleurs, on ne peut débattre que de ce que l’on connaît. Si l’on voulait que les questions soient posées de façon sériée, il aurait fallu plus de temps pour réaliser le travail d’information préalable. Compte tenu des conditions d’organisation, le débat organisé par la Commission nationale du débat public a d’abord servi à expliquer ce qu’étaient les nanotechnologies et à permettre au grand public de prendre conscience des enjeux.

Il faut respecter un certain nombre de règles, relatives notamment à la transparence de l’information et au contenu du dossier du maître d’ouvrage ; dans notre société de l’hyper-communication, quand quelque chose est caché, on s’en aperçoit très vite : l’intérêt du maître d’ouvrage est de réaliser le dossier le plus complet et le plus transparent possible.

Il ne faut accepter que des opinions argumentées : se contenter d’affirmer que l’on est « pour » ou « contre » le nucléaire ne fait pas avancer le débat !

Le débat public a besoin des médias, car, pour qu’il s’engage bien, il faut que l’information soit la plus complète possible et que les enjeux soient clairement posés. De surcroît, les médias sont devenus un acteur à part entière du débat ; lors du débat sur le projet de réseau de transport du Grand Paris, ils ont ainsi relayé rapidement et efficacement la demande de la majorité des intervenants : à savoir, qu’il fallait, avant de songer à développer un nouveau réseau de transports, commencer par rénover le réseau existant.

Son rôle est de clarifier le sujet et de veiller à ce que des opinions argumentées s’expriment, autant que possible dans le calme.

Veillons à ne pas confondre le débat public et le public qui tient son débat. Pour que certaines personnes entrent dans le débat public, il faut essayer de les intéresser, de les sensibiliser, ce qui suppose de se mettre à leur niveau scientifique ou à leur niveau de loisir. On doit s’adapter à elles. À quoi bon poser les bonnes questions si nul ne les entend ?


3. Education, citoyens, et organisation du débat public

La question posée aujourd’hui au regard de l’opposition à certaines innovations est celle de l’évolution de la démocratie et de son fonctionnement.

En effet, l’élévation globale du niveau d’éducation au lieu de diminuer la nécessité d’explication et de débat public a sans doute l’effet contraire ; les citoyens, étant plus compétents et mieux informés, veulent participer plus et sans doute plus en amont qu’avant.

Cette participation a lieu dans différentes arènes. Elle peut avoir lieu lors des débats publics organisés par la Commission nationale du débat public, instance qui permet d'assurer que les questions légitimes obtiennent des réponses précises. Toutefois, ce cadre, bien qu'indépendant, est souvent vu comme trop institutionnel et comme un lieu d’affrontement entre partisans et adversaires d’une technologie.

Elle peut également avoir lieu au travers de Conférences de Citoyens, qui se proposent de former un panel aux questions techniques puis de leur demander de formuler l'avis le plus éclairé possible. L’objectif est ainsi de permettre à un panel de citoyens profanes de dialoguer avec des experts et de s’exprimer sur des problématiques scientifiques et technologiques pour lesquelles il existe d’importantes incertitudes et divergences d’opinion. Après une formation préparatoire, sur deux ou trois week-ends, menée par des scientifiques, le panel de citoyens débat publiquement avec des représentants du monde politique, économiques, associatifs et avec des experts. A l’issue de cette conférence, qui dure en moyenne quatre jours, le panel de citoyens rédige à huis-clos un rapport contenant leurs avis et recommandations, qui est ensuite rendu public et remis aux instances politiques.

Le débat public est un ensemble d’échanges, de confrontations, de discussions, dans différentes arènes, sous diverses formes ; il existe, ou non, dans la société, mais il ne se décrète pas – même si l’on peut prendre des initiatives pour l’organiser.

On souligne les enjeux et l’importance des nanotechnologies, les possibilités nouvelles qui sont offertes, on présente les grands programmes de recherche et les pôles de compétitivité, mais, en même temps, on soutient que cela ne donne pas matière à débat. Avec les OGM aussi, on avait commencé par tenir, dans les années 1980, un discours de rupture, avant d’en changer : dès que le débat commence à s’échauffer, on prétend que l’évolution technoscientifique s’inscrit dans la continuité et qu’il faut envisager les choses au cas par cas. Ce discours est voué à l’échec ; ce qui importe, dans la bataille des idées, c’est la cohérence.

Le débat public a une histoire. Jean-Yves Le Déaut en a été l’un des principaux acteurs, en tant qu’organisateur de la « Conférence des citoyens sur les OGM », qui fut, en 1998, la première initiative en France de débat public impliquant les citoyens. Il ne faut pas restreindre notre expérience au seul débat sur les nanotechnologies organisé par la CNDP. La Conférence de 1998 étant un acte de sensibilisation du public : elle n’était pas une fin en soi, devant clore un processus, mais un élément contribuant à enrichir le débat public, entendu de façon plus large.

Certains furent sévères à son propos, avant la restitution finale. Tout le monde a ensuite salué cette initiative. Avec le recul, ce qui est frappant, c’est la pertinence des questions abordées et l’importance des initiatives qui en ont découlé. Les quatorze profanes se sont réellement appropriés ce sujet. Un certain nombre d’acteurs ont compris, dès 1998, que la diffusion des OGM dans la société devait passer par la coexistence des cultures, par l’information du public et par le libre choix ; à la suite de la Conférence a été mis en place un très intéressant programme de recherches associant l’INRA, les associations de consommateurs et la grande distribution. C’est, en partie, grâce à cela que l’on dispose aujourd’hui d’outils sur la coexistence des cultures. Quant à la théorie des « deux cercles de l’expertise » (scientifique et sociétale), elle a été mise en pratique avec la création du Haut conseil des biotechnologies.

Par contre, la Conférence n’a pas modifié les attitudes ; au contraire, elle a durci les positions. Un an après, a eu lieu la « bataille de la Villette » : une grande conférence réunissant 1 000 personnes s’est achevée par un affrontement direct, avec bombardements d’œufs pourris – réponse de certains « écoguerriers » à la Conférence des citoyens, qu’ils considéraient comme un outil de manipulation de l’opinion publique. A chaque fois, le débat suscite le débat sur le débat, l’enjeu étant de savoir si celui-ci est légitime.

Pour conclure, il ne faut pas pour autant renoncer, car il est important de prendre des initiatives de débat public. Pour ce faire, il convient cependant d’avoir à l’esprit qu’il n’existe pas une seule forme de débat public, mais plusieurs : un échange interdisciplinaire entre scientifiques ou la présente audition relèvent aussi du débat public. Ensuite, le débat public est un processus dynamique, qui doit se dérouler de manière continue, en ayant une bonne appréhension des phases successives et des dispositifs utilisés ; il doit intégrer une dimension d’apprentissage et de retour d’expérience. Enfin, il nécessite des supports institutionnels, sur l’exemple du Danish Board of Technology (DBT), au Danemark, où une série de dispositifs, incluant des échanges entre experts, permettent d’alimenter un débat public vivant sur ces questions difficiles. Ce type de débat a pour rôle d’élargir, par le relais de la communication grand public, la discussion entre citoyens et experts.

Cette participation des citoyens peut également avoir lieu au sein de comités d'instance spécialisés qui s'ouvrent ainsi de plus en plus à la société civile, comme au sein du Haut conseil des biotechnologies. Le comité scientifique y est accompagné d'un Comité économique éthique et social de 26 membres représentant les différentes parties prenantes : syndicats, associations, etc.

Dans tous les cas, le citoyen formule des exigences strictes en termes d'indépendance et de transparence des informations qui sont mises à sa disposition. Il convient probablement de faire plus de pédagogie sur la notion d'indépendance des experts : en effet, il est rare qu'un expert reconnu internationalement comme compétent n'ait jamais eu aucun lien avec le monde économique et industriel, et il est rare qu'un chercheur n'ayant jamais eu un tel lien soit un expert internationalement reconnu. Ainsi, la transparence sur les liens actuels et passés est primordiale, et l'existence de liens antérieurs entre un scientifique et un industriel ne doit pas être la raison unique  pour écarter l'avis d'un expert.

IV. LA PEUR DE CERTAINES INNOVATIONS ET LA MONTÉE D’UN NOUVEL OBSCURANTISME

Certaines innovations technologiques font l’objet d’âpres débats dans la société, par exemple les OGM, les nanotechnologies, les questions énergétiques, ou les innovations médicales. Si les questions soulevées sont souvent légitimes, beaucoup de peurs, parfois irrationnelles, sont exprimées et amplifiées par les médias. Ainsi, il nous a paru opportun d’analyser ces quatre thématiques pour en faire un état des lieux et identifier les points de blocage ou les voies de consensus.

A. LES QUESTIONS ÉNERGÉTIQUES

Les questions énergétiques sont fondamentales car elles structurent une part importante de l’outil économique et productif d’un pays. Ainsi, la France a fait le choix de l’énergie nucléaire. Dans le contexte post-Fukushima, beaucoup se sont empressés de demander une sortie totale du nucléaire. Il semble toutefois possible de tracer une voie plus raisonnée et plus raisonnable, qui intègre les technologies nouvelles au fur et à mesure de leur maturation technologique, tout en ne fermant pas la voie à des innovations de rupture dans le domaine des technologies de stockage.

1. Peut-on établir une balance bénéfice-risque de l’énergie nucléaire ?

Sur la question de l’énergie nucléaire, le débat est souvent passionné.

Pourtant, une fois l’état des lieux actuels posé, très peu de choix s’offrent à nous, et ceux-ci ont été traités dans le cadre de la mission sur la « Sûreté nucléaire, la place et l’avenir de la filière ».

Dans ce rapport, après une description des priorités stratégiques et des contraintes, une trajectoire raisonnée est proposée.

pecst.jpg

Celle-ci combine de nombreux avantages :

- Une diminution significative de la production d’origine nucléaire d’ici 2050, qui permet d’accroitre notre sécurité énergétique en renforçant la diversification de notre production électrique, et ce afin d’éviter le « syndrome japonais », qui nous ferait perdre 80 % de nos capacités de production.

- Le non remplacement d’un réacteur sur deux, et donc le passage de 58 à 29 réacteurs, au profit d’EPR, renforcerait globalement la sûreté par une réduction du nombre de sites et des réacteurs plus sûrs. Une planification du même type est appliquée pour la génération IV à l’horizon 2050-2100.

- Le maintien de la filière nucléaire française et de son savoir-faire industriel (dont la filière de combustible MOX, qui permet d’assurer une partie de notre indépendance énergétique), permet de conserver de la crédibilité pour l'exportation.

- Une utilisation optimale des énergies renouvelables par une entrée en service progressive et raisonnée, selon leur maturation technologique, est suffisamment souple pour s’ouvrir aux « bonnes nouvelles » telle qu’une innovation de rupture sur les technologies de stockage.

- Une exploitation à terme des capacités électronucléaires en base et non plus en suivi de charge, utilisation qui est plus naturelle pour cet outil.

- La conservation de notre indépendance énergétique par le maintien d’une part nucléaire, sans recours supplémentaire aux énergies fossiles (par exemple gaz russe ou aux centrales à gaz allemandes).

- Une fourniture d’électricité suffisante et « de qualité » pour l’industrie électrointensive et de précision (nombre et durée des microcoupures,…)

- La prise en compte de la contrainte climatique (CO2).

- La prise en compte de la contrainte économique du coût de l’électricité, que ce soit pour le particulier (précarité énergétique) ou pour les entreprises (faillites et délocalisations).

2. Les freins à l’innovation dans le domaine des économies d’énergie

Si tout le monde s’accorde pour dire que la priorité réside dans les économies d’énergies, certains organismes publics semblent très peu enclins à voir se développer dans notre pays des innovations pourtant absolument nécessaires pour une performance réelle.

Nous reprenons ici certains éléments du rapport sur l’avenir de la filière nucléaire, qui évoque ces questions :

« L’impression qui ressort des auditions conduites à l’occasion de l’élaboration du rapport de décembre 2009, puis des débats autour des dispositions concernant le bâtiment dans la loi « Grenelle 2 » au printemps 2010, mais aussi des échanges informels du président Claude Birraux avec des professionnels du bâtiment dans le cadre du suivi de l’étude, laisse planer un doute sur la bonne volonté de l’appareil administratif en charge du secteur (DHUP, CSTB, Ademe) à basculer dans une logique de mesure de performance a posteriori, qui va de pair avec une ouverture aux évolutions technologiques, en laissant aux professionnels du secteur, sous leur pleine responsabilité, assortie au besoin de sanctions comme cela a été évoqué lors de la discussion du « Grenelle 2 », le choix des combinaisons techniques les plus adaptées aux situations considérées.

Un dispositif organisé autour d’obligations de moyens présente pourtant l’inconvénient évident de déresponsabiliser à la fois les prescripteurs réglementaires et les maîtres d’œuvre, qui peuvent ainsi se « renvoyer la balle » au-dessus du client final, qui n’aura plus qu’à constater que son logement n’a rien à voir avec les annonces répétées, de colloque en colloque, sur les grandes avancées de la Réglementation thématique (RT) 2012.

La Direction de l'habitat, de l'urbanisme et des paysages (DHUP) a encore manifesté son mauvais gré lors de l’audition du 3 novembre 2011 en ne traitant pas directement le sujet sur laquelle elle avait été pourtant très directement sollicitée par courrier du Président de l’OPECST à Madame la ministre de l’écologie : il a fallu en passer par un long préalable de cadrage sur la RT 2012 avant d’en arriver succinctement, faute de temps, à la présentation demandée des deux dispositifs clefs dans l’intégration des nouvelles technologies du bâtiment : d’une part, leur prise en compte au niveau du moteur de calcul réglementaire, au terme de la procédure dite du « Titre V » ; d’autre part, la formulation des « avis techniques ».

Au passage, la consultation de « groupes d’experts » a été soulignée, implicitement présentée comme un gage de transparence dans l’élaboration des dispositifs mis en place.

Trois prescriptions relatives respectivement au besoin bioclimatique (Bbio), qui rend compte de la performance énergétique intrinsèque du bâti, puis à l’exigence de consommation maximale d’énergie primaire par mètre carré et par an (Cep), enfin à l’exigence de confort d’été (Tic, température atteinte au cours d’une séquence de cinq jours chauds) ont été présentées comme des exigences de résultat alors que ces trois grandeurs seront calculées à partir du fameux « moteur réglementaire », sans qu’aucune obligation de mesure ne soit prévue à la livraison du bâtiment.

Il convient de noter un commentaire contradictoire expliquant d’un côté que la réglementation thermique 2012 implique en pratique une limitation à 15 kWh par mètre carré et par an pour le chauffage dans les maisons individuelles, ce qui est une contrainte équivalente à celle imposée aux maisons passives, et de l’autre, qu’une ventilation « simple flux » Hydro B sera bien suffisante dans les nouvelles constructions. Or, une ventilation « simple flux » suppose l’existence d’une aération naturelle pour la sortie de l’air, c’est à dire en pratique des trous d’étanchéité, ce qui laisse subsister un doute sur la similitude avec une maison passive, dont l’étanchéité poussée impose le recours à une ventilation « double flux ».

On retrouve le schéma d’une image prometteuse qui risque de ne pas tenir à l’expérience. Les interventions suivantes et les discussions ont permis d’évoquer les différentes barrières mises à l’intégration des technologies par le dispositif en place : les biais de performance dans la prise en compte par le moteur de calcul réglementaire ; les différentiels de vitesse d’obtention des « avis techniques » (qui doivent du reste être réitérés une fois la RT 2012 en vigueur) ; l’obstacle automatique à la délivrance d’assurance en l’absence d’avis technique; la formulation en critères trop spécifiques de la performance requise pour le déclenchement des aides fiscales.

Les jours qui ont suivi l’audition publique ont montré un autre mécanisme d’entrave possible : la publication d’un numéro des « Avis de l’Ademe » sur un produit dont le directeur technique de BM Trada, autorité de certification britannique reconnue au niveau européen, avait confirmé en réunion le niveau de performance équivalent à un produit de référence, sur la base de mesures in situ, alors que cette équivalence lui avait été refusée jusque là en France sur la base de mesures sur banc.

Comme l’a précisé Mme Brigitte Vu, Ingénieur en efficacité énergétique des bâtiments, au cours de l’audition, le seul objectif de résultat assorti d’une mesure obligatoire prévu par la RT 2012 concerne l’étanchéité à l’air du bâti, point certes crucial, mais sans que des tests soient imposés en cours de chantier. Comme l’étude de l’Office sur la performance énergétique dans le bâtiment de décembre 2009 l’avait évoqué, cela induit le risque d’une stratégie du « fait accompli » de la part du maître d’œuvre au moment de la livraison, au détriment de la performance réelle du bâtiment.

La prise en compte de la performance en termes d’émissions de CO2, telle qu’elle a été préconisée par cette même étude, dans le but d’équilibrer les contraintes énergétiques et climatiques, et ainsi d’inciter au développement des technologies, se limitera à l’affichage d’une estimation, au motif d’une absence de consensus scientifique sur la possibilité d’une mesure, dont on sait qu’elle renvoie au faux débat sur les émissions « marginales », déjà évoquées18.

Toutes ces observations alimentent le pessimisme de vos rapporteurs quant à la volonté de l’administration compétente (DHUP, CSTB, Ademe) d’orienter l’effort de performance énergétique vers l’obtention de résultats mesurés.

Vos rapporteurs pensent que la rénovation énergétique des bâtiments est un axe majeur des économies d’énergie possible d’ici 2050 ; mais ils s’inquiètent des conditions de la mise en œuvre des mesures prises en ce sens.

L’attitude de fermeture de l’appareil administratif concerné est peut-être liée à une insuffisance de ressources face à un nombre de tâches qui s’est accru. Mais cette attitude accrédite l’impression d’une protection jalouse d’un monopole, appelant à des réformes de structure.

La dimension stratégique de l’effort à conduire sur l’efficacité énergétique des bâtiments, qui met en jeu 43 % de la consommation d’énergie primaire de notre pays, justifie qu’il soit piloté par une institution bénéficiant d’un statut lui assurant une compétence et une transparence incontestables.

En l’occurrence, la révolution numérique dans les télécommunications a donné l’exemple historique d’une adaptation nationale réussie grâce à une évolution pertinente de la structure de régulation : la création de l’Autorité de régulation des télécommunications (ART) en 1996, devenue Autorité de régulation des communications électroniques et des postes (ARCEP) en 2005, a contribué à faire de la France, en quelques années, un des pays du monde disposant de la meilleure offre en services numériques, du point de vue de la couverture, de la qualité, du prix. L’ART, puis l’ARCEP, ont su canaliser, en utilisant leur pouvoir de régulation dans des conditions de parfaite transparence, les initiatives des acteurs des communications électroniques de manière à laisser s’épanouir à plein les potentialités technologiques du secteur. Les procédures imposent notamment à cette autorité une consultation publique préalable avant toute décision ; chacune de ses décisions doit être systématiquement justifiée.

Il s’agirait aujourd’hui de transposer ce modèle pour réussir la révolution de la performance énergétique dans les bâtiments, en fusionnant, au cours de la prochaine législature, à budget constant, les structures en charge des missions de régulation du secteur du bâtiment au sein de la Direction de l’habitat, de l’urbanisme et de la construction, du Centre scientifique et technique du bâtiment, et de l’Agence de la maîtrise de l’énergie, en une autorité administrative indépendante, dirigée par un collège d’au moins cinq membres nommés par le Président de la République, le Président de l’Assemblée nationale et le Président du Sénat, pour un mandat non renouvelable de six années, sur le modèle de l’Autorité de régulation des communications électroniques et des postes (ARCEP).

Cette autorité, « l’Agence de régulation de la construction et de la rénovation des bâtiments », serait soumise à un cadre de procédures garantissant la pleine transparence de son action de régulation ; elle devrait présenter chaque année son rapport d’activité devant l’OPECST. »

3. Les « énergies vertes » : intermittence, stockage, et innovation de rupture.

L’intégration des énergies éolienne et solaire dans le système général de fourniture en électricité suppose impérativement de prévoir la disponibilité d’une source de secours pendant l’arrêt du vent ou la disparition du soleil derrière les nuages ou l’horizon.

Le phénomène dit « de foisonnement » des énergies renouvelables, qui permet de lisser leur production globale par un effet de moyenne, à la faveur d’un décalage des productions aléatoires entre zones géographiques distantes, n’assure qu’une compensation très partielle; en tout état de cause, c’est un mécanisme qui joue lui-même de manière aléatoire, donc ne renforce pas réellement la fiabilité d’approvisionnement.

Un dispositif de stockage d’énergie se caractérise par trois paramètres fondamentaux au regard d’une utilisation en lissage de la production électrique : sa puissance, sa capacité, sa période. Sa puissance doit être calée sur la puissance du flux électrique dont il prend le relais; sa capacité renvoie à la possibilité de stocker assez d’énergie pour remplir cette fonction de relais sur une durée assez longue ; la période mesure la longueur du cycle entre le moment du stockage et celui du déstockage.

(i) Le stockage d’énergie par retenue d’eau

Les stations de pompage (STEP) sont capables de délivrer des puissances de plusieurs gigawatts grâce à de l’eau retenue dans des réservoirs, déversée au moment voulu sur des turbines.

Il est nécessaire de mettre en place une filière industrielle en mesure de répondre à la demande internationale considérable qui se dessine avec l’expansion des énergies renouvelables.

(ii) Le stockage d’énergie dans des hydrocarbures de synthèse

Le stockage d’énergie par conversion du gaz carbonique pour fabriquer du carburant de synthèse a également été évoqué par le rapport de mars 2009 sur la stratégie nationale de recherche en énergie.

C’est une piste technologique à défricher, mais qui présente le double avantage d’apporter une solution à l’intermittence des énergies renouvelables et de créer un nouveau cycle du carbone ayant pour effet de fixer un temps les gaz à effet de serre, tout comme le cycle naturel basé sur la photosynthèse.

(iii) L’apport complémentaire des « réseaux intelligents »

Une autre solution pour compenser des fluctuations dans la fourniture d’électricité est l’appel au réseau électrique, à condition que celui-ci soit en mesure de réagir avec des temps de réponse courts pour mettre en relation les offres excédentaires disponibles avec les demandes. C’est précisément la démarche de développement des « réseaux intelligents » (« smart grids »).

Les expérimentations actuelles permettront d’évaluer jusqu’à quel point la capacité de réaction des « réseaux intelligents » absorbera l’intermittence des sources décentralisées d’énergies renouvelables.

Mais si la souplesse accrue des réseaux se traduira sans doute par un gain d’optimisation des ressources de compensation de l’intermittence, elle ne permettra pas d’en faire l’économie.

De fait, les futurs « réseaux intelligents » ne se substitueront pas aux dispositifs de stockage massif d’énergie, mais serviront plutôt à les intégrer de manière optimisée au fonctionnement du réseau électrique. Les deux outils sont par nature complémentaires, également indispensables tous les deux pour permettre le développement des énergies renouvelables.

La disponibilité industrielle des dispositifs de stockage d’énergie, à des coûts permettant un déploiement à grande échelle, avant le milieu du siècle, suppose d’engager dès à présent un effort de recherche et développement soutenu.

A cet égard, il est essentiel que l’Alliance pour la recherche en énergie (ANCRE), qui coordonne depuis 2009 les moyens des organismes de recherche dans le domaine de l’énergie, fasse mieux ressortir l’effort qu’elle a déjà engagé pour explorer, expérimenter puis développer toutes les solutions technologiques adaptées pour un stockage d’énergie de masse. Cet effort doit conduire à créer des collaborations de recherche avec les partenaires européens les plus avancés dans ce domaine, particulièrement avec nos voisins allemands qui s’y sont engagés avec l’atout historique de leur chimie lourde.

B. INNOVATION ET SANTÉ : ENTRE CONFIANCE ET DÉFIANCE

La santé est sans doute le domaine où les innovations les plus importantes apparaitront au cours des prochaines années. Il s’agira soit d’innovations incrémentales que l’on peut déjà prévoir, soit d’innovations de rupture que beaucoup appellent de leurs vœux notamment pour lutter contre le cancer et les maladies neurodégénératives.

1. Les sauts technologiques en médecine

L’audition publique organisée par M. Claude Birraux le 27 janvier 2011 a permis d’analyser les conditions de succès de certains de ces sauts technologiques, aussi bien que les échecs rencontrés, à travers des exemples touchant aux thérapies cellulaires, à la chirurgie comportementale, à la vitrification ovocytaire, au cœur artificiel, à l’hadronthérapie et aux implants rétiniens.

Les témoignages et les réflexions des intervenants ont permis de déboucher sur des propositions directement liées à l’innovation. Le constat qui en ressort montre bien l’impact sur l’innovation du temps, des réglementations, des difficultés rencontrées et des facteurs économiques et financiers : ce n’est qu’après 262 greffes du foie qu’un patient greffé a pu survivre plus d’une semaine.

La thérapie génique appliquée aux enfants atteints du déficit immunitaire combiné sévère lié au chromosome X a été suspendue pendant huit ans, de 2002 à 2010, car quatre enfants traités sur dix avaient développé une leucémie, ce qui n’était aucunement prévisible à l’issue de tous les essais pré-cliniques.

La thérapie cellulaire de l’insuffisance cardiaque n’a pas été encore couronnée de succès, du fait de difficultés liées à la caractérisation des produits de thérapie cellulaire, à l’amplification des cellules et au maintien en vie des cellules injectées.

La fécondation in vitro résulte de premières expériences faites in vivo sur le mammifère en 1880 à Vienne. Il faudra attendre 15 ans pour que les premiers essais d’insémination in vitro d’ovocytes humains débouchent sur les premières naissances.

A la suite de l’interdiction de toute recherche sur les cellules souches embryonnaires - sauf de manière dérogatoire et pour un temps limité - par la loi bioéthique du 6 août 2004, toute recherche sur la vitrification ovocytaire a été empêchée.

C’est en Italie qu’a été ouvert un centre d’hadronthérapie, et non en France, afin de traiter les cancers inopérables et radiorésistants, du fait d’un refus administratif.

La thérapie génique est freinée en France par l’absence d’entreprises de biotechnologies et par la disparition d’entreprises de fabrication d’instruments chirurgicaux. Le réel décollage des recherches françaises sur le sang artificiel n’est intervenu qu’après l’intérêt qu’y a porté l’armée américaine.

Pour le cœur artificiel, les bioprothèses valvulaires, inventées en France il y a quarante ans par le professeur Alain Carpentier, ont permis de surmonter l’obstacle lié à l’hémocompatibilité - la tendance du sang à coaguler au contact d’un corps étranger - et de prévenir le rejet immunologique. L’imagerie médicale permet aujourd’hui de simuler l’incorporation virtuelle d’un corps artificiel à l’intérieur du corps humain.

M. Claude Birraux en a tiré les conclusions devant l’Office parlementaire le mardi 28 juin 2011 :

« L’audition publique sur les sauts technologiques en médecine, qui s’est tenue le 27 janvier 2011, a été suggérée à l’Office par le professeur Jean-Michel Dubernard.

Elle s’est proposée d’analyser, à partir de différents exemples, les causes qui sont à l’origine des réussites et des échecs de certains sauts technologiques en médecine.

La France dispose d’excellentes équipes de chercheurs. Toutefois – hormis l’exception remarquable du professeur Alain Carpentier qui a bénéficié, pour la mise au point du cœur artificiel, d’une relation privilégiée avec Jean-Luc Lagardère – de nombreux projets de recherche ont été ralentis ou n’ont pu aboutir, du fait de certains freins.

Pour surmonter ces derniers, des mesures ont été souhaitées, qui touchent au cadre législatif, aux institutions et au comportement des acteurs.

S’agissant tout d’abord du cadre législatif, il m’apparaît que la concrétisation de certaines des préconisations concernant le droit français et la législation communautaire se heurtent à de sérieuses objections.

Il en est ainsi de la proposition visant à l’abrogation du régime d’interdiction des recherches sur les cellules souches embryonnaires, qui a été regardé comme un frein aux recherches, en matière de thérapie cellulaire et de vitrification ovocytaire.

Les deux Assemblées n’ont toutefois pas souhaité revenir sur le principe de l’interdiction au cours de la discussion du projet de loi relatif à la bioéthique, qui a finalement maintenu le principe d’interdiction avec dérogations, même si la vitrification ovocytaire a été formellement autorisée.

Un second exemple de frein de nature législative aux recherches menées en thérapie génique est imputable non pas au droit français mais au droit communautaire.

Comme le professeur Jean-Michel Dubernard, il ne m’apparaît pas non plus logique d’assujettir la thérapie génique au régime du médicament. Pour autant, il y a lieu de craindre qu’une réforme ne puisse intervenir dans l’immédiat. Car, ainsi que l’a rappelé M. Jean Marimbert, alors directeur général de l’Agence française de sécurité sanitaire des produits de santé (AFSSAPS), cette situation découle du règlement communautaire du 13 novembre 2007 sur les thérapies innovantes. Ce texte prévoit une procédure d’autorisation unique dans l’ensemble de l’Union européenne et assimile la thérapie cellulaire à la mise au point d’un médicament. Or, ce faisant, le règlement est allé à l’encontre du régime appliqué en France à la thérapie cellulaire dès 1996-1997, lequel n’était pas exactement calqué sur le régime du médicament.

Une réflexion sur ces dysfonctionnements serait souhaitable, tout comme sur la disparité des pratiques en matière de thérapie cellulaire, relevée par M. Philippe Menasché, directeur de l’unité « Thérapie cellulaire en pathologie cardio-vasculaire » à l’hôpital européen Georges-Pompidou. Car, même si l’EMA (Agence européenne du médicament) tente de les uniformiser, les contraintes demeurent différentes selon les Etats membres, ce qui n’est pas de nature à faciliter les essais multicentriques.

Si l’Europe peut apparaître comme un frein aux sauts technologiques, elle n’en constitue pas moins également un niveau pertinent de réformes. Ainsi serait-il utile, comme l’ont proposé les professeurs Jean-Michel Dubernard et Laurent Degos, ancien président de la Haute Autorité de santé, d’envisager la mise en place d’une instance européenne pour les dispositifs coûteux. On peut, en effet, regretter que, pour ces dispositifs tels que les implants rétiniens, l’Allemagne et la France aient procédé à des essais cliniques sans aucune coopération.

De même, serait-il judicieux de prendre en considération l’idée d’instaurer une procédure européenne d’évaluation formulée par le professeur Pierre Tiberghien, directeur général délégué à l’EFS. Il s’agirait de veiller à la qualité de l’évaluation par les structures telles que l’AFSSAPS en charge d’autoriser les recherches. Une telle mesure permettrait de réduire les conflits d’intérêts et de garantir une expertise plus pointue.

Au plan institutionnel, j’abonde dans le sens de plusieurs intervenants qui ont déploré le « millefeuille administratif », le maquis de procédures ou encore le parcours du combattant auxquels les chercheurs sont confrontés pour faire aboutir leurs projets. Découragés par une telle situation, certains d’entre eux ont même choisi de s’expatrier.

C’est pourquoi, il m’apparaîtrait nécessaire de se pencher sur deux propositions :

– la première revisiterait la piste déjà explorée du regroupement d’organismes concernés, comme le Comité national consultatif d’éthique, l’Agence de la biomédecine, l’AFSSAPS, laquelle se trouve justement en cours de restructuration, suite à l’affaire du Médiator ;

– la deuxième consisterait à instituer une procédure de guichet unique, distinct des organes de régulation, pour les innovations dans le domaine de la santé.

La réussite ou l’échec d’un saut technologique tient aussi au comportement des acteurs.

J’ai ainsi pu déplorer dans mon allocution d’ouverture que la médecine de la France souffrait de son caractère administré, ayant fait état des difficultés administratives rencontrées par le professeur Ugo Amaldi, pour développer l’hadronthérapie en France et qui l’ont conduit à retourner dans son pays natal.

A ces difficultés administratives s’ajoute la frilosité des industriels qui, du fait de leur soutien mesuré ou de l’absence de soutien de leur part, ont freiné des projets de recherche ou en ont empêché le développement.

Or, il m’apparaît urgent que les différents acteurs se départissent de tels comportements, afin d’éviter que les atouts réels dont dispose la France ne soient durablement compromis. A cet égard, j’approuve sans réserve les observations de M. Elias Zehrouni, professeur au Collège de France.

Il a souligné fort opportunément que le besoin d’innovation, qui peut s’analyser comme un facteur négatif en termes de coûts mais positif sur le plan des soins, impose de redéfinir le rapport entre la valeur médicale relative d’une innovation, d’une part, et d’autre part, ses risques, ses bénéfices et ses coûts.

Dans la même perspective, il serait souhaitable que soit entendu l’appel lancé par le professeur Alain Carpentier aux médecins – souvent taxés, selon lui, d’être dépensiers – par lequel il les exhorte à intégrer dans leur réflexion les conditions économiques et sociales de leurs réalisations ». Grâce à quels investissements la France pourrait-elle tirer davantage partie de ces sauts technologiques.

2. Le cas de la France : un avenir prometteur

a. Le pôle de compétitivité Medicen : la mise en place d’un réseau créateur de valeur

Comme l’a indiqué M. François Ballet lors de l’audition publique du 26 mai, le pôle de compétitivité Medicen regroupe l’ensemble des grands acteurs de l’innovation dans le domaine de la santé en Île-de-France : les grandes entreprises, qui ont un effet structurant indispensable, les petites et moyennes entreprises, la recherche publique, les hôpitaux, les universités et les collectivités locales, ces dernières jouant toujours un rôle essentiel dans un pôle de compétitivité.

L’objectif est de les faire tous fonctionner en réseau, avec une finalité claire : créer de la valeur économique, ce qui dans le domaine de la santé passe par des médicaments, des outils de diagnostic, de l’imagerie ou du dispositif médical.

Pour animer et développer ce biocluster, Medicen poursuit deux missions principales : aider les entreprises et soutenir les projets de recherche développement. Il intervient pour mettre les acteurs en présence et soutenir des projets qui ont du mal à trouver un financement, les fonds publics allant plutôt vers l’amont, tandis que le privé vise plutôt l’aval – et c’est un des verrous majeurs à l’innovation.

Pour identifier ses trois domaines stratégiques (l’infectiologie, les maladies neurologiques et psychiatriques, l’oncologie), Medicen a recoupé les sujets de la recherche publique compétitifs au niveau international, les axes de recherche et besoins des entreprises d’Île-de-France.

Son action consiste à faire se rencontrer des gens qui sont proches sans le savoir, d’être à l’écoute des besoins des entreprises et bien connaître l’offre académique, de créer du lien. Elle consiste aussi à soutenir des projets de recherche développement, en organisant la collaboration entre le public et le privé, en aidant à monter les projets, en conseillant, en orientant : Y a-t-il suffisamment d’éléments de preuve de concept ? Existe-t-il un marché et un avantage compétitif ? Les ressources envisagées sont-elles sont suffisantes ? Les partenaires sont-ils appropriés ? La probabilité de succès est-elle raisonnable ? Quels financements rechercher ?

b. Des exemples de projets structurants

(i) Le projet OptimABS : l’intérêt des innovations en médecine

Ce projet haut-savoyard a pour objectif de développer des médicaments contre le cancer de la prostate, du poumon ou du sein, et fait intervenir plusieurs partenaires : le laboratoire Pierre Fabre, le laboratoire AGIM, l’Université de Strasbourg et Lyon Biopôle.

Il est basé sur des innovations biologiques, qui permettent de déterminer de nouvelles cibles thérapeutiques, de modéliser des anticorps médicaments et de produire des nouveaux médicaments candidats.

Il étudie la stabilité et la pureté du produit, les mécanismes anti-cancéreux, la toxicité des molécules injectées. Il recherche des changements biologiques, ce qui représente l’ensemble des activités pré-cliniques.

Il utilise également des innovations biotechnologiques, sur la base d’expertises en imagerie moléculaire pré-clinique, à partir de prélèvements de tumeurs, qui permettent d’analyser la régression tumorale après injection.

Les tests in vitro sont validés grâce à des modèles cellulaires animaux et humains. Les modèles tissulaires sont étudiés avant de faire des tests in vivo, en multipliant les cohortes d’individus, afin de s’assurer de l’efficacité, de l’innocuité, de la tolérance humaine.

(ii) Le projet REGEN-R : l’intérêt de la modélisation et des méthodes de travail décloisonnées

Ce projet étudie les mécanismes de régénération génétique à partir de cellules souches embryonnaires de divers animaux (mouches, poussins, souris et poissons zèbre). Dans la phase embryonnaire, on est en effet tous capables de réparer les tissus de façon parfaite. Cette réparation est importante, dans le cas de rechute, notamment pour les infarctus où les tissus ont été mal réparés.

On constate que les souris ont une capacité totale de régénération les 7 premiers jours de leur vie. Cette capacité se perd ensuite. Il s’agit de savoir pourquoi. Un travail sur le poisson zèbre a permis de régénérer son cœur. Un travail sur les larves, dont on découpe des bouts de nageoire caudale permet d’aboutir à une régénération parfaite en 3 jours. Dans le cas des adultes vieillissants, la nageoire se reconstitue par contre en 12 jours, et il faut comprendre pourquoi. Des études sont également faites sur l’épiderme de ces poissons et sur des cellules pluripotentielles.

Des modèles mathématiques sont utilisés pour obtenir des informations sur la cicatrisation et la régénération, en coopération avec les universités de Lisbonne et de Grenoble, et un laboratoire de Gif sur Yvette. Ce travail fait appel à la 3D.

Ce projet repose sur plusieurs innovations en termes de procédés et de méthodes de travail : il est en effet fondé sur le décloisonnement des disciplines et sur la création d’une culture commune de recherche entre mathématiciens, physiciens et biologistes ; il recherche une coopération internationale qui lui permettra d’arriver plus rapidement à une masse critique.

3. Un dynamisme au niveau mondial

Plusieurs institutions mènent actuellement des programmes de recherche prometteurs dans le domaine de la santé. Ils se développent à l’image de ceux mis en place en France, comme le montrent plusieurs exemples en Allemagne, en Inde, en Chine, en Afrique du Sud et aux Etats-Unis.

Chacun des exemples présentés illustre cependant de manière différente un des aspects de l’innovation, qu’il s’agisse de sa nature, de ses effets, des évolutions qu’elle entraîne, ou de l’évolution du contexte dans lequel elle s’inscrit.

a. En Allemagne

(i) A Karlsruhe, à Bioquant : l’utilité des applications de l’imagerie et de la modélisation en médecine ; l’importance de plusieurs types de financement

C’est l’exemple de l’intérêt de la combinaison de l’imagerie et de la modélisation, et d’une méthode intermédiaire entre le top-down et le bottom-up pour passer de l’individu à l’atome et de l’atome à l’individu.
Bioquant qui élabore des carburants pour l’industrie automobile en utilisant le laser, travaille ainsi pour l’industrie pharmaceutique à partir de la biologie des systèmes dont fait partie la biologie synthétique. Elle étudie l’interaction entre le virus et la cellule, les réseaux cellulaires et la signalisation des phases du cancer.

Elle utilise l’imagerie médicale à partir d’appareils fournis gratuitement par Nikon, comme à Harvard, de même que la microscopie normale et la microscopie à haute résolution, ultrafine et ultraprécise (ultra-high throughput microscopy), ce qui permet de travailler sur les tumeurs cancéreuses. 160 chercheurs sont associés à ce projet.

Bioquant travaille également sur le virus du SIDA pour étudier la dynamique de l’infection des cellules, en combinant imagerie et modélisation et en suivant son évolution au microscope : Quand le virus entre dans la cellule, plusieurs signaux apparaissent en effet qui sont autant d’informations qui sont modélisées.

L’imagerie lui permet de savoir si un gène bloque le développement d’un virus. Ses recherches lui permettent également d’étudier la régénération des blessures, leur cicatrisation à partir d’une modélisation des tissus et des réseaux de protéines, et le développement des tumeurs ; de mieux comprendre la manière dont la cellule peut mourir de manière programmée (ce qu’on appelle l’apoptose).

Ses projets sont partiellement financés par le Land et l’Université, parfois par le ministère de la recherche. Certains font partie de l’initiative d’excellence. Les financements privés y sont pratiquement inexistants du fait de la vocation sociale de la société (son objectif est l’amélioration de la connaissance, pas le profit). En conséquence, elle recherche des financements européens.

(ii) Au NCT, Centre national pour les maladies tumorales d’Heidelberg : l’intérêt des thérapies ciblées et de la médecine personnalisée

Le NCT a été le premier centre intégré sur le cancer en Allemagne, qui a fait de la recherche et du traitement. Son exemple est maintenant copié dans d’autres villes. Il est proche dans sa conception de l’Institut Gustave Roussy de Villejuif. Il reste en Allemagne le meilleur campus de recherche en biomédecine. Les subventions qu’il reçoit s’élèvent à 210 millions d’euros.
Il permet une approche plus globale du patient, différents spécialistes décidant s’il a besoin de radiothérapie, de chimiothérapie ou de chirurgie. Son travail de recherche clinique, de diagnostic moléculaire, d’immunothérapie, d’oncologie, de thérapies nouvelles, de prévention et de contrôle du cancer en fait un pont entre l’université et la clinique.

(iii) Au HIT (Heidelberg Ionenstrahl-Therapie) : comment aboutir à une innovation ?

Ce centre utilise une méthode nouvelle de traitement du cancer qui permet d’attaquer la tumeur de manière plus précise, car le rayon est plus petit que la tumeur. Cela permet de ne pas atteindre les organes qui ne sont pas concernés par la maladie et donc diminue le risque global. Cette technique découle des travaux d’Ernest Orlando Lawrence, prix Nobel 1939. L’équipement nécessaire, qui a coûté 120 millions d’euros, est utilisé 300 jours par an, 16 heures par jour, le but recherché étant de traiter 1 000 patients par an qui sont facturés 20 000 euros, suite à un contrat avec les compagnies d’assurance.

Cette expérimentation a débouché sur une cinquantaine de brevets dont Siemens Medical Care a obtenu la licence exclusive. Cette pratique correspond à un choix du Gouvernement allemand qui souhaite un transfert de la recherche vers l’industrie et qui souhaite aboutir à des résultats concrets tout en protégeant les résultats de la recherche. Les scientifiques ont critiqué cette méthode car ils considéraient que le processus d’enregistrement des brevets limitait leurs possibilités de discussion avec leurs collègues.

Pour les dirigeants de ce centre, il y a une méthode pour aboutir à des innovations : l’innovation commence avec une thèse, suivie de recherches fondamentales et appliquées. Elle est facilitée si l’environnement permet de mettre en place une technologie complexe (ce qui est l’objectif de l’association Helmholtz) et d’obtenir des aides du ministère de la recherche. Elle résulte de la coordination de différents corps de métiers.

b. En Inde

(i) L’entreprise Panacea Biotech : l’importance de la flexibilité 

Cette compagnie pharmaceutique fabrique des produits innovants, principalement des vaccins (notamment liquides) déjà qualifiés ou préqualifiés par l’OMS et utilisés par l’UNICEF. Elle collabore avec Sanofi-Pasteur, GSK, Novartis même si ces entreprises sont ses concurrentes, ce qui montre sa flexibilité.

Cette flexibilité est importante du fait des obstacles qu’il lui faut surmonter, comme toute entreprise pharmaceutique : l’enregistrement de nouveaux produits résulte en Inde d’un processus long et fastidieux. Les règles de sûreté et les essais pré-cliniques et cliniques entraînent des besoins de financement importants. Mais il faut accepter ces contraintes si l’on veut créer de nouveaux produits et ne plus se limiter à copier.

(ii) La société Piramal de Bombay, ou l’illustration des avantages comparatifs présents et futurs de l’Inde

Dans les produits pharmaceutiques, l’innovation est très importante. Aux Etats-Unis, la santé coûte de plus en plus chère et les dépenses de santé croissent plus vite que le PNB. Des pays comme l’Inde peuvent apporter des solutions, en réduisant le coût des médicaments.

Il y aura de profonds changements dans les 5, 10, 15 prochaines années dans ce domaine en Inde. Le coût de la recherche et des essais cliniques y est plus bas que dans les pays développés, ce qui permet de produire des médicaments qui coûtent 40 % moins cher. L’importance de la population permet par ailleurs des études cliniques plus intéressantes. L’Inde a donc de vrais avantages comparatifs pour la recherche sur les médicaments.

La société Piramal essaie de trouver des solutions très différentes de celles trouvées à l’Ouest. Par exemple, dans le domaine du cancer, le problème est de trouver des médicaments différents qui ne prolongent pas seulement la vie de 6 mois, mais qui assurent une qualité de vie satisfaisante.

Travaillant aussi sur le diabète, la tuberculose et l’inflammation en général, elle utilise des autorisations obtenues aux Etats Unis ou en Europe pour avoir une autorisation plus rapide en Inde. Les essais cliniques sont faits d’abord en dehors d’Inde, puis en Inde.

Le temps perdu pour obtenir les autorisations nécessaires en Inde est ensuite regagné en trouvant plus de patients pouvant participer à des tests, même s’il y a parfois une résistance des patients ou du corps médical.

c. En Chine

Centaurus BioPharma illustre le retour en Chine des scientifiques expatriés.
Cette société de biologie pharmaceutique qui cherche à découvrir de nouveaux produits contre le cancer et le diabète, et à produire des médicaments de meilleure qualité et à un prix moins élevé, emploie 18 docteurs et doctorants, 32 titulaires de mastères, qui ont tous étudié à l’étranger.

Elle travaille sur des thèmes comparables à ceux étudiés chez GSK, Merck, Sanofi-Aventis. Elle est très confiante dans ses produits qu’elle estime plus efficaces que les produits comparables étrangers.

Elle est l’illustration des premiers effets de la nouvelle politique du gouvernement chinois, qui incite les scientifiques expatriés à rentrer au pays, en leur facilitant le retour et en leur garantissant des salaires comparables à ceux qu’ils touchaient à l’étranger.

Or il y a aux Etats-Unis des dizaines de milliers de chinois ayant un doctorat. La recherche chinoise va connaître un essor considérable s’ils reviennent, d’autant plus que les sociétés qui les emploieront bénéficieront, comme Centaurus BioPharma, de soutiens pour accéder à des capitaux supplémentaires, pour employer des post-doctorants, pour loger les chercheurs qui reviennent de l’étranger, pour faire de la recherche industrielle et pour protéger la propriété intellectuelle.

d. En Afrique du Sud

Biovax est le symbole de la difficulté à produire des vaccins nationaux dans un pays du Sud.

Biovax, compagnie sud-africaine produit des vaccins en accord avec Sanofi. Mais elle ne participe qu’à une étape du processus (le remplissage des contenants de vaccins). Le transfert de technologie n’est pas important, même si cette coopération a un grand intérêt, puisqu’elle vise à produire des vaccins pour l’Afrique du sud et l’ensemble de l’Afrique.

Or il existait jusqu’aux années 90 une production locale de vaccins, qui a depuis disparu, ce qui est source de nombreux problèmes. Le pouvoir politique en est en partie responsable, comme il est responsable du développement catastrophique du sida, dont la réalité a été non seulement méconnue, non seulement ignorée, mais encore niée par le Président Tabo Mbeki, quelles que soient ses qualités par ailleurs.

Des recherches sont actuellement menées contre la forme sud-africaine du virus du Sida afin d’élaborer un vaccin. Mais elles ne dépassent pas actuellement le niveau 2 des essais, par manque de capacité de production industrielle.

e. Aux Etats-Unis

Au National Institute of Environmental Health Sciences (NIEHS), en Caroline du Nord : les effets de l’environnement et du changement climatique sur la santé.
L’un des 27 instituts du NIH, situé dans le Research Triangle, le NIEHS étudie la manière dont l’environnement influence le développement et la progression des maladies et les différences de réactions des individus exposés au même environnement. Il cherche quels sont les composants dans l’environnement (produits chimiques, pesticides, plastiques) qui vont avoir des conséquences sur la santé, conséquences qu’il faut prévenir, notamment par des mesures réglementaires (pour réduire la pollution de l’air ou améliorer la qualité de l’eau).

Ses chercheurs soulignent que l’on a compris que le cancer, l’autisme, les maladies pulmonaires, la puberté précoce, ont des causes liées à l’environnement, mais que le développement de la maladie est lié à des causes génétiques. C’est la raison pour laquelle ils recherchent les gènes et la combinaison de ces gênes qui permettraient de comprendre le mécanisme de développement de cette maladie.

Ils étudient plus particulièrement l’asthme, le cancer du sein, mais aussi l’exposition à des nouveaux matériaux, et notamment les nanomatériaux. Ils s’interrogent sur la fiabilité des tests de nouveaux produits. Ils s’intéressent à des méthodes alternatives d’élaboration des tests afin de savoir si elles peuvent être acceptées par les régulateurs.

Le NIH étudie également les conséquences sur la santé du changement climatique.

Ses études sur ce thème portent sur l’asthme, le cancer, les maladies cardiovasculaires, le rôle de l’alimentation et de la chaleur, mais aussi sur le développement de l’embryon et du bébé, les désordres mentaux ou neurologiques, les maladies concernant les animaux et leurs conséquences sur l’homme, les effets du climat sur la mortalité et la morbidité.

(ii) Aux CDC d’Atlanta : l’intérêt et l’importance de nouvelles formes de communication

Deux éléments des nombreuses facettes de l’activité des Centers for Disesase Control concernent plus particulièrement l’innovation : la mise en place d’un projet particulièrement original d’information des femmes enceintes, Text4baby ; une approche novatrice et volontariste de la communication.

Text4baby

Text4baby est un service particulièrement original que les CDC proposent aux femmes enceintes et aux jeunes mères qui ont peu de contacts avec les services sanitaires (leur nombre est élevé aux Etats-Unis), en leur envoyant des informations par téléphone portable.

La valeur ajoutée des CDC vient de leur capacité à vérifier la qualité scientifique des informations proposées par plus de 600 partenaires qui sont maintenant associés à ce programme. 220 000 femmes reçoivent actuellement ces messages, mais les CDC estiment qu’elles seront bientôt un million, fin 2012, sur les 4 millions de femmes qui vont accoucher.
Ces messages sont très divers : Ils portent sur la planification familiale, la violence, la sécurité en voiture, l’allaitement, le diabète, le tabac, les vaccins et les soins dentaires.

Ce service résulte d’une approche totalement nouvelle, commençant par la définition du nombre et de la nature des messages à envoyer, se poursuivant par une réflexion sur leur contenu. Elle repose sur une approche innovatrice des organismes de télécommunications pour que ces messages soient envoyés gratuitement.

Cet exemple montre l’originalité et le professionnalisme des CDC en matière de communication sur la santé aux Etats-Unis.

C’est aujourd’hui l’agence publique américaine la plus crédible. Cette crédibilité vient de la manière dont les CDC présentent leurs informations, en se basant sur des faits. Quand les CDC ne peuvent pas répondre, quand ils ne savent pas, ils le disent. Cela a eu un impact considérable lors de la pandémie A(H1N1), ou lors des catastrophes naturelles récentes. Les CDC ne font pas seulement des recommandations. Ils alertent.

Mais surtout, les CDC ont développé de nouveaux outils pour suivre les medias sociaux (utilisation de mots clés, de synonymes pour sentir ce que pense les internautes, pour avoir conscience des questions que se pose le public, afin de pouvoir y répondre). La France ferait bien de s’en inspirer en prévoyant la mise en place d’une équipe chargée de cette tâche.

Pour ce faire, ils étudient différents groupes : ceux qui font confiance, mais aussi ceux qui sont plus réticents, en essayant de déterminer comment les approcher. Leur approche dépasse l’information scientifique, en s’intéressant aux valeurs (les parents demandent que l’on s’occupe d’abord de leurs enfants). Ils étudient aussi le profil des personnes qui contactent leur site ce qui leur permet de nombreux contacts avec les étudiants et les médecins qui acceptent d’indiquer qui ils sont. 

Les CDC travaillent également avec les créateurs de séries télévisées sur la santé. Ses experts servent de consultants pour les réalisateurs. Ils mènent des actions spécifiques à destination des journalistes.

Ils suivent sur les réseaux sociaux les controverses en matière de santé, notamment celles qui portent sur les liens entre vaccins et autisme, ou sur les effets secondaires des nanotechnologies sur la santé. Plutôt que de répondre directement sur chaque blog, ils définissent des messages qui rappellent les faits avérés.

C. BIOTECHNOLOGIES : LE CAS DES OGM

Il n’existe pas d’espèce cultivée qui n’ait été modifiée par l’homme.

De ce fait, la grande majorité des plantes cultivées sont dépendantes de l’homme pour leur survie et leur multiplication. Le fait qu’elles soient transgéniques n’y change rien, et l’introduction d’un gène supplémentaire, sur plusieurs milliers, dans une plante cultivée ne lui fera pas acquérir des propriétés nouvelles pour ce qui est de la dispersion dans l’environnement.

La permanente sélection des plantes se poursuit avec des objectifs de toujours, en particulier la résistance aux maladies et aux prédateurs – lesquels représentent de 30 à 40 % de pertes dans la production végétale – ainsi que l’amélioration de la qualité. De nouveaux objectifs de durabilité tels que la réduction des besoins en intrants et la tolérance aux stress de l’environnement s’y ajoutent aujourd’hui, et l’une des voies de recherche dans le monde porte sur les organismes génétiquement modifiés.

1. Etat des lieux

La France était l’un des berceaux des biotechnologies végétales, et a été le premier pays européen à homologuer un produit OGM. Elle semble avoir aujourd’hui abandonné toute recherche dans ce domaine. 

a. Un problème mal posé

Commençons tout d’abord par un bref historique des biotechnologies en France, tel que nous l’a rappelé Axel Kahn lors de l’audition du 26 mai 2011.

Les biotechnologies végétales apparaissent en 1983 et commencent à faire l’objet d’essais en plein champ dès 1985. En 1986, il est décidé de créer une commission du génie biomoléculaire placée auprès des ministres chargés de l’agriculture et de l’environnement. Pierre Royer, premier président de cette commission démissionne en 1987 et Axel Kahn lui succède jusqu’en février 1997, date à laquelle il démissionne à son tour.

Durant cette période, la France devient progressivement – à raison de 2 ou 3 essais par an au début – le deuxième pays de recherche et d’expérimentation de plantes transgéniques en plein champ. De 1987 à 1997, il se mène en France plus d’expériences que dans tous les autres pays d’Europe réunis.

Cette dynamique était la résultante d’une vraie sympathie des Français pour le progrès, d’un contexte favorable à l’agriculture, et de l’existence d’un grand nombre d’organismes de recherche dans notre pays. En outre, la France a toujours été un grand pays de sélection semencière, ce qui pourrait ne plus être le cas à l’avenir si notre recherche reste bloquée.

Dans les années 1994-1996, le nombre d’essais était de 50 à 60 par an. En 1997, la commission du génie biomoléculaire a examiné plus de 1 000 constructions de plantes transgéniques et a délivré environ 350 autorisations.

Que s’est-il donc passé ? Pourquoi avons-nous abandonné les OGM ?

Premièrement, le risque acceptable et accepté ne saurait être évalué indépendamment des attentes. En effet, comme nous l’avons vu précédemment, le citoyen est prêt à accepter un risque important quand l’attente est importante. Or, à l’époque, le problème qui touchait l’agriculture était la surproduction, la population européenne ne souhaitait donc pas une augmentation de la production végétale qui était rendue possible par les OGM.

Deuxièmement, la nourriture possède une dimension culturelle et identitaire : « dis-moi ce que tu manges, et je te dirai d’où tu viens, à quel groupe tu appartiens, quelles sont tes habitudes... ». En France notamment, le repas fait partie de la fête, du patrimoine, la nourriture exprime la typicité d’une région. Elle représente, d’une façon largement inconsciente, le lien qui persiste entre la Nature, les racines, les traditions, et la personne. D’une certaine manière, on est ce que l’on mange. C’est pourquoi l’intolérance à l’artificialité de la nourriture – ou à ce qui est ressenti comme tel – se manifeste facilement.

Troisièmement, à la fin des années 90, nous sortions de plusieurs crises sanitaires et de plusieurs scandales touchant à l’alimentation : contaminations aux salmonelles, poulets contenant des dioxines et, surtout, crise de la vache folle à laquelle la formule de soja fou, en référence au soja OGM, faisait directement référence. La logique du discours pouvait se résumer ainsi : « pour augmenter la production de viande bovine, ces fous ont nourri des vaches avec de la viande et voilà qu’ils introduisent leur folie dans les plantes ».

En d’autres termes, la folie productiviste des hommes a provoqué et provoquera des drames épouvantables alors même qu’il n’existe pas d’attente particulière, du moins en Europe, et que l’on préfère une nourriture naturelle, aussi peu modifiée que possible.

Mais en réalité, le seul véritable problème est celui que pose la coexistence de cultures « traditionnelles » et de cultures génétiquement modifiées.

En Europe, la domination des cultures traditionnelles fournit le principal argument pour interdire la culture des PGM.

Au États-Unis, la situation est inverse : la généralisation des OGM dans l’agriculture crée un problème pour ceux qui veulent produire autrement. Le bon sens se situe sans doute entre ces deux extrêmes.

b. Les faucheurs volontaires : l’impossible débat

Pour le cas des essais plein champ, l’Europe était parmi les zones les plus actives dans les années 80-90, avec un nombre d’essais relativement important. Aux Etats-Unis, le nombre d’essais était encore plus important, et est aujourd’hui stabilisé, alors qu’en Europe, nous avons assisté à une décroissance très rapide depuis les années 2000.

En France, les dépôts de dossiers pour les essais se sont même totalement arrêtés depuis 3 ans en raison de notre tradition propre de «faucheurs volontaires », qui détruisent les essais dont la mise en place a mis des années.

70% des essais démarrés chaque année étaient détruits, ce qui a conduit la majorité des sociétés à cesser les essais en France, pour des raisons évidentes. Notons que l’essai sur les vignes, qui a duré plusieurs années, et l’on connait l’importance de la vigne dans notre patrimoine, a finalement été détruit en 2010.

Il est intéressant de repérer que les destructions sont indépendantes de l’espèce : vigne ou maïs, et même du caractère introduit. Cela signifie que pour les opposants aux OGM, il n'y a pas de caractères qui sont plus justifiés ou intéressants que d’autres, il n’y a donc pas de raisonnement derrière leur action, mais simplement un refus du concept même de génie génétique appliqué aux plantes.

La société Limagrain, entendue en audition publique le 24 novembre 2011 a fait de nombreux essais en France au cours des deux dernières décennies. Mais de 2000 à 2007, elle a eu à déplorer la destruction de plusieurs de ses essais de recherche sur du maïs.

A nouveau, il n’y avait pas de spécification sur le caractère de ce qui était détruit, qu’il s’agisse de l’utilisation d’engrais azoté, de la résistance aux maladies, de la résistance aux insectes, de la tolérance au stress hydrique. Il s’agissait bien d’essais de recherche, pour déterminer si le système fonctionnait, sans visée directement commerciale. Dans ces conditions, les essais en France n’étaient évidemment plus adaptés et Limagrain fait ses essais de recherche aux Etats-Unis.

Il est bon de rappeler que les sociétés de semences sont les deuxièmes en investissement de recherche par rapport à leur chiffre d’affaires, y investissant près de 15% de son chiffre d’affaires. Elles fournissent donc un investissement de recherche important, l’action des faucheurs volontaires est donc préjudiciable non seulement à ces sociétés, mais également à l’ensemble de l’économie.

En effet, ne perdons pas de vue que le marché nord-américain est à plus de 80 ou de 90% OGM. Si la France veut continuer à rester compétitive, il est indispensable que ses sociétés puissent développer des OGM et fournir aux agriculteurs les produits qui sont demandés par le marché.

Un point intéressant ressort de la conférence de citoyens : quel que soit leur avis sur les OGM, les quatorze citoyens sollicités convenaient qu’il fallait faire de la recherche, y compris en plein champ. Seul l’enlisement du débat a amené à contester cette notion.

Nous sommes obligés de constater que la loi sur les OGM votée en 2008 n’a en fait rien réglé. Le refus idéologique de la transgénèse sur les végétaux, l’activisme juridique ont eu raison du développement en France des biotechnologies végétales. Les renoncements successifs gouvernementaux par calculs politiciens comme dans l’exemple de l’actualisation de la clause de sauvegarde pour interdire la culture du maïs Monsanto 810 ont fait le reste du chemin. L’Europe est en déclin quand elle refuse la notion même de recherche. Elle va perdre sa capacité d’expertise internationale. Le seul vrai sujet qui aurait mérité de faire converger toute notre énergie est celui relatif à la propriété intellectuelle du vivant, qu’il faut bien sûr refuser.

Il importe, sans refuser la discussion, de séparer les questions, car se focaliser sur un seul point mène généralement au blocage. Ainsi, les biotechnologies, dont on parle peu, sont bien acceptées, par exemple dans le domaine de la santé, où la balance bénéfice-risque est également plus facilement perceptible.

c. Quelle information sur les biotechnologies ?

S’agissant de la communication, l’Eurobaromètre sur les biotechnologies confirme que les personnes les plus informées sur les aliments génétiquement modifiés sont également celles qui ont l’attitude la plus négative à leur égard.

84 % des personnes disent en avoir entendu parler avant qu’on leur pose la question ; les 16 % de réponses négatives correspondent certainement à une attitude de défiance à l’égard du sondage.

Plus on a de débats sur la question, plus cette attitude négative est renforcée. Aux questions du type « Les aliments génétiquement modifiés sont-ils une bonne chose pour l’économie ? » ou « Les aliments génétiquement modifiés sont-ils bons pour vous et votre famille ? », ce sont majoritairement ceux qui en ont le plus entendu parler qui répondent par la négative.

Cela pose donc la question des sources d’information.

Mais nous aboutissons à une situation paradoxale : le même sondage montre que les scientifiques sont considérés comme la source d’information la plus crédible sur le sujet, devant les associations de consommateurs, en deuxième position, et les associations de protection de l’environnement, en troisième position.

d. Etat des lieux des OGM dans le monde

(i) Afrique du Sud

En Afrique du Sud, les propos du Dr Rob Adam, (militant blanc de longue date de l’ANC, ancien directeur général du ministère de la recherche et actuellement à la tête du NECSA), tenus dans le cadre d’une discussion sur les positions respectives de l’Europe et de l’Afrique du Sud sur les OGM, nous ont beaucoup marqués :

1) Quand on meurt de faim, on ne refuse pas de meilleurs rendements.

2) Quand on est en compétition avec les Etats-Unis ou l’Argentine, on adopte leurs méthodes.

3) Voilà 20 ans que les OGM sont commercialisés, et aucune étude scientifique n’a jamais montré un quelconque impact pour la santé


Cette argumentation, peu habituelle pour nous français, doit certes être rapprochée de propos non pas contradictoires, mais complémentaires des parlementaires sud-africains que nous avons rencontrés et qui nous ont dit qu’il y avait aussi dans leur pays un lobby anti-OGM qui pose des difficultés, notamment pour une pomme de terre résistante, ou pour les essais en plein champ de sorgho OGM.

Les mêmes parlementaires nous ont fait remarquer qu’il fallait prendre en compte les points de vue de chacun : ainsi, les OGM sont-ils davantage acceptés par les agriculteurs lorsqu’ils y voient un intérêt économique et commercial que par les consommateurs aisés qui voient davantage les risques que les bénéfices attendus.

La situation qui en résulte est fort différente de la nôtre : l’Afrique du Sud a été le premier pays à accepter les OGM dans l’alimentation, et le 8ème producteur mondial d’OGM. Ils y représentent aujourd’hui 75 % de la production de maïs, 80 % de la production de soja. Hors secteur alimentaire, ils concernent 99 % des surfaces plantées en coton.

(ii) Chine

En Chine, les OGM sont cultivés, mais aucune information ou publicité n’est faite à ce propos. Il n’en est nullement fait référence dans les documents officiels du Parti.

La contestation est donc à la hauteur de l’information disponible pour le public, c'est-à-dire quasi nulle.

(iii) Etats-Unis

Les Etats-Unis sont un des pays leaders dans le monde en termes de surfaces cultivées, et le niveau de contestation y a toujours été très faible.

La réglementation en vigueur date de 1980 quand la Cour Suprême décrète que les formes de vie génétiquement modifiées peuvent être brevetées, dans le cas Diamond v. Chakrabarty.

En 1982, la FDA autorise le premier médicament amélioré génétiquement, l’humuline de Genentech, une forme d’insuline humaine produite par une bactérie.

En 1986, est mise en place une réglementation-cadre coordonnée (Coordinated Framework) du gouvernement américain pour les biotechnologies. En 1987 ont lieu les premiers essais en plein champ de plantes génétiquement modifiées (tabac et tomate).

En 1992, la FDA déclare que les aliments génétiquement améliorés « ne sont pas dangereux en soi » et ne nécessitent pas de réglementation ni d’étiquetage spécifique.

Selon M. Brehm, conseiller agricole à l’ambassade des Etats-Unis à Paris, le débat sur les biotechnologies dans la production alimentaire aux Etats-Unis est un « non-problème ». La position officielle n’a pas changé depuis. En conséquence, plus de 60 millions d’hectares d’OGM y sont cultivés sur environ 150 millions d’hectares dans le monde.

2. La France prend-elle du retard ?

Les actes de destruction d’essais de recherche avec OGM sont un problème très sérieux ; ils mettent en cause la capacité de notre société à maintenir une compétence scientifique sur les OGM, et par conséquent à éclairer ses choix aujourd’hui et demain, et à préserver un potentiel ouvert d’innovations pour le futur.

a. Le pôle de compétitivité Végépolys

Le pôle de compétitivité à vocation mondiale, « Végépolys », a pour particularité de travailler, non sur les espèces végétales de grande culture, mais sur le végétal spécialisé. C’est un lieu de rencontre entre des entreprises, des acteurs de la recherche et des acteurs de la formation.

La création du Pôle fait suite à une réflexion destinée à déterminer les facteurs clés de compétitivité pour les filières de ce type. Le matériel végétal innovant a été identifié comme essentiel pour répondre à plusieurs défis : une consommation plus faible d'intrants ; des impacts plus favorables sur la biodiversité, la santé et l'environnement ; la mise en valeur de facteurs de différenciation permettant aux entreprises d’accéder à de nouveaux marchés et d’améliorer leur compétitivité.

Il y a trois ans, le Pôle a ouvert un dialogue entre les entreprises et les acteurs de la recherche pour établir une position sur les biotechnologies végétales.

Ces échanges ont permis de souligner l’intérêt majeur des biotechnologies pour élargir la gamme des innovations végétales et pour les accélérer ; pour diminuer l’usage des pesticides et des intrants ; pour améliorer des propriétés gustatives, nutritionnelles et esthétiques ; pour développer des débouchés non alimentaires ; enfin, pour améliorer les caractères de typicité de ces productions.

Le Pôle a également conscience que la transgénèse constitue une rupture technologique pour la création variétale et que son emploi peut avoir des répercussions sur les itinéraires de culture. Il est donc nécessaire d’évaluer a priori les risques potentiels et de vérifier en vraie grandeur l’absence d’effets dommageables, ce qui suppose des essais en champ. On ne peut donner un avis d’opportunité sur une plante génétiquement modifiée qu’au cas par cas.

Le pôle met en exergue l’importance du besoin de recherche en amont, tant pour les outils – les méthodes de transgénèse – que pour les cibles – les applications d’intérêt économique – et les méthodes d’évaluation. Il souligne enfin qu’il convient, à terme, de transférer les technologies vers les PME du végétal spécialisé.

En ce qui concerne la propriété intellectuelle, Végépolys se prononce clairement pour le maintien de l’accès le plus large possible aux méthodes, outils et ressources nécessaires à l’innovation végétale.

Végépolys, conscient des freins à l’acceptabilité des OGM, a déclaré que les activités du pôle devront être « en stricte conformité avec le cadre réglementaire ». À partir de ces prises de position, Végépolys étudie de façon concrète et constructive les projets collaboratifs faisant appel à la transgénèse.

b. La délocalisation de la recherche

L’activité de recherche OGM se poursuit en laboratoires en France, mais, depuis 2007, les essais plein champ ont essentiellement dus être arrêtés en France et transférés vers d’autres pays.

Par exemple Limagrain, pour sa phase de recherche, s’implante essentiellement aux Etats-Unis et un peu au Canada, notamment pour la preuve du concept, c'est-à-dire pour vérifier que le système qu’on teste fonctionne, pour la sélection des produits que l’on va commercialiser, et pour les études réglementaires. Cette société a fermé son laboratoire d’Évry et celui qu’elle avait en Angleterre en 2006.
Depuis 2008, elle a transféré ses essais plein champ aux Etats-Unis et dans d’autres pays européens, lorsque le produit est bien identifié, bien caractérisé et prêt à être commercialisé, notamment en République tchèque, en Espagne, en Roumanie, en Slovaquie. Les essais qui sont essentiellement destinés au dossier réglementaire pour l’Europe n’y sont que très peu acceptés, mais ces pays n’ont pas de tradition de « faucheur volontaire » et les recherches y sont donc respectées.

Les autres entreprises ont également délocalisé hors de France et d’Europe leurs outils de recherche. Syngenta a fermé son site anglais il y a quelques années. Bayer a diminué ses effectifs en France, et a fermé un site en Allemagne, s’est maintenu en Belgique, mais surtout a créé un laboratoire important aux Etats-Unis, où cette société a racheté une société de biotechnologies avec une centaine de personnes. BASF maintient un laboratoire en Belgique sur des travaux sur le riz, et développe des activités aux Etats-Unis.

Les sociétés de biotechnologie végétale OGM ont pratiquement disparu en France. La société LemnaGene, en Rhône-Alpes, a été rachetée en 2005 par des Américains, qui ont fermé le laboratoire en 2006. Meristem Therapeutics, qui développait des maïs pour produits pharmaceutiques, a été obligée de fermer il y a maintenant trois à quatre ans. Cellectis qui travaille un peu dans ce domaine, fait l’essentiel de sa recherche sur le végétal aux Etats-Unis. Par contre, au niveau pharmaceutique, cette société a une activité très importante en France, car le génie génétique est accepté lorsqu’il est à des fins thérapeutiques.

A propos du végétal spécialisé, celui ci présente des opportunités très intéressantes pour développer des innovations par transgénèse. Par exemple, la structure variétale des arbres fruitiers et de la vigne est clonale : les plantes sont multipliées par greffage puis commercialisées et identifiées par le consommateur sous leur nom de variété (golden, gala ...).

L’apport d’une nouvelle variété par hybridation conventionnelle est possible mais très lent, et il est difficile de faire pénétrer une nouveauté à tous les échelons de la filière professionnelle. La transgénèse, au contraire, permet une amélioration ponctuelle ciblée d’un caractère. Elle ne modifie pas l’ensemble des caractéristiques agronomiques d’une grande variété, ce qui devrait faciliter l’acceptation de l’innovation.

Le secteur comporte également des productions qui ne sont pas directement alimentaires. C’est le cas des porte-greffes, des plantes ornementales ou médicinales. Certains caractères particuliers peuvent être efficacement traités par transgénèse : ainsi, on connaît suffisamment les gènes qui régulent la floraison de ces plantes pour arriver à réduire drastiquement la période juvénile de l’arbre.

Un sélectionneur de pommiers, par exemple, pourra alors réaliser une amélioration génétique en faisant un croisement par an au lieu d’attendre de cinq à dix ans entre chaque génération. Cette technologie permet également de ne retenir en fin de cycle de sélection que des individus qui ne sont plus porteurs du transgène.

La cisgénèse

La « cisgénèse » est un processus de génie génétique qui permet de transférer artificiellement des gènes entre des organismes qui pourraient être croisés selon des méthodes d'hybridation classiques.

Dans les méthodes de sélection classiques, de multiples rétro-croisements doivent être réalisés, chacun demandant au minimum plusieurs mois, pour créer un nouveau cultivar2 en éliminant les caractères indésirables.

La cisgénèse présente l'avantage sur ces méthodes qu'elle peut permettre la création de nouveaux cultivars plus rapidement et à moindre coût.

A la différence de la transgénèse, les gènes sont transférés seulement entre des organismes étroitement apparentés.

Le végétal spécialisé représente plusieurs centaines d’espèces végétales différentes et plusieurs milliers de variétés, si bien que le nombre de génotypes à analyser et à améliorer est considérable.

De plus, certaines espèces se montrent très récalcitrantes face à ces méthodes. Ainsi s’explique le retard que nous avons pris dans la mise en œuvre des méthodes de transgénèse les plus innovantes, comme la production de plantes transgéniques qui ne contiennent plus de gène marqueur ou dans lesquelles il est possible de réaliser ultérieurement une insertion ciblée du transgène.

Il faut tenir compte des particularités économiques de ce type de production. Le marché potentiel d’une variété transgénique d’un fruit, d’une plante ornementale ou d’une plante médicinale est très limité par rapport à celui d’une variété de maïs ou de soja. Il est donc très difficile de rentabiliser le lourd investissement que demande la mise en œuvre des biotechnologies. Cela explique la faiblesse de la recherche privée dans le secteur. En France et à l’étranger, ce sont surtout des acteurs publics qui mènent la recherche.

Par exemple, face au défi que représente pour eux l’évolution de la réglementation sur les pesticides, les producteurs de fruits sont prêts à s’engager dans des domaines d’innovation aussi différents que les méthodes biologiques, le développement de molécules destinées à stimuler les défenses naturelles des plantes, l’amélioration des variétés par hybridation et le développement d’outils de transgénèse. Très peu nombreux sont ceux qui privilégient dogmatiquement un type d’innovation et excluent les autres.

Les biotechnologies non OGM à l’INRA

Les OGM ne constituent qu’une forme particulière d’innovation en biotechnologies et ne doivent pas occulter la dynamique, les atouts et les perspectives d’innovation de la recherche française en la matière.

En France, dans les domaines des biotechnologies vertes et des biotechnologies blanches, l’INRA a développé des partenariats tournés vers l’innovation et inscrits dans des coopérations internationales très fortes.

A titre d’exemple, en biotechnologies vertes, la technique de « eco-tilling » mise au point par une équipe de l’INRA ou les techniques de sélection assistée par marqueur permettent d’accélérer le processus d’amélioration des variétés, en faisant gagner quelques années dans un processus qui dure 10 à 15 ans pour les plantes annuelles. Un groupement sur les biotechnologies vertes a été lancé en 2011.

Quant aux biotechnologies blanches, elles recouvrent une large palette d’outils et de procédés biologiques visant à partir de la biomasse, à transformer en vecteurs d’énergie, en produits chimiques et en polymères les différentes molécules qui seront extraites. Plusieurs projets d’envergure rassemblent de nombreux acteurs publics et privés.

Elles sont considérées par de nombreuses organisations comme un levier majeur de croissance économique et de transition vers une bio-économie fondée sur l’exploitation du carbone renouvelable. L’OCDE estime ainsi que la valeur des ventes de produits issus des biotechnologies blanches devrait passer de 48 milliards d’euros en 2008 à 340 milliards d’euros en 2017.

En revanche, selon la place qu’ils occupent dans la filière, tous ne sont pas prêts à s’engager de la même façon. Les pépiniéristes ou les groupes semenciers, qui interviennent en amont, sont assez demandeurs en matière de recherche. Les producteurs, pour leur part, ont conscience qu’ils fournissent des produits frais ayant une forte image de nature, de terroir, de bénéfice pour la santé, mais que cette image est entachée par certaines communications faites dans les médias, par exemple par une émission intitulée « Du poison dans nos assiettes ».

c. La perte d’une expertise nationale indépendante

Les universités et les instituts français ont fortement réduit leurs activités sur les OGM.

L’ANR a même arrêté de faire des appels d’offres sur les OGM puisqu’elle ne recevrait pratiquement plus de dossiers. Il reste quelques activités sur les espèces modèles. Mais il résulte de cette situation la diminution du nombre d’experts français pour faire l’évaluation des dossiers, et donc des risques accrus et une moindre indépendance de l’expertise nationale.

Cette perte d’expertise, pour l’instant limitée, pourra se révéler fortement préjudiciable à terme, et il convient d’évaluer le risque de l’inaction de manière urgente.

d. La clause de sauvegarde

Philippe Kourilsky, ancien directeur de l’Institut Pasteur et co-auteur d’un rapport sur le principe de précaution en 1999, déclarait devant la mission d’information sur les OGM en 2005 « en l’absence de certitudes, la précaution consiste à privilégier la rigueur procédurale ».

Dans le domaine du « risque du risque », le principe de précaution devrait s’apprécier par le respect des procédures. Le fait que le principe de précaution reconnu au niveau national dans le champ de l’environnement inspire la jurisprudence dans des domaines plus larges, et notamment dans celui de la santé publique et dans celui de la sécurité, devrait amener le législateur à préciser dans une loi ordinaire les champs d’application du principe de précaution et la notion de risques potentiels au regard du respect des procédures dans ces différents champs.

Sur le thème OGM et santé, aucune publication n’a à ce jour confirmé l’existence de risque dans ce domaine. Et pourtant c’est l’argument du principe de précaution qui a été employé pour justifier l’utilisation par la France de la clause de sauvegarde du maïs Monsanto 810.

La Cour de justice européenne a condamné la France pour la mise en place de la clause de sauvegarde ; le Conseil d'Etat a suivi cet arrêt de la Cour européenne de justice et considéré que le ministère de l'Agriculture n'avait pas pouvoir général pour prendre ces arrêtés. En effet,  les Etats membres ne sont compétents pour prendre des mesures d'urgence que s'ils établissent, non seulement l'urgence, mais aussi l'existence d'un risque important mettant en péril de façon manifeste la santé humaine, la santé animale ou l'environnement. Le Conseil d’Etat a donc jugé que la France n’avait pas sur démontrer l’existence d’un tel risque.

Ainsi, dans son communiqué, le Conseil d’Etat indique que « le ministre de l'agriculture n'a pu justifier de sa compétence pour prendre les arrêtés, faute d'avoir apporté la preuve de l'existence d'un niveau de risque particulièrement élevé pour la santé ou l'environnement ».

Pourtant, le ministre de l’environnement a déjà déclaré qu’une nouvelle procédure suspensive serait déposée.

Nous partageons l’avis de la Cour de Justice européenne, car la France n’aurait jamais pu démontrer que des éléments nouveaux remettent en cause l’innocuité de ce maïs, autorisé depuis plus de 10 ans en France mais dont la culture est suspendue depuis l’activation de la clause de sauvegarde, et toujours cultivé en Espagne. D’ailleurs, à l’inverse de ce que déclare Mme la ministre de l’environnement, les comités de préfiguration du Haut Conseil des Biotechnologies n’a jamais parlé en décembre 2009 de dangers nouveaux.

Les OGM ont été en fait les victimes expiatoires du Grenelle de l’environnement. Si le Gouvernement met en place un nouveau moratoire avant les semis de printemps, il s’exposera à une nouvelle annulation. Il serait quand même étonnant qu’un sujet qui devrait être traité sous l’angle de la propriété intellectuelle fasse l’objet d’une guerre procédurale où les scientifiques serviraient d’alibi à des décisions politiques déjà prises. Malheureusement, la firme Limagrain en France et BASF en Allemagne ont d’ores et déjà délocalisé leurs laboratoires de recherche sur les biotechnologies végétales.

3. Faut-il un débat public sur la biologie de synthèse ?

La biologie synthétique est un domaine scientifique combinant biologie et principes d'ingénierie dans le but de concevoir et construire (« synthétiser ») de nouveaux systèmes et fonctions biologiques.

Dans sa phase actuelle, les efforts en biologie synthétique visent à rendre le génie biologique plus simple, plus rapide, plus accessible et moins onéreux en faisant un usage extensif de principes d'ingénierie (standardisation, automation, conception assistée par ordinateur…). La biologie synthétique doit cependant affronter des défis d'ingénierie uniques au substrat biologique, tels la compréhension incomplète des principes de fonctionnement des systèmes biologiques ou l'évolution.

Modifier et synthétiser le vivant pose aussi des questions philosophiques et éthiques nouvelles et complexes, en relançant la question de la brevetabilité du vivant ou de ses produits et plus généralement de la propriété intellectuelle, mais pose également à l’extrême la question des OGM puisqu’il ne s’agit pas là de transférer un gène unique, mais de construire, en bottom-up, un système biologique.

L’Office Parlementaire a été saisi de cette question et un rapport sera prochainement rendu par Mme Geneviève Fioraso, députée de l’Isère.

Sans préjuger de ses conclusions, il nous parait indispensable qu’un débat public soit ouvert sur ce thème afin de le traiter le plus en amont possible et de détecter dès à présent les questions soulevées par la société.

D. QUEL AVENIR POUR LES NANOTECHNOLOGIES ?

La nanoscience est le terme générique qui regroupe toutes les recherches sur des objets nanométriques, c'est-à-dire des objets mesurant entre 1 et 100 nanomètres. Il ouvre un monde où il devient possible de structurer la matière à l'échelle atomique. Mais il ne s’agit pas uniquement d'une miniaturisation: à cette échelle, les concepts couramment utilisés pour la physique macroscopique sont obsolètes, et les comportements se révélent intrinsèquement basés sur la mécanique quantique.

La nanotechnologie vise à développer de nouveaux produits qui portent un développement industriel majeur, avec des implications importantes dans un large éventail de domaines. Les possibilités entrevues s’annoncent comme révolutionnaires dans le domaine des communications, de l'optique et l'électronique.

La convergence avec les autres grands domaines scientifiques, grâce à la recherche interdisciplinaire, est source de nouvelles utopies. Par exemple dans les sciences de la santé, les espoirs suscités par les nanobiotechnologies sont nombreux, et permettent déjà d'importantes percées dans le domaine du diagnostic, avec des techniques non invasives in vivo, et le ciblage de médicaments.

Dans la vie quotidienne, certains produits qui sont déjà sur le marché, tels que les écrans solaires ou de la peinture, contiennent des nanoparticules, et le grand public ne le sait pas. Il en découle diverses questions légitimes soulevées par la population.

1. Nanotechnologies : un monde nouveau, des questions nouvelles

Pour définir la situation des nanotechnologies en France aujourd'hui, il suffit de dire que 5,6% des publications mondiales dans ce domaine sont d’origine française, tandis que moins de 2% des brevets déposés dans le monde dans ce domaine sont déposés en France.

Ce décalage montre un déséquilibre entre la recherche en amont et le transfert industriel, la valorisation de la recherche qui est faite aujourd'hui en France.

Les nanotechnologies ne sont pas seulement un enjeu scientifique et technologique, c’est également un enjeu industriel et économique et un phénomène sociétal.

Les nanotechnologies regroupent tout un ensemble de technologies, de la physique-chimie, jusqu'à la médecine, la biologie, l’informatique, l’électronique. L’approche de la réglementation européenne se fait par secteurs.

Dans le secteur des cosmétiques par exemple, un étiquetage obligatoire à partir de 2013 a été défini par le législateur européen. Il est exigé pour toutes les compagnies de ce secteur. Quel sera le sens du message ? Que va se dire le consommateur qui va acheter sa crème solaire quand il lira « nano » ? Aura-t-il peur?

a. Les insuffisances de REACH

La directive REACH est un des grands succès de la politique environnementale européenne. Elle impose à toute entreprise fabriquant ou important des substances chimiques pour un usage supérieur à une tonne par an de déclarer ces substances et de prouver leur innocuité pour l’homme.

La question se pose alors pour les nanomatériaux qui sont en fait également des substances chimiques. Ce seuil d'une tonne est-il toujours adapté ? Probablement pas. La directive REACH nécessite donc une adaptation.

En effet pour le moment, il est difficile de caractériser les dangers potentiels des nanomatériaux. On ne sait pas les définir, tout du moins les définitions ne sont pas toutes les mêmes selon les pays, et il n’existe pas de tests standards.

C’est pour répondre à ces questions et plus généralement à l’adaptation de la directive REACH aux problématiques des nanomatériaux que la Commission européenne aidée du consortium SAFENano a lancé deux projets de recherche pour une durée de 12 à 16 mois :

- REACH-NanoHazEx qui s’interroge sur les risques liés aux nanomatériaux (prévoir des scénarios, s’interroger sur les doses admissibles, réfléchir sur l’exposition, la caractérisation des risques…)

- Reach Nanoinfo qui s’interroge sur les informations à fournir pour se conformer à REACH (notamment, quels types de tests mettre en œuvre ?). Le projet va également déterminer si des informations complémentaires qui ne sont pas demandées actuellement sont nécessaires pour se conformer pleinement à l’esprit de la directive.

b. L’évolution des règlementations françaises et européennes

La Commission européenne a récemment publié une recommandation sur la définition des nanomatériaux.

Les nanotechnologies sont un domaine où le simple fait de donner une définition pose un énorme problème, qui demande des années de débats entre experts. Il ne s’agit ni d’un seul domaine scientifique, ni d’un seul secteur technologique, mais de quelque chose qui regroupe plusieurs disciplines et des industries différentes.

La comparaison de la législation européenne avec la législation française montre que la France a été le premier pays au monde à choisir une approche très différente, qui était de légiférer par un seul texte à travers tous les secteurs industriels.

Ce texte unique ne dépend pas de secteurs d’application. Il crée une déclaration obligatoire de nanomatériaux pour les personnes qui travaillent sur le marché, ainsi que dans les instituts de recherche.

Ce texte se heurte au problème de définition qui a demandé, à l’échelle européenne, des années avant d’être résolu. Plusieurs pays sont en passe de suivre notre exemple, comme la Belgique et l’Italie.

Les prochaines années nous indiqueront si d’autres pays vont suivre cette approche unifiée à travers tous les secteurs, ou si, au contraire, la réglementation va se faire domaine par domaine, comme à l’échelle européenne.

c. Le débat public

Les nanotechnologies, au sein de la société, en particulier la société française, sont associées à toutes sortes de promesses, de peurs, des demandes de participation du public, à la fois dans la définition des objectifs de cette recherche et dans les avis des différents comités d’éthique. Quelles sont les particularités, pays par pays, de ce débat social sur les nanotechnologies ?

À l’échelle européenne, ce débat a également lieu.

En France, le débat national a été extrêmement radical, ou radicalisé par certains participants, notamment ceux de Pièces et Main d’œuvre, qui ont empêché tout débat public.

Par contre, cette situation est très mal connue du public français. Un sondage IPSOS, indiqué en audition par Alexei Grinbaum du CEA, réalisé juste après la fin du débat national, montre que 88% du public français n’a même pas entendu parler de ce débat national.

Que faut-il faire pour, à la fois, informer le public, lui permettre de donner son avis, et faire en sorte que le scientifique écoute cet avis et en tienne compte ?

Sur le site Web du débat français, il y a beaucoup de textes, beaucoup de rapports, sans images sur la page d’accueil. Ce site est très austère et technocratique.

Sur le site du débat national aux Pays-Bas, qui a eu lieu un peu plus tard, le message envoyé est très différent : l’image d’un scientifique devant son microscope.

Au Royaume-Uni, le site du débat national traduit une différence de culture : il s’agit de montrer les différentes finalités de ces nouvelles technologies, pour la médecine, la maison intelligente, l’environnement. La perception de la science et de la technologie au sein de la société change profondément entre les différents pays européens.

En Allemagne, il n'y a même pas de site Web, juste quatre dates de réunions en 2012, qui correspondent au débat national que nous avons organisé en France.

En Australie, le gouvernement a organisé, au niveau ministériel, un programme d’éducation « Public Awareness Engagement ». C’est une action ministérielle, et non pas un site Web associatif. Le gouvernement s’est occupé directement des programmes d’éducation, et de la communication avec le public. Cela existe dans beaucoup de pays au monde, mais très peu en Europe.

On atteint, en Australie, un chiffre assez impressionnant de 76% des gens qui ont entendu parler des nanosciences et des nanotechnologies. À titre de comparaison, après le débat national français, ce chiffre atteint à peine 59%, même en incluant ceux qui en ont entendu parler mais qui ne savent pas de quoi précisément il s’agit (IPSOS, mars 2010). Les actions choisies par le gouvernement australien pour l’éducation du public, pour l’éducation des chercheurs aux questions sociétales et éthiques, et pas uniquement une information du public, ont produit un impact plus impressionnant que le débat direct, sans information, sans éducation.

Dans d’autres pays, aux Etats-Unis par exemple, les programmes d’éducation sont également présents au niveau gouvernemental. L’agence National Nanotechnology Initiative (NNI) organise plusieurs programmes d’éducation pour toutes sortes de publics. Il en résulte un véritable effet, non pas sur le plan du débat radical, mais pour les étudiants des lycées et des universités.

Aux Pays-Bas, le nombre d’initiatives qui ont été prises pendant le débat national est impressionnant. La plupart sont des initiatives d’éducation et d’information par les médias à l’échelle nationale.

Tout cela souligne les différences de méthodes à l’échelle mondiale et européenne dans ce débat, dans cette interaction entre la société et le domaine des nanosciences et des nanotechnologies.

Nous sommes donc confrontés à de nombreux défis, mais les possibilités sont également nombreuses. L'objectif sera ainsi de mener en parallèle des évaluations sur la recherche et les risques, et l’adaptation de la législation. Le projet Minatec est à cet égard intéressant.

Le projet Minatec à Grenoble

Le projet Minatec, à Grenoble, s’est caractérisé par une rapidité de prise de décision, une vision utilitariste des nanotechnologies impactant fortement sa structuration et le choix de la démocratie représentative plutôt que participative.

Ses opposants ont trouvé dans cette méthode d’action des arguments d’opposition qui viennent en écho de risques liés aux nanotechnologies, risques qui sont reconnus tant au niveau national que par les décideurs locaux.

L’association sans doute trop tardive des citoyens, empêchant la tenue de conférences de consensus, a amplifié le phénomène de contestation. De plus, le fait que la réponse aux risques ait porté quasi-exclusivement sur la santé alors que les questions des citoyens portaient essentiellement sur les enjeux sociétaux a sans doute augmenté le sentiment de méfiance.

Mais comment ne pas rejoindre la position exprimée, en décembre 2004, par notre collègue Geneviève Fioraso qui reconnaissait « les préoccupations légitimes que l’on peut avoir sur certaines utilisations de la recherche », tout en ajoutant : « mais il vaut mieux développer cette recherche dans des pays démocratiques : les développements se feront, mais en France, ils sont encadrés. »

2. Les questions qui font débat

Les nanotechnologies offrent de nombreuses opportunités. Notamment par l’interdisciplinarité, de plus en plus de néologismes voient le jour tels la nanobiologie, la nanoinformatique, et la possibilité d’une « grande convergence » est évoquée par certains chercheurs. Toutefois, ces développements posent un certain nombre de questions légitimes

a. Nanotechnologies et vie privée

La nanotechnologie soulève de nouvelles questions éthiques qui devraient être débattues par la communauté des sciences sociales.

De par leur taille, les nano-objets sont intrusifs, et sont difficilement repérables. Ainsi, outre les usages militaires possibles, des usages malveillants peuvent conduire à de nombreux problèmes éthiques, notamment liés au respect de la vie privée.

Par exemple, le développement des nanorobots qui peuvent circuler librement, envoyer et recevoir des informations, pose une réelle menace. Comment savoir que l’on est espionné ? Comme détecter un nano-robot ? Quelles peuvent-être ses capacités de stockage ? De transmission ?

b. Cycle de vie et usages dispersifs

Une autre question fondamentale est le cycle de vie des nanoparticules : quelle est la durée de vie d'un nano-objet, et que lui arrive-t-il après qu’il soit devenu inefficace ou inopérant ?

Cette question n'a pas été abordée par la communauté scientifique, et semble de plus en plus important, alors que des nanoparticules et nanomatériaux sont commercialisés sous diverses formes.

Nous ne voudrions en effet pas avoir à affronter un autre scandale du type de l'amiante.

c. Nanoparticules, santé et environnement

La troisième question importante concerne les incertitudes et les risques potentiels en termes de toxicité ou de dissémination dans l'environnement.

Au cours de nos voyages en Belgique, où nous avons visité Imec, qui commercialisera prochainement des semi-conducteurs de 22 nm, aux Etats-Unis, et en Suède, mais aussi lors de nos audiences privées et publiques, nous avons remarqué que les chercheurs ont intégré ce questionnement et que de nombreux programmes, nationaux et internationaux sont en cours pour étudier l’impact sur la santé et l’environnement d'un large éventail de nanomatériaux et nanoparticules.

Un REACH des nanomatériaux semble donc envisageable à terme.

3. Quelle dynamique en France et dans le monde ?

a. Le pôle de compétitivité Minalogic

« Minalogic » à Grenoble, pôle spécialisé dans la micro et nanoélectronique et qui compte 200 partenaires, dont 120 PME, a une certaine expérience des freins que rencontre l’innovation dans le domaine des nanotechnologies.

Le pôle Minalogic a permis aux PME d’accéder aux innovations, d’abord en leur permettant de collaborer avec les laboratoires publics, qui jusqu’alors travaillaient surtout avec les grands groupes industriels. Cet accès des PME à l’innovation a également été favorisé par le travail en réseau, comme le prouvent les derniers projets labellisés. Le dispositif du Pôle fonctionne ainsi comme un écosystème favorable à l’innovation technologique.

Pour porter l’innovation vers le marché, il faut aussi accélérer la création de start-up. Aujourd’hui, les grands groupes ne portent plus les risques, laissant le secteur de l’innovation orphelin. Ce secteur a, en outre, besoin d’une vision à moyen terme en matière de capital-risque, les fonds d’investissement étant trop pressés pour financer correctement des innovations de rupture, qui supposent une culture industrielle, et pas seulement financière. C’est particulièrement vrai dans le domaine des nanotechnologies, qui souffrent d’une image négative auprès des investisseurs.

C’est en matière d’information du public que la technique du cas par cas est essentielle. Les nanotechnologies sont déjà partout présentes : téléphones, automobiles, matériaux de construction, entre autres. Il faut aujourd’hui mettre l’accent sur le fait qu’elles constituent une solution pour les grands enjeux de nos sociétés, dans le domaine de la santé, de l’efficacité énergétique, de la sécurité, de la gestion des mégapoles, sans compter qu’elles sont autant d’opportunités économiques.

À Minalogic, c’est une approche par les usages qui est privilégiée. Sans être nécessairement innovante sur le plan technologique, elle est capable de bouleverser les données industrielles.

Le dispositif des pôles, lesquels ont montré leur capacité à constituer un écosystème propice à l’innovation, doit désormais s’inscrire dans la durée. Après la construction de projets, les pôles « 3.0 » doivent constituer le deuxième étage de la fusée, celui où ces projets se transforment en valeur économique et sociétale.

b. Les nanotechnologies aux Etats-Unis

Alors qu’en France le débat public est devenu très difficile sur les nanotechnologies, les Etats-Unis n’hésitent pas à en parler et à les étudier de manière ouverte.

Cette approche se fait dans un esprit de responsabilité, comme le montrent les études du Centre pour les conséquences sur l’environnement des nanotechnologies (CEINT). Cette structure de l’université de Duke, que dirige le professeur Marc Wiesner, étudie les propriétés des nanoparticules afin de déterminer les risques, en mettant en évidence leurs potentiels d’exposition et leurs dangers, en travaillant sur l’utilisation des nanotechnologies dans plusieurs produits et en évaluant les risques associés. Il développe aussi des outils mathématiques pour prévoir les risques, en élaborant des modèles.

Son objectif est de définir les risques pour minimiser l’incertitude liée au développement des nouvelles technologies pour le grand public et pour les investisseurs. Cela se fait dans un centre de l’Etat, financé par l’Etat. Il s’agit d’éviter ce qui s’est passé pour le DDT et l’amiante. Son action est une réponse à la commercialisation de nanoparticules, qui a débuté, même si les quantités produites sont encore très faibles.

Nous sommes donc au tout début d’un processus important : ce domaine scientifique va devenir infini, car il va à terme associer nanotechnologies, biotechnologies et informatique.

CONCLUSION

L’innovation est indispensable. C’est un moteur essentiel du progrès, de la compétitivité, de la croissance. Mais elle doit placer le citoyen au centre de sa dynamique pour être acceptée dans une société qui craint les risques qui peuvent en découler, car innover c’est changer, et changer c’est risqué.
Il faut remettre l’innovation au c
œur de notre culture, au cœur des politiques publiques. Il n’est pas inéluctable que l’innovation patine en Europe, alors qu’elle progresse à une vitesse vertigineuse dans les pays émergents, alors qu’elle reste l’un des éléments constitutifs de la culture américaine, nordique, ou suisse.

Des réformes doivent à notre sens être engagées dans deux directions : rendre le paysage de la recherche et du développement plus lisible en simplifiant le mille-feuille institutionnel actuel, soutenir le développement des entreprises pionnières dans les technologies innovantes. L’innovation doit être un levier de croissance pour la réinsdustrialisation du pays. Elle nécessite d’anticiper sur le marché, de prévoir les technologies émergentes pour être prêt à commercialiser un nouveau produit ou procédé dès qu’il est susceptible de se développer.

Pour conforter les emplois actuels et créer ceux de demain, il faut assurer le continuum entre enseignement supérieur, recherche, innovation, développer de nouvelles filières, irriguer l’industrie et notamment les PME et PMI. L’innovation, qu’elle soit technologique, managériale, organisationnelle ou sociale, doit devenir un des piliers industriels de la France. Son organisation stratégique doit être nationale et européenne, sa déclinaison stratégique doit être confiée aux régions. Un effort particulier doit être porté aux technologies de rupture, à la mutation verte de certaines filières de production, aux procédés économes en énergie, à l’organisation du travail dans les usines de demain, à la ville de demain, à l’apport des sciences humaines et sociales au développement technologique.

Il faudra également investir plus dans la biologie et les sciences de la vie ; ce domaine qui connaît des évolutions rapides est un domaine scientifique phare du XXIeme siècle. La compréhension des mécanismes biologiques est essentielle au progrès sociétal (procréation, neuroimagerie, nutrition, maladies infectieuses, vieillesse mais également énergies renouvelables et environnement) ainsi qu’aux méthodes d’analyse (santé, environnement, thérapies nouvelles, télémédecine). La bioéconomie représentera environ 20% du PIB des pays développés à l’horizon 2030. Elle doit faciliter les convergences Bio- Nano-Info-Cogno.

La situation n’est pas figée, comme l’a montré le questionnaire intergénérationnel de l’OPECST : les jeunes lycéens interrogés ont une conscience assez largement développée de la nécessité et de l’utilité de l’innovation, et acceptent le lien entre innovation et progrès, à condition que celui-ci soit maîtrisé. Ils ont aussi conscience de la nécessité de prévoir des évolutions, de tenir compte des contraintes de nature économique, notamment dans le domaine énergétique. Ils insistent sur la nécessité de prendre les précautions suffisantes, même si le degré de conscience qu’ils en ont diffère selon les secteurs technologiques.

Les facteurs d’innovation, comme les freins à son essor, sont identifiés clairement :

Dans le système éducatif, universitaire et de recherche : la capacité de l’école à développer créativité et spontanéité ; le goût du travail de groupe et interdisciplinaire ; l’acceptation du risque et de l’échec ; l’intérêt des universités pour la valorisation de leur recherche ; l’intéressement et la mise en responsabilisation des chercheurs par le service à la société ; la proximité de structures proches d’expérimentation et la création de plates-formes expérimentales.

Dans l’entreprise et l’administration : un système fiscal incitatif ; la possibilité de combiner différents types de financement, du capital risque à l’accès à l’épargne privée et publique ; l’existence de structures d’accompagnement efficaces ; le souci de prendre des brevets et de connaître les règles de la propriété intellectuelle ; une hiérarchie et des procédures administratives moins pesantes.

Dans la société : l’acceptation du changement et des idées nouvelles ; la promotion de l’esprit d’entreprise dans la société, les écoles, les medias ; le prisme culturel ; la capacité de la société à dépasser ses carcans ; l’existence d’un environnement favorable à la prise de risque, mais aussi au dialogue et à la rencontre.
Certaines innovations de rupture peuvent être identifiées. Elles concernent notamment le stockage de l’électricité, la mobilité électrique, les réseaux intelligents, le développement de l’éolien off-shore, les matériaux intelligents notamment grâce aux nanotechnologies, les batteries à métaux liquides. L’analyse des freins à l’innovation est, elle aussi, de nature consensuelle, ce qui permet de réfléchir aux solutions possibles. Le domaine est vaste, qu’il s’agisse de l’évolution des universités, des relations entre recherche publique et privée, de la formation et de la carrière des chercheurs, du lien entre le système de formation et les entreprises, ou de l’insuffisance du venture capital.

L’innovation est mondiale. Refuser certaines recherches au plan national devient de plus en plus problématique et handicapant pour un pays. Ce ne peut être qu’une approche de court terme. Les recherches qui sont de moins en moins possibles en France, comme celles relatives aux OGM, sont faites ailleurs, éventuellement par des laboratoires français ou des entreprises françaises.

Les peurs diffèrent selon les pays, les tolérances aussi. Les approches du nucléaire sont opposées en France et en Allemagne, celles des OGM en France et aux Etats-Unis. Il en est de même pour l’expérimentation animale, la perception des ondes électromagnétiques, la bioéthique, l’expérimentation sur les cellules souches embryonnaires. Les raisons en sont culturelles. Elles sont aussi parfois historiques, comme par exemple ce qui est enseigné à l’école.

Aux Etats-Unis, s’il n’y a aucun problème sur les nanotechnologies et les OGM, les créationnistes bloquent le débat sur l’évolution des espèces, et refusent la recherche sur les cellules souches embryonnaires.

Les risques ne sont pas perçus de la même manière dans tous les pays. Leur perception diffère également entre générations. Il est cependant possible de les cartographier, afin de prendre la mesure des priorités de toute politique visant à les réduire et à les maîtriser.

Les risques peuvent en effet être maîtrisés. C’est du reste la responsabilité du politique, qui doit mettre en place les mécanismes permettant leur prévention, mais aussi prendre les décisions nécessaires en cas de difficulté ou d’accident. La gestion des suites de la catastrophe de Fukushima est à cet égard très importante.


A partir de ce constat, que faut-il faire ? S’inspirer des exemples qui ont fait la preuve de leur efficacité. Mener une action volontaire tant au niveau national qu’européen.

Les missions à l’étranger ont permis de remarquer plusieurs expériences dont il serait possible de s’inspirer :

Les universités peuvent avoir des missions très différentes. Elles peuvent, comme aux Etats Unis, être un pont entre l’industriel et les start-up, dont elles peuvent devenir actionnaires pour donner une autre dimension à leurs recherches. Elles peuvent développer, comme en Belgique, une fonction nouvelle de la valorisation qui devient un service à la société. Ce concept nouveau peut sembler être un changement mineur, mais en réalité il constitue un changement sémantique important, qui relève presque du changement de paradigme. En effet, l’université, et plus précisément sa fonction de valorisation de la recherche, ne sont plus uniquement vues sous l’angle de leur impact économique, mais par leur rôle vis-à-vis de leur environnement et des citoyens. Ainsi, si la recherche doit en effet générer de la valeur, cette valeur doit également être une réponse aux besoins exprimés par la société, et l’université doit s’assurer que le citoyen trouve sa place dans le processus d’innovation.

Les structures d’accueil des jeunes entreprises ne sont pas seulement des lieux de convivialité, elles permettent des liens débouchant sur des projets et des coopérations. L’écosystème ainsi créé est un accélérateur de motivation, comme au centre d’innovation de Cambridge aux Etats-Unis.

L’accompagnement des chercheurs peut prendre diverses formes. Il est souvent possible de s’en inspirer. L’objectif poursuivi reste le même : il faut construire une passerelle au dessus de la vallée de la mort pour que les start-up nouvellement créées puissent se développer et atteindre une masse critique suffisante. Cela suppose de les aider à poser les problèmes de financement, de commercialisation, de propriété intellectuelle.

La valorisation de la recherche est l’un des chantiers qu’il faut mettre en place. Les exemples d’expériences réussies sont nombreux. Ils ont été amplement décrits dans ce rapport. Il faut maintenant s’en inspirer et transposer ce qui peut l’être des expériences réussies à Leuven, à Louvain-la-Neuve, à Twente, à Heidelberg. Les solutions qui y ont été mises en œuvre participent du même esprit que celles appliquées par les universités américaines. Mais elles sont davantage à notre taille.

La réflexion doit être développée sur la perception des risques et sur les réponses à y apporter. Ce doit être l’objet d’études approfondies, tant les risques sont liés à des peurs qui ont des racines historiques. Le risque nucléaire est ainsi associé à des peurs liées au souvenir d’Hiroshima et de Nagasaki, à celui de Tchernobyl et maintenant de Fukushima. Il faut mieux connaître ces peurs collectives, qu’elles soient rationnelles ou irrationnelles et accepter d’en parler. En tout état de cause, le politique doit traiter du risque perçu.

Les initiatives qu’il faut prendre relèvent soit du niveau national, soit du niveau européen.

Relèvent du niveau national les actions en matière d’éducation, les liens avec les citoyens pour rétablir la confiance, l’accompagnement des innovations, la valorisation des résultats de la recherche, la fiscalité, le financement de la politique nationale de recherche et la mise en œuvre du principe de précaution.

Donner aux élèves le goût des sciences, de l’expérimentation et de l’abstraction doit redevenir un objectif fondamental de notre système d’enseignement. Une telle action doit être menée avec détermination à tous les échelons. Modifier le regard que l’on porte sur le doctorat est l’un des moyens pour améliorer la confiance du citoyen dans la science et dans les scientifiques.

Le succès rencontré par le questionnaire de l’OPECST sur le doctorat (plus de 1300 réponses de docteurs) montre l’actualité d’une nouvelle approche du doctorat, dans un contexte international où la reconnaissance de ce titre est de plus en plus importante pour travailler dans des équipes plurinationales et pour faire partie des réseaux internationaux. Selon les docteurs et doctorants qui ont répondu au questionnaire, la France dispose d’un fort potentiel dans le domaine de l’innovation et celui-ci n’est pas suffisamment favorisé. Par conséquent l’innovation en France est considérée comme moins dynamique qu’à l’étranger.

Il faut rétablir la confiance dans la capacité des responsables à gérer les crises. Or l’on constate dans la population un manque de confiance dans les autorités. C’est très net lorsque l’on interroge des lycéens de première. Mais ce constat est beaucoup plus général.

Il faut créer les conditions de l’arrivée sur le marché, tant pour les nouveaux produits que pour les nouveaux services. Il faut permettre la rencontre d’une idée, d’un chef d’entreprise, et de moyens financiers et organisationnels.

Le dépôt de brevets est une étape dans ce processus. Elle n’a pas à être systématique, mais elle peut être importante, et c’est pourquoi il faut progresser plus rapidement vers la mise en place d’un brevet communautaire. Elle n’est toutefois pas suffisante, tant est élevé le nombre de brevets qui ne sont pas utilisés. Dans certains domaines, il n’est pas sûr que le brevet soit justifié car il peut bloquer le progrès et l’évolution de la connaissance.

Il faut aller plus loin en mettant en place, de manière très volontariste, des bureaux de valorisation de la recherche et adapter en France les expériences qui ont fait leurs preuves dans des pays proches, tant en Belgique qu’aux Pays Bas ou en Allemagne. Ces bureaux existent généralement dans les grands organismes de recherche. Mais ils sont soit inexistants, soit balbutiants, dans les universités. Le dimensionnement de ces structures est essentiel : il ne s’agit plus comme souvent en France, d’y consacrer un ou deux postes. Les exemples étrangers, qui portent en Europe sur des universités de 30 000 étudiants, montrent que pour réussir il faut y employer de 10 à 30 personnes, chiffre que l’on retrouve aux Etats-Unis. Il faut en outre leur donner le statut qu’ils méritent : c’est ainsi qu’en Belgique et en Suède, ils sont considérés comme un des éléments essentiels du « service à la société », et les universités n’ont plus seulement pour missions l’enseignement et la recherche, mais aussi le service à la société.

Le dynamisme de la coopération franco-allemande doit être mis au service de la recherche. Les systèmes d’incitation sont maintenant assez proches, mais il faut passer à un niveau supérieur, en suscitant de manière très volontariste et même systématique des contacts entre laboratoires des deux pays. Ce sera le moyen de répondre au défi de la recherche de nouvelles énergies renouvelables, dans un contexte de réduction des déficits budgétaires.

Les partenariats deviennent de plus en plus importants, soit entre les universités et les entreprises, soit entre les grandes et les petites entreprises. La coordination est un atout. L’apport des alliances est essentiel. Ces structures encore jeunes ont réussi en peu de temps à coordonner les projets de leurs membres. Il faut maintenant leur permettre d’accéder à de nouveaux financements et leur donner les moyens d’être davantage visibles dans le contexte européen et international.

La situation sur le plateau de Saclay, où la coopération entre universités et grandes écoles a été difficile alors qu’il s’agit d’un pôle au potentiel majeur, montre clairement qu’il faut impulser un état d’esprit différent. C’est possible, comme le montre l’exemple de Grenoble ou de l’Université de Lorraine.

Il faut veiller à la stabilité des politiques publiques. Cela vaut pour la fiscalité, mais aussi pour les moyens à la disposition de l’appareil de recherche. Il existe actuellement un tissu plus propice à l’innovation à l’université, dans les grandes écoles, les grands organismes de recherche et dans l’industrie. Il ne faut pas le déchirer, ce qui suppose de poursuivre les politiques mises en place depuis le début des années 2000.

Il faut assurer la pérennité des sources actuelles du financement de l’innovation, même si la tâche est ardue : le financement privé reste limité –il n’a pas augmenté malgré les milliards injectés par le CIR– ; le financement public est de plus en plus contraint ; les financements des collectivités territoriales restent faibles ; les moyens à la disposition de l’ANR sont en diminution ; les financements d’OSEO doivent être assurés dans l’avenir ; le crédit d’impôt recherche devra être évalué et réorienté pour lui donner une nouvelle efficacité. Une réflexion est par ailleurs souhaitable sur la manière dont les financeurs déterminent leurs priorités. L’ANR, dont 50 % du financement correspond à des projets blancs, c'est-à-dire non prédéterminés, doit permettre d’atteindre un équilibre optimal entre appel à projets et crédits aux organismes.

Le rôle des régions est primordial. Selon la loi du 13 août 2004, « la région coordonne sur son territoire les actions de développement économique des collectivités territoriales et de leurs groupements, sous réserve des missions incombant à l'Etat ». Les régions définissent ainsi un schéma régional économique en concertation avec les différents acteurs régionaux, mais ce schéma n’est pas prescriptif. Dans les faits, les leviers d’action sont tous centralisés. Il faut donc une clarification des compétences entre Etat et région.

Il faudra suivre et évaluer de manière attentive les choix financiers résultant des investissements d’avenir, et leurs effets. Il faut avant tout éviter que ne se crée une fracture entre régions. Les plus dynamiques, souvent du fait de leur taille ou de leur richesse, ne doivent pas être les seules à en bénéficier. Or la répartition des fonds du Grand Emprunt lors de la première vague de décisions aboutissait à une concentration excessive des moyens financiers disponibles sur un nombre très faible de régions. Jean-Yves Le Déaut a même déclaré en audition à propos du plan Campus que la France avait perdu le Nord (les pôles de Rennes, Nantes, Lille, Nancy-Metz, Reims, Dijon,.. n’avaient pas été labellisés).

La crise actuelle du venture capital doit être dépassée. Il est en effet particulièrement adapté au financement de l’innovation, qui suppose le goût de l’inconnu et l’acceptation de l’échec.

Le principe de précaution ne doit pas devenir un prétexte pour bloquer la recherche. Il doit au contraire être un principe d’action. Il doit être précisé, les dispositions constitutionnelles qui le mentionnent ne s’appliquant qu’au domaine de l’environnement.

D’autres initiatives relèvent du niveau européen.

Elles ont trait à l’évolution des programmes et des financements européens, aux réponses collectives qui sont nécessaires pour résoudre les nouveaux défis, à la mobilité des chercheurs en Europe et à la création de laboratoires et de réseaux européens.

En matière financière, il faut non seulement augmenter les moyens du Fonds européen d’investissement, mais être beaucoup plus ambitieux et envisager un emprunt européen pour financer la recherche et l’innovation. Le venture capital doit par ailleurs être promu au plan européen, tandis que sa complémentarité avec les prêts bancaires doit être organisée.

La politique européenne de recherche doit être repensée. On ne peut pas se contenter de grandes stratégies dont on sait pertinemment qu’elles n’atteindront pas leurs objectifs si l’on ne met pas en œuvre des moyens beaucoup plus précis et si l’on ne se donne pas l’ambition de nouvelles coordinations et de nouvelles impulsions politiques et financières. Le temps des affirmations et des grandes déclarations est révolu. Il faut enfin définir une vraie politique d’innovation européenne. La politique européenne a laissé trop de pouvoir au Commissaire à la concurrence, ce qui donne lieu une compétition sans limite entre entreprises européennes et qui, au final, les a affaiblies face aux sociétés étrangères pour lesquelles les exigences sont moins strictes et les moyens de coercitions quasi-nuls. Il faut sortir de la naïveté et de l’innocence.
Les problèmes restent nombreux pour aboutir à un véritable espace européen de recherche. Les structures de recherche restent trop fragmentées. La coordination entre la politique européenne de recherche et les politiques des Etats membres reste très insuffisante. Les coopérations internationales restent peu nombreuses.

La stratégie Horizon 2020 ne réussira que si se multiplient les initiatives pour créer un nouveau climat, pour permettre une nouvelle dynamique.

Cette dynamique ne se développera que s’il apparaît qu’elle peut permettre de résoudre les grands défis auxquels nos sociétés sont confrontées : réchauffement climatique, définition de la transition et de nouveaux mix énergétiques, vieillissement de la population, prévention de nouvelles pandémies.

Ces défis sont tels qu’aucun Etat ne peut agir seul. Et pourtant, que de tentations de vouloir conserver son pré carré, dans l’espoir d’obtenir un avantage concurrentiel ! La mise en place de stratégies de développement des énergies renouvelables en est un exemple frappant : une coopération franco-allemande serait profitable, mais reste pour l’instant davantage au niveau des objectifs que de la réalité. Une stratégie européenne serait indispensable, mais tarde à émerger.

Il faut en fait recréer un état d’esprit semblable à celui qui a permis en France, depuis le milieu des années 2000, de changer le cadre de la politique de recherche, en mettant en place de nouveaux types de financement, en créant un nouveau cadre fiscal, en mettant en place de nouvelles structures de coopération et de coordination, en ouvrant de nouvelles possibilités aux universités.

Développer la mobilité des chercheurs en Europe nécessite une volonté politique beaucoup plus importante, car les obstacles qui la freinent restent nombreux et ne disparaîtront pas sans une approche beaucoup plus volontariste. Ce n’est toutefois pas impossible, comme le montre l’attitude des jeunes docteurs dont beaucoup vont à l’étranger pour effectuer un post-doc. Lançons dès maintenant une réflexion sur l’évaluation de ces parcours internationaux et sur leur prise en compte dans les carrières des chercheurs. Ce peut être fait facilement au plan national. Ce serait préférable de l’envisager rapidement au plan européen. Cette politique est liée à un apprentissage de l’anglais plus opérationnel.

Les futurs laboratoires européens résulteront moins de la création de nouvelles structures que du tissage de liens d’abord bilatéraux puis multilatéraux entre laboratoires travaillant sur des thèmes communs. Des appels d’offre posant la condition de coopérations internationales permettraient d’accélérer ce processus. Ce qui a été fait au plan national pourrait aisément être transposé au plan européen.

Il faut créer les conditions qui amèneront les laboratoires travaillant sur le même sujet à se regrouper pour augmenter leurs chances d’accéder à des financements plus importants. Si l’incitation peut relever d’une approche top-down, la constitution d’alliances entre laboratoires résultera davantage d’une approche bottom-up.

Le développement des partenariats peut difficilement être imposé. Le travail en commun doit résulter d’une envie et d’incitations. Il faut donc créer les conditions de ce désir de se regrouper. Les incitations peuvent résulter de motivations diverses : la nécessité d’atteindre une masse critique ; le souci de trouver de nouvelles sources de financement ; le souhait de participer à un réseau qui permettra d’être mieux connu et reconnu ; la possibilité de conjuguer des efforts pour aboutir à des publications plus intéressantes et à des dépôts de brevets.

Une approche semblable pourrait être retenue pour favoriser la multidisciplinarité.

Il faut en quelques mots être ouvert aux formules innovatrices, et oser faire preuve d’innovation pour changer les mentalités et faire évoluer les habitudes, les comportements et les structures.

Nous sommes aujourd’hui à la croisée des chemins.

La recherche et l’innovation donnent à la société une vision pour l’avenir. Elles doivent préparer de futures ruptures et éclairer les enjeux de demain.

Soit la vieille Europe ne considère pas l’innovation comme une priorité. Elle court alors à son déclin, notamment dans le domaine industriel, comme le montrent les achats de composants photovoltaïques en Chine, de médicaments biogénériques comme l’insuline en Inde, et des composants électroniques des portables en Corée.

Soit elle considère que les mines du XXIeme siècle seront de matière grise et elle retrouve l’esprit de créativité de la Renaissance, et tous les espoirs lui sont permis. Alors elle se sera réveillée.

RECOMMANDATIONS

I.  L’innovation au cœur de la rénovation de l’enseignement primaire et secondaire

A. Donner aux élèves le goût de la science et stimuler leur spontanéité ainsi que leur créativité. Donner les moyens financiers adéquats aux associations telles que La Main à la Pâte et IFFO-RME pour qu’elles puissent intervenir dans un nombre beaucoup plus important d’établissements scolaires. Ajouter « raisonner » au triptyque « lire, écrire, compter ».

B. Changer impérativement notre attitude vis-à-vis de l’échec. Celui-ci doit être approché différemment dès l’école : il faut promouvoir une vision de l’échec comme source de leçon et d’expérience pour l’avenir, et non comme une fatalité. Une vision rénovée de l’échec est fondamentale pour un processus d’innovation plus dynamique.

C. Ecouter les retours d’expérience des élèves de première qui plébiscitent les travaux personnels encadrés (TPE). Les étendre aux classes de seconde et même en terminale et au collège, augmenter le temps qui leur est consacré. Inciter les établissements à nouer des partenariats avec les entreprises innovantes de la région et les collectivités locales dans le cadre de ces TPE pour que l’interdisciplinarité et l’innovation soient au cœur des projets scolaires.

D. Former les enseignants en mettant en place des actions de sensibilisation aux méthodes expérimentales et aux innovations pédagogiques destinées aux professeurs des écoles primaires et des collèges. La deuxième année de Master des enseignants doit être notamment une année d’apprentissage des outils pédagogiques. Mieux sensibiliser, comme le fait l’EPFL3, les professeurs du secondaire aux attentes des universités pour une meilleure continuité dans les parcours et une transition facilitée entre enseignement secondaire et enseignement supérieur.

E. Soutenir Universcience, coordinateur national pour la culture scientifique et la diffusion des connaissances, notamment dans son rôle d’animateur, au niveau régional, du réseau des acteurs de la culture scientifique et technique (cafés des sciences, exposciences, centres de culture scientifique, technique et industrielle…).

II. L’innovation, objectif de la dynamique créée par l’autonomie des universités

A. Soutenir les universités dans leurs efforts de rapprochement. Faciliter les regroupements des universités, des grandes écoles, des organismes de recherche et d’innovation qui souhaitent créer des pôles de recherche et d’enseignement supérieur ayant une masse critique de niveau international.

B. Encourager la fusion des universités (sur l’exemple des universités d’Aix-Marseille, de Strasbourg, et de Lorraine) pour créer la masse critique permettant d’attirer les meilleurs enseignants, d’assurer une meilleure visibilité  internationale et pour faciliter l’accès aux appels à projets et aux financements nationaux et européens.

C. Renforcer les capacités de gestion des universités autonomes en développant les métiers du management, notamment la profession d’administrateur gestionnaire des universités. L’innovation managériale doit être au cœur du système de gestion de l’université.

D. Mettre en place une gouvernance plus dynamique des universités par l’élection démocratique du président de l’université sur un projet clair et un mode de scrutin proportionnel de type régional avec prime majoritaire, donnant ainsi une cohérence et une unité d’action par une meilleure collégialité dans la répartition des missions entre le président et les vice-présidents.

E. Evaluer la loi relative aux libertés et responsabilités des universités (loi LRU), la loi Recherche et les dispositifs qui en découlent, pour s’assurer de la pertinence de chacun d’eux et de leur cohérence.

III. Renforcer l’enseignement supérieur en favorisant l’interdisciplinarité et en professionnalisant le doctorat

A. Faire reconnaître l’expérience acquise pendant le doctorat comme une expérience professionnelle et non comme une expérience académique, et proposer aux docteurs des formations complémentaires à l’entreprenariat. Leur donner la possibilité de pouvoir bénéficier d’un congé pour création d’entreprise, et d’utiliser, dans certaines périodes au cours de la carrière, une part plus importante de leur temps pour travailler comme consultant scientifique.

B. Faciliter l’accès des docteurs aux concours d’accès à la haute fonction publique, dont les concours de l’ENA, des IRA, de l’Assemblée nationale et du Sénat, en proposant des options scientifiques dans ces concours.

C. Améliorer la visibilité des docteurs vis-à-vis des entreprises en organisant annuellement, comme à l’Université de Lausanne, une « journée des docteurs » au cours de laquelle ils pourront présenter leurs axes de recherche aux entreprises.

D. Accélérer la mise en place des formations en alternance et en apprentissage dans l’enseignement supérieur et renforcer les projets interdisciplinaires.

E. Promouvoir la formation à l'entrepreneuriat dans les écoles de management.

IV. Elargir les critères de l’évaluation de la recherche

A. Modifier les critères d’évaluation des chercheurs dans les équipes pluridisciplinaires afin que chaque chercheur puisse être évalué en fonction de sa spécialité et indépendamment de la spécialité principale du laboratoire où il travaille. Ceci aura pour effet de favoriser les projets interdisciplinaires.

B. Définir clairement, pour l’évaluation des chercheurs, la pondération entre leurs contributions à l’enseignement, à la recherche, à l’expertise, aux transferts de technologies et au service à la société, à la diffusion de la culture scientifique, à l’administration et au management, à la médiation et à la participation aux projets internationaux.

C. Harmoniser les méthodes et critères d’évaluation des chercheurs, des organismes de recherche et des universités, au niveau européen.

V. Professionnaliser les structures de valorisation de la recherche pour favoriser l’innovation technologique

A. Amener les universités à s’approprier la notion de valorisation conçue comme un service à la société, qui doit devenir l’une des missions de l’université, au-delà de la recherche, de l’enseignement et de l’expertise.

B. Développer la valorisation de la recherche. Ainsi, les offices de transfert de technologie doivent être constitués de véritables équipes de professionnels chargés de faire le lien entre chercheurs, financeurs, managers, juristes et économistes. Associer, dans les jeunes entreprises innovantes en création, chercheurs, managers et juristes.

C. Diffuser la connaissance de la propriété intellectuelle et de la politique de licences au sein des universités et clarifier la répartition des droits entre chercheurs, universités et organismes de recherche.

D. Professionnaliser les incubateurs en effectuant un suivi rapproché du travail des chercheurs, en leur proposant de déposer des brevets, de négocier les licences, en les aidant dans leurs démarches juridiques et fiscales, en les sensibilisant à la veille techno, et en les incitant à participer à la création de start-up.

VI. Stabiliser la situation juridique, fiscale et réglementaire de l’entrepreneur : le risque ne doit pas être synonyme d’incertitude

A. Créer un statut de l’Entreprise d’innovation et de croissance (EIC) afin de ne pas discriminer les jeunes entreprises innovantes de celles qui existent depuis plusieurs années et d’assurer une continuité dans le processus d’innovation. Mobiliser l’épargne des Français par une meilleure communication et des outils de défiscalisation plus adaptés pour accroître l’investissement dans les Fonds Commun de Placement dans l’Innovation (FCPI) et dans les Fonds d’Investissement de Proximité (FIP)

B. Maintenir en place les outils fiscaux à destination des business angels et faciliter la mise en place de fonds d’amorçage à capitaux privés à destination des entreprises innovantes. Les placements des particuliers pourraient aller jusqu’à 250 000 euros et les pertes subies pourraient être déduites de l’impôt.

C. Mettre en place une programmation pluriannuelle des crédits, des dispositifs fiscaux, et des mesures tendant à promouvoir l’innovation, afin de créer un contexte fiscal, juridique, et social stable pour les entreprises innovantes et les investisseurs. Donner un statut social à l’innovateur en cas d’échec.

D. Sensibiliser mieux les entrepreneurs sur l’importance stratégique des normes, très en amont du développement industriel de leurs projets.

E. Unifier la politique européenne des brevets pour créer un véritable espace européen de l’innovation. Tendre vers un véritable brevet européen dont le prix doit être proche du prix du brevet américain. Entamer une réflexion sur le bien fondé de certaines catégories de brevets, par exemple dans les domaines du vivant, des technologies de l’information et de la communication, ou sur certaines innovations relevant du domaine de la santé. Donner priorité aux certificats d’obtention végétale par rapport aux brevets pour la protection de la propriété intellectuelle sur les technologies végétales.

VII. Mettre en place des financements équilibrés entre appels à projets et financement récurrents, et entre investisseurs publics et privés.

A. Assurer la continuité des financements de l’ANR, dont les programmes blancs permettent le développement des projets de recherche fondamentale, le soutien aux jeunes chercheurs, et les financements récurrents. Le rapport d’activité et les orientations stratégiques de l’ANR doivent être présentés et discutés annuellement devant l’OPECST, en amont de la discussion budgétaire. C’est en effet l’Etat qui définit la vision stratégique, le choix des grandes filières d’avenir, et le soutien aux technologies clés susceptibles d’entraîner des innovations de rupture, mais cette stratégie doit être discutée au parlement

B. Accompagner les start-up et PME afin qu’elles puissent passer la « Vallée de la mort » et se développer en France de telle sorte qu’elles ne soient pas rachetées très rapidement par des investisseurs étrangers.

C. Mettre en place des moyens financiers spécifiques pour permettre à la start-up de se transformer en entreprise pérenne :

1. Compléter le crédit impôt recherche pour en faire un véritable outil de croissance, en le transformant en crédit impôt recherche innovation (CIRI), le réserver prioritairement aux PMI, aux EIC, et aux priorités stratégiques. Soutenir les projets collaboratifs associant les grands groupes et les PME/PMI. Encourager l’innovation passant de la recherche fondamentale au prototype, et même jusqu’à la phase préindustrielle dans des conditions prédéfinies. Stimuler la création d’emplois hautement qualifiés en liant le montant du CIRI à l’embauche de docteurs.

2. Pour accompagner la prise de risque à l’amorçage, augmenter le nombre d’entreprises bénéficiant du système des avances remboursables à taux zéro et du fonds de garantie d’OSEO. Elargir le système de subventions et de garanties des fonds régionaux d’innovation constitués à parité par OSEO et les régions.

3. Abonder cette avance remboursable qui constitue ainsi la base du dispositif d’aide publique, par un financement complémentaire d’OSEO qui investirait également un ou deux euros pour chaque euro investi par des moyens privés, dans une limite fixée au préalable. Ce dispositif permettrait ainsi d’inciter les entrepreneurs à convaincre des capitaux privés, et donc faire participer plus largement les investisseurs non publics au financement de l’innovation.

4. Mettre en place un guichet unique regroupant les différentes sources de financement des start up.

D. Elargir la mission des dispositifs publics qui doivent s’efforcer d’accompagner l’effort d’investissement des investisseurs privés, soit financièrement par des investissements parallèles, soit en simplifiant leurs démarches administratives.

E. Mettre en place un véritable Small Business Act au niveau européen en réservant une part des marchés publics aux PME. Attribuer ces marchés au mieux-disant innovant.

VIII. Créer une dynamique favorable aux écosystèmes d’innovation à l’échelon régional : la déclinaison stratégique de l’innovation doit se faire au plus proche du terrain

A. Initier le troisième acte de la décentralisation, par la régionalisation des outils administratifs et fiscaux de l’innovation :

1. En déclinant localement les actions du FSI pour soutenir la politique de filières impulsée par l’Etat et par les régions.

2. En unifiant les outils publics de financement au sein d’une banque publique de soutien à l’innovation dans chaque région, associant la Caisse des Dépôts, OSEO, le FSI et les outils régionaux pour soutenir la recherche dans les entreprises, afin de financer la preuve de concept, l’amorçage et le capital risque.

3. En régionalisant les outils de défiscalisation par exemple en permettant aux régions de prendre des participations dans les PME et ETI ou en leur accordant des prêts participatifs.

4. En aidant les structures de petite taille qui ont décidé de se fédérer à répondre aux appels d’offre nationaux et européens afin de les faire converger vers des objectifs communs définis stratégiquement par l’Etat et localement par les régions.

5. En réservant une part plus important de la taxe d’apprentissage aux pôles universitaires ayant mutualisé leurs moyens.

B. Promouvoir les relations entre PME et grands groupes au sein de l’écosystème créé par les pôles de compétitivité. Encourager la création de filières entre PME/PMI et grandes entreprises afin de faciliter les démarches communes d’exportation, de sous-traitance et de co-traitance.

C. Mettre en réseau les pôles de compétitivité, les IRT et les instituts Carnot pour créer une quinzaine de grands écosystèmes d’innovation. Simplifier les dispositions réglementaires et fiscales pour les industriels partenaires de ces structures.

D. Créer une nouvelle dynamique à Saclay : la création de l’Université Paris Saclay doit permettre une accélération de la mutualisation des moyens, notamment par la mise en place d’un plus grand nombre de passerelles et de formations communes entre universités et grandes écoles, et une mobilité facilitée entre organismes de recherche, universités et grandes écoles. Le projet d’urbanisation doit permettre d’accueillir étudiants et personnels et doit être doté de transports modèles du point de vue de la sobriété énergétique. Il faut articuler le projet scientifique autour de thématiques porteuses d’avenir en renforçant la composante innovation créatrice d’emplois. Il faut le faire piloter par une gouvernance claire avec un Etat stratège, des collectivités respectées, et des organismes et universités ouverts sur l’écosystème local et international.

IX. La perception des innovations par le public

A. Préciser par la loi les domaines d’application du principe de précaution, qui pour l’instant n’a de valeur constitutionnelle que pour l’environnement, et en faire un principe d’action. L’innovation ne saurait en effet être paralysée par une interprétation frileuse d’un principe qui doit avant tout permettre davantage de recherche et non l’arrêt de toutes recherches. Le principe de précaution doit être un principe d’action.

B. S’inspirer des exemples de débat public mis en place à l’étranger avec notamment un usage massif des NTIC, par la création de sites Internet thématiques participatifs, mis à jour régulièrement et effectuant un suivi des actualités scientifiques, par la mise en place de conférences de citoyens, ...

C. Développer au sein des structures concernées une cellule de veille des réseaux sociaux (Facebook, Twitter, blogs,…) afin de prendre le pouls de la société et de pouvoir répondre aux interrogations dès qu’elles apparaissent.

D. Développer un système d’évaluation et de labellisation européen de l’expertise, afin de mettre un frein à la publicité donnée aux études d’experts autoproclamés. Coordonner les expertises nationales et européennes ; cette expertise doit être collégiale, publique et contradictoire.

E. Encourager les émissions scientifiques sur les chaînes publiques de télévision et créer, suite à l’appel d’offre du CSA, une chaîne de télévision destinée à promouvoir la science et la culture scientifique, par exemple par la présentation des grands enjeux scientifiques d’aujourd’hui dans un langage clair et accessible et dans un format interactif.

F. Mettre en place un double cursus et des formations continues pour les journalistes, la haute-administration, et les juges, dans le domaine de l’épistémologie, et ce afin de diffuser au plus grand nombre les méthodes scientifiques et l’articulation des raisonnements scientifiques, de même que les concepts fondamentaux de la découverte scientifique.

G. Créer, au sein des universités et des organismes de recherche, des équipes de liaison avec les associations comme celles de patients dans le domaine médical, afin de leur proposer des services d’expertise et de conseil sur les thématiques sociétales.

H. Jeter les bases d’un Observatoire qui travaillera sur la cartographie des risques et de la perception des risques, afin d’établir une échelle des risques qui aurait vocation à devenir consensuelle.

X. L’innovation dans le contexte international

A. Développer des relations bilatérales, puis multilatérales entre laboratoires de recherche des pays européens afin de créer des clusters ou des consortiums européens, de type Arianespace ou EADS.

B. Faciliter les coopérations transfrontalières. Ces partenariats peuvent notamment être portés régionalement pour les projets transfrontaliers, notamment en Lorraine pour développer un pôle européen avec le Luxembourg (Opération d’Intérêt National d'Esch Belval) ou en Haute-Savoie avec les universités bordant le lac de Genève. Toutefois, les distorsions fiscales et sociales sont telles que l’innovation ne pourra s’y développer que par la mise en place sur quelques sites français de zones franches frontalières avec l’Allemagne, la Belgique, l’Espagne, l’Italie et la Suisse.

C. Mettre en place un programme beaucoup plus ambitieux de recherches thématiques et d’études au niveau européen, et des procédures claires, simplifiées et moins bureaucratiques.

D. Lancer un grand projet européen de financement de l’innovation adossé à la Banque Européenne d’Investissement soutenant le venture capital, le capital développement et favorisant la mise en réseaux d’entreprises innovantes.

E. Simplifier et harmoniser les dispositifs d’appels à projets au niveau européen, en lien avec la structure des appels à projets nationaux.

F. Internationaliser les cursus, en renforçant le programme d’échange Erasmus au niveau du Master, en favorisant les doctorats en co-tutelle, et en simplifiant les dispositifs d’accueil des étudiants étrangers.

G. Renforcer les coopérations avec les pays du Sud, notamment autour de projets thématiques tels que l’agriculture, l’énergie, l’eau, et la santé.

H. Transformer le Conseil de recherche européen (ERC) en une véritable agence européenne de recherche co-finançant les projets de recherche prioritaires avec les Etats membres.

COMPTE RENDU DE L’EXAMEN DU RAPPORT
PAR L’OFFICE

L’OPECST a procédé à l’examen du rapport sur « l’innovation à l’épreuve des peurs et des risques », à partir de l’exposé de ses deux co-rapporteurs, MM. Claude Birraux et Jean-Yves Le Déaut.

M. Claude Birraux, député, premier vice-président de l’OPECST. Depuis un an, nous avons cherché des réponses aux questions que nous avions posées dès notre étude de faisabilité : quelles sont les conditions nécessaires pour que l’innovation ait un rôle moteur dans la société moderne ? Comment peut-on tirer les leçons des expériences réussies mais aussi des échecs, en tenant compte de la spécificité du système français de recherche et de stimulation de l’innovation ? Faut-il mettre en place une stratégie nouvelle permettant de rendre notre pays plus innovant ? Quelles sont les politiques et quels sont les outils qui permettraient de faciliter l’acceptabilité du risque et de rendre l’innovation plus dynamique ?

Pour se faire, nous avons effectué un véritable travail de fond sur le thème de l’innovation à l’épreuve des peurs et des risques.

Nous avons rencontré plus de mille personnes. Nous avons effectué de nombreux déplacements.

Nous sommes allés sur le terrain, en Lorraine et en Haute Savoie, nos deux circonscriptions, pour prendre la mesure des recherches innovantes qui y sont menées, et constater le travail mené par les entreprises, les universités, les organismes de recherche, mais aussi par les pôles de compétitivité.

Ces deux missions ont également été l’occasion de rencontres originales avec des lycéens de première, autour d’un questionnaire portant sur l’approche intergénérationnelle de l’innovation, des peurs et des risques. Les enseignements qui en ont été tirés ont été largement débattus en audition publique.

Nous avons fait plusieurs missions à l’étranger, tant dans des pays industrialisés que dans des pays émergents. Nous sommes ainsi allés aux Etats-Unis, en Allemagne, en Suède, en Belgique, en Suisse, en Inde, en Chine et en Afrique du Sud.

Ces missions à l’étranger avaient quatre objectifs. Premièrement, vérifier que la France restait au niveau le plus élevé de la recherche au plan mondial. Deuxièmement, s’assurer de la pertinence de nos priorités nationales de recherche. Troisièmement, identifier les bonnes pratiques les plus intéressantes dont la France pourrait s’inspirer, d’une part au niveau organisationnel, par exemple la structuration de la valorisation de la recherche, et d’autre part au niveau sociétal, avec l’organisation de l’interface entre la science et les citoyens. Et enfin, prendre la mesure du débat sur des questions qui font l’objet de controverses particulières dans notre pays, qu’il s’agisse des OGM ou des nanotechnologies.

Parallèlement, nous avons organisé cinq auditions publiques. La première le 14 avril 2011, sur l’apport du dialogue intergénérationnel. La seconde le 26 mai, sur les innovations pour la société de demain. La troisième, le 12 octobre, sur les outils pour une société innovante. La quatrième, le 27 octobre sur l’avenir du plateau de Saclay. La cinquième, le 24 novembre, sur les comparaisons internationales.

Nous avons aussi engagé une réflexion approfondie sur le statut des docteurs et leurs possibilités de carrière, à partir d’un deuxième questionnaire qui a reçu un accueil très chaleureux, puisque 1 300 docteurs y ont répondu. L’ensemble des données sera mis à votre disposition, et à disposition des chercheurs, sur un DVD Rom et sur le site de l’OPECST.

M. Jean-Yves Le Déaut, député, vice-président de l’OPECST. Qu’avons-nous appris grâce à ce travail de fond ? Quelles hypothèses avons-nous confirmées ? Quelles nouvelles idées avons-nous trouvées ?

L’innovation a de nombreuses facettes : elle peut être technologique (de produit et de procédé), organisationnelle, sociale, concerner le marketing… Par exemple quand Nespresso vend à la fois la machine à café et la seule capsule qui va avec, c’est une innovation marketing, que l’on soit pour ou contre. Elle est nécessaire, et il faut lever les freins qui la ralentissent.

Il est clair que tout commence à l’école. La peur de l’échec, que l’on inculque à nos enfants dès le plus jeune âge, ne va pas dans le sens de la créativité, du goût de la prise de risque, de l’esprit entrepreneurial.

Notre première série de recommandations place donc l’innovation au cœur de la rénovation de l’enseignement primaire et secondaire

Elle a pour objectif de mettre l’accent sur la nécessité de susciter dès l’école l’envie de connaître et de comprendre. Nous avons en effet été très frappés par l’impact des actions entreprises par des associations telles que La Main à la Pâte, dont les membres vont dans les écoles pour développer l’intérêt pour la science et les technologies, à partir d’une pédagogie vivante de l’expérimentation et de la réflexion.

Le goût d’innover qui peut être développé très tôt chez l’enfant, dépend aussi de la manière dont il est stimulé aux différents niveaux de l’enseignement. Il faut donc des enseignants mieux sensibilisés aux enjeux de l’université et aux innovations pédagogiques. Il faut plus de Travaux Pratiques Encadrés (TPE) à l’école, dans plus de classes, et plus en lien avec le bassin local d’entreprises. Pourquoi ne pas développer le TPE sous un format proche de celui de l’alternance, qui permet à aux élèves de découvrir le vivier économique et social de sa région quelques heures par semaine, en menant un projet pluridisciplinaire en groupe ?

L’enseignement supérieur fait l’objet de notre deuxième recommandation. L’autonomie des universités est une chance à saisir pour stimuler l’innovation.

Quelques universités ont utilisé les possibilités qu’elles avaient pour se rapprocher. C’est notamment le cas en Haute Savoie et en Lorraine. Ces efforts de rapprochement doivent être encouragés. Il faut par ailleurs renforcer les capacités de gestion des universités. La gouvernance doit être plus dynamique et plus démocratique par l’élection du président sur un mode de scrutin de type régional avec prime majoritaire. Nous préconisons la « collégialité » et cela ne signifie pas un retour à un processus de décision à 40, mais un président légitime qui s’entoure de vice-présidents en charge des différentes missions de l’université.

Pour ce qui est du doctorat, notre troisième recommandation, il doit être reconnu comme une expérience professionnelle. Comme l’a dit Claude Birraux, nous avons eu, tout au cours de l’année, beaucoup de contacts avec des doctorants, des docteurs, et des associations de docteurs.

Il faut améliorer la visibilité de leurs travaux. Il faut qu’ils aient l’occasion de présenter leurs thèmes de recherche devant des entreprises : l’université doit se placer au cœur du processus de recherche et d’innovation en mettant en avant les talents qui la composent. Il faut favoriser l’interdisciplinarité et décloisonner.

Les concours de la fonction publique doivent offrir des options scientifiques ; il faut que les administrations s’ouvrent aux sciences et aux scientifiques.

M. Claude Birraux. L’ouverture, l’interdisciplinarité, une meilleure organisation de la carrière des docteurs, voilà des moyens privilégiés pour dynamiser la recherche et permettre de changer les mentalités, pour ne plus opposer entreprises et universités, public et privé.

Les étudiants et doctorants sont plus enclins à être créatifs s’ils sont encouragés dans cette voie, s’ils en tirent des avantages en termes de perspectives de carrière, si l’organisation même de l’université leur offre les moyens d’avoir des contacts avec les entreprises et, éventuellement, de créer leur propre entreprise.

Dans le même esprit, notre quatrième recommandation porte sur l’élargissement des critères d’évaluation de la recherche, pour ne pas défavoriser les équipes interdisciplinaires. Les critères doivent être clairs, lisibles, et à terme harmonisés au niveau européen.

Il faut prendre en compte toutes les activités du chercheur, de la recherche pure à l’expertise, en passant par la valorisation et la diffusion de la connaissance. Tout cet édifice est nécessaire pour, à terme, une valorisation des résultats de la recherche bien plus efficace.

La valorisation de la recherche constitue notre cinquième axe de recommandations.

Notre questionnaire aux docteurs que vous trouverez en annexe du rapport le montre clairement : si la France dispose d’un réel potentiel, il est mal utilisé, et l’innovation et le transfert de technologies y sont moins dynamiques qu’à l’étranger.

Les structures mises en place depuis quelques années pour valoriser la recherche doivent évoluer en s’inspirant des modèles qui ont réussi à l’étranger.

Nos universités doivent s’approprier une fonction nouvelle de la valorisation qui doit être vue comme un service à la société. Ce concept peut sembler être un changement mineur, mais en réalité il constitue un changement de paradigme. En effet, l’université, et plus précisément sa fonction de valorisation de la recherche, ne sont plus uniquement vues sous l’angle de leur impact économique, mais par leur rôle vis-à-vis de leur environnement et des citoyens. Si la recherche doit générer de la valeur, cette valeur doit également être une réponse aux besoins exprimés par la société, et l’université doit s’assurer que le citoyen trouve sa place dans le processus d’innovation.

La valorisation de la recherche doit devenir un chantier prioritaire, d’autant plus que les moyens à mettre en œuvre sont connus. Nous les décrivons dans notre rapport, en nous appuyant sur les exemples de Louvain la Neuve, de Leuven, de Twente, et d’Heidelberg. Ces universités ont réussi à adapter en Europe l’expérience des Etats-Unis, celles d’Harvard, du MIT, du Triangle de la recherche en Géorgie et en Caroline du Nord. Ces exemples européens ont abouti à des résultats remarquables.

Les solutions qui y sont mises en œuvre sont très proches : elles reposent largement sur la mise en place dans les universités d’offices de transfert de technologie composés de professionnels de la valorisation : juristes pour les brevets, industriels pour la faisabilité, économistes et financiers pour le business plan.

Prenons conscience que les fonctions qu’ils peuvent remplir n’ont pas été identifiées en France. Dans nos universités, seules une ou deux personnes sont en général chargées de la valorisation de la recherche. Or ces fonctions sont essentielles pour identifier, dans les laboratoires mêmes, des brevets qui pourraient être déposés, pour aider les chercheurs dans le processus de création et de gestion d’une start-up, pour créer des liens entre chercheurs, managers, financiers, juristes et économistes.

M. Jean-Yves Le Déaut. La sixième recommandation porte sur la stabilisation de la situation juridique et fiscale de l’entrepreneur, car le risque ne doit pas être synonyme d’incertitude. Innover, c’est changer, changer c’est risqué.

Il faut mettre en place une programmation pluriannuelle des crédits ainsi que des dispositifs fiscaux et des mesures tendant à promouvoir l’innovation, afin de créer un contexte fiscal, juridique, et social stable pour les entreprises innovantes et les investisseurs.

Nous proposons de créer un statut de l’Entreprise d’innovation et de croissance (EIC) afin d’assurer une continuité dans le processus d’innovation, et de ne pas discriminer les jeunes entreprises innovantes de celles qui existent depuis plusieurs années.

Nous devons mobiliser l’épargne des Français par des outils fiscaux plus adaptés pour l’investissement dans les Fonds communs de placement dans l’innovation (FCPI) et les Fonds d’investissement de proximité (FIP). Dans le même esprit, il faut maintenir en place les outils fiscaux à destination des business angels et faciliter la mise en place de fonds d’amorçage à capitaux privés à destination des entreprises innovantes

Sur la question des brevets, il faut créer un véritable espace européen de l’innovation avec un véritable brevet européen dont le prix doit être proche du prix du brevet américain. Plusieurs entretiens nous ont amenés à nous interroger sur le bien fondé de certaines catégories de brevets, par exemple dans les domaines du vivant, des technologies de l’information et de la communication, ou sur certaines innovations relevant du domaine de la santé.

60 % des 1300 docteurs que nous avons interrogés pensent que les peurs constituent un frein à l’innovation. Nous avons approfondi cette question pour les OGM. Nous pensons que l’expertise scientifique doit primer et qu’il faut mieux organiser le débat avec la société.

M. Claude Birraux. Rob Adam, ancien militant blanc de l’ANC, nous a expliqué pourquoi l’Afrique du Sud abordait différemment la culture des OGM. Son témoignage est repris dans notre rapport.

La septième recommandation plaide pour la mise en place d’outils de financement équilibrés.

La question du financement de l’innovation est essentielle, surtout dans le millefeuille institutionnel qui caractérise notre système.

Les modes de financement doivent permettre de le simplifier en incitant aux regroupements, tout en respectant un certain nombre d’équilibres : entre appels à projets et financements récurrents ; entre investisseurs publics et privés.

Sur le financement de la recherche, nous souhaitons que le rapport d’activité et les orientations stratégiques de l’ANR soient présentés et discutés annuellement devant l’OPECST, en amont de la discussion budgétaire.

Nous nous prononçons pour un accompagnement des start-up et des PME dans leur développement, afin qu’elles puissent passer la « vallée de la mort », dont vous trouverez une illustration en page 118 du tome 1 du rapport, ce moment très particulier de leur développement où elles n’arrivent pas à trouver de nouveaux financements.

Notre objectif est d’éviter que ces petites structures, qui ont su faire preuve de dynamisme et de sens du risque de manière beaucoup plus importante que les grands groupes, ne soient rachetées très rapidement par des groupes étrangers, comme c’est trop souvent le cas. Plusieurs exemples de start-up rachetées par des capitaux étrangers nous ont été relatés, par exemple par Mathias Fink dans l’audition publique du 26 mai 2011.

Pour accompagner la prise de risque à l’amorçage, nous pensons qu’il faut augmenter le nombre d’entreprises bénéficiant du système des avances remboursables à taux zéro et du fonds de garantie d’OSEO, et élargir le système de subventions et de garanties des fonds régionaux d’innovation constitués à parité par OSEO et les régions.

Toutefois, les financements publics ne sont pas la réponse à tout, et ne peuvent pas se substituer au venture capital outre mesure.

Nous proposons un système complémentaire simple, où l’avance remboursable ne constituerait que la base du financement public. Nous souhaitons que pour chaque euro investi par des moyens privés, OSEO fournisse un financement complémentaire d’un ou deux euros, dans une limite globale fixée au préalable. Ce dispositif permettrait ainsi d’inciter des co-financements public-privé.

Cela suppose également de compléter le crédit impôt recherche en le transformant en crédit impôt recherche innovation, pour le rendre plus efficace en accompagnant l’innovation jusqu’au marché, et pour réduire les effets d’aubaine. Il faut enfin simplifier les démarches administratives, mettre en place un véritable Small Business Act au plan européen, et développer le rôle d’OSEO, ses relations avec les régions à travers un guichet unique des outils de financement.

M. Jean-Yves Le Déaut. Le lien entre innovation et région doit être revu. S’il faut un Etat stratège, les outils administratifs et fiscaux de l’innovation doivent être décentralisés, car c’est au plus proche du terrain que se fait l’innovation.

Notre huitième recommandation prévoit de revoir le lien entre innovation et région. Nous plaidons pour un troisième acte de la décentralisation : en déclinant localement les actions du Fonds stratégique d’investissement (FSI) ; en unifiant les outils publics de financement au sein d’une banque publique de soutien à l’innovation dans chaque région ; en régionalisant les outils de défiscalisation ; en aidant les structures de petite taille qui ont décidé de se fédérer à répondre aux appels d’offre ; en réservant une part plus importante de la taxe d’apprentissage aux pôles universitaires ayant mutualisé leurs moyens.

Il faut promouvoir les relations entre PME et grands groupes au sein de l’écosystème créé par les pôles de compétitivité, et encourager la création de filières entre PME/PMI et grandes entreprises. Il faut mettre en réseau les pôles de compétitivité, les Instituts de recherche technologiques (IRT) et les instituts Carnot pour créer une quinzaine de grands écosystèmes d’innovation. Il faut simplifier les dispositions réglementaires et fiscales pour les industriels partenaires de ces structures, car elles sont pour l’instant très obscures. Ces industriels envisagent tous de les quitter si les conditions de leur participation ne sont pas clarifiées.

A propos d’écosystème, nous avons réalisé une audition sur l’avenir du Plateau de Saclay : la création de l’Université Paris Saclay suppose une accélération de la mutualisation des moyens, un projet d’urbanisation doté de transports modèles du point de vue de la sobriété énergétique, et un projet scientifique articulé autour de thématiques porteuses d’avenir en renforçant la composante innovation créatrice d’emplois. Il faut donc le faire piloter par une structure de gouvernance claire avec un Etat stratège, des collectivités respectées, et des organismes et universités ouverts sur l’écosystème local et international.

M. Claude Birraux. Notre neuvième recommandation porte sur la perception de l’innovation par le public, en prévoyant tout d’abord de faire préciser par la loi les domaines d’application du principe de précaution, qui pour l’instant n’a de valeur constitutionnelle que pour l’environnement, et en faire un principe d’action.

Nous devons par ailleurs nous inspirer des exemples de débat public mis en place à l’étranger avec notamment un usage massif des nouvelles technologies, par la création de sites Internet thématiques participatifs, mis à jour régulièrement et effectuant un suivi des actualités scientifiques.

Il faut développer des cellules de veille des réseaux sociaux (Facebook, Twitter, blogs,…) afin de prendre le pouls de la société et de pouvoir répondre aux interrogations dès qu’elles apparaissent ; un tel projet se trouve déjà, du reste, financé par les Investissements d’avenir.

Il faut créer une chaîne de télévision destinée à promouvoir la science et la culture scientifique, par exemple par la présentation des grands enjeux scientifiques d’aujourd’hui, dans un langage clair et accessible et dans un format interactif.

Il faut proposer plus largement des double cursus et des formations continues pour les journalistes, la haute administration et les juges, dans le domaine de l’épistémologie, et ce afin de diffuser au plus grand nombre les méthodes scientifiques et l’articulation des raisonnements scientifiques, de même que les concepts fondamentaux de la découverte scientifique.

Nous proposons de créer, au sein des universités et des organismes de recherche, des équipes de liaison avec les associations, afin d’organiser des services d’expertise et de conseil sur les thématiques sociétales. Il faut enfin que les universités aient également pour mission le service à la société.

M. Jean-Yves Le Déaut. Je me permets de rajouter deux points, puisque l’on parle des juges. Afin d’améliorer la qualité de l’expertise, il faut développer un système d’évaluation et de labellisation européen de l’expertise, afin de mettre un frein à la publicité donnée aux études d’experts autoproclamés. Il faut coordonner mieux les expertises nationales et européennes. Ces expertises doivent être collégiales, publiques et contradictoires.

Nous proposons de jeter les bases d’un Observatoire qui travaillera sur la cartographie des risques et de la perception des risques, afin d’établir une échelle des risques qui aurait vocation à devenir consensuelle.

M. Claude Birraux. Il faudrait aussi créer, auprès des cours administratives d’appel, des tribunaux de l’environnement, sur le modèle suédois, où travaillent ensemble magistrats et scientifiques.

La dernière série de recommandations porte sur le contexte international. Une approche européenne de ces problématiques est indispensable. Elle ne saurait toutefois se limiter à quelques domaines.

Il faut faire preuve d’un plus grand dynamisme et surtout d’imagination : il ne suffit pas de prévoir des programmes communautaires. Il faut passer à une autre dimension si l’on veut créer l’espace européen de la recherche. La politique européenne de recherche doit être repensée. On ne peut pas se contenter de grandes stratégies. Le temps des affirmations et des grandes déclarations est révolu.

Il faut enfin définir une vraie politique d’innovation européenne. La politique européenne a laissé trop de pouvoir au Commissaire à la concurrence, qui encourage une compétition sans limite entre les entreprises européennes ; ceci les affaiblit face aux sociétés étrangères pour lesquelles les exigences sont moins strictes et les moyens de coercition quasi-nuls.

Il nous faut sortir de la naïveté et de l’innocence.

Cette politique passera par le développement de relations bilatérales et multilatérales entre laboratoires de recherche ; la création de clusters européens qui seront des leaders mondiaux dans leur domaine ; la mise en place de coopérations transfrontalières et de zones franches transfrontalières ; la réalisation d’études thématiques européennes. Leur impact financier supplémentaire est faible, mais leurs effets peuvent être très importants, si l’on parvient à insuffler aux laboratoires et aux chercheurs l’envie de travailler ensemble aux niveaux de l’Europe et du monde.

M. Jean-Yves Le Déaut.  Nous proposons de transformer le Conseil de recherche européen (ERC) en une véritable agence européenne de recherche co-finançant les projets de recherche prioritaires avec les Etats membres.

Il nous faut ainsi mettre en place un programme beaucoup plus ambitieux de recherches thématiques et d’études au niveau européen, et des procédures claires, simplifiées et moins bureaucratiques, notamment au niveau des appels d’offre. Il faut également favoriser les doctorats en co-tutelle, et simplifier les dispositifs d’accueil des étudiants étrangers.

Nous devons également renforcer les coopérations avec les pays du Sud, notamment autour de projets thématiques tels que l’agriculture, l’énergie, l’eau, et la santé. Enfin, nous proposons de lancer un grand projet européen de financement de l’innovation, adossé à la Banque Européenne d’Investissement, soutenant le venture capital et le capital développement tout en favorisant la mise en réseaux d’entreprises innovantes européennes, à nouveau dans cet esprit d’écosystème favorable.

M. Claude Birraux. A propos de notre questionnaire, qui a porté sur un panel de plus de 1 000 docteurs et doctorants, nous noterons notamment les points suivants :

- le doctorat sensibilise de mieux en mieux aux questions de propriété intellectuelle et à la création d’entreprise. En effet, près de 70% de ceux l’ayant soutenu avant 2000 nous ont dit ne pas avoir entendu parler de ces questions, contre 50% pour les promotions les plus récentes ;

- quelle que soit l’année de soutenance, 50% environ des sondés nous ont indiqué que l’établissement de préparation ne disposait d’aucune structure de valorisation, d’aide à la création d’entreprise, ou d’aide à la réponse aux appels d’offre. Cette stagnation, au regard des exemples internationaux qu’il nous a été donné de voir, est dramatique et notre rapport doit contribuer à faire évoluer ce pourcentage à la hausse ;

- plus de 80% des doctorants et docteurs interrogés pensent que de nouveaux mécanismes doivent être mis en place pour favoriser l’innovation, et plus de 75% des répondants qui étaient ou sont encore à l’étranger pensent que l’innovation y est plus dynamique qu’en France ;

- si les partenariats public-privé sont relativement bien développés, la mise en place de cellules de détection des résultats valorisables est balbutiante, ce qui s’accorde bien avec l’absence de structure professionnelle de valorisation de la recherche indiquée précédemment ;

- près de 60% des sondés pensent que les peurs constituent un frein important à l’innovation en France ;

- plus de 85% des sondés considèrent que la France ne fait rien pour favoriser l’innovation de rupture ; pourtant, plus de 80% pensent que la France dispose d’un fort potentiel d’innovation ;

Font défaut les structures qui doivent permettre de passer d’une recherche considérée unanimement comme l’une des meilleures du monde à une innovation exploitable.

Si la France dispose d’un fort potentiel, l’innovation y est considérée comme moins dynamique que dans les autres pays.

M. Jean-Yves Le Déaut : Notre questionnaire sur le dialogue intergénérationnel sur l’innovation, les peurs et les risques, a porté sur environ 250 jeunes lycéens, étudiants de Sciences-Po, et spécialistes des risques.

Ce questionnaire a montré que les jeunes considèrent que les innovations des prochaines années concerneraient les énergies vertes et les transports, que le risque zéro n’existe pas, que la société actuelle est plus risquée qu’auparavant.

Les adultes interrogés ne partagent pas ce dernier point de vue, et pensent que la différence principale est que l’on communique davantage sur le risque.

Les lycéens estiment que la créativité et la spontanéité ne sont pas assez développées à l’école. Ils craignent la robotique, les innovations trop rapides en matière médicale. Ils sont très sensibilisés à la question du réchauffement climatique.

Les adultes spécialistes de la maîtrise des risques évoquent notamment les questions éthiques comme les plus problématiques.

Déjà avant Fukushima, les lycéens considéraient le risque nucléaire comme majeur, contrairement aux adultes et aux étudiants de Sciences-Po. Par contre, les lycéens ne sont pas sensibles aux risques liés aux OGM, aux nanotechnologies et aux ondes électromagnétiques.

M. Jean-Pierre Leleux, sénateur. Je suis impressionné par le travail accompli. Comment imaginez-vous la concrétisation de ces propositions ? Proposerez-vous des textes réglementaires ou législatifs ? Envisagez-vous des concertations ?

M. Claude Birraux. Ce rapport sera largement diffusé, par le biais d’un DVD Rom à tous les pôles de Compétitivité, aux IRT, aux universités. Il faudrait en effet que l’OPECST en assure le suivi lors de la prochaine législature.

M. Jean-Marc Pastor, sénateur. Quelles suites allez-vous donner à vos propositions dans l’enseignement ?

M. Claude Birraux. Sans le dire explicitement, nous jetons les bases d’une transformation totale du système de transmission du savoir.

Il faut lire les contributions de MM. Etienne Klein, Cédric Villani, François Taddéi dans le tome 2 du rapport. Nous pensons qu’il faut les entendre, et changer la manière de transmettre la connaissance. J’ai peur qu’au lieu d’être rentrée de plein pied dans le XXIème siècle, la transmission du savoir soit restée bloquée à l’époque de Jules Ferry.

Remarquons que l’enseignement des langues est plus dynamique, plus vivant et plus innovant à l’école primaire qu’au collège.

Mme Geneviève Fioraso, députée. A Grenoble, nous menons une expérience « nano@school » pour toucher toutes les classes de seconde et de première du département de l’Isère, à partir d’expérimentations faites par des volontaires.

Il faut avoir conscience que les « Key enabling technologies » européennes permettent de travailler sur l’élargissement de la recherche à l’horizon 2020, en intégrant l’innovation. Jean Therme en est responsable.

Mme Corinne Bouchoux, sénatrice.  J’ai également été très intéressée par votre présentation. Pourquoi n’avez-vous pas posé plus explicitement la question de la fusion des universités et des grandes écoles, qui vous aurait permis d’aller au bout de votre logique et de votre raisonnement décapant ?

Il faut prendre au mot l’Europe quand elle parle de la formation tout au long de la vie et de l’e-learning. Il faut que les sciences dures et les SHS marchent de pair. Les sciences dures n’évitent malheureusement pas l’aveuglement et les erreurs, comme le montre la présence de médecins et d’ingénieurs dans les sectes.

M. Claude Birraux. Nous préférons parler de rapprochement, de soutien à la fusion des organismes d’enseignement. En effet, c’est bien cela qui est au bout de la logique que nous proposons.

Nous souhaitons promouvoir les SHS, et c’est ce que fait l’OPECST en intégrant toujours des représentants de SHS dans les comités de pilotage de ses études. Nous venons d’apprendre que Sciences-Po envisage une étude quantitative et qualitative sur les modalités de fonctionnement des réseaux sociaux.

M. Jean-Yves le Déaut. Nous avons abordé des risques très différents. Il faut traiter le risque perçu, et être plus consensuels sur les risques. La précaution, c’est plus de recherche quand on est dans le domaine du « risque du risque ». On va parfois trop vite entre le temps de la recherche et le temps de l’application. Nous allons reprendre votre suggestion concernant l’e-learning et la formation tout au long de la vie, c’est en effet un point important.

Mme Catherine Procaccia, sénatrice. Votre travail est ambitieux, peut-être trop ambitieux ? Comment peut-on le traduire concrètement, notamment en ce qui concerne l’Europe, les régions et les débats avec la société ? Ne faudrait-il pas indiquer quelles recommandations pourraient être mises en place à court terme, et celles qui relèvent du moyen et du long terme ? Par ailleurs, certaines peurs de la société correspondent-elles à une auto-censure ?

M. Claude Birraux. L’audition de l’OPECST sur les investissements d’avenir du 17 janvier 2012 a montré ce qui pouvait être fait pour inciter les structures à se regrouper. L’interface entre recherche fondamentale et applications, entre recherche et société existe dans de nombreux pays. Il existe un système qui permet de mieux l’organiser, et nous pouvons le mettre en place rapidement.

M. Jean-Yves Le Déaut. Faire un bilan de la politique de l’innovation implique d’être ambitieux. Aujourd’hui, on a perdu en France de nombreux emplois industriels, et l’on a gagné peu d’emplois dans les nouvelles technologies, comme les technologies vertes, ou les tablettes, contrairement à des pays comme la Corée ou l’Allemagne.

Il est possible d’appliquer certaines de nos propositions dès maintenant, mais il faudra plus de temps pour d’autres, comme celles portant sur une nouvelle approche de la transmission du savoir.

M. Claude Birraux : Il faut aussi ne pas se baser uniquement sur des considérations financières ; la plupart des recommandations peuvent être faites à budget constant, en changeant les mentalités et en redéployant les fonds utilisés inefficacement.

A la suite de ce débat, l’OPECST a adopté à l’unanimité les recommandations du rapport dont il a également autorisé la publication.

ANNEXES

ANNEXE 1 : COMPOSITION DU COMITÉ DE PILOTAGE

M. Jean-Claude ARDITTI

Président de l’AVRIST (association regroupant des conseillers scientifiques en Ambassade et des professionnels des relations internationales scientifiques et technologiques).

M. Francis CHATEAURAYNAUD

Sociologue, Directeur d'études en sociologie à l'école des hautes études en sciences sociales (EHESS) de Paris. Directeur du Groupe de sociologie pragmatique et réflexive (GSPR).

M. Bernard CHEVASSUS-AU-LOUIS

Agrégé de sciences naturelles, Docteur en sciences de l’Université Paris XI, Inspecteur général de l’Agriculture et membre du CGAAER (Conseil général de l’Agriculture, de l’Alimentation et de l’Espace Rural)

M. Hervé CHNEIWEISS

Neurologue et neurobiologiste, directeur de recherches au CNRS, neurobiologiste et neurologue. Directeur du laboratoire « Plasticité Gliale » au sein du Centre de Psychiatrie et Neurosciences Inserm / Université Paris Descartes. Membre du Conseil Scientifique de l’OPECST.

M. Rama CONT

Directeur de recherche au Laboratoire de probabilités et modèles aléatoires (CNRS-UPMC Paris VI), professeur associé et directeur du Center for Financial Engineering, Columbia University.

M. Claude FRANTZEN

Consultant en maîtrise des risques (Risque Attitude), ancien Inspecteur Général pour la Sûreté Nucléaire chez Electricité de France et ancien chef du service de la formation aéronautique et du contrôle technique à la direction générale de l'aviation civile.

M. Marc GIGET

Diplômé de l’Ecole des Hautes Etudes en Sciences Sociales (EHESS) et Docteur en Economie Internationale / Economie du développement (EHESS –Panthéon/Sorbonne). Fondateur de l’Institut Européen de Stratégies Créatives et d’Innovation et du Club de Paris des Directeurs de l’Innovation.

Mme Marion GUILLOU

Présidente Directrice Générale de l'Institut national de la recherche agronomique (INRA). Diplômée de l’Ecole polytechnique, ingénieur générale des ponts et des eaux et forêts, et docteur en physico-chimie.

M. Etienne KLEIN

Physicien, Directeur du laboratoire de recherche sur les sciences de la matière du CEA (Commissariat à l'énergie atomique), membre du Conseil Scientifique de l’OPECST.

M. Jean-Paul LANGLOIS

Président de l’Institut pour la Maîtrise des Risques.

Mme Christine NOIVILLE

Juriste, Directrice du Centre de recherche « Droit, sciences et techniques » (Université Paris 1, UMR 8103), Présidente du Comité économique, éthique et social du Haut Conseil des biotechnologies.

M. Hervé LE BRAS

Démographe, Directeur d'études à l'Institut national d'études démographiques (INED), enseignant à l'École des hautes études en sciences sociales (EHESS), spécialiste en histoire sociale et démographie.

M. Hervé LE TREUT

Chercheur en climatologie, directeur de l'IPSL (Institut Pierre Simon Laplace), professeur de mécanique à l'École polytechnique. Enseignant à l'École Normale Supérieure. Membre de l'Académie des Sciences depuis le 29 novembre 2005. Médaille de bronze du CNRS (1990).

M. Abdallah OUGAZZADEN

Professeur au Georgia Institute of Technology. Directeur de Georgia Tech Lorraine, Directeur de l’Unité Mixte Internationale 2958 Georgia Tech-CNRS : nouveaux matériaux et nanohétérostructures pour la photonique et l’électronique

Mme Laure REINHART

Directeur Général Délégué d’OSEO et de sa filiale Innovation.

ANNEXE 2 : LISTE DES PERSONNES AUDITIONNÉES

I. Dans le cadre de leur étude

A. Lors de la préparation de l’étude de faisabilité

Le mardi 7 décembre 2010 :

M. Patrick LAGADEC, directeur de recherche au département d’économie de l’Ecole Polytechnique

Le jeudi 9 décembre 2010 :

M. Jean-Paul LANGLOIS, président de l’Institut pour la maîtrise des Risques (IMdR)

Le mercredi 12 janvier 2011, lors de la réunion de constitution du comité de pilotage :

M. Jean-Claude ARDITTI, président de l’AVRIST, association regroupant les conseillers scientifiques en Ambassade).

M. Francis CHATEAURAYNAUD, sociologue, directeur d'études en sociologie à l'école des hautes études en sciences sociales (EHESS) de Paris. Directeur du Groupe de sociologie pragmatique et réflexive (GSPR).

M. Bernard CHEVASSUS-AU-LOUIS, agrégé de sciences naturelles, Docteur en sciences de l’Université Paris XI, Inspecteur général de l’Agriculture et membre du CGAAER (Conseil général de l’Agriculture, de l’Alimentation et de l’Espace Rural)

M. Hervé CHNEIWEISS, docteur en médecine et docteur en science, directeur de recherches au CNRS, neurobiologiste et neurologue. Directeur du laboratoire « Plasticité Gliale »/ Inserm U752/ Université Paris Descartes/hôpital Ste Anne au sein du Centre de Psychiatrie et Neurosciences Ste Anne. Membre du Conseil Scientifique de l’OPECST.

M. Rama CONT, directeur de recherche au Laboratoire de probabilités et modèles aléatoires (CNRS-UPMC Paris VI), professeur associé et directeur du Center for Financial Engineering, Columbia University

M. Claude FRANTZEN, consultant en maîtrise des risques, ancien inspecteur Général pour la Sûreté Nucléaire chez Electricité de France et ancien chef du service de la formation aéronautique et du contrôle technique à la direction générale de l'aviation civile.

M. Jean-Paul LANGLOIS, fondateur de l’Institut de Technico-Economie des Systèmes Energétiques (I-tésé), Président de l’Institut pour la Maîtrise des Risques.

M. Hervé LE BRAS, démographe, directeur d'études à l'Institut national d'études démographiques (INED), enseignant à l'École des hautes études en sciences sociales (EHESS), spécialiste en histoire sociale et démographie

M. Hervé LE TREUT, chercheur en climatologie, directeur de l'IPSL (Institut Pierre Simon Laplace), professeur de mécanique à l'École polytechnique. Enseignant à l'École Normale Supérieure. Membre de l'Académie des Sciences depuis le 29 novembre 2005. Médaille de bronze du CNRS (1990).

Mme Christine NOIVILLE, juriste, directeur du Centre de recherche en droit des sciences et des techniques, présidente du Comité économique, éthique et social du Haut Conseil des biotechnologies.

M. Abdallah OUGAZZADEN, professeur au Georgia Institute of Technology. Directeur de Georgia Tech Lorraine, directeur de l’Unité Mixte Internationale 2958 Georgia Tech-CNRS : nouveaux matériaux et nanohétérostructures pour la photonique et l’électronique.

B. Après l’étude de faisabilité

Le mercredi 26 janvier 2011 :

Mme Sarah MAUROUX, ingénieur, étudiante du Master II de l’Ecole des Mines et de l’Agro.

Le mercredi 2 février 2011 :

M. Jérôme GOELLNER, chef du service des risques technologiques à la direction générale de la prévention des risques du ministère de l’écologie, du développement durable, des transports et du logement

Mme Catherine MIR, direction générale de la prévention des risques du ministère de l’écologie, du développement durable, des transports et du logement

Le mercredi 9 février, lors de la rencontre entre l’OPECST et la CNIL :

M. Alex TÜRK, président de la CNIL

Le jeudi 10 février 2011 :

M. Jean-Paul LANGLOIS, président de l’Institut pour la maîtrise des risques (IMdR)

M. Claude FRANTZEN, consultant en maîtrise des risques

M. Michel GODET, professeur au CNAM

Le mercredi 16 février 2011 :

Mme Sylvette PIERRON, présidente de l’Institut français des formateurs Risques Majeurs Protection de l’Environnement (IFFO-RME)

Le mercredi 23 février 2011 :

M. Jean Paul KRIVINE

M. Louis-Marie HOUDEBINE (AFIS)

Le Jeudi 10 mars 2011 :

M. David JASMIN, association La Main à la Pâte

Mme Pascale MAISONNEUVE, chef du service de coordination de l’information, des vigilances, des risques et des actions de santé publique de L’AFSSAPS

M. Yves QUERE, Académie des Sciences

Le lundi 14 et le mardi 15 mars, en Lorraine :

Êà la société PAT (Plant Advanced Technologies)

M. Jean-Paul FEVRE, président de PAT (Plant Advanced Technologies)

M. Frédéric BOURGAUD, directeur scientifique de PAT

M. Paul HANNEWALD , directeur scientifique adjoint de PAT

M. Régis BRUN, directeur financier de PAT

M. Jean-Christophe HENRY, président de Synthelor, société de chimie fine

Êà la préfecture

M. Adolphe COLRAT, préfet de Meurthe-et-Moselle

M. Abdallah OUGAZZADEN, membre du comité de pilotage, Professeur au Georgia Institute of Technology. Directeur de Georgia Tech Lorraine, Directeur de l’Unité Mixte Internationale 2958 Georgia Tech-CNRS : nouveaux matériaux et nanohétérostructures pour la photonique et l’électronique.

M. Jean-Pierre THOMESSE, directeur régional de la recherche et de la technologie de Lorraine

M. Didier PICHOT, directeur régional d’OSEO

M. Jean-Paul FEVRE, président de Plant Advanced Technologies (PAT)

M. Frédéric BOURGAUD, directeur scientifique de PAT

M. Régis BRUN, directeur financier de PAT

M. Jean-Claude ANDRE, CNRS

M. Karl GEDDA, directeur général du pôle compétitivité fibres

M. Jack-Pierre PIGUET, directeur de l’Ecole des Mines de Nancy

M. Eric CHATELET, professeur à l’Université de technologie de Troyes, UMR Sciences et Technologies pour la Maîtrise des Risques, CNRS

M. Pierre ZABE, assistant parlementaire

M. Roger-Marc NICOUD, président du groupe Novasep

M. Olivier JOUBERT, maître de conférences en toxicologie (nanotoxicologie), Université de Nancy

M. Alban OLMEDO, étudiant en Master « Métiers politiques » à Nancy II

M. Adam BRAHIMI-SEMPER, étudiant franco-autrichien de premier cycle à Sciences-Po au campus franco-allemand et européen

Melle Rim KOUSSA dit Bacha, étudiante franco-libanaise à Sciences-Po Paris au campus de Nancy

Êà Novasep

M. Roger-Marc NICOUD, président du groupe Novasep

Ê lors d’un dîner-débat :

M. Adolphe COLRAT, préfet de Meurthe-et-Moselle

M. Jean-Jacques POLLET, recteur de l’Académie de Nancy-Metz

M. Roger-Marc NICOUD, président du groupe Novasep

M. Jean-Pierre THOMESSE, directeur régional de la recherche et de la technologie de Lorraine

M. Didier PICHOT, directeur régional d’OSEO

M. Pierre ZABE, assistant parlementaire

Ê lors de la conférence de presse

M. Pierre TARIBO, La Semaine.

M. Bernard KRATZ, Le Républicain Lorrain

M. Guillaume MAZEAUD, L'Est Républicain

Mme Véronique SOREL, L'Est Répubicain

M. Pascal AMBROSI, Le Mag Eco

Ê Au lycée Marquette :

M. Christian SAMEK, proviseur du lycée Marquette de Pont à Mousson

M. Frédéric CORDIER, professeur

Mme DELAHAUTEMAISON, professeur

Mme Danièle BAZIN, vice-présidente de l’IFFO-RME

Mme Annie BENNEZON, coordinatrice RM Reims (IFFO-RME)

Mme Béatrice LOPVET, assistante parlementaire

Les lycéens de première :

Margaux SCHIRRA, Estelle FRANÇOIS-BRAZIER, Anne ZOWER, Adrien LEHALLE, Nicolas SCHENCK, Arnaud ODINOT, Mallaury DESCHASEAUX, Vincent BOUTET, Bruno CHARPENTIER, Laura FOUROT, Caroline FLENGHI, Morgane FORTER, Lucie HARMENT, Stessy FERRARA, Elodie HECTOR, Zélie JEANNOT, Julie FRANÇOIS, Sadiye TOPARSCAN, Chloé WUYCIK, Cassandre TOUSSAINT, Malorie VITEL, Lucie CARPENTIER, Amandine NEVES PIRES, Margaux BARIATTI, Lucie CREUSAT, Marina CLEMENT, Andréa DA CUNHA, Marie MARTIN, Emilie LEDIG, Rémi PETITJEAN

Théo MAURY, Elodie HULOT, Juliette PHELUT, Caroline HENRY, Pauline KAWALA, Morgane BARAD, Cloé GUILLAUME, Céline ANTOINE, Gulsun FIRIK, Hélène BERTHOUX, Roseline KURSCHSTATTER, Sara LASSED, Samir HALFAOUI, Flavia D’ANGELO, Anthony MONTRESOR, Mélanie AINE, Manon BURUS, Camille GOULON, Valentine PIERSON, Mathieu SCHWEITZER, Nicolas GOBILLARD, Maxime THIERCY, Gaël LE MASLE, Céline BERNILLON, Amélie GIRARD.

Le jeudi 17 mars 

M. Philippe D'IRIBARNE, directeur de recherche au CNRS

Le lundi 21 et le mardi 22 mars, en Haute Savoie

M. Jean-Paul LANGLOIS, membre du comité de pilotage

M. Claude FRANTZEN, membre du comité de pilotage

Mme Virginie DUBY-MULLER, assistante parlementaire

M. Pierre ZABE, assistant parlementaire

Êà Archamps

M. Bob HOLLAND, directeur-adjoint de la technopole, directeur administratif de la plateforme

Mme Gisèle BONNOT, directrice de l’Agence économique 74

Mme Gaëlle REY, MIND

M. Karim ARAFAH, GIP Biopark Archamps

M. Luis ALMEIDA, chercheur CNRS (AGIM)

M. Jean-Claude FERNANDEZ, AGIM/CNRS

Êà MIND

M. Yves LEMOIGNE, directeur de l’Ecole européenne de physique médicale

Mme Delphine BECHEVET, ingénieur, pôle Wireless Innovation de MIND

M. Gérald BOUFFARD, ingénieur, pôle Integrated Circuits de MIND

M. Eric CHABANNE, ingénieur, pôle Embedded System de MIND

Êà PROSYS

M. Jean-Marc ANDRE, directeur général du pôle de compétitivité Arve-Industries

M. Pierre LAFAY, PDG de PROSYS

M. Martial SADDIER, député de Haute Savoie

Mme Delphine METZ, assistante parlementaire

Ê au centre technique du décolletage (CT-DEC)

M. Alain COLLADANT, responsable de la communication

M. Frédéric BARILLIER, chargé de la promotion des métiers pour les industries d e la mécanique et du décolletage

M. Yann DERICKXSEN, responsable du laboratoire de métrologie

M. David GROSCLAUDE, ingénieur laser, commercial R et D

Mme Céline GIANPIETRI, responsable du laboratoire matériaux

M. Ephraïm GOLDSCHMIDT, ingénieur R et D

M. Roger BUSI, ingénieur R et D

M. Vincent MOREAU, ingénieur

Êau pôle de compétitivité Arve Industries

M. Jean-Marc ANDRE, directeur du pôle de compétitivité

Êlors de la conférence de presse

M. Gilles MEUNIER, TV8 Mont Blanc

M. Yves GALLARD, Le Messager

Mme Sabine PELLISSON, Le Dauphiné Libéré

Mme Sandra ANSANAY, NRJ, Nostalgie Léman.

M. Luc BESANÇON, France Bleue

Êau lycée Jean Monnet d’Annemasse

M. Gilbert GINDRE, proviseur

M. Vincent DEPARIS, professeur de physique

M. Pierre CUSIN, professeur d’histoire et géographie

Mme Vanessa LOISELEUR, professeur de SVT

Mme Sylvie PLANADE, gestionnaire du lycée

M. Bruno CHAVENT, chef de travaux

Mme Martine PIEROTTI, inspectrice de l’Education nationale, Information et Orientation 74, représentant M. Jean-Marc GOURSOLAS, inspecteur d’académie de Haute Savoie.

Les lycéens  de première :

Guillaume BAUDET, Boris PAUTASSO, Vincent SARINE, Marin LEVEQUE, Jérôme MARTINEZ, Yann BECRET, William SUDAN, Martin VASSOR, Axel ROCH, Alexandre BOURDILLAS-MACEY, Alexandre GUINAMAND, Gregory ROSSI, Kevin GAZOUFER, Gracia GAUGATH, Baptiste DUVAL, Sarra BOUZEBRA Romane PAPPALARDO, Roxane CATTANES, Rachel LEITOO, Hassiba MAHOUR BACHA, Elsa RENAUD,Mathilde FOURNIER, Elsa VITTE, Vincent EL ELJ, Walid BOUZEBRA, Jordane KOUNNINI, Alexis DUBA, Lucas PINGET, Dimitri PERNET, François Xavier FAVRE, Arthur NEAU, Antoine BALTASSAT, Joan FAJARDO, Bryan MENNERET, Alexandre BERGER, Wilfried KAFANDO, Maxence TISSOT, Charles CALVET, Diane CHEVASSUT, Caroline GAVARD, Romain POUGET, Marjorie LAURENT, Marie HERARD, Margaux BURNIER, Camille DEGORS, Morgane CHILLET, Laura HOUZET, Emma REYNOLDS, Claire DECHAMBOUX, Camille BITZBERGER, Etienne ROSSET, Marion BREAVOINE, Mélina MALANGA, Jean MARCONI, Antoine PEREA, Adrien MONTILLIER, Ugo MASSARIOL, Raphaël LAFFIN.

Êà Polytech Annecy-Chambéry

M. Laurent FOULLOY, directeur

Mme Sylvie GALICHET, directeur Listic/polytech

M. Jacques LOTTIN, Polytech Annecy-Chambéry, ex directeur du SYMME, représentant de l’université de Savoie au pôle Arve, membre du CA du CTDEC

Êau LAPP

M. Jean-Pierre LEES, directeur-adjoint

Mme Nadine NEYROUD, directeur technique

Mme Christine GASQ, responsable du service mécanique

M. Bruno LIEUNARD, responsable du projet mécanique

Mme Julie PRAST, responsable du service électronique

M. Cyril DRANCOURT, ingénieur électronicien sur le projet MicroMegas

M. Maximilien CHEFDEVILLE, physicien sur le projet MicroMegas

M. Eric FEDE, responsable mésocentre MUST

M. Nicolas GEFFROY, ingénieur mécanique projet CTA

Du dimanche 3 avril au samedi 9 avril

1. En Inde

Le lundi 4 avril : à Dehli

M. Jérôme BONNAFONT, ambassadeur de France

M. Nicolas POUSSIELGUE, attaché pour la science et la technologie

Mme Véronique BRIQUET-LAUGIER, conseillère scientifique

M. Eric SAYETTAT, conseiller économique à la mission économique de l’ambassade

M. Philippe BEYRIES, conseiller agriculture à la mission économique de l’ambassade

M. Anil WALI, directeur exécutif de la Fondation pour l’innovation et les transferts de technologie

M. Sanjay VIJAYAKUMAR, CEO de la start-up MobMe

M. GAUTHAM, directeur général de MobMe

Mme Prema SANKAR, responsable du développement des nouveaux produits dans le groupe MobMe

M. Anjan DAS, responsable des initiatives « Innovation et Connaissances » pour la Confédération des Industries Indiennes (CII).

M. Jibak DASGUPTA, directeur-adjoint de la Confédération des Industries Indiennes

Mme Suparna DUTT, département international de la Confédération des Industries Indiennes

M. R.K. SURI, directeur exécutif de l’entreprise Panacea Biotech

Le mardi 5 avril : à Pune

Mme Revati AROLE, coordinatrice-Inde, Réseau « n+i »

Ê à l’usine Tata Motors

M. Abhay M DESHPANDE, directeur général du centre de recherche en ingénierie

M. Umesh ABHYANKAR, directeur des projets automation des systèmes de véhicules

Ê au parc technologique « Scitech Park »

M. Rajendra JAGDALE, directeur du parc technologique « SciTech Park » de Pune et en charge d’un projet de parc technologique à Bombay

M. Anant SARDESHMUKH, directeur général exécutif de la chambre de commerce, d’industrie et d’agriculture

M. Anand KHANDEKAR, directeur de Friends Union for Energising Lives

M. Arun NIGAVEKAR, conseiller et trustee du parc scientifique et technologique

M. Luc DIDON, directeur de l’Alliance française

Ê au « National Chemical Laboratory »

M. M.G.KULKARNY, chef de la vision science et ingénierie

M. Vivek V. RANADE, chef de la division d’ingénierie chimique (CreST)

M. Shubhanghi B. UMBARKAR, scientifique à la division de la catalyse

Mme PREMNATH V, chef des innovations

Le mercredi 6 avril : à Bombay

Ê au laboratoire de recherche et développement de la société Piramal

M. Somesh SHARMA, directeur de Piramal Life Sciences

Ê Avec des représentants d’Areva

M. Patrick TEYSSIER, directeur Marketing et Stratégie, Areva Inde

M. Nicolas CHICHLO, analyste de marché

Ê A l’Indian Institute of Technology (ITT) et à la société pour l’innovation et l’entreprenariat

M. C. AMARNATH, professeur à l’ITT, Département d’ingénierie mécanique

Mme Poyni BHATT, « chief administrative officer » de la société pour l’innovation et l’entreprenariat

M. Sushanto MITRA, « chief executive officer de la société pour l’innovation et l’entreprenariat

M. Basant Kumar GUPTA, représentant Zeus Numerix

M. Abhishek JAIN, représentant Zeus Numerix

M.Rajeev DUSANE, Professeur, chef du département d’ingnierie métallurgique et des sciences des matériaux de l’IIT Bombay

M. N. VENKATARAMANI, professeur à ce département

M. Shiva PRASAD, Doyen de l’IIT pour les programmes académiques

M. Subhasis CHAUDHURIN, Doyen de l’IIT pour les relations internationales

M. Surinder Pal SINGH, secrétaire général pour les affaires académiques de l’IIT

Les étudiants :

John JOY, Prachur GOEL, Sagar SAMBRANI, Aarav SINGHAL, Anasuya MANDAL, Maulikmihir THAKER, Ashutosh PATEL, Tausif FAVOOQUI, P.ANBUMATHI, Cholugama J.P. STREELAM, Sri Harsha GRAMIDI, Ankit CNIPLUNKAN, Anirudh ROO, Yohan MATHEW, Debabrata DAB, D.D. MANDALIYA, Tirthankar SENGUPTA, Sanjeev Dasrav MUSKAWED, Deepika JHAKUR, SHASHIKANT, Anit SINGH, Himanshu BAHMANI, Harit SHELAT, BHUVANESWARAN N. C., Rohit LUHADIA.

Ê lors d’une rencontre au consulat général

M. François PUJOLAS, consul général de France à Bombay

M. Arthur DE MONTALEMBERT, directeur d’Areva Inde

M. Gajanana PRABHU-GAUNKAR, professeur à l’IIT, département d’ingénierie métallurgique et des sciences des matériaux

M. Pankaj M. BALIGA, vice-président de Tata consultancy services

2. En Chine, à Pékin

Le jeudi 7 avril

Ê personnalités françaises

M. Norbert PALUCH, conseiller pour la science et la technologie de l’ambassade

M. Philippe MARTINEAU, conseiller adjoint pour la science et la technologie de l’ambassade

Mme Hui LIU, chargée de mission pour la science et la technologie à l’ambassade

M. Philippe ARNAUD, attaché pour la science et la technologie

Mme Charlotte CHOLLET-GODARD, chargée de mission

Ê lors d’une rencontre avec des étudiants européens et d’anciens étudiants chinois en France au centre culturel français

M. Laurent LE GUYADER, docteur, Centre national pour les nanosciences et la technologie

Mme Martina GERST, docteur, Ecole d’économie et de management de l’Université Tsinghua, spécialiste des standards technologiques

M. Kevin LAURENT, postdoc, Ecole de physique de l’Université de Pékin, nanotechnologies

M. Jinling ZHANG, ancien doctorant chinois en France, anthropologue

Mme Xinxia WANG, doctorante en sciences du langage à l’INALCO

M. Zhengjiang ZHANG, post-doc, biochimiste

Mme Jing WANG, nanotechnoloogies

Mme Ying XU, nanotechnologies, biotechnologie

M. Thomas PALYCHATA, chargé de mission au service pour la science et la technologie à l’ambassade

Mme Zoé LOMBARD, chargée de mission au service pour la science et la technologie à l’ambassade

Ê avec des responsables de l’ITTN (International Technology transfer Network) et de la commission science et technologie de Pékin

M. Niu Jin MING, directeur du Centre de promotion et d’échange de la technologie de Pékin, vice-chancelier de l’association de capital risque, vice-chancelier de l’association du marché des technologies de Pékin, secrétaire général de l’association des inventeurs de Pékin

M. Kevin HU, manager du Centre de promotion et d’échange de la technologie de Pékin

Ê lors d’une rencontre avec des chercheurs

M. Zheng LI, INRA/CIRAD

M. Victor HUANG, Orange Lab

Mme Aiyan JIANG, Laboratoire Pierre Fabre

Le vendredi 8 avril

Ê personnalités françaises

Mme Sylvie BERMANN, ambassadeur de France

M. Hervé DE LA BATIE, ministre conseiller

M. Rodolphe PELLE, conseiller économique

Mme Charlotte GODARD, service de coopération et d’action culturelle

M. Laurent LEGODEC, deuxième secrétaire

M. Patrick NEDELLEC, directeur du bureau du CNRS en Chine

M. Philippe VIALATTE, conseiller scientifique à la délégation européenne

M. Jean-Pierre JOUANNAUD, directeur du LIAMA

Ê au centre TORCH

Mme Jinqiu QIAN, directrice, division de la coopération internationale du centre TORCH

M. Mo TAN, directeur adjoint du centre TORCH

Ê au parc technologique de Zhongguancun

Mme Zhang XIUYING, directeur-adjoint de l’administration du Parc technologique de Zhongguancun

Mme Wang CHONGWU, membre de l’administration du Parc technologique de Zhongguancun (ldivision de la coopération internationale)

Mme Liu XUELIANG, manager, Tuspark

M. Li WENGJUN, président, Centaurus BioPharma

M. Hong LUO, directeur, Centaurus BioPharma

M. Dengming XIAO, directeur, chimie médicale, Centaurus BioPharma

M.Jianguang MA, directeur du marketing de la société Vorx Telecommunications

M. Zhihong YAO, directeur général adjoint de la société Vorx Telecommunications

Ê lors d’une rencontre avec des universitaires et des intellectuels

M. Shao LIANG, physicien, Ecole centrale de Lyon, membre de l’Institut Transcultura

M. Jean-Louis ROCCA , SHS, IEP Paris

M. Zhao TINGYANG, philosophe, membre de l’Institut Transcultura

Le samedi 9 avril

Ê à l’Ecole centrale de Pékin

M. Jean DORE, directeur

Les étudiants :

Tairan WANG, Zixiao JIANG, Langshi CHEN, Xiaodong LIU, Yue LI

Le jeudi 14 avril 2011, lors de la première audition publique sur «  L’innovation à l’épreuve des peurs et des risques : l’apport du dialogue intergénérationnel »

M. Pierre TAMBOURIN, directeur général de Genopole® à Évry, directeur de recherche à l’INSERM, président du Pôle

scientifique d’Evry Val d’Essonne ;

M. Marc GIGET, professeur au CNAM, président de l'Institut Européen de Stratégies

Créatives et d'Innovation,

Mme Laure REINHART, directeur général Délégué d'OSEO et de sa filiale Innovation.

Pr. Hervé CHNEIWEISS, directeur de recherche, directeur du groupe “Plasticité gliale et tumeurs cérébrales” au Centre de Psychiatrie et Neurosciences de la faculté de médecine Paris-Descartes à l’hôpital Ste Anne ;

Mme Dominique LEVENT, responsable de la démarche d’innovation ouverte, au sein de la cellule en charge de la prospective "Création-Vision" du groupe Renault.

M. Claude FRANTZEN, consultant en maîtrise des risques ;

M. Jean-Paul LANGLOIS, président de l’Institut pour la maîtrise des risques.

M. Etienne KLEIN, physicien et philosophe, directeur de recherche au CEA, directeur du LARSIM (Laboratoire de Recherche sur les Sciences de la Matière)

M. François TADDEI, directeur de recherche au Centre de Recherches Interdisciplinaires.

Le mercredi 18 mai

M. Yves SAMSON, directeur du programme transversal Nanosciences du CEA.

M. Jean-Pierre VIGOUROUX, chef du service des affaires publiques, chargé des relations avec le Parlement du CEA

Mme Anne TRICAUD, chargée d’affaires publiques françaises et européennes du CEA

Le jeudi 26 mai 2011, lors de la deuxième audition publique : « L’innovation à l’épreuve des peurs et des risques : quelles innovations pour la société de demain ? »

M. Philippe TOURTELIER, député d’Ille-et-Vilaine, président de table ronde

M. Albert OLLIVIER, responsable Financement des PME et de l’innovation au Pôle de compétitivité mondial « Finance innovation » (innovation financière, soutien au financement de l'innovation et au développement global de l'activité économique).

M. Mathias FINK, professeur à l’ESPCI ParisTech, directeur de l’Institut Langevin, membre de l’Académie des sciences et titulaire de la chaire d’innovation technologique du Collège de France, Lauréat de la médaille de l’innovation du CNRS (2011).

M. Jean-Michel DALLE, directeur d’Agoranov, incubateur public qui a pour mission de faciliter la création d’entreprises innovantes liées à la recherche publique.

M. Christophe FORNES, président de la commission Recherche et Innovation de Croissance Plus, association française qui vise à défendre un nouveau modèle entrepreneurial et à améliorer l’environnement économique et social des entreprises innovantes.

M. Gérard DOREY, président du Concours Lépine, concours créé en 1901 qui récompense les inventions les plus innovantes et originales.

M. Fabrice CLAIREAU, directeur des affaires juridiques et internationales à l’Institut national de la propriété industrielle (INPI).

Mme Christine KERTEZ, responsable de Projet Innovation, Recherche et Enseignement à l’Association Française de Normalisation (AFNOR).

Mme Christine NOIVILLE, Juriste, directrice du Centre de recherche en droit des sciences et des techniques, présidente du Comité économique, éthique et social du Haut Conseil des biotechnologies.

Mme Marie-Christine BLANDIN, sénatrice du Nord, présidente de table ronde

M. François PIETTE, Chef de service et responsable du pôle Allongement de la vie de l’Hôpital Charles Foix, président de la Société française des Technologies pour l’Autonomie et Gérontechnologies.

Dr François BALLET, président délégué du comité R&D du Pôle de compétitivité mondial « Medicen » (hautes technologies pour la santé et les nouvelles thérapies).

M. François EWALD, directeur de l’Ecole Nationale d’Assurances (ENASS)/ professeur titulaire de la chaire d’assurances au Conservatoire National des Arts et Métiers (CNAM).

M. Axel KAHN, Généticien, directeur de recherche à l'INSERM, ancien directeur de l'Institut Cochin, président de l'université Paris Descartes.

M. Michel CABOCHE, Biologiste, directeur de recherche au CNRS, membre de l'Académie des sciences. président du directoire du programme français de génomique végétale, Génoplante, de 1999 à 2002.

Mme Elisabeth CHEVREAU, représentante du Pôle de compétitivité à vocation mondiale « Végépolys », directrice de Recherche INRA, responsable de l’UMR Génétique et Horticulture

M. Jean CHABBAL, délégué général du Pôle de compétitivité mondial « Minalogic » (Micro nanotechnologies et Systèmes embarqués).

M. Abdallah OUGAZZADEN, professeur au Georgia Institute of Technology. directeur de Georgia Tech Lorraine, directeur de l’Unité Mixte Internationale 2958 Georgia Tech-CNRS : nouveaux matérieux et nanohétérostructures pour la photonique et l’électronique.

M. Yves SAMSON, directeur du programme transversal Nanosciences du CEA.

M. Jean-François BERAUD, secrétaire général de la Commission Nationale du Débat Public (CNDP).

M. Pierre-Benoit JOLY, sociologue, directeur de recherche à l’INRA, directeur de l’Unité TSV (Transformations sociales et Politiques liées au Vivant) et membre du Comité de Direction de l’Institut Francilien Recherche, Innovation et Société (IFRIS).

M. Frédéric DUPUIS, directeur de l’école Supérieure de Journalisme (ESJ) de Paris.

Le mardi 31 mai, lors de la visioconférence avec le lycée français de Singapour

M. Olivier CARON, ambassadeur de France à Singapour

M. Marc PITON, conseiller Culturel et Scientifique de l’Ambassade de France a Singapour

Mme Vaimiti GUEHENNEC, professeur d’Histoire Geographie.

M. Nicolas DEBENNE, conseiller Principal d’Education

Les lycéens de première :

Paul PEREIRA, Timothé DRIANNO, Mathilde DESSALE, Marion LANNOY, Alexis AGABRIEL, Rachel TESTARD, Thomas DE POMMEREAU, Claudia MARTIN, Clémentine DELHOTE, Solveig NOTTE, Anne MALEC.

Le mercredi 8 juin

M. Steeve AUGOULA, président directeur général de Glaizer Group

M. Philippe GLUNTZ, président de France Angels

Le mardi 14 Juin

M. Richard STALLMAN, père des logiciels libres

Le mardi 21 Juin

M. Vincent CHARLET, directeur de Futuris

M. Jean-Claude ARDITTI, membre du comité de pilotage

Le mardi 28 juin

M. Cedric VILLANI, médaillé Fields

Du lundi 4 au mercredi 6 Juillet, en Belgique

Ê à Bruxelles, au Conseil et à la Commission européenne

M. Marcel VAN DE VOORDE, professeur à l’Université de technologie de Delft

Mme Odile RENAUD-BASSO, chef de cabinet adjoint de M. Herman VAN ROMPUY, président du conseil européen

Mme Marion DEWAR, membre du cabinet de Mme Maire GEOGHEGAN-QUINN , commissaire en charge de la recherche, de l’innovation et des sciences

M. Heinrich HICK, membre du cabinet de M. Günther OETTINGER, commissaire en charge de l’énergie

M. Willem PENNING, chef de l’unité « évaluation des risques » à la direction générale de la santé et des consommateurs

Mme Mirjam SODERHOLM, secteur pharmaceutique

M. Takis DASKALEROS, team leader, Evaluation des risques pour la santé et l’environnement et de la technologie de la santé

M. Dominique RISTORI, directeur général du Centre commun de recherche

M. Marco ABATE, assistant du directeur général

M. Laurent BONTOUX, administrateur principal, évaluation des risques, CCR

M. Pierre NICOLAS, relations extérieures, CCR

M. Bernard SALANON, conseiller en charge des questions nucléaires auprès de la représentation permanente de la France auprès de l’Union européenne

M. Eric-Olivier PALLU, conseiller pour la science et la technologie auprès de la représentation permanente de la France auprès de l’Union européenne

Ê à Bruxelles, lors d’une réunion avec l’AVRIST et le CLORA :

M. Vincent MIGNOTTE, directeur adjoint, direction innovation et relations entreprises, CNRS

M. Günther HAHNE, directeur du bureau de Bruxelles, CNRS

Mme Dominique MAZIERE, responsable programmes européens du CEA

M. David ITER, CEA/CLORA

M. Pierre VIGIER, chef de l’unité analyse économique de la DG Recherche et Innovation

M. Philippe MARTIN, chef du secteur Nouveaux risques, nanotechnologies coordination recherche

Mme Fabienne GAUTIER, chef d’unité adjoint de l’unité en charge de la politique de l’ERA. (DG Recherche et Innovation)

M. Jean-David MALO, chef d’unité « Ingénierie financière –service désigné de la CE pour la mise en œuvre du mécanisme de partage des risques financiers (DG Recherche et Innovation)

Mme Jocelyne GAUDIN, conseiller recherche et Innovation dans le transport, DG Recherche et Innovation, représentant de l’AVRIST à Bruxelles.

M. Brice LAMOTTE, chargé des relations avec le parlement, CNES

M. Pierre-Henri PISANI, représentant du CNES près les institutions européennes, président du CLORA.

M. Jean-Luc NAHEL, délégué de la conférence des présidents d’université à Bruxelles, responsable relations internationales

Mme Elisabeth LANCE, assistante du CLORA.

Ê à Leuven

M. François HOULLIER, directeur général délégué, INRA

Mme Elisabeth MERLEN, chargée de mission R et D, IFP Energies nouvelles

M. Jean-Pierre VIGOUROUX, chef du service des affaires publiques, CEA

Mme Marie-Noëlle SEMERIA, Directrice adjointe du LETI, CEA

Prof. Dr. Mark WAER, recteur de la Katholieke Universiteit Leuven (K.U. Leuven)

Prof. Dr. Bart DE MOOR, vice-recteur, relations internationales

Dr. Paul VAN DUN, directeur de LRD

Prof. Dr. Peter MARYNEN, vice-Recteur, Politique en matière de recherche

Prof. Dr. Koenraad DEBACKERE, directeur

Prof. Dr. Luk DRAYE, doyen de la faculté des Arts et Lettres

Prof. Dr. Alfons VERBRUGGEN, doyen de la faculté de pharmacie

M. Bart HENDRICKX, directeur du bureau international

Prof. Dr. Frank LUYTEN, chef du département des sciences musculosquelettiques

Prof. Dr. Johan KIPS, président du Leuven Health Sciences Campus

Prof. Dr. Gilbert DECLERCK, président de l’IMEC

M. M. VAN ROSSUM, conseiller stratégique

Mme Patricia. VERNIMME, juriste d’entreprise

M. Philippe ABSIL, directeur de programme

M. A. PHOMMAHAXAY, FPS/Patterning Group

M. L. DEFERM, IMEC

Ê à Louvain-la-Neuve

M. François HOULLIER, directeur général délégué, INRA

Mme Elisabeth MERLEN, chargée de mission R et D, IFP Energies nouvelles

M. Jean-Pierre VIGOUROUX, chef du service des affaires publiques, CEA

Mme Marie-Noëlle SEMERIA, directrice-adjointe du LETI, CEA

M. Bruno DELVAUX, recteur

M. Benoit MACQ, pro-recteur au service à la société

Mme Isabelle LERMUSEAU, cabinet du recteur-service à la société, UCL

M. Philippe DURIEUX, CEO, Sopartec

Mme Anne BOVY, directrice de l’administration et de la recherche, UCL

Mme Magdalini IOANNIDIS, Promotion internationale des parcs scientifiques, UCL

M. Jean-Marc SIMOENS, gestion des parcs scientifiques, UCL

M. Philippe BARRAS, directeur INESU-développement régional, promotion immobilière et développement urbain, président des Science Parks of Wallonia

M. Eric HALIOUA –CEO Promethera Biosciences

M. Guy TURQUET DE BEAUREGARD, vice-président de l’AIPES, Vice-président Affraires publiques IBA Molecular Europa

M.Jean-Marc ANDRAL, président d’IBA

Mme Sandrine LERICHE, Corporate communication, IBA

M. Jeremy DOMIS, attaché scientifique et de coopération universitaire, ambassade de France

Jeudi 7 Juillet

M. Stéphane DISTINGUIN, fondateur de FaberNovel

M. Jean-Claude ARDITTI, membre du comité de pilotage

M. Joachim RAMS, président de l’association Instituts Carnot, directeur général d’Arts, association de recherche Technologie et Sciences

M. Alain DUPREY, directeur général de l’association Instituts Carnot

Du samedi 10 septembre au samedi 17 septembre, aux Etats Unis

1. A Atlanta

Ê au consulat general

M. Pascal LE DEUNFF, consul general

Mme Caroline PASQUIER, vice-consule

Mme Jacqueline SIGNORINI, attachée scientifique

Mme Johanna FERRAND, attachée scientifique adjointe

Ê aux Centers for Disease Control and Prevention (CDC)

M. Robert SWAIN, Senior Knowledge Management Officer, Office of the Associate Director for Science

Mme Mary D. ARI, Senior Health Scientist, Innovation and Special Projects Activity, Office of the Associate Director for Science

Mme Joanne D. ANDREADIS, senior Advisor for Laboratory Preparedness, Office of Public Health Preparedness and Response, IFund

M. John KOOLS, Health scientist, Innovation and Special Project Activity, Office of the Associate Director for Science, IFund

Mme Tania POPOVIC, Deputy Associate Director for Science

Mme Yvonne GREEN, Director, Office of Women’s Health, office of the Associate Director for Program, Text4baby

Mme Juliana K. CYRIL, Deputy Director, Office for Science Quality, Office of the Associate Director for Science

Mme Pascale KRUMM, speechwriter du directeur des CDC

Ê au Georgia Institute of Technology

M.Steven Mc LAUGHLIN, Vice Provost for International Initiatives

M.Bo ROTOLONI, Director and Principal Research Engineer of the Cyber technology and Information Security Laboratory (CTISL)

M.Fred WRIGHT, Deputy Director and Chief Engineer of the Cyber Technology and Information Security Laboratory

Ms Vicki BIRCHFIELD, professeur associe, the Sam Nunn of International Affairs

M.Gary MAY, Doyen du Département d’ingenierie et professeur en microelectronique et microsystemes

M.Abdallah OUGAZZADEN, directeur de l’UMI/CNRS a Metz, membre du comite de pilotage

M. Yves BERTHELOT, Vice provost and President of Georgia Tech Lorraine and Professor

M. John R. Mc INTYRE, Professor, Executive Director, Center for International Business Education and Research

Ê aux Georgia’s Centers for Innovation

M. Nico WIJNBERG, International Business

Mme Alicja DROLET, Project Analyst, International Business

M. Costas SIMOGLOU, Director for the Center of Innovation for Energy Technology for the Georgia Department of Economic Development

Dr Stacy Williams SHUKER, Director, Center of Innovation for Life Science

Mme Amy HUDNALL, Associate Director for the Center of Innovation for Aerospace

M.STEVE JUSTICE, Director for the Center of Innovation for Aerospace

M.Greg KING, Innovation Partners Group Georgia Tech

Mme Lynn HENKIEL, Assistant Director, technology Innovation Practises, Enterprise Innovation Institute, Innovation Partners Group Georgia Tech

Mme Nina SAWCZUK, directrice de l ATDC (Advanced Technology Development Center)

2. En Caroline du Nord

Ê au National Institute of Environmental Health Sciences (NIEHS)

Dr Rick WOYCHIK, NIEHS, Deputy Director

Dr Stavros GARANTZIOTIS, Clinical research Program

Dr Williams STOKES, national Toxicology Program

Dr Nigel WALKER, National Toxicology Program

Dr Pat MASTIN, Deputy, Division of Extramural Research

Dr Elizabeth MAULL, National Toxicology Program

Dr Srikanth NADADUR, Celloular, Organ and Systems Pathobiology

Dr Carolyn DILWORTH, Susceptibility and Population Health

Dr Mathilde TRIQUIGNEAUX, Structural Biology Laboratory

Dr Natacha STEINCKWICH-BESANCON, Signal Transduction Laboratory

Ê à Duke University

Pr Mark WIESNER, Pratt School of Engineering

Mme Hélène CRIE, journaliste

Mme Marie-Claire RIBEILL, consule honoraire à Raleigh

Au Research Triangle Regional Partnership Office

M. John HARDIN, Executive Director of the North Carolina Board of Science and Technology

Mme Pam WALL, VP of Product Development

Mme Kelly B. SEXTON, Office of Technology Transfer de l’Université d’Etat de Caroline du Nord

M. Marcus « Wade » FULGHUM, assistant du directeur de l’Economic Development Partnership, Office of Extension, Engagement and Economic Development de l’Université d’Etat de Caroline du Nord

3. A Boston

Ê au Consulat général

M. Christophe GUILHOU, consul général de France

M. Antoine MAYNARD, attaché scientifique

Ê Lors d une réunion avec les conseillers du commerce extérieur

Mme Marie LANDEL, présidente de la section des conseillers du commerce extérieur, et chef d entreprise

Dr Jean Marie VALET, spécialiste des sciences de la vie

M. Jean Yves LAGARDE, président de la société de capital risque Eurica Ventures

Mme Valerie PHILIPPON, directeur pour les affaires médicales de Vertex Pharmaceutical Incorporated

Dr B. Malfroy CAMINE, président de MindSet RX, société de biotechnologie

M. Marvin RITCHIE, banquier d affaires, ‘Newbury Piret’

Ê à Harvard 

Prof. Laïla FAWAZ, Conseil de surveillance d’Harvard

Dr Sylvain GIOUX, Beth Israël Deaconess Medical Center / Harvard Medical School/ Center for Molecular Imaging/Research fellow

Dr. John FRANGIONI, directeur du centre d imagerie moleculaire du Beth Israel Deaconess Medical Center, professeur de medecine à l ecole de medecine d’Harvard

Dr. Alex VAHRMEIJER, Université de Leiden, Pays Bas

Ê Lors d’une rencontre avec la communauté d’affaires

M. Alexis LEMPEREUR, State Street

Mme Ami WRIGHT, Freelance technical writer

Mme Audrey GUAZZONE, TVT Innovation Center

M. Bruno HUPIN, IBM

Mme Chantel GIBSON, FACCNE

M. Christophe COUTURIER, Millipore

Mme Delphine LESIEUR, FACCNE

Mme Elza BILONG, MIT

M. Eric PENDLETON, Citizens Bank

M. Francois DUCROUX, Executive VP, FACCNE

M. Frederic CHEREAU, Pervasis

M.Harvey KAPLAN, Kaplan, Frieman ansd Associates,LLP

Mme Iliana RABAGO, LexCreative

Mme Isabelle ESTEBE, Dassault Systemes

Mme Jennifer BLOUNT, Nixon Peabody

Mme Kaitlin HASSELER, United Nqtions Association of Greater Boston

Mme Ludivine SANCHEZ WOLCZIK, FACCNE

Mme Maelle DUQUOC, Environmental Resources Management

M. Marc LINSTER, Polycom

Mme Marie BUHOT LAUNAY, PRIME

M. Matthew BOCK, Middleton and Shrull

M. Maurice GERVAIS, FACCNE

M. Max MANOUKIAN, Crystal Finance

Mme Nese ORBEY, University of Massachussets, Lowell

M. Patrick VERBEKE,VALTI

M. Peter HENZE

M. Roland SHRULL, Middleton and Schrull

M. Stephen DIETRICH, Neolane

M. Steve EICHEL, Choate, Hall and Stewart

Mme Valerie PHILIPPON, Vertex Pharmaceuticals

M. Yannick WITTNER, Dassault Systemes

Ê au MIT

M. Christopher R. NOBLE, Technology Licensing Office du MIT

Ê au Cambridge Innovation Center

M. Timothy ROWE, directeur général du Centre d’Innovation de Cambridge

M. Tomasz M. GRZEGORCZYK, président de Delpsi, LLC ; Electromagnetic Modeling

Mme Audrey GUAZZONE, Project Manager YEI, Boston

Mme Camille DELEBECQUE, Omeecs

M. Tristan JEHAN, Echo Nest

4. A Washington

Ê à l’Ambassade

M. Francois DELATTRE, ambassadeur de France aux Etats Unis

Mme Annick SUZOR WEINER, conseiller scientifique

M. Robert JEANSOULIN, attaché scientifique

M. Marc MAGAUD, attaché pour la science et la technologie, Environnement et Développement durable

M. Jerôme FERRAND, attaché scientifique adjoint

Ê à la National Science Foundation

Dr. Joseph HENNESSEY

Dr ARKILIC

M. Jean-Gael JEROME

M. David STONER

Ê dans d’autres structures :

Dr David HART, Assistant Director for Innovation Policy, Office of Science and Technology Policy

Mme Kavita BERGER, Associate Program Director, Center for Science, Technology and Security Policy

M. Adarsh MANTRAVADI, conseiller de M. Benjamin Quayle, représentant de l’Arizona, predident de la sous commisiion pour la Technologie et l’Innovation de la commission de la science, de l’Espace et de la Technologie de la Chambre des representants

M. Stephen EZELL, Senior analyst, Information Technology and Innovation Foundation

M. Jim DINEGAR, Greater Washington Board of Trade

M. David DRINKARD, State Department

Mme Wendy SCHACHT, Congressional Research Service

M. John SARGENT, Congressional Research Service

Mme Eleonore PAUWELS, Woodrow Wilson Center

M. Ed YOU, FBI

M. Nabil MOULINE, Sr Director, Medxo health Solutions

Mme Rebecca TAYLOR, Sr Advisor, State Department, Innovation and Entrepreneurship

M. Jack SMEDILE, Professional Staff Member, United States Committee on Commerce, sciencce and Transportation

M. Brian DIFFELL, legislative director of Senator Roy Blunt, Missouri

Du mardi 4 octobre au jeudi 6 Octobre, en Suède

Ê à l’ Ambassade

M. Jean-Pierre LACROIX, ambassadeur de France

M. Guillaume KASPERSKI, attaché scientifique

Mme Dorothée VALLOT, chargée de mission scientifique

Mme Thien-Ly PHAM, chargée de mission scientifique

Mme Clarisse THOUZEAU, chargée de mission scientifique

Ê au Riksdag

M. Lars TYSKIND, député

Mme Irene OSKARSSON, députée

M. Otto VON ARNOLD, député, vice-président du groupe d’amitié Suède-France

Mme Cecilia BRINCK, députée

Mme Betty MALMBERG, députée

M. Kew NORDQVIST, député

M. Lars ISOVAARA, député

Mme Barbro WESTERHOLM, député

M. Josef FRANSSON, député

Mme Eva KRUTMEIJER, Conseil national de la recherche, spécialiste de la communication sur la recherche

M. Asalie HARTMANIS, directeur général de SwedNanoTech

Mme Anna LEHRMAN, Université suédoise des sciences agricoles

Mme Victoria WIBECK, Linköping University

M. Henrik Carlsen, FOI, Agence suédoise de recherche sur la défense

M. Göran HERMEREN, professeur, Lund University, Department of Medical Ethics

M. Jonas BRÄNDSTRÖM, Chief Strategy officer, Environment, VINNOVA

Mme Pamela MISSE WESTER, chercheur, The Royal Institute of Technology

Mme Helene LIMEN, Senior research officer , Riksdag

Mme Hélène TEGNER, secrétaire du groupe d’amitié Suède-France du Riksdag

M. Nils UDDENBERG, The Swedish Gene Technology Advisory Board

Mme Birgit ARVE-PARES, Association de recherche franco-suédoise

Mme Cissi ASKWALL, Public and Science (VA)

M. Jonas EBBESSON, professeur de droit de l’environnment

M. Torbjörn FARGERSTRÖM, professeur d’écologie théorique

M. Vadim KESSLER, professeur de chimie inorganique

Ê à l’Université des sciences agricoles

M. Johan SCHNURER, vice-chancelier

Mme Anna LEHRMAN

M. Carl-Gustav THORNSTRÖM

M. Sten STYMNE

M. Carl Johan LAGERQVIST

M. Per SANDIN

Mme Christina DIXELIUS

Ê dans d’autres institutions

Mme Katarina BJELKE, directrice générale de la recherche au ministère de l’éducation et de la recherche

M. Mats JOHNSSON, Senior advisor, ministère de l’éducation et de la recherche

M. Inger LUNDQVIST, Professor, Senior Manager Corporate Affairs, Karolinska InstitutetI Innovation

Mme Agneta RICHTER-DAHLFORS, directrice du Swedish Medical Nanoscience Center

M. Andraes NYSTRÖM, professeur associé à ce centre

M. Peter KJÄLL, coordinateur de projet dans ce centre

Mme Maria WALLEN, principal scientific officer, industry and consumer chemicals department

Mme Lena HELLMER, spécialiste des questions scientifiques

M. Tobias KRANTZ, ancien ministre de la recherche, directeur du département éducation, recherche et innovation, confédération des entreprises suédoises

Ê lors d’un débat sur la filière électronucléaire

M. Lars ANDERSSON, conseiller pour la politique énergétique, ministère des entreprises, de l’énergie et des communications

M. Stefan APPELGREN, chef de la sécurité nucléaire, ministère de l’environnement

Mme Saïda LAAROUCHI-ENGSTRÖM, chef de la direction de l’environnement et de la communication, SKB

M. Jan GREISZ, directeur de la stratégie du groupe Vattenfall

Le mercredi 12 octobre, lors de l’audition publique sur les outils pour une société innovante

Mme Geneviève FIORASO, députée de l’Isère

M. Alain COULON, chef du service de la stratégie, de l’enseignement supérieur et de l’insertion professionnelle au Ministère de l’Enseignement supérieur et de la recherche.

Mme Martine PRETCEILLE, directrice d’Intelli'agence (ex Association Bernard Gregory).

Mme Amandine BUGNICOURT, co-fondatrice de Adoc Talent Management

M. Joël DE ROSNAY, docteur ès Sciences, président exécutif de Biotics International et conseiller de la présidente d’Universcience.

M. Pierre LENA, délégation à l’éducation et à la formation, Académie des Sciences.

M. Gérard PIGNAULT, directeur de l’ESCPE Lyon, président de la commission Recherche de la Conférence des grandes écoles.

M. Christian LERMINIAUX, président de la Conférence des directeurs d’écoles françaises d’ingénieur

M. Alexandre RIGAL, directeur de la Conférence des directeurs d’écoles françaises d’ingénieur.

M. Steeve AUGOULA, gérant de Glaizer Group

M. René RICOL, commissaire général à l'investissement.

M. Michel GRIFFON, conseiller scientifique, Agence Nationale de la Recherche.

M. Denis BACHELOT, délégué général du Comité Richelieu

M. Christophe LECANTE, administrateur et président de la Commission Innovation du Comité Richelieu

Mme Valérie CHANAL, professeur de management à l’Institut d’Etudes Politiques de Grenoble, directrice de l’équipe de recherche technologique Umanlab (Usages – Marchés – Attitudes – New tech).

M. Thomas GROSS, directeur associé de Sogedev.

M. Olivier SICHEL, partenaire chez Sofinnova Partners.

M. Pierre-Louis AUTIN, chef du département des Partenariats et de la valorisation - Direction générale pour la recherche et l’innovation, Service Entreprises, Transfert de technologie et action régionale au Ministère de l'enseignement supérieur et de la recherche.

M. Laurent BUISSON, directeur de la recherche et du transfert de technologie à l’Université Pierre et Marie Curie.

M. Laurent KOTT, président du directoire de IT-Translation.

Du lundi 17 au jeudi 20 Octobre, à Berlin

M. Jean-Marie DEMANGE, ministre-conseiller en charge des questions économiques près l’ambassade de France

M. Stéphane ROY, attaché pour la science et la technologie, SST de l’ambassade de France en Allemagne

M. Nicolas CLUZEL, chargé de mission au Service pour la Science et la Technologie de l’ambassade de France en Allemagne

M. Jean-Claude PERRAUDIN, conseiller énergie près l’ambassade de France

M. Mathieu WEISS, conseiller scientifique

M. Philippe VINÇON, conseiller agricole près l’ambassade de France

M. Dimitri PESCIA, chef de secteur, énergie et matières premières, service économique régional de l’ambassade de France

M. Charles COLLET, VIA

Dr Sicco LEHMANN-BRAUNS, chef d’unité, forum de l’innovation, relations internationales de l’Académie nationale des sciences et d’ingénierie Acatech

Mme Karen WAGNER, chef d’unité adjoint, relations internationales de l’Académie nationale des sciences et d’ingénierie Acatech

M. Engelbert BEYER, sous directeur en charge de l’innovation au ministère fédéral de l’enseignement et de la recherche

Pr Martin GORNIG, directeur du département innovation, industrie et services au DIW (Institut de recherche économique de Berlin)

Dr Heike BELITZ, chercheur associé à l’Institut de recherche économique de Berlin

M. UWE ROTHENBURG, directeur du département de prototypage et du développement virtuel de produits à l’Institut Fraunhofer pour les systèmes de production et le s technologies de construction IPK

Le jeudi 20 octobre

Ê lors de la conférence de l’EPTA « Hope-, Hype- and Fear-Technologies-the role of Science and Politics »

Mme Ulla BURCHARDT, deputée, présidente de la commission de l’éducation, de la recherché et de l’évaluation technologique du Bundestag

Prof. Armin GRUNWALD, directeur de l’Office d’évaluation technologique du Bundestag (TAB)

Dr. Michael NENTWICH, Institut d’évaluation technologique de l’Académie des sciences d’Autriche (ITA)

Mme Bernadette BENSAUDE-VINCENT, professeur d’histoire et de philosophie des sciences à Paris I

Prof. Frans BROM, Institut Rathenau, Pays Bas

Dr. Thomas JAKL, ministère autrichien de l’agriculture, de la forêt, de l’environnement et de la gestion de l’eau

M. Timothy M. PERSONS, U.S. Government Accountability Office (GAO)

M. Lars KLÜVER, directeur du Danish Board of Technology

Prof. Thomas ZITTEL, professeur de science politique comparée, Université Goethe, Frankfurt/Main,

M. Axel E. FISCHER, député au Bundestag, président de la mission d’information du Bundestag sur Internet et la société numérique

M. Bart VAN MALDEREN, député au parlement flamand

M. Tore TENNØE, Norwegian Board of Technology

M. Mario VALDUCCI, membre de la Chambre des députés italienne, président de la commission des transports, des postes et des télécommunications

Prof. David COPE, Parliamentary Office of Science and Technology (POST), UK

M. Barton J. GORDON, J.D., ancien président de la commission de la science et de la technologie de la Chambre des représentants des Etats-Unis.

Lord Phil Willis, ancien président de la commission de la science et de la technologie de la Chambre des Communes (Royaume Uni)

Dr. Ralph BODLE, Institut de l’écologie, Allemagne

M. Hans-Josef FELL, député au Bundestag

Prof. Gernot KLEPPER, Kiel Institute for the World Economy, Allemagne

Dr Jan STAMAN, Institut Rathenau, Pays Bas

Le jeudi 27 octobre, lors de l’audition publique sur le plateau de Saclay

M. Pierre LASBORDES, député de l’Essonne, vice-président de l’OPECST ;

M. Jacques STERN, conseiller auprès du ministre de l’enseignement supérieur et de la recherche ;

M. Bernard BIGOT, administrateur général du Commissariat à l’énergie atomique et aux énergies alternatives (CEA) ;

M. Xavier CHAPUISAT, président du Pôle de recherche et d’enseignement supérieur UniverSud Paris ;

M. Cyrille VAN EFFENTERRE, président du Pôle de recherche et d’enseignement supérieur ParisTech ;

M. Alain FUCHS, président du Centre national de la recherche scientifique (CNRS) ;

Mme Marion GUILLOU, présidente directrice générale de l'INRA ;

M. Jean-Marc MONTEIL, chargé de mission auprès du Premier ministre ;

M. Dominique VERNAY, président du Conseil d’administration de la Fondation de coopération scientifique du campus Paris-Saclay ;

M. Jean-Luc TAVERNIER, commissaire général adjoint à l’investissement, en charge des investissements d’avenir ;

M. David ROS, maire d’Orsay, conseiller général et représentant de M François Lamy, député-maire de Palaiseau, président de la Communauté d’agglomération du Plateau de Saclay ;

Mme Isabelle THIS SAINT-JEAN, vice-présidente de la région Ile-de-France, chargée de l'enseignement supérieur et de la recherche ;

M. Pierre VELTZ, président de l’établissement public de Paris Saclay (EPPS) ;

M. Guy COUARRAZE, président de l’Université Paris-Sud XI

M. Jean-Yves MERINDOL, président de l’École normale supérieure de Cachan ;

Général Xavier MICHEL, directeur général de l’École polytechnique de Paris ;

M. Hervé HOCQUARD, maire de Bièvres, conseiller régional, représentant des maires de l’Essonne au conseil d’administration de l’établissement public de Paris-Saclay (EPPS) ;

M. Jean-Louis MARTIN, directeur général de SupOptique ;

M. Jean-Marc DE LEERSNYDER, directeur délégué HEC ;

M. Michel COSNARD, président directeur général d'INRIA ;

M. Alexandre MISSOFFE, directeur du cabinet de la Société du Grand Paris.

Du lundi 14 au samedi 19 novembre, en Afrique du Sud

Le lundi 14 novembre, à Johannesbourg

Ê à l’Université du Witwatersrand de Johannesbourg (WITS University)

M. Jim PORTER, professeur, directeur du centre des systèmes miniers mécanisés

M. T. John SHEER, professeur visitant, centre des systèmes miniers mécanisés

Mme Teresa HATTINGH, Ecole d’ingénierie mécanique, industrielle et aéronautique

Ê à l’Université de Johannesbourg, à Auckland Park

M. Aart Boessenskool, directeur chargé de la commercialisation

Dr. C.M. Masuku, directeur exécutif de l’Université de Johannesbourg

M. Joseph Walker, bureau de la commercialisation (biochimie)

Le mardi 15 novembre à Prétoria

Ê à l’Ambassade

M. Jacques LAPOUGE, ambassadeur

M. Guy DE LA CHEVALERIE, conseiller de coopération et d’action culturelle

M. Pierre LEMONDE, attaché scientifique

M. Marc RAYNAL, chargé des questions énergétiques au service économique régional en Afrique australe

Mme Bianca NAUDÉ, assistante SCAC

Ê Au NECSA (Nuclear Energy Company of South Africa)

M. Arie VAN DER BIJL, Group executive : nuclear technology industrialisation

Mme Chantal JANNEKER, Group executive : marketing and communications

Mme Mapula LETSOALO, Executive Director : NTP

M. Gavin BALL, Executive director, technology division

M. Daniel FOURIE, responsable des relations internationales

Mme Ramatsemela MASANGO, Group executive : NURAD

M. Van Zyl DE VILLIERS, Group executive : strategy and performance

Dr Rob ADAM, Chief executive officer, NECSA CEO

Dr PAB CARSTENS, Senior manager, applied chemistry (nuclear and fluoride chemistry), acting group executive : Research and Development

Le mercredi 16 novembre à Pretoria

Ê au CSIR (Council for Scientific and Industrial Research)

Dr Sibusiso SIBISI, Chief Executive Officer

Mme Rosemary WOLSON, chargée de la propriété intellectuelle et du transfert de technologie au CSIR

M. Joe MOLETE, directeur executif de l’unité biosciences

Mme Rachel CHIKWAMDA, généticienne, relations stratégiques et partenariats

Ê à la NRF (National Research Foundation)

Dr Robert KRIGER, Executive director, international relations and cooperation

M. Nathan SASSMAN, Manager, new business development-Governments

M. Jonathan DIEDERIKS, Program coordinator SASSCAl (Southern African Science Center for Climate and Adapted Land Use)

M. Jimmy RAVEN, Grants manager

Mme Romilla MAHARAJ, Human and institutional capacity development

M. Nisi MATHEBULA, Grants management

Ê autres contacts :

M. Shimphiwe DUMA, CEO de la Technology Innovation Agency (TIA)

M. Jean-Michel DEBRAT, directeur de l’AFD (à Johannesbourg)

Le jeudi 17 novembre, au Cap

Ê à l’Université de technologie de la Péninsule du Cap (CPUT)

Prof. Anthony STAAK, Deputy Vice-chancelor : Academic

Prof. Robert VAN ZYL, Deputy Director Department of Electrical engineering

Prof. Gary ATKINSON-HOPE, directeur chargé du transfert de technologie et des liens avec l’industrie

Prof. Yskandar HAMAM, Institut franco-sud-africain de technologie

Dr Elspa M HOVGAARD, chef du département Technologie des textiles et de l’habillement

M. Shamil ISAACS, manager du département Technologie des textiles et de l’habillement

Prof Jessy VAN WYK, chef du département technologie alimentaire, faculté des sciences appliquées

Prof. Oscar PHILANDER, manager Adaptronics AMTL

Mme Larry DOLLEY, manager, Agrifood Technology Station

Ê au Parlement, à la commission de la science et de la technologie

Mme ML DUNJWA, députée de l’ANC

Mme Marian SHINN, députée de l’Alliance démocratique

Mme Poppy MOCUMI, députée de l’ANC

Mme Zintle NDLAZI, députée de l’ANC

Mme Shanaaz ISAACS, secrétaire de la commission

Ê autres personnalités :

M. Antoine MICHON, consul général de France au Cap

M. André GAUM, député de l’ANC

Le vendredi 18 novembre, au Cap

M. Hennie GROENEWALD, Executive manager, Biosafety South Africa

Mme Mamphela RAMPHELE, présidente du TIA

Ê au Human Sciences Research council

Mme Bridgette PRINCE, responsable des relations internationales

Mme Michilene MEYER, administrateur, liaisons internationales

Dr Moses SITHOLE, expert en méthodologie de l’innovation (santé publique)

Mme Cheryl MOSES, expert du rapport sur l’innovation

Dr Nazeem MUSTAPHA, dirigeant du projet « Innovation dans le secteur informel »

M. Luke MULLER, Unité éducation et développement des compétences

Mme Antonia MANAMELA, Unité éducation et développement des compétences

Le Jeudi 24 novembre, lors de l’audition publique consacrée aux comparaisons internationales

M. Cédric VILLANI, Médaillé Fields en 2010

Mme Pälvi LIPPONEN, présidente du Comité du Futur du Parlement finlandais

M. Wilbert PONTENAGEL, Université de Twenté (Pays Bas)

M. Klaus Dieter MATTHES, conseiller scientifique auprès de l’Ambassade d’Allemagne en France

M. Frank BOSTYN, chef du cabinet adjoint du vice-ministre président et ministre de l’Innovation du Gouvernement de Flandre/Belgique

M. David COPE, directeur du Parliamentary Office of Science and Technology (Royaume-Uni)

M. Antonio Fernando CORREIA DE CAMPOS, membre du parlement européen, vice-président du STOA (Parlement européen)

Prof. Marc VAN ROSSUM, IMEC, Leuven (Belgique)

M. Alexis GRINBAUM, CEA, Saclay

M. Daryl BREHM, conseiller agricole à l’ambassade des Etats-Unis en France

M. Otto VON ARNOLD, membre du Parlement suédois

Prof. Lynn J. FREWER, Newcastle University, ILSI, Europe

M. Georges FREYSSINET, directeur scientifique, Limagrain

M. Marc MAGAUD, attaché scientifique à l’Ambassade de France aux Etats-Unis

M. Marcel VAN DE VOORDE, professeur à l’Université de technologie de Delft, Pays Bas

Mme Marie-Noëlle SEMERIA, CEA Leti

Le Lundi 19 décembre, lors de du déplacement de M. Birraux à Lausanne

Ê à l’Université de Lausanne (UNIL)

M. le professeur Philippe MORILLON, vice-recteur de l’Université de Lausanne

M. Alain KAUFMANN, directeur, Université de Lausanne

M. Stefan KOHLER, directeur, PACTT Technology Transfer 

Mme Lorraine DAVIS, Commision de la recherche

Ê à
l’Ecole Polytechnique Fédérale de Lausanne (EPFL)

M. David GILLET, vice-président pour l’enseignement et la recherche à l’EPFL

Mme Adrienne CORBOUD-FUMAGALLI, vice-présidente pour l’Innovation et la Valorisation à l’EPFL

M. Stéphane DECOUTERE, délégué du président de l’EPFL aux Affaires extérieures à l’EPFL

II. Lors de colloques organisés en dehors de l’étude, mais ayant trait à l’innovation et aux risques

A. Le jeudi 14 octobre 2010, lors de l’audition publique sur "les apports des sciences et technologies à l'évolution des marchés financiers"

M. Michel BARNIER, Commissaire européen au marché intérieur et aux services financiers (vidéo).

M. Yves BAMBERGER, conseiller scientifique du président directeur général d’EDF.

M. Charles-Albert LEHALLE, responsable de l’équipe de recherche quantitative de Crédit Agricole Cheuvreux.

Mme Clotilde BOUCHET, directeur financier, présidente du Comité scientifique de la DFCG

M. Christophe REMY, directeur Financier, président du club Sociétés Côtées de la DFCG, Association nationale des directeurs financiers et de contrôle de gestion.

M. Denis TALAY, directeur de recherche à l’INRIA, professeur chargé de cours à l’École polytechnique, ancien président de la Société de mathématiques appliquées et industrielles.

M. Arnaud VINCINGUERRA, co-fondateur et responsable de la R&D de la société Sophis.

M. Jean-Paul BETBEZE, chef économiste et directeur des études au Crédit Agricole.

M. Olivier OULLIER, enseignant-chercheur en neurosciences, Laboratoire de psychologie cognitive, Université de Provence.

M. Jean-Pierre KAHANE, mathématicien, professeur à l’Université Paris Sud et membre de l’Académie des sciences.

M. Patrick PAILLOUX, directeur général de l’Agence nationale de la sécurité des systèmes d’Information.

M. Jean-Philippe BOUCHAUD, président de Capital Fund Management, professeur à l’Ecole polytechnique.

M. Henri STERDYNIAK, directeur du département d'économie de la mondialisation à l'Observatoire français des conjonctures économiques.

Mme Alexandra GIVRY, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers.

M. Marcel -Eric TERRET, Policy officer, direction générale Marché intérieur et services.

M. Olivier OULLIER, enseignant-chercheur en neurosciences, Laboratoire de psychologie cognitive, Université de Provence.

M. Rama CONT, directeur de recherche au Laboratoire de probabilités et modèles aléatoires (CNRS-UPMC Paris VI), professeur associé et directeur du Center for Financial Engineering, Columbia University, (New York), Modérateur.

B. Le mercredi 17 novembre, lors de la réunion de l’OPECST sur "Les mathématiques en France et dans les sciences d'aujourd'hui"

M. Cédric VILLANI, médaillé Fields

M. Ngo Bao CHAU, médaillés Fields

M. Yves MEYER, lauréat du Prix Gauss

C. Le mardi 23 novembre, Lors de la réunion de l’OPECST du jeudi 23 novembre sur « les Alliances : une nouvelle dynamique pour la recherche »

M. André SYROTA, président d’AVIESAN, président directeur général de l’Institut national de la santé et de la recherche médicale (INSERM).

M. Jacques GRASSI, directeur d’institut thématique à l’AVIESAN, directeur du programme

transversal technologies pour la santé du CEA.

M. Michel COSNARD, président d’ALLISTENE, président directeur général de l’Institut national de recherche en informatique et en automatique (INRIA).

M. Francis JUTAND, vice-président du comité de coordination d’ALLISTENE, Institut Télécom.

Mme Jacqueline LECOURTIER, directeur général de l’Agence nationale de la recherche (ANR).

M. François MOISAN, directeur exécutif Stratégie, Recherche et International de l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME).

Mme Laure REINHART, directrice générale déléguée d’OSEO.

M. Jacques STERN, conseiller auprès de Mme la ministre de l’Enseignement supérieur et de la recherche.

M. Olivier APPERT, président de l’ANCRE, président de l’IFP Energies nouvelles.

M. Philippe MARCHAND, directeur du Centre IFREMER de Brest.

Mme Nicole MERMILLOD, directeur du programme transversal NTE du CEA.

M. Roger GENET, président d’AllEnvi, directeur général de l’Institut de recherche en sciences et technologies pour l’environnement (Cemagref).

Mme Marion GUILLOU, présidente directrice générale de l’Institut national de recherche agronomique (INRA).

M. Alain FUCHS, président d’ATHENA, président du Centre national de recherche scientifique (CNRS).

M. Jacques FONTANILLE, président de l’université de Limoges.

M. Lionel COLLET, président de la Conférence des présidents d’université (CPU).

M. Marcel VAN DE VOORDE, professeur à l’Université de Delft, Pays-Bas.

M. Hervé BERNARD, administrateur général adjoint du Commissariat à l’énergie atomique et aux énergies alternatives (CEA).

D. Le jeudi 27 janvier 2011, lors de l’audition publique de l’OPECST sur les sauts technologiques en médecine

Pr. Laurent DEGOS, ancien président de la Haute autorité de Santé

Mme Emmanuelle PRADA-BORDENAVE, directrice générale de l’Agence de la Biomédecine, présidente de table ronde

Mme Marina CAVAZZANA-CALVO, directrice du département de biothérapie à l’hôpital Necker.

Pr. Philippe MENASCHÉ, directeur de l’Unité 633 « thérapie cellulaire en pathologie cardio-vasculaire » à l’hôpital européen Georges Pompidou.

Pr. Luc SENSEBE, directeur médical et scientifique de l’Établissement français du sang (EFS) de la région Centre, Tours.

Pr. Luc DOUAY, directeur scientifique de l’Établissement français du sang (EFS) d’Île-de-France.

M. Jean MARIMBERT, directeur général de l’AFSSAPS, président de table ronde

M. Luc MALLET, psychiatre, Centre de recherche de l’Institut du cerveau et de la moëlle épinière.

Mme Jacqueline MANDELBAUM, biologiste de la reproduction, chef du service d'histologie, biologie de la reproduction/ CECOS de l'hôpital Tenon , membre du Conseil d'orientation de l'Agence de la Biomédecine.

Pr. Elias ZERHOUNI, professeur de radiologie, président Monde, Recherche et Développement, en charge des médicaments et des vaccins, Sanofi-Aventis.

Pr. Jean-Michel DUBERNARD, membre du collège de la Haute autorité de Santé, président de table ronde

Pr. Alain CARPENTIER, cardiologue, hôpital européen Georges-Pompidou, président de l’Académie des sciences.

Pr. Ugo AMALDI, physicien des particules, Organisation européenne pour la recherche nucléaire (CERN)

Pr. José-Alain SAHEL, ophtalmologue, Université Pierre et Marie Curie, directeur scientifique de l’Institut de la vision.

M. Alain CLAEYS, député de la Vienne, membre de l’OPECST, président de la commission spéciale chargée d'examiner le projet de loi relatif à la bioéthique

M. Jean-Sébastien VIALATTE, député du Var, membre de l’OPECST, vice-président de la commission spéciale chargée d'examiner le projet de loi relatif à la bioéthique

M. Bernard AVOUAC, rhumatologue, représentant du Syndicat national de l’industrie des technologies médicales (SNITEM)

M. Olivier BOISTEAU, président des laboratoires Clean Cells

Pr. René FRYDMAN, chef du service de gynécologie-obstétrique et de médecine de la Reproduction à l’Hôpital Antoine Béclère

M. Jacques GRASSI, biologiste, directeur de recherche au Commissariat à l’énergie atomique (CEA) et directeur de l’Institut thématique MultiOrganismes Technologies pour la Santé de l’Alliance Aviesan

Pr. Jean de KERVASDOUE, ancien directeur général des hôpitaux, membre de l'Académie des technologies, professeur au Conservatoire national des Arts et Métiers (CNAM)

M. Christian SAOUT, président du Collectif interassociatif sur la santé (CISS).

Pr. Pierre TIBERGHIEN, directeur général, Établissement français du sang (EFS)

E. Le mardi 8 mars2011, lors de l’audition publique de l’OPECST sur « les enjeux des métaux stratégiques : le cas des terres rares » :

M. Paul CARO, membre de l’Académie des technologies, ancien Sous-directeur du Laboratoire des terres rares du Centre national de la recherche scientifique (CNRS).

M. Michel LATROCHE, directeur de Recherche au CNRS, Institut de Chimie et des Matériaux de Paris Est.

M. Benoît RICHARD, directeur de la stratégie - Saint-Gobain Solar.

M. François HEISBOURG, conseiller spécial à la Fondation pour la Recherche Stratégique.

M. Eric NOYREZ, président et Chief operating officer de Lynas Corp, Australie.

M. Frédéric CARENCOTTE, directeur industriel de Rhodia Terres Rares.

M. Christian HOCQUARD, expert économiste. Service des Ressources minérales, BRGM.

M. Jean-Claude SAMAMA, ancien directeur de l’Ecole nationale supérieure de géologie de Nancy et professeur émérite de géologie appliquée.

M. Benoît DE GUILLEBON, ingénieur de l'Ecole centrale de Paris, co-auteur de l'ouvrage "Quel futur pour les métaux ?", directeur de l’APESA, Centre technologique en environnement et maîtrise des risques.

M. Marcel VAN DE VOORDE, professeur à l’Université de Technologie de Delft, Pays-Bas.

M. Gwenole COZIGOU, directeur industries chimiques, métalliques, mécaniques, électriques et de la construction ; Matières premières, DG ENTR, Commission européenne.

M. Philippe JOLY, directeur de la stratégie et de la communication financière, Groupe ERAMET.

Mme Catherine TISSOT-COLLE, directeur de la communication et développement durable, Groupe ERAMET

M. François BERSANI, ingénieur général des mines, Secrétaire général du Comité pour les métaux stratégiques (Comes).

F. Le mercredi 4 mai 2011, lors de l’audition de l’OPECST sur « les enjeux de la biologie de synthèse »

Mme Geneviève FIORASO, députée, rapporteure

Mme Françoise ROURE, présidente du Comité « Technologies et société » du Conseil consultatif national de l’industrie, de l’énergie et des technologies, modérateur

M. Jonathan BURBAUM, Program Director, Advanced Research, Projects Agency - Energy U.S. Department of Energy, Modérateur

M. Vincent SCHÄCHTER, vice-président de la recherche et du développement du groupe Total.

M. Marc DELCOURT, président-directeur-général de Global Bioénergies.

M. Philippe SOUCAILLE, président-directeur-général de Metabolic Explorer.

M. Daniel RAOUL, sénateur, vice-président de l’OPECST, Modérateur

M. Alexei GRINBAUM, philosophe, Commissariat à l’énergie atomique (CEA).

M. Brice LAURENT, ingénieur des Mines, doctorant au Centre des sciences de l’innovation de l’école des Mines.

M. Jean-Michel BESNIER, professeur à l’Université de Paris IV - Sorbonne.

M. Nikolas ROSE, professeur à la London School of Economics.

M. Ronan STEPHAN, directeur général de la Recherche et de l’Innovation du Ministère de l’enseignement supérieur

M. Jean-Michel BESNIER, professeur à l’Université de Paris IV - Sorbonne.

Mme Anne FAGOT-LARGEAU, professeur honoraire au Collège de France

M. Alexei GRINBAUM, philosophe, Commissariat à l’énergie atomique (CEA)

M. Thomas HEAMS, professeur à l’Institut national de la recherche agronomique (INRA)

M. Jacques JOYARD, directeur du laboratoire de physiologie cellulaire végétale (CNRS-UJF-CEA), médaille d'argent 2001 du CNRS et vice-président de la Génopole Rhône-Alpes.

M. François KEPES, directeur de recherche CNRS à l’Institut de biologie systémique et synthétique, et directeur du Programme d’Épigénomique, Genopole®, Evry.

Mme Marie MONTUS, chercheure à Généthon.

M. Michel MORANGE, professeur à l’Université de Paris VI et à l’Ecole normale supérieure

Mme Magali ROUX, directrice de recherches au CNRS.

G. Le mercredi 4 mai 2011, lors de la conférence agro-industries et futurs

M. Roger BEACHY, directeur du National Institute for Food and Agriculture (NIFA, USDA)

M. Greg IBACH, directeur du Département de l’Agriculture du Nebraska

H. Le 19 mai 2011, lors de l’audition publique de la mission parlementaire de l’OPECST sur la sécurité nucléaire et l’avenir de la filière nucléaire : « les installations nucléaires françaises face aux risques naturels »

M. Vincent COURTILLOT, Académie des sciences : Risques sismiques, volcaniques et tsunami

M. Hervé LE TREUT, Académie des sciences : Risques climatiques, tempêtes, ouragans, inondations

M. Bernard TARDIEU, Académie de technologies : Risques de glissement de terrains et de rupture des barrages

M. Michel BRONIATOWSKI, Laboratoire de Statistique Théorique et Appliquée, Paris VI : L’évaluation statistique des événements extrêmes

M. Paul-Henri BOURRELIER, président du conseil scientifique de l'association française pour la prévention des catastrophes naturelles: Aléas extrêmes et risques subséquents.

MM. Javier REIG et Jean GAUVAIN, Agence de l’OCDE pour l’énergie nucléaire: L’évaluation et la prise en compte des risques naturels dans les pays de l’OCDE

M. Thomas HOUDRE, directeur des centrales nucléaires à l’ASN: Prise en compte des risques naturels dans la sûreté des installations nucléaires après Fukushima

M. Jean-Christophe GARIEL, adjoint du directeur de l’environnement et de l’intervention de l’IRSN : Installations nucléaires et risques naturels : point de vue de l'IRSN

MM. Jean-Marc MIRAUCOURT, directeur de l'ingénierie nucléaire, et Pierre Labbé, directeur délégué, d’EDF: La prise en compte des risques naturels majeurs par les centrales nucléaires françaises

MM. Jean-Luc ANDRIEUX, directeur Sûreté, Sécurité, Santé et Environnement et Jean-François Sidaner, expert Areva sur la sûreté de conception d’Areva: Prise en compte des risques naturels dans la conception et l’exploitation des installations Areva

M. Bruno CAHEN, directeur industriel de l'Andra: La prise en compte des risques naturels majeurs dans les installations de l'Andra

I. Le mardi 14 juin, lors d’un colloque organisé par l’I-tésé, à Saclay, « Des sciences fondamentales jusqu’au marché : Comment dynamiser l’innovation vers une énergie moins carbonée ? »

M. Christophe BEHAR, directeur de l’Energie Nucléaire

M. Jean-Guy DEVEZEAUX DE LAVERGNE, directeur de l’I-tésé

M. Pierre PAPON, professeur émérite à l’Ecole de Physique et Chimie de Paris et président d’honneur de l’Observatoire des Sciences et Techniques (OST)

M. Jean-Philippe BOURGOIN, directeur de la Stratégie et des Programmes du CEA

M. Yves CARISTAN, directeur des Sciences de la Matière

M.Serge DURAND, directeur du Colocation Center Alps Valley de KIC InnoEnergy

M. Gabriele FIONI, directeur scientifique et adjoint au directeur général pour la Recherche et l'Innovation, Ministère de l’Enseignement Supérieur et de la Recherche (MESR)

Mme Françoise FABRE, Fondation de Coopération Scientifique (FCS) du Plateau de Paris Saclay, Institut de Technico-Economie des Systèmes Energétiques, CEA/SACLAY - DEN/DANS/I-tésé

Mme Régine BREHIER, directrice de la Recherche et de l'Innovation, Commissariat général au Développement durable (CGDD),

M. Arnaud MERCIER, Direction Générale Recherche et Innovation, Commission Européenne.

M. Didier SABOURIN, I-tésé

Mme Juliette IMBACH, I-tésé

Mme Nathalie POPIOLEK, I-tésé

M. Alain LE DUIGOU, I-tésé

M. Jean-Guy DEVEZEAUX DE LAVERGNE, directeur de l’I-tésé,

M. Christophe BEHAR, directeur de l’Energie Nucléaire du CEA,

Mme Martha HEITZMANN, directeur de la Recherche et de l’Innovation et membre du Comité Exécutif, AREVA,

M. Jean-Frédéric CLERC, directeur de la Prospective et Stratégie, Direction de la Recherche Technologique du CEA,

M. Régis SALEUR, directeur général, CEO, CEA Investissement,

M. Rémi BASTIEN, directeur de la Recherche, des Etudes Avancées et des Matériaux (DREAM), Renault

M. Gilles LE BLANC, professeur d'économie à l’Ecole des Mines ParisTech.

Mme Catherine CESARSKY, Haut-Commissaire à l'énergie atomique

J. Le mercredi 15 juin 2011, lors de la réunion entre les représentants du Conseil scientifique de l’OPECST et les dirigeants du Commissariat général à l’investissement

M. Bruno SIDO, sénateur, premier vice-président de l’OPECST

M. Pierre LASBORDES, député

Mme Geneviève FIORASO, députée

M. Christian KERT, député

M. Thierry COULHON, directeur de programme « centres d’excellence au Commissariat général à l’investissement

M. Claude GIRARD, directeur de programme « Valorisation de la recherche » au Commissariat général à l’investissement

Mme Claudie HAIGNERÉ, ancien ministre, présidente du Conseil scientifique de l’OPECST, présidente d’Universcience, membre de l’Académie des Technologies

M. Edouard BARD, professeur au Collège de France

M. Hervé CHNEIWEISS, directeur de recherche, directeur du groupe de neuro-oncologie moléculaire et clinique, Collège de France

M. Jean-Pierre FINANCE, président de l’université Henri Poincaré à Nancy, Laboratoire lorrain de recherches en informatique et ses applications.

M. Philippe HUBERT, directeur des risques chroniques à l’INERIS

M. Axel KAHN, président de l’Université Paris-Descartes, membre de l’Académie des Sciences.

M. Michel PETIT, président de la section scientifique et technique du Conseil général des technologies de l’information, membre de l’Académie des Sciences.

M. Bruno REVELLIN-FALCOZ, vice-président directeur général de Dassault Aviation, vice-président de l’Académie des technologies, membre de l’Académie internationale d’astronautique

M. Joël de ROSNAY, Cité des sciences et de l’industrie

K. Le mardi 28 juin, lors d’une rencontre avec le Haut Conseil des Biotechnologies (HCB) et la Commission nationale d’évaluation des recherches et études relatives à la gestion des matières et des déchets radioactifs (CNE)

M. Jean-François DHAINAUT, président du Haut Conseil des Biotechnologies (HCB)

Mme Christine NOIVILLE, présidente du Comité économique, éthique et social du HCB

M. Jean-Christophe PAGES, président du Comité scientifique du HCB

M. Claude GATIGNOL, député

M. Philippe TOURTELIER, député

M. Jean-Claude DUPLESSY, président de la CNE, membre de l’Académie des Sciences, directeur de recherche émérite au CNRS

M. Maurice LEROY, vice-président de la CNE, président de la Fédération française pour les sciences de la chimie (FFC), professeur émérite à l’Université de Strasbourg

M. Emmanuel LEDOUX, vice-président de la CNE, directeur de recherche à l’Ecole des Mines de Paris

M. Christian BATAILLE, député

M. Christian PAUL, député

M. Bernard TISSOT, président honoraire de la CNE

L. Le mercredi 7 décembre, lors du colloque « Vérités scientifiques et démocratie », à l’Assemblée nationale

M. Bernard ACCOYER, président de l’Assemblée nationale

M. Luc CHATEL, ministre de l’éducation nationale, de la jeunesse et de la vie associative

Mme Catherine BRECHIGNAC, secrétaire perpétuel de l’académie des sciences

Mme Christine NOIVILLE, directeur de recherche au CNRS, présidente du Comité économique éthique et social du Haut conseil des biotechnologies

M. Jean BAECHLER, président de l’Académie des sciences morales et politiques

M. Etienne KLEIN, directeur du laboratoire de recherche sur les sciences de la matière du CEA

M. Cédric VILLANI, professeur de l’Université de Lyon, directeur de l’Institut Henri Poincaré, médaillé Fields 2010

M. Pierre LENA, membre de l’Académie des sciences, co-fondateur de « La Main à la Pâte »

M. Jean-François BACH, secrétaire perpétuel de l’académie des sciences

M. Michel BOYON, président du Conseil supérieur de l’audiovisuel (CSA)

Mme Geneviève FIORASO, députée de l’Isère

M. François GUINOT, président honoraire de l’Académie des technologies

Mme Claudie HAIGNERE, ancien ministre, présidente d’Universcience

M. Jean-Marie ROLLAND, député de l’Yonne

M. Laurent WAUQUIEZ, ministre de l’enseignement supérieur et de la recherche

M. Jacques HEBERT, journaliste

ANNEXE 3 : RÉSULTATS DES QUESTIONNAIRES

I. Questionnaire aux docteurs et doctorants

Méthodologie : La taille de l’effectif est normalement précisée sur chaque diagramme. A titre indicatif, la taille de l’effectif pour les questions portant exclusivement sur la France est en général de 1 032 répondants, et de 448 répondants pour les questions portant sur les comparaisons internationales.

Le questionnaire est disponible à l’adresse suivante :

https://spreadsheets1.google.com/viewform?formkey=dGRaSnB6VDZWeGh5cGRCQWJPbHhxaWc6MQ

L’ensemble des données est disponible sur DVD-Rom ou sur le site Internet de l’OPECST.

Majoritairement masculin, le panel de répondants provient à plus des 4/5 des sciences dites « dures » et à moins d’un cinquième des sciences humaines et sociales.

L’étude souffre de certains biais méthodologiques, par exemple la surreprésentation de certains organismes ou de certaines disciplines. Toutefois, dans son état actuel, elle permet de dégager certaines considérations d’ensemble fort intéressantes.

Nous noterons notamment les points suivants :

- le doctorat sensibilise de mieux en mieux aux questions de propriété intellectuelle et à la création d’entreprise. En effet, près de 70% de ceux l’ayant soutenu avant 2000 nous ont dit ne pas avoir entendu parler de ces questions, contre 50% pour les promotions les plus récentes.

- quelle que soit l’année de soutenance, 50% environ des sondés nous ont indiqué que l’établissement de préparation ne disposait d’aucune structure de valorisation, d’aide à la création d’entreprise, ou d’aide à la réponse aux appels d’offre. Cette stagnation, au regard des exemples internationaux qu’il nous a été donné de voir, est dramatique et notre rapport doit contribuer à faire évoluer ce pourcentage à la hausse.

- plus de 80% des doctorants et docteurs interrogés pensent que de nouveaux mécanismes doivent être mis en place pour favoriser l’innovation, et plus de 75% des répondants qui étaient ou sont encore à l’étranger pensent que l’innovation y est plus dynamique qu’en France.

- si les partenariats public-privé sont relativement bien développés, la mise en place de cellules de détection des résultats valorisables est balbutiante, ce qui s’accorde bien avec l’absence de structure professionnelle de valorisation de la recherche indiquée précédemment.

- près de 60% des sondés pensent que les peurs constituent un frein important à l’innovation en France.

- plus de 85% des sondés considèrent que la France ne fait rien pour favoriser l’innovation de rupture ; pourtant, plus de 80% pensent que la France dispose d’un fort potentiel d’innovation.

Ainsi, ce sont bien les structures qui doivent permettre de passer d’une recherche considérée unanimement comme l’une des meilleures du monde à une innovation exploitable qui font défaut. Si la France dispose d’un fort potentiel, l’innovation y est considérée comme globalement moins dynamique que dans les autres pays.

A. Démographie du panel

     

B. Le doctorat

C. Innovation, valorisation et évaluation de la recherche