Accueil > Documents parlementaires > Rapport d'information
Version PDF
Retour vers le dossier législatif

N° 3896

 

N° 742

ASSEMBLÉE NATIONALE

 

SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

QUATORZIÈME LÉGISLATURE

 

SESSION ORDINAIRE 2015 - 2016

Enregistré à la présidence de l’Assemblée nationale

 

Enregistré à la présidence du Sénat

le 29 juin 2016

 

le 29 juin 2016

RAPPORT

au nom de

L’OFFICE PARLEMENTAIRE D’ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

sur

L’INTERACTION DES SCIENCES HUMAINES ET SOCIALES
AVEC LES SCIENCES TECHNOLOGIQUES
ET LES SCIENCES DU VIVANT

par

M. Jean-Yves LE DÉAUT, député, et M. Bruno SIDO, sénateur


Déposé sur le Bureau de l’Assemblée nationale

par M. Jean-Yves LE DÉAUT,

Président de l’Office

 


Déposé sur le Bureau du Sénat

par M. Bruno SIDO,

Premier vice-président de l’Office

Composition de l’Office parlementaire d’évaluation des choix scientifiques
et technologiques

Président

M. Jean-Yves LE DÉAUT, député

Premier vice-président

M. Bruno SIDO, sénateur

Vice-présidents

M. Christian BATAILLE, député M. Roland COURTEAU, sénateur

Mme Anne-Yvonne LE DAIN, députée M. Christian NAMY, sénateur

M. Jean-Sébastien VIALATTE, député Mme Catherine PROCACCIA, sénatrice

DÉputés

SÉnateurs

 

M. Bernard ACCOYER

M. Gérard BAPT

M. Christian BATAILLE

M. Alain CLAEYS

M. Claude de GANAY

Mme Françoise GUEGOT

M. Patrick HETZEL

M. Laurent KALINOWSKI

Mme Anne-Yvonne LE DAIN

M. Jean-Yves LE DÉAUT

M. Alain MARTY

M. Philippe NAUCHE

Mme Maud OLIVIER

Mme Dominique ORLIAC

M. Bertrand PANCHER

M. Jean-Louis TOURAINE

M. Jean-Sébastien VIALATTE

M. Patrick ABATE

M. Gilbert BARBIER

Mme Delphine BATAILLE

M. Michel BERSON

M. François COMMEINHES

M. Roland COURTEAU

Mme Catherine GÉNISSON

Mme Dominique GILLOT

M. Alain HOUPERT

Mme Fabienne KELLER

M. Jean-Pierre LELEUX

M. Gérard LONGUET

M. Pierre MÉDEVIELLE

M. Franck MONTAUGÉ

M. Christian NAMY

M. Hervé POHER

Mme Catherine PROCACCIA

M. Bruno SIDO

SOMMAIRE

___

Pages

PRÉFACE 9

COMPTE RENDU DE L’AUDITION PUBLIQUE DU 21 JANVIER 2016 SUR « LES SYNERGIES ENTRE LES SCIENCES HUMAINES ET LES SCIENCES TECHNOLOGIQUES » 11

INTRODUCTION 13

M. Jean-Yves Le Déaut, député, président de l’OPECST 13

M. Alain Fuchs, président du CNRS, président de l’alliance ATHENA 15

PREMIÈRE TABLE RONDE : LA PROBLÉMATIQUE DES LIENS ENTRE SCIENCES HUMAINES ET SCIENCES TECHNOLOGIQUES 17

M. Yves Bréchet, Haut-commissaire à l’énergie atomique, membre de l’Académie des sciences 17

M. Serge Abiteboul, membre de l’Académie des sciences, professeur à l’École normale supérieure de Cachan, directeur de recherche à l’Institut national de recherche en informatique et en automatique (INRIA) 21

M. Dominique Wolton, directeur de la revue internationale Hermès. 23

M. Claude Didry, directeur de la Maison des sciences de l’homme (MSH) de Paris-Saclay 27

M. Alexei Grinbaum, chercheur au Laboratoire des recherches sur les sciences de la matière (LARSIM) 30

Mme Suzanne de Cheveigné, directrice émérite de recherche au CNRS, directrice du Centre Norbert Elias 32

Mme Marie-Françoise Chevallier-Le Guyader, directrice de l’Institut des hautes études pour la science et la technologie (IHEST) 34

DEUXIÈME TABLE RONDE : LES SYNERGIES ENTRE LES SCIENCES HUMAINES ET LES TECHNOLOGIES NUMÉRIQUES 37

M. Gianluca Manzo, chargé de recherche au CNRS au sein du groupe d’études des méthodes de l’analyse sociologique de la Sorbonne (GEMASS), vice-président de l’International Association of Analytical Sociology (INAS) 37

M. Marc Renneville, directeur de recherche au CNRS, directeur du Centre pour les humanités numérique et l’histoire de la justice (CLAMOR) 39

M. Alexandre Gefen, chargé de recherche au CNRS, chercheur à l’Observatoire de la vie littéraire (OBVIL) 42

M. Mokrane Bouzeghoub, professeur à l’université de Versailles-Saint-Quentin-en-Yvelines (UVSQ), directeur adjoint scientifique de l’Institut des sciences de l’information et de leurs interactions (INS2I) du CNRS 44

M. Mohamed Chetouani, professeur à l’université Pierre et Marie Curie (UPMC), chercheur à l’Institut des systèmes intelligents et de la robotique (ISIR) 46

Mme Laurence Devillers, professeure à l’université de Paris Sorbonne IV, rattachée au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (LIMSI) 48

M. Jean-Marie Pierrel, professeur à l’université de Lorraine, chercheur au Laboratoire d’analyse et traitement informatique de la langue française (ATILF) 51

DÉBAT 53

M. Laurent Gouzènes, membre du Conseil scientifique de l’OPECST 53

M. Bernard Tardieu, membre de l’Académie des technologies 53

M. Jean-Pierre Finance, membre du Conseil scientifique de l’OPECST 57

TROISIÈME TABLE RONDE : LES SCIENCES HUMAINES ET LES NOUVELLES TECHNOLOGIES DE L’ÉNERGIE 59

Mme Françoise Touboul, conseillère technique au cabinet de l’administrateur général du CEA 59

M. Christian Ngô, responsable du cabinet Edmonium 61

M. Olivier Labussière, maître de conférences en géographie et aménagement à l’université Joseph Fourier, chercheur à l’Institut de Géographie Alpine, au sein du laboratoire PACTE (Politiques publiques, Action politique, Territoires), unité mixte de recherche du CNRS, de Institut d’études politiques de Grenoble et de l’université de Grenoble Alpes 63

M. Alain Nadaï, directeur de recherche au CNRS, chercheur au Centre international de recherche sur l’environnement et le développement (CIRED) 65

M. Patrick Criqui, directeur de recherche au CNRS, chercheur au Laboratoire d’économie appliquée de Grenoble, au sein de l’équipe « Économie du développement durable et de l’énergie » 66

DÉBAT 68

QUATRIÈME TABLE RONDE : L’APPORT DES RECHERCHES PLURIDISCIPLINAIRES À L’ANALYSE DU PHÉNOMÈNE DE RADICALISATION 71

M. Yoursi Marzouki, maître de conférences à l’université d’Aix-Marseille, chercheur au laboratoire de psychologie cognitive (LPC) 72

Mme Sylvie Ollitrault, directrice de recherche au CNRS, membre du Centre de recherches sur l’action politique en Europe (CRAPE), université de Rennes 1 75

M. Fethi Benslama, professeur de psychopathologie clinique, directeur de l’UFR d’études psychanalytiques et de l’Institut des humanités à l’université Paris Diderot, membre de l’Académie tunisienne 77

M. Alain Fuchs, président du CNRS 81

M. Scott Atran, anthropologue américain, directeur de recherche au CNRS, chercheur à l’université d’Oxford, professeur à l’université du Michigan, professeur de droit criminel au John Jay College à New York 82

DÉBAT 83

M. Philippe Lemercier, chargé d’études à la Direction générale de l’armement (DGA), ancien chargé d’études prospective à la Direction du renseignement militaire et commanditaire de l’étude CASIMIR, secrétaire d’études sur le renseignement près le Conseil scientifique de la défense et le Conseil général de l’armement 83

CONCLUSION 85

M. Jean-Yves Le Déaut, député, président de l’OPECST 85

COMPTE RENDU DE L’AUDITION PUBLIQUE DU 28 AVRIL 2016 SUR « L’APPORT DES AVANCÉES TECHNOLOGIQUES AUX SCIENCES DE LA VIE » 87

INTRODUCTION 89

M. Jean-Yves Le Déaut, député, président de l’OPECST 89

PREMIÈRE TABLE RONDE : LES NOUVELLES TECHNOLOGIES AU SERVICE DU VIVANT 91

Présidence de M. Jean-Yves Le Déaut, député, président de l’OPECST 91

M. Félix Rey, directeur du département de virologie, Institut Pasteur 91

M. Jean-François Deleuze, PhD, directeur du Centre national de génotypage (CNG), Institut de génomique, direction de la Recherche fondamentale, CEA, directeur scientifique de la Fondation J. Dausset 92

M. Marc Eloit, responsable de l’unité de biologie des infections de l’Institut Pasteur 95

Mme Elodie Brient-Litzler, directrice adjointe du Centre d’innovation et recherche technologique de l’Institut Pasteur 96

M. Cédric Chauvierre, chercheur INSERM, U1148 98

M. Gabriel Lepousez, chercheur en neuroscience, unité Perception et mémoire de l’Institut Pasteur 100

M. Christophe Zimmer, directeur de l’unité Imagerie et modélisation de l’Institut Pasteur 102

DÉBAT 104

DEUXIÈME TABLE RONDE : LE CAS DES TECHNOLOGIES ISSUES DES SCIENCES DE L’ATOME ET DES TECHNOLOGIES D’IMAGERIE APPLIQUÉES À LA SANTE 111

Présidence de M. Pierre Médevielle, sénateur. 111

M. David Brasse, Institut pluridisciplinaire Hubert Curien, Strasbourg, CNRS 111

M. Jean Colin, Laboratoire de physique corpusculaire (LPC) de Caen, CNRS 113

M. Hervé Seznec, biologiste, chargé de recherche, responsable de l’équipe iRiBio, CNRS 115

M. Ferid Haddad, maître de conférences à l’université de Nantes, directeur adjoint du GIP Arronax 118

M. Luc Darasse, directeur du Laboratoire d’imagerie par résonnance magnétique médicale et multi-modalités et du Groupement de recherche « Imageries in vivo », CNRS 121

Mme Dominique Le Guludec, chef de service de médecine nucléaire, responsable U1148, Univ P7, Assistance publique – Hôpitaux de Paris 123

Mme Elodie Brient-Litzler, directrice adjointe du Centre d’innovation et recherche technologique de l’Institut Pasteur 123

M. Jean-Yves Le Déaut, député, président de l’OPECST 123

M. Denis Le Bihan, directeur de NeuroSpin, CEA 126

DÉBAT 128

TROISIÈME TABLE RONDE : LES ENJEUX DES SYNERGIES ENTRE TECHNOLOGIES ET SCIENCES DU VIVANT. 133

Présidence de M. Jean-Yves Le Déaut, député, président de l’OPECST 133

M. Yves Rémond, professeur à l’université de Strasbourg, directeur adjoint scientifique CNRS-INSIS 133

M. Jean-Christophe Olivo-Marin, responsable de l’unité Analyse d’images biologiques, directeur de la Technologie, Institut Pasteur 135

M. Philippe Chomaz, directeur scientifique exécutif, direction de la recherche fondamentale, CEA 137

M. Jean-Christophe Olivo-Marin, responsable de l’unité Analyse d’images biologiques, directeur de la Technologie, Institut Pasteur 139

M. Philippe Guedon, PhD, directeur de l’ingénierie et du développement du pôle MEDICEN 140

M. Gérard Hascoët, président du conseil d’administration, CorWave 143

M. Louis de Lillers, président directeur général, CorWave 145

M. Frédéric Worms, directeur-adjoint Lettres de l’Ecole normale supérieure, membre du Comité consultatif national d’éthique (CCNE) 145

DÉBAT 148

M. Vincent Berger, directeur de la recherche fondamentale, CEA 149

CONCLUSION 153

M. Jean-Yves Le Déaut, député, président de l’OPECST 153

EXTRAIT DE LA RÉUNION DE L’OPECST DU 28 JUIN 2016 PRÉSENTANT LES CONCLUSIONS DES DEUX AUDITIONS PUBLIQUES 157

1. Présentation des conclusions relatives à l’audition publique sur « Les synergies entre les sciences humaines et les sciences technologiques » du 21 janvier 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST 155

2. Présentation des conclusions relatives à l’audition publique sur « L’apport des avancées technologiques aux sciences de la vie » du 28 avril 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST 160

PRÉFACE

Un concours de circonstances a conduit l’OPECST à organiser successivement, en un temps relativement restreint, deux auditions publiques en liaison avec deux des cinq grandes Alliances de recherche, l’une, le 21 janvier 2016, consacrée aux « synergies entre les sciences humaines et les sciences technologiques » avec l’Alliance ATHENA des sciences humaines et sociales, l’autre, le 28 avril 2016, consacrée à « l’apport des avancées technologiques aux sciences de la vie » avec l’Alliance AVIESAN des sciences de la santé et de la vie.

La construction des programmes de ces auditions a vite montré des zones de recouvrement entre les deux thèmes. D’une part, il est apparu que les synergies entre les sciences humaines et les sciences médicales étaient quasi inhérentes à la nature de ces dernières, et qu’il était de ce fait plus pertinent de les évoquer séparément au cours d’une table ronde spécifique dans la seconde audition publique relative aux sciences de la vie. D’autre part, il semblait inutile de traiter à nouveau, au cours de cette même seconde audition publique, des multiples interactions entre les sciences humaines et les technologies numériques, déjà largement abordées au cours de la première audition publique.

Dès lors, il a été décidé de coordonner les programmes des deux auditions publiques puis de présenter leurs conclusions respectives lors d’une même réunion de l’OPECST, en proposant que les deux travaux soient publiés ensuite conjointement dans le même rapport et sous un intitulé commun.

Cette publication conjointe sur « L’interaction des sciences humaines et sociales avec les sciences technologiques et les sciences du vivant » vise ainsi à mieux faire ressortir, en pleine cohérence avec la « Stratégie nationale de recherche France-Europe 2020 » qui a spécifiquement défini cinq programmes d’actions allant dans ce sens, l’apport que constitue pour la recherche un renforcement des mécanismes de convergence et de coopération entre les différentes branches des sciences.

De ce point de vue, ces deux auditions publiques contribuent à l’évaluation de cette stratégie nationale de recherche dont l’OPECST est en charge en vertu de l’article 15 de la loi pour l’enseignement supérieur et la recherche du 22 juillet 2013.

COMPTE RENDU DE L’AUDITION PUBLIQUE DU 21 JANVIER 2016 SUR « LES SYNERGIES ENTRE LES SCIENCES HUMAINES
ET LES SCIENCES TECHNOLOGIQUES »

INTRODUCTION

M. Jean-Yves Le Déaut, député, président de l’OPECST. Je voudrais vous remercier toutes et tous d’être présents ce matin. Cette audition publique est une première car nous aborderons le sujet, inédit pour l’OPECST, des synergies entre sciences humaines et sciences technologiques. Il s’agit d’une idée de M. Alain Fuchs qui, à l’occasion de ses contacts réguliers avec l’Office parlementaire d’évaluation des choix scientifiques et technologiques en tant que président de l’alliance ATHENA, en a exprimé le souhait.

Dans ses missions, il n’est pas directement mentionné que l’OPECST doive suivre le devenir les sciences humaines et sociales mais les liens deviennent de plus en plus étroits entre celles-ci et les sciences technologiques. Il nous est donc apparu important de les analyser à l’occasion d’une de nos auditions publiques d’actualité.

Pendant longtemps, les sciences humaines ont existé pour elles-mêmes et se sont développées sans relations avec les sciences technologiques. Pourtant, historiquement, les sciences technologiques ont fourni de nombreux outils aux sciences humaines, à commencer par ceux qui permettent d’écrire et de fixer des analyses sur des supports de plus en plus fiables, passant du papyrus au parchemin, puis au papier et, aujourd’hui, au support numérique.

Le développement des sciences et des techniques a enrichi, au fil du temps, la panoplie des moyens d’investigation des sciences humaines. Les mathématiques ont suggéré des modèles de fonctionnement, pour la démographie par exemple. Ensuite, la photographie, l’enregistrement sonore et le cinéma, aujourd’hui l’holographie, ont permis de stocker des données expérimentales de plus en plus variées. Enfin et surtout, l’informatique a fourni des capacités de traitement et de simulation de plus en plus puissantes. Le numérique est devenu un instrument incontournable pour mieux faire face à la complexité fondamentale des sciences humaines qui mettent en jeu des paramètres très divers.

Les avancées scientifiques et techniques ont longtemps constitué le socle du progrès. Puis, et nous n’allons pas aborder cette question ce matin sauf de manière incidente, la conception du progrès a changé. La problématique est importante, car les inventions des hommes peuvent entraîner des catastrophes, cela a souvent été abordé à l’OPECST. Cette question se situe au niveau des principes de précaution et d’innovation ; elle a alimenté tout un courant de réflexions sur les risques, les peurs, l’expertise, l’organisation du débat, les controverses, la prise de décision administrative et politique.

Cependant, le sujet de ce jour ne se réduit pas à la problématique science et société. Il nous intéresse aujourd’hui de voir dans quelle mesure les sciences humaines, qui utilisent les sciences technologiques, peuvent les guider en s’attachant à mieux comprendre ce qui détermine les attentes, les craintes, les peurs ou les réflexes de notre société.

Les sciences humaines n’interviennent donc pas seulement comme des freins pour certains développements technologiques, comme il est souvent dit, mais peuvent aussi contribuer à les stimuler, en aidant à supprimer des blocages culturels ou psychologiques qui empêchent les hommes d’imaginer des représentations du monde permettant l’avancée des connaissances.

Ainsi, le phénomène de la Renaissance, marqué par l’analyse critique des auteurs anciens, a certainement eu une part dans la remise en cause du modèle astronomique de Ptolémée par Copernic, Jordano Bruno puis Galilée. Comme l’a dit Claude Bernard, c’est ce que nous croyons savoir qui nous empêche d’apprendre.

C’est dans l’espace de l’humanité que se jouent les processus de mise à bas des croyances toutes faites qui peuvent bloquer certaines avancées fondamentales dans les sciences de la nature. On le vérifie en constatant que les blocages ne sont pas forcément les mêmes d’un pays à l’autre, c’est-à-dire d’une culture à l’autre. Les Européens et les Américains n’appréhendent pas de la même manière les biotechnologies, la théorie de l’évolution ou la recherche sur les cellules souches embryonnaires.

Comment expliquer autrement que par une évolution culturelle cette prise de conscience de la capacité des hommes à mesurer les phénomènes du monde au début du XVIIe siècle grâce à l’émergence de la mécanique de Galilée et de l’optique de Descartes ? Comment expliquer, sinon par une montée en puissance du rationalisme, qui trouve aussi son pendant dans le classicisme des arts, la découverte du calcul infinitésimal par Leibniz et Newton à la fin du XVIIe siècle ? Comment expliquer, enfin, cette émergence quasiment contemporaine de la physique statistique de Boltzmann et de la sociologie de Durkheim, à la fin du XIXe siècle, apportant une capacité à appréhender les propriétés d’un large ensemble comme un gaz ou une population, à partir d’une description probabiliste de l’état de ses éléments, à une époque où justement les associations et les syndicats se multiplient et s’organisent ?

Il y a donc certainement des effets de synergie entre sciences humaines et sciences technologiques. Cette notion renvoie à l’idée d’activités qui se renforcent l’une l’autre, d’une manière coopérative, pour atteindre un même but. Une partie de la complexité du sujet tient à la définition des notions respectives de sciences humaines et de sciences technologiques. Par l’une, on entend couramment l’histoire, la littérature, les langues, la sociologie, la psychologie, par exemple, par l’autre la physique, la biologie, la géologie, les mathématiques, l’astronomie. C’est approximatif, et les recouvrements font que les frontières deviennent de plus en plus floues.

L’analyse des synergies est évidemment plus difficile lorsque cela concerne des sciences à la frontière des deux notions. Cependant nous avons décidé de contourner cette difficulté en écartant délibérément les sciences de la vie au cours de cette audition. Mais nous en organiserons une autre, spécifiquement sur ce thème, au mois d’avril.

L’audition de ce matin va s’ordonner autour de quatre tables rondes, avec plus d’une vingtaine de prises de parole.

Ces questions ne recouvrent pas l’intégralité du champ que l’on aurait pu aborder, mais cela n’exclut pas pour l’OPECST un réel intérêt pour les sciences humaines et sociales, même si ce n’est pas sa vocation, pour autant que celles-ci apportent un éclairage sur un dispositif technologique et sur la manière dont la société appréhende certaines questions scientifiques.

Cette audition publique sera l’occasion de mettre en valeur les apports des sciences humaines. Comme je l’ai dit, elle a été organisée avec l’alliance ATHENA, comme d’autres auditions ont été organisées précédemment avec les autres alliances de recherche.

Je donne la parole à M. Alain Fuchs, président du CNRS, mais surtout, aujourd’hui, président de l’alliance ATHENA qui va coprésider cette table ronde.

M. Alain Fuchs, président du CNRS, président de l’alliance ATHENA. Je serai le plus bref possible dans cette introduction. En effet, le contexte a bien été rappelé par M. Jean-Yves Le Déaut. Lors de nos fréquentes conversations, j’ai abordé la question de l’alliance ATHENA, des sciences humaines et sociales, de leurs relations avec les sciences technologiques et, d’une manière plus générale, des choix scientifiques et technologiques. L’argument à partir duquel nous avons bâti cette audition sera perçu comme banal par la plupart d’entre vous : une grande part des choix scientifiques et technologiques sont des choix de société, qu’il s’agisse de l’énergie, de l’environnement et du climat, du numérique ou de la santé. Si j’ai cité ces exemples, c’est qu’il existe dans ces domaines quatre alliances de recherche, avec lesquelles vous avez déjà organisé des débats et des auditions.

La cinquième alliance de recherche, ATHENA, a été bâtie voici quelques années car la puissance publique montrait un réel intérêt pour les sciences humaines et sociales, ou les sciences sociales et les humanités. C’est un intérêt que nous partageons. Il s’agit de résoudre des problématiques de société en débat dans la plupart des grands pays industrialisés ou en émergence : par exemple, l’énergie du XXIe siècle. Quelle énergie allons-nous consommer et sous quelle forme ?

À partir du moment où il s’agit de défis de société, il est important qu’ils puissent être relevés avec la société. Dans ce domaine, les sciences humaines et sociales ont leur part. Nous n’allons pas aujourd’hui faire le tour de ce qui se fait en matière de sciences humaines et sociales : ce sont des sciences en tant que telles, avec leurs problématiques et leurs paradigmes propres. Comme toutes autres sciences, elles ont parfaitement le droit de se développer en tant que telles.

Nous allons parler aujourd’hui des interfaces entre, d’une part, différentes sciences humaines et sociales et, d’autre part, des questions de choix technologiques. Ces interfaces se développent et il est important que les choix technologiques puissent s’opérer, éclairés par des réflexions sur la société.

ATHENA est une alliance de recherche, non pas une institution de plus. Elle constitue un espace de concertation au sein duquel se retrouvent les universités majoritairement présentes sur le terrain des sciences humaines et sociales. Le CNRS, bien que doté d’un institut des sciences humaines et sociales, y est un peu marginal. La proportion est d’environ trois quarts pour un quart. Des sciences humaines de très bonne qualité existent dans d’autres institutions. Je mentionnerais l’incontournable Institut national d’études démographiques (INED). Mais, dans l’alliance ATHENA, nous rencontrons aussi des représentants d’autres alliances et d’écoles d’ingénieurs où se trouvent de telles sciences. Bref, ATHENA est également un lieu de concertation et de travail.

Nous produisons des textes, nous réfléchissons dans des groupes de travail à la structuration des sciences humaines et sociales en France. Grande nouveauté, nous construisons un observatoire des sciences humaines et sociales. Nous comptons le développer. Mme Françoise Thibaut, secrétaire générale de l’alliance ATHENA, est présente aujourd’hui. Elle pilote cet important travail. Nous allons certainement, d’ici très peu de temps, disposer d’un observatoire complet des sciences humaines et sociales. En particulier, il va être possible d’accéder aux chercheurs et aux équipes à partir de mots clefs et de thématiques. Ces sciences étant extrêmement foisonnantes et témoignant d’une très grande activité, cet observatoire permettra notamment d’établir un lien avec les questions qui nous occupent, liées à l’agenda horrible des attentats terroristes. En effet, l’État nous a demandé de recenser les travaux sur la radicalisation réalisés, en cours, ou manquants et méritant d’être menés. Cet observatoire des sciences humaines et sociales sera d’une très grande utilité dans ce domaine.

Les choix faits par l’OPECST pour cette audition, avec la complicité de l’alliance ATHENA, touchent à des problématiques de sciences humaines et technologiques, de numérique, et de technologies de l’énergie.

Nous terminerons cette audition avec la question de la radicalisation, puisque celle-ci est prégnante dans l’agenda actuel. Nous aurions pu choisir bien d’autres thèmes. Mais il s’agit aujourd’hui – et j’en remercie l’Office parlementaire et son président, M. Jean-Yves Le Déaut –, dans un cadre un peu contraint par le temps et les disponibilités des intervenants, de permettre une sorte de photographie de tout ce qu’il est possible de faire à l’interface des sciences humaines et sociales, et des sciences technologiques.

PREMIÈRE TABLE RONDE :
LA PROBLÉMATIQUE DES LIENS ENTRE SCIENCES HUMAINES
ET SCIENCES TECHNOLOGIQUES

L’apport d’une approche pragmatique des interactions entre les sciences humaines et les sciences technologiques

M. Yves Bréchet, Haut-commissaire à l’énergie atomique, membre de l’Académie des sciences. Je préciserai la question plutôt que d’apporter des réponses aux problèmes qui se posent.

Qu’elles soient humaines ou technologiques, dures ou molles, fondamentales ou appliquées, les sciences ont pour objectif de construire un savoir objectivable à partir d’une analyse rationnelle des faits d’observation. La connaissance ainsi construite peut évoluer avec le temps, s’enrichir de nouvelles connaissances, être infirmée par des progrès ultérieurs de la discipline mais, à un moment donné de notre histoire, elle ne dépend plus des circonstances historiques ou sociologiques qui ont conduit à la construire : elle n’est pas relative.

Les organismes de recherche, les décideurs politiques, conscients de l’importance des exigences sociétales et de l’intrication intime entre les progrès technologiques et l’ensemble de la société, demandent, de façon récurrente, un rapprochement, une collaboration, voire une synergie entre sciences humaines et sciences de la nature. Si l’on peut comprendre les raisons de cette demande, il importe aussi d’analyser les difficultés d’atteinte de cet objectif pour ne pas confondre l’affichage et sa réalisation.

On peut caractériser les sciences par leur objet et par leur projet. Les sciences dites « dures » ont pour objet les phénomènes naturels ; les sciences dites « molles » ont pour objet les phénomènes humains. Les sciences fondamentales ont pour projet de « comprendre pour comprendre », les sciences appliquées le projet de « comprendre pour faire ».

Ainsi les sciences de la nature diffèrent par leur projet : elles sont fondamentales, comme la physique, la chimie, la géophysique et la biologie, ou bien appliquées, comme l’informatique, la robotique et la science des matériaux. On parle alors de sciences technologiques ou de sciences de l’ingénieur.

La distinction est moins claire pour les sciences humaines. Les sciences humaines peuvent, elles aussi, être plus fondamentales en s’intéressant à des concepts, comme la philosophie, l’anthropologie, la sémiologie et la sociologie, ou plus appliquées, observant et analysant des faits : histoire, géographie, droit, sociologie des organisations, économie...

Les rapprochements demandés entre les sciences de la nature et les sciences humaines poussent à une collaboration entre disciplines ayant des objets différents. Cette exigence conduit à un parallèle avec une autre demande, émise il y a quelques décennies dans le domaine des sciences dures, de rapprocher les sciences fondamentales des sciences appliquées. On voulait alors rapprocher des disciplines ayant le même objet et des projets différents. L’analyse des motivations et des difficultés rencontrées dans cette démarche pourra éclairer celles qui vont se présenter dans les nouveaux rapprochements recommandés, quand on voudra passer des bonnes intentions aux réalités concrètes.

La question qui reste posée est la suivante : quelles sont les conditions nécessaires pour qu’une collaboration entre sciences humaines et sciences dures soit fructueuse ? Pour répondre à cette question, au moins de façon schématique, il importe de préciser le type de rapprochement visé.

On peut penser à une simple « juxtaposition » : c’est facile, cela plaît, cela s’affiche… Mais cela n’a pas grand sens. Le flux d’informations entre disciplines permettant d’accroître la connaissance ne se produit pas par osmose. Pas plus d’ailleurs que par importation des jargons mutuels si drôlement moqué par Jacques Bouveresse dans Prodiges et vertiges de l’analogie à la suite de l’ouvrage Impostures intellectuelles d’Alan Sokal et Jean Bricmont. Ces modes de rapprochement ne méritent d’être signalés que pour s’en méfier comme d’une supercherie.

On peut penser à une collaboration, où l’une des disciplines permet effectivement d’enrichir le champ de connaissance de l’autre. L’archéométallurgie, qui fait usage des techniques les plus avancées de caractérisation pour retracer les trajets économiques des métaux dans l’antiquité, ou qui, à partir de la microstructure de clous trempés à Bibracte, permet de prouver que les forgerons gaulois devaient nécessairement travailler en binôme, me semblent de beaux exemples d’un apport des sciences dures à une réflexion des sciences humaines. Mais on ne peut pas dire que de telles études enrichissent la métallurgie, au-delà de lui donner des objets d’étude qui puissent la rendre plus attractive et moins austère.

Le troisième mode d’interaction, plus rare, mais beaucoup plus riche, est une co-réflexion de deux disciplines qui trouvent chacune, dans un problème commun, une motivation qui leur est propre. On peut classer dans cette situation les travaux admirables de Stanislas Dehaene en neurobiologie, qui éclairent les sciences cognitives dans le même temps que ces dernières lui procurent leur questionnement. Cette situation est l’endroit où se construit une véritable interdisciplinarité, une aventure commune où aucune discipline n’est en relation de sujétion avec sa compagne, et où chacune enrichit son questionnement propre de l’interaction avec l’autre. Les questions, souvent rebattues, de la qualité scientifique d’une action de recherche conjointe sont ici sans objet car il est clair que les disciplines ne peuvent construire ce mode de relation que si elles sont pratiquées au meilleur niveau, suivant les critères qui leur sont propres.

Entre ces trois modes, la juxtaposition, la collaboration et la co-réflexion, il est facile de montrer que, pour être durable, la synergie entre les sciences humaines et les sciences de la nature est à rechercher dans le troisième mode d’interaction, la co-réflexion.

On peut s’en convaincre en examinant les succès des collaborations, dans le domaine des sciences de la nature, entre les sciences fondamentales et les sciences appliquées : même objet, mais projets distincts. Emblématique de la coexistence des deux projets « comprendre pour comprendre » et « comprendre pour faire », se trouvait Louis Pasteur à qui nous devons à la fois la naissance de la microbiologie et l’invention de la pasteurisation et des vaccins. Mais n’est pas Pasteur qui veut… Ces interactions entre sciences fondamentales et sciences appliquées passent aujourd’hui plus souvent par la co-réflexion des équipes, un exemple particulièrement remarquable étant, depuis cinquante années, l’enrichissement mutuel de la physique des solides et de la microélectronique.

Si nous revenons maintenant à la question des synergies possibles entre sciences humaines et sciences de la nature, et si nous nous donnons comme objectif de favoriser la co-réflexion par rapport à la collaboration, en évitant toute juxtaposition qui ne serait que rhétorique, il est utile de reposer le problème en termes d’objet et de projet.

Entre les sciences humaines et les sciences de la nature, l’objet diffère, et c’est une difficulté importante dans la construction d’un questionnement commun. La difficulté est encore accrue si le projet diffère. On peut s’attendre donc à ce que la « co-réflexion » ait plus de chance de succès si elle se développe entre deux disciplines qui ont le même projet, soit la connaissance pure, soit la connaissance appliquée.

Ainsi, le couplage est plus facile entre la philosophie et les mathématiques, jusqu’à créer la logique mathématique où la frontière devient diffuse, qu’entre la philosophie et la robotique. Non pas qu’un philosophe ne puisse prendre comme sujet d’étude un robot mais parce que cette réflexion n’aidera probablement pas le robot à être plus efficace. À quelles conditions les synergies entre sciences humaines et sciences technologiques peuvent-elles être fructueuses ? Les objets d’intérêt étant différents, on pourrait s’attendre à ce que la co-réflexion soit plus naturelle si le projet, ou démarche scientifique : comprendre pour comprendre ou comprendre pour faire, est le même. Ainsi les sciences technologiques ayant pour vocation de comprendre pour faire, elles auront un terrain d’entente beaucoup plus naturel avec celles des sciences humaines qui ont pour objet l’observation des faits humains, c’est-à-dire la partie applicative des sciences humaines.

Par exemple, un ingénieur en ergonomie trouvera sans peine avec un psychologue un sujet de recherche commun, et il en ressortira les recommandations pour la conduite d’une unité industrielle ou le pilotage d’un avion. De même, le droit et l’informatique ou la science des matériaux et l’histoire industrielle peuvent très naturellement construire des questionnements communs et se positionner dans une relation de co-réflexion, c’est-à-dire d’accroissement de la connaissance des deux disciplines.

Par contre, l’injonction de collaboration, qui conduirait à rapprocher des disciplines différant à la fois par le projet et par l’objet, peut conduire à de graves et durables malentendus, comme cette demande des technologues aux sociologues pour identifier les conditions d’acceptabilité d’une technologie par une société. Une approche consistant à voir l’apport des sciences sociales comme un supplément d’âme, une expiation d’une hypothétique sécheresse des sciences dures, ou une voie magique vers l’acceptation sociale des innovations technologiques est, à mon sens, voué à l’échec parce qu’elle reposerait sur un postulat aussi illusoire que l’injonction faite autrefois aux sciences fondamentales de collaborer, coûte que coûte, avec les sciences appliquées.

Finalement, la recommandation pragmatique en matière de succès pour les entreprises interdisciplinaires est que l’on couplera d’autant plus facilement les disciplines qui ont en commun soit l’objet, soit le projet. De là il ressort que le couplage se fera plus naturellement entre les sciences de l’ingénieur et les sciences sociales « empiriques ». De même le couplage sera plus naturel entre les sciences fondamentales et les sciences sociales « fondamentales », comme le montre le schéma ci-dessous.

Cette simple distinction heuristique pourrait, dans la pratique, faciliter la construction de projets de recherche communs, comme cela est maintenant demandé de façon explicite. De fait, sans un tel guide, simple et pragmatique, on prendrait le risque de « mariages de carpes et de lapins » dont chacun sait bien qu’ils ne sont guère fertiles.

M. Jean-Yves Le Déaut. M. Serge Abiteboul accompagne régulièrement l’OPECST pour ses investigations dans le champ du numérique. Il connaît très bien le domaine des « humanités numériques » sur lequel nous reviendrons plus particulièrement tout à l’heure.

Le développement des synergies entre sciences grâce au numérique

M. Serge Abiteboul, membre de l’Académie des sciences, professeur à l’École normale supérieure de Cachan, directeur de recherche à l’Institut national de recherche en informatique et en automatique (INRIA). Je vais commencer par une évidence : qu’est-ce qu’un ordinateur ? C’est une machine à tout faire, general purpose en anglais. C’est le même outil qui va, par exemple, permettre de gérer une base de données ou faire des simulations, pour un historien, un biologiste, un médecin ou encore un sociologue. C’est donc un outil commun. Évidemment, on pourrait dire que la synergie consisterait à utiliser des produits identiques. Ainsi, les chercheurs de toutes les disciplines communiquent avec leurs collègues par Skype, utilisent des bases de données, le Web ou d’autres outils informatiques. Mais la convergence ne se limite pas à cela. Elle va beaucoup plus loin, vers de nouvelles façons de travailler et de penser, autour de ce que l’on pourrait appeler la pensée algorithmique.

Voici le point de départ de ma réflexion sur cette question. On m’a demandé de faire, avec une collègue historienne des sciences, Mme Florence Hachez-Leroy, de l’École des hautes études en sciences sociales (EHESS), un travail sur les humanités numériques. Nous sommes là au point de rencontre de deux humanités : le numérique et l’informatique. Nous avons essayé de réaliser une classification, en considérant les différentes sciences humaines et sociales. Ce qui nous a surpris, c’est la grande difficulté à séparer les pratiques numériques en sciences sociales et humaines et dans les autres sciences. Bien sûr, des outils d’analyse de données en biologie et sur les textes ne s’appuieront pas sur les mêmes algorithmes, encore que la distance entre les deux ne soit pas toujours si grande. Il y a donc énormément de convergences et de synergies possibles, d’outils que l’on peut mettre en commun. Dans ce domaine, le co-développement ne se limite d’ailleurs pas aux outils. Il peut également concerner un aspect de la recherche plus important que les outils : la façon de penser.

D’un point de vue historique, la séparation entre sciences dures et sciences humaines et sociales est assez récente. Elle a commencé au XIXe siècle et s’est vraiment développée entre les deux guerres. Par exemple, au XIXe siècle, Pasteur était un scientifique profondément humaniste qui conduisait des recherches situées sur plusieurs plans. Les séparations étaient donc beaucoup moins marquées qu’elles ne le sont devenues au milieu du XXe siècle, essentiellement par une surspécialisation, un découpage des sciences en petites boîtes, accompagnant leur développement. Il faut désormais apprendre plus de choses dans chaque discipline et le temps manque pour s’approprier ce qui se passe dans les autres.

L’enseignement a accentué cette séparation. C’est un sujet qui me tient à cœur. Aujourd’hui, en classe de seconde, un adolescent doit choisir entre faire des sciences dures en filière S ou faire des sciences humaines et sociales, en filière L ou ES. Pire encore, on associe cela à une sélection. S’il est bon élève, il va plutôt faire des sciences dures, s’il est moins bon, des humanités. C’est une aberration. Si un enfant veut faire des humanités numériques, aucun choix ne s’offre à lui. Il peut faire de l’informatique au lycée uniquement en terminale S. Des discussions sont menées avec le ministère, pour tenter de le convaincre d’introduire l’informatique pour les élèves des sections ES et L. Ils y ont droit aussi.

Notre travail sur les humanités numériques s’est organisé autour de plusieurs thèmes. Je vais revenir plus en détail sur deux d’entre eux.

Le premier, très à la mode, est l’analyse de données (le Big Data). L’analyse de données se pratique dans les sciences dures, en astronomie par exemple. À partir d’un grand nombre de photos, on essaie de reconnaître toutes les planètes et des formes de galaxies. Mais, concernant les analyses sur les textes, je vais citer un travail particulier : Hyperbase d’Etienne Brunet, un système de traitement de texte conçu pour explorer, faire de l’analyse statistique sur les œuvres littéraires pour en faire ressortir de nouveaux aspects. On obtient ainsi des résultats passionnants, par exemple pour la Bible en permettant de distinguer différents écrivains de l’Ancien testament. Des travaux similaires portent aussi sur le Nouveau testament. L’analyse de données, bien connue depuis longtemps dans les sciences dures, est en train d’investir de façon massive les sciences humaines et sociales.

Un autre domaine concerne la modélisation. Il existe de grands projets de modélisation en sciences dures, par exemple le Blue Brain Project qui a l’ambition de modéliser le cerveau. Mais la sociologie est également concernée. Il est ainsi possible d’essayer de modéliser le comportement d’une foule en simulant, sur un grand nombre d’ordinateurs, les réactions d’une multitude d’acteurs. Je peux citer les travaux de Mme Paola Tubaro et M. Antonio Casilli qui ont étudié les émeutes survenues voici quelques années en Angleterre. Ils ont essayé de comprendre quel avait été l’impact des réactions du gouvernement dans ce contexte. Ces modélisations sont passionnantes.

J’ai surtout parlé de recherche parce que c’est mon domaine. Mais il existe des industries qui sont fondamentalement, de façon massive, imprégnées par ces technologies du numérique. Dans la presse, l’édition et le journalisme, on utilise le Big Data pour essayer de trouver et de vérifier les sources. L’industrie du luxe, en particulier tout ce qui est métier de savoir-faire, tous les métiers d’art, sont concernés. Dans le commerce, il y a de plus en plus de travaux pour essayer de comprendre les consommateurs, gérer les réseaux sociaux, etc. Les enjeux de la consommation se traitent beaucoup à base de numérique.

Je voulais donc insister sur un aspect un peu particulier, la convergence entre sciences dures et sciences humaines et sociales par le biais de la technologie numérique et la science informatique. On retrouve cette convergence dans d’autres domaines. J’en citerai un pour conclure : l’écologie. On ne peut plus envisager un risque écologique sans considérer à la fois les aspects physiques, comme la pollution de l’air, de l’eau, et les impacts sur les populations.

M. Jean-Yves Le Déaut. Je passe maintenant la parole à un ancien compagnon de route de l’OPECST, car M. Dominique Wolton a été longtemps membre de son conseil scientifique.

La communication au cœur du dialogue entre sciences, techniques et société

M. Dominique Wolton, directeur de la revue internationale Hermès. Quand je suis entré au CNRS, on m’a demandé de bâtir le premier programme sciences, techniques et société. Le sujet m’intéresse donc depuis longtemps et vous savez que, depuis plus de trente ans, je suis passionné par la question de la communication. Par ailleurs, j’ai une vision moins optimiste que M. Serge Abiteboul sur la convergence. Ce qui m’intéresse dans la communication, c’est évidemment l’incommunication, la réalité scientifique et technique ne s’appliquant pas aux conduites humaines. Pour rester dans le temps imparti, voici cinq idées rapides.

La première, c’est que la communication apparaît, pour trois raisons simples, inhérente aux relations entre sciences, techniques et sociétés. Tout d’abord, l’interdisciplinarité conduit les scientifiques à communiquer, négocier, se disputer et discuter, dans le cadre de débats parfois très violents. Ensuite, les rapports entre science et société impliquent la vulgarisation et l’explication. Enfin, la société, puisqu’elle finance la recherche, demande des comptes aux scientifiques, pour des raisons de contrôle démocratique. Ces trois dimensions illustrent le rôle de la communication.

Deuxième point, que faut-il entendre par communication ? Dans l’idéal de tous, communiquer c’est partager, que ce soit en matière de vulgarisation scientifique ou de relations amoureuses. Évidemment, la plupart du temps, on ne se comprend pas. C’est pour cela qu’il y a autant de guerres, de conflits et d’incommunication. L’horizon de la communication c’est l’incommunication. Communiquer, c’est aussi diffuser, de manière hiérarchique, autoritaire ou interactive. Le troisième sens concerne la politique, les relations avec les scientifiques et les religions : communiquer, c’est négocier. On n’est d’accord sur rien et on essaie de trouver un accommodement. C’est l’essentiel de la réalité humaine. On passe donc son temps à communiquer en partageant, en diffusant ou en négociant.

Aujourd’hui, tout le problème réside dans la pléthore d’informations disponibles au travers des technologies mises à notre disposition. Hélas, informer n’est plus communiquer : il ne suffit pas de dire quelque chose à quelqu’un pour qu’il soit d’accord. Plus il y a d’informations, moins on est d’accord et moins il y a de communication. Moins il y a d’agrément, et plus il y a d’opposition, de refus et de négociation. Donc tout le problème théorique et politique de la communication, c’est qu’elle est beaucoup plus compliquée que l’information. C’est pour cela que nous adorons tous l’information et que nous détestons tous la communication, un des concepts les plus maudits qui soit. Dites que vous faites une théorie de l’information et l’on vous prend pour quelqu’un de très intelligent. Dites que vous faites une théorie de la communication, et l’on vous prend pour quelqu’un de douteux. Et pourtant la communication est ce qu’il y a de plus important, car elle est la relation à l’autre.

Ce qui est intéressant dans les rapports entre la science, les techniques et la société, c’est l’épreuve de l’altérité. C’est pour cela qu’il y a deux points de vue. Quand M. Serge Abiteboul parle de convergence, je parle d’altérité. Nous sommes sur deux planètes théoriques radicalement différentes. Bien sûr qu’il y a des convergences et que l’homme rêve constamment de convergence, scientifique, technique ou politique. En politique, la convergence se solde, en général, par l’idéologie et les guerres En sciences, elle conduit au rêve d’une coopération harmonieuse entre scientifiques.

La troisième idée concerne la limite à fixer à l’acceptation de la communication entendue dans ses trois dimensions : le partage, la diffusion et la négociation et, à l’inverse, la limite à partir de laquelle il convient de conserver une altérité. L’enjeu de la recherche et de toute communauté académique consiste à garder une autonomie par rapport à une dimension sociale qui s’avère de plus en plus prégnante, non seulement pour des questions politiques, financières ou économiques mais parce que la démocratie demande des comptes à tous et, de plus en plus, aux scientifiques. Ceux-ci ne peuvent plus rester dans une posture d’indépendance vis-à-vis de la société qui fut longtemps la leur, en gros jusqu’à la guerre de 1914-1918. Aujourd’hui, les pressions sont de plus en plus nombreuses. Or, l’autonomie de la recherche implique d’être à la fois à même d’entendre les pressions de la société et d’y résister. Pour moi, cet aller-retour entre cette pression et la capacité à conserver l’autonomie de la recherche définit la question de l’avenir de la recherche, fondamentale et même appliquée.

La quatrième idée résulte d’un modèle que je développe depuis des années mais qui, pour l’instant, n’a pas beaucoup de succès parce qu’il suppose d’être d’accord sur la théorie de la communication comme source d’incommunication. Dans un monde ouvert, interactif et transparent, le nôtre ou un monde idéal, la seule solution pour la science, mais aussi l’art ou la religion, consiste à assumer le conflit des légitimités. Cela revient à admettre qu’il y a trois ordres de connaissance, radicalement différents : celui de l’information, aujourd’hui triomphant, celui de la connaissance, déstabilisé, et le troisième, le plus compliqué de tous, celui de l’action, pas seulement politique, mais également économique au sens large. Il est possible de créer des passerelles entre ces trois univers, de la logique de l’information à celle de la connaissance ou de l’action, mais ce ne sont pas les mêmes ordres symboliques, heuristiques et épistémologiques. Pour sauver le monde de la connaissance, malgré les conflits internes, il faut assumer cette légitimité de la connaissance qui est radicalement différente des autres ordres. Si l’on mélange tout, il y a risque d’anomie. L’un des enjeux pour nous, scientifiques, est d’éviter d’établir une continuité entre la connaissance, l’information et l’action politique, pour éviter un mélange des valeurs et des symboles, donnant l’illusion d’une meilleure unité de l’homme dans la société mais comportant en réalité des risques d’anomie.

La question suivante se pose pour les sciences et les techniques : jusqu’où faut-il accepter les interactions entre les mondes de la connaissance, de l’information et de l’action, et à partir de quand faut-il se battre pour conserver une certaine autonomie du monde de la recherche ? De fait, ce dernier se trouve soumis à des pressions de plus en plus fortes. Certains scientifiques sont même prêts à dire, au nom du dialogue entre sciences et société ainsi que des sciences participatives ou collaboratives, qu’il n’y a plus de frontière radicale entre les scientifiques et les autres. Plus on va vers cette logique de la continuité, plus on risque l’anomie et la perte de repères. Or, quand un homme ou une collectivité perdent leurs repères, ils vont vers le désordre politique, c’est-à-dire la guerre. L’horizon des sociétés, c’est la guerre. Les hommes adorent faire la guerre, il n’y a qu’à voir l’actualité. L’horizon n’est pas la connaissance, hélas, ni l’amour, sinon cela se saurait. En revanche, la domination fonctionne très bien.

Je vais vous donner des exemples de ces allers-retours, de plus en plus compliqués, dans lesquels les scientifiques sont eux-mêmes dans des logiques d’information ou d’action politique : le lobbying, dont les scientifiques sont les meilleurs acteurs, l’expertise, constamment conflictuelle, les rumeurs, dont nous sommes à l’origine ou que nous n’arrivons pas à juguler – les questions d’environnement ou de biologie en ont pléthore, comme le mythe de l’homme augmenté –, les controverses – le monde académique, de par sa propre expansion, se trouve de lui-même constamment confronté aux rumeurs et aux controverses – et la logique de marketing, un mot très important depuis quarante ans. Les scientifiques sont dans la logique du marketing. Cela ne pose pas de problème en soi, mais comment faire pour séparer ce qui relève du lobbying, de l’information, de la connaissance ou de l’action ?

Ces quelques mots montrent la complexification de nos relations avec le monde de la société ouverte, faites d’interactions et de rapports de force avec les politiques, l’opinion publique, laquelle ne se réduit évidemment jamais aux sondages, et les médias, distincts de l’opinion publique, tout cela avec une dimension internationale, économique et de concurrence. Comment, dans ce contexte, conserver l’autonomie de la recherche ?

Voilà pourquoi, j’ai plusieurs fois proposé, sans succès, d’inclure dans la formation des chercheurs des réflexions critiques, avec des exemples et des expériences, montrant jusqu’où un acteur scientifique doit négocier, influer ou agir et à partir de quand, au nom même de la logique de la connaissance, il lui faut préserver cette chose tout à fait inutile qui s’appelle l’imaginaire, évidemment la chose au monde la plus importante. Car la connaissance, c’est l’imagination, l’irrationalité, donc la liberté de penser.

Les relations entre sciences, techniques et société sont donc aujourd’hui beaucoup plus compliquées qu’il y a cinquante ans. Je pense qu’il existe, de temps en temps, des convergences. Mais, d’un point de vue heuristique, on a d’abord intérêt à parler d’altérité et d’incommunication des mondes symboliques, plutôt que de penser naturellement que l’homme va converger avec la science et la technique. De ce point de vue, tout ce qui est technologique est intéressant, car la technologie rencontre immédiatement la société, donc les hommes, par conséquent l’irrationnel profond. Les hommes, c’est l’histoire et la folie, selon la fameuse phrase de Shakespeare. Du point de vue scientifique, je suis obsédé par cette question théorique : comment, dans un monde ouvert interactif, préserver cette logique qui ne sert à rien mais qui est fondamentale pour l’avenir, celle de la connaissance et de la liberté ?

En conclusion, il y a trois écueils pour les rapports sciences-société : le scientisme, bien connu, le sociologisme – pas moins pire – consistant à rapporter les interactions avec les sciences et techniques à la seule logique intellectuelle et cognitive, et le technicisme, prônant que les techniques vont nous sauver.

Voici un exemple : le Gouvernement a déposé un projet de loi, en cours de discussion, dont l’intitulé accole deux mots sans rapport aucun : « La République numérique ». Comment peut-on mettre côte à côte deux mots à ce point antinomiques du point de vue de la philosophie, de l’histoire ou de la philosophie politique ? République renvoie à un espace historique, politique, civilisationnel, culturel, et le mot numérique… Qu’il y ait des interactions dans la société, certainement. Mais accoler ces deux mots sous-entend que l’on va trouver des solutions techniques à des problèmes politiques. C’est la tragédie du technicisme. Je pense qu’il vaut toujours mieux préserver l’altérité des logiques de connaissance et d’action.

Plus il y a d’interactions, de relations, de ressemblances, plus il faut séparer les logiques intellectuelles. La connaissance suppose bien sûr de négocier et de faire des allers-retours entre l’espace public et le monde contemporain, la politique et l’économie. Mais si l’on veut sauver l’altérité de la science et de la connaissance, il convient de ne pas aller trop loin.

En conclusion, je voudrais dire un mot sur Hermès, cette revue que j’ai créée il y a vingt-huit ans : le numéro de ce mois a pour sujet les controverses scientifiques. Deux autres numéros ont été consacrés au « XXe siècle saisi par les communications », l’un sur les réseaux numériques et l’autre sur la communication et la controverse. Cette revue est interdisciplinaire, sans droit d’auteur, si ce n’est au profit du CNRS. Achetez-la, lisez-la, volez-la, allez la voir sur les trois sites où elle est consultable gratuitement. J’ai reçu une bonne note de notre cher président Alain Fuchs car, l’année dernière, on a enregistré un million de consultations sur ces trois sites. Hermès est une revue qui invite à réfléchir sur les rapports d’incommunication entre techniques, sciences et société. Incommunication ne veut pas dire absence de relations. Je vous renvoie à votre expérience personnelle : si c’était simple de communiquer avec les autres êtres, c’est-à-dire vos femmes, vos amantes, vos enfants ou vos collègues, cela se saurait.

M. Jean-Yves Le Déaut. Je connais M. Claude Didry depuis longtemps, puisqu’il m’avait aidé à travailler sur un rapport au Premier ministre sur la recherche en 1998.

Le rôle des sciences humaines dans la formation des ingénieurs ou des chercheurs en sciences technologiques

M. Claude Didry, directeur de la Maison des sciences de l’homme (MSH) de Paris-Saclay. Je commencerai par apporter une pierre dans le jardin de M. Dominique Wolton, concernant les rapports entre science et société, dans la mesure où il me semble, en tant que sociologue, que les sciences sont également des activités sociales et qu’elles sont de ce fait justiciables d’une vision un peu plus générale.

Cela dit, je voudrais aujourd’hui évoquer la situation des sciences humaines et sociales (SHS) dans la formation des ingénieurs, comme illustration des relations entre celles-ci et les sciences technologiques. C’est un sujet sur lequel existe une littérature abondante. Je partirai pour cela du constat établi par Mme Catherine Roby dans une enquête portant sur cent quatre-vingt-onze écoles d’ingénieurs, intitulée : « Quelle transmission des SHS dans les Écoles d’ingénieurs en France ? »..Il en ressort une grande hétérogénéité dans la présence de ces sciences au sein des cursus proposés. Cela va d’une appréhension instrumentale de celles-ci, sous la forme conjointe de la gestion et du développement personnel, à une activité de recherche visant une réflexivité sur la pratique et la situation sociale de l’ingénieur. Mais, selon Mme Catherine Roby, seul un tiers de ces écoles affiche des départements et des recherches en SHS. De manière générale, dans la dénomination des enseignements et recherches en SHS, le terme « entreprise » domine, une place importante étant donnée à l’économie et à la gestion. En revanche, note l’auteur, « l’appellation ‘sciences humaines’ ou ‘sciences de l’homme’ est souvent préférée à celle de ‘sciences sociales’. Cela pourrait traduire une connotation négative tenace de ces sciences au sein de certaines écoles d’ingénieurs. »

Comment expliquer cette indifférence, voire cette méfiance à l’égard des sciences humaines et sociales dans les formations d’ingénieurs, ou des chercheurs en sciences de la nature et sciences technologiques ? La dimension de réflexivité mise en évidence par Mme Catherine Roby dans les formations les plus développées en SHS au sein de ces écoles n’indique-t-elle pas une piste pour le développement de ces sciences ? Pour tenter de répondre à ces questions, je m’appuierai sur la petite expérience que je suis en train d’acquérir dans la construction de la Maison des sciences de l’homme de Paris-Saclay. De manière hypothétique, je propose d’identifier trois régimes d’interaction entre sciences humaines et sociales et sciences technologiques pour identifier les résistances et le développement possible d’une présence plus importante de ce domaine dans la formation des chercheurs et ingénieurs. L’acceptabilité sociale me paraît être le registre le plus immédiat. La faisabilité économique représente un autre registre que je suis en train de découvrir, sous la forme d’une modélisation prospective, rejoignant ce qu’on pourrait appeler une technico-économie. Enfin, une ouverture sur la dimension « pratique », comme sens pratique et sciences pratiques, paraît se dessiner à partir des horizons esquissés par la prospective économique.

L’acceptabilité sociale des avancées scientifiques et technologiques revient souvent dans les fortes attentes des collègues des sciences technologiques et de la nature que j’ai rencontrés au cours de mes réunions à Paris-Saclay. Elle suggère la possibilité que les développements technologiques et scientifiques ne soient pas acceptés par une opinion publique échaudée par des catastrophes et des menaces. Dans ce registre de l’acceptabilité sociale, les sciences humaines et sociales étudient fréquemment les attentes du public, avec une attention portée à l’indépendance des experts et à la liberté des lanceurs d’alerte. Les scientifiques se trouvent ici questionnés dans leurs expérimentations et leurs innovations technologiques. L’enjeu est alors pour eux de s’approprier les résultats produits par les sciences humaines et sociales, sous l’angle d’une discussion apaisée, au contact de citoyens les mieux informés possible. Mais la crainte d’une réaction relativement incontrôlée demeure. L’activité scientifique est là sur le terrain de la défensive pour répondre à une légitime exigence démocratique dans les choix sociaux et collectifs.

Pour aborder le sujet de la faisabilité économique, je partirai du constat que la situation d’alerte et d’inquiétude est dépassée dans le cas des crises environnementales que nous connaissons aujourd’hui. Cette situation conduit à des modélisations intégrant les activités humaines, notamment économiques, leurs effets environnementaux et les développements technologiques envisageables. Il en résulte des scénarios à plus ou moins long terme. La discussion se déplace sur le terrain de la science économique. En effet, comme le souligne un rapport commun aux alliances ANCRE et ATHENA de 2013, cela implique de sortir d’une modélisation focalisée sur l’ajustement entre offre et demande sur un marché de biens assortis d’un prix pour saisir des dynamiques plus générales. Il devient ainsi nécessaire d’assigner un prix à des choses qui ne sont pas nécessairement des biens, comme la tonne de CO2 dont la cotation a été l’un des enjeux oubliés de la COP21.

Certains macro-économistes, comme M. Michel Aglietta, sont allés très loin dans cette direction de modélisation et de prospective. On voit ici une orientation se dessiner pour des relations moins tendues entre chercheurs et ingénieurs.

Mais la construction de ces scénarios dessine des horizons, sans véritablement appréhender les pratiques scientifiques actuelles. Ce sera mon troisième point. Ce qui se fait jour alors est le besoin d’une investigation fine des activités scientifiques et technologiques, pour les saisir dans des dynamiques historiques et envisager leur situation dans la vie économique et sociale. Nous rencontrons ici une démarche historique et sociologique portée non seulement par les études des sciences et technologies (Science and Technology Studies ou STS), mais aussi par la sociologie du travail et des professions, qui représente un point d’appui important pour un enseignement ayant l’ambition de mener les futurs scientifiques, ingénieurs et chercheurs, vers une forme de réflexivité. Par exemple, la mise au jour de la construction historique des métiers de l’ingénieur permettrait aux étudiants de se situer dans une dynamique de long terme. Le retour sur le mot même d’ingénieur, proposé par Mme Hélène Vérin dans son ouvrage « Autour du mot ingénieur », montre comment la figure moderne de l’ingénieur trouve ses origines dans les guerres de la Renaissance avec le souci de mettre la raison au service de l’amélioration des armes. Si les guerres ont représenté de formidables accélérateurs technologiques, c’est que les États y découvrent l’obligation de faire face à la responsabilité de défendre l’intérêt de leurs peuples, voire les valeurs de l’humanité.

On peut penser que le changement climatique représente aujourd’hui un défi analogue, mais à l’échelle de l’humanité, à l’égard duquel une responsabilité mondiale – donc publique – en matière d’innovation, implique l’engagement de femmes et d’hommes dans la recherche de solutions praticables pour parvenir à une économie décarbonée. Les scénarios envisagés supposent que l’innovation soit cultivée et développée, pour passer des modèles de laboratoire à la constitution de véritables filières industrielles, comme dans des pays tels que la Norvège, la Suède ou le Danemark. Le droit constitue un levier important pour expliciter l’obligation publique de faire face aux catastrophes annoncées, comme le montrent la COP21 ou la loi sur la transition énergétique.

La formation du chercheur et de l’ingénieur, en révélant le caractère crucial de cette réponse aux demandes fortes de la société, est de nature à renforcer une vocation scientifique consciente de ses responsabilités. Prendre comme horizon de son existence le changement climatique peut s’avérer exaltant dans un projet professionnel. La dimension éthique s’intègre à l’activité scientifique et technologique pour devenir une interrogation pratique, dans la conduite de la recherche et la mise au point de solutions innovantes. L’ingénieur et le chercheur sont soumis à cette tension identifiée par James Gardner March, entre l’exploration de la réalité, en vue d’arriver à une compréhension des phénomènes, et l’exploitation des solutions qui se dessinent pour les rendre accessibles à la société.

Pour conclure, il me semble que la formation des chercheurs et des ingénieurs rencontre un des grands enjeux de Paris-Saclay : celui de la construction de filières industrielles nouvelles. Cela interpelle très largement les sciences humaines et sociales qui se retrouvent au sein de la Maison des sciences de l’homme de Paris-Saclay, en répondant au défi que constitue un ancrage fort des SHS dans un univers marqué par les sciences technologiques. Plus généralement, il me semble qu’aux responsabilités environnementales et collectives qui pèsent sur nous, s’ajoute la responsabilité économique et sociale de construire la France de demain, en intégrant également ces régions que la désindustrialisation récente a cruellement touchées, plongeant leurs habitants dans le désarroi. De ce point de vue, les sciences humaines et sociales visent très justement à analyser la formation du jugement des citoyens dans les choix sociaux, mais elles sont sollicitées plus largement pour accompagner la réalisation de filières innovantes, tant par leur capacité à construire une vision prospective que par leur souci de saisir l’activité scientifique et technologique dans une division plus large du travail.

M. Jean-Yves Le Déaut. M. Alexei Grinbaum, chercheur au Laboratoire des recherches sur les sciences de la matière (LARSIM), était déjà des nôtres le 10 décembre 2015 lors de la précédente audition publique de l’OPECST sur les robots et la loi. Il nous avait impressionnés par son anecdote sur le prophète Jérémy et le golem qu’il avait créé et a préféré finalement défaire, sur le conseil du golem lui-même, pour préserver l’humanité.

Interaction entre la physique et la philosophie

M. Alexei Grinbaum, chercheur au Laboratoire des recherches sur les sciences de la matière (LARSIM). Je vais essayer de vous expliquer pourquoi, entre la physique et la philosophie, il existe plus qu’une juxtaposition. Tous les jours, sur le célèbre site d’articles de science arXiv.org, paraissent des articles dans la rubrique : « Sciences et société ». La physique peut nous éclairer sur des questions aussi différentes que le commerce international, l’opinion publique ou, par exemple, l’évaluation des risques de transmission de pathogènes, au travers des données sur la conformité aux normes d’hygiène des mains en milieu hospitalier. Dans tout ce panorama de questions extrêmement diverses, je voudrais insister sur trois points paradigmatiques, importants pour comprendre l’interaction entre la physique et la philosophie.

Pour commencer, en ce qui concerne les sciences humaines en général, la modélisation permet, par les méthodes issues de la physique statistique principalement et de la théorie des champs, de comprendre les mécanismes dominants dans un système complexe, où se trouvent beaucoup de choses, si bien que l’on ne voit pas à l’œil nu ce qu’il y a de vraiment important. Elle permet de faire ressortir des traits saillants qui, encore une fois, ne sont pas visibles à l’œil nu mais émergent avec l’analyse, la modélisation quantitative.

Pour prendre quelques exemples brefs, une étude franco-allemande s’est penchée sur le fait communautaire dans l’Union européenne. Elle a conclu qu’il était lié à la personnalité intérieure, la cuisine, le bricolage ou la beauté, beaucoup plus qu’à des éléments extérieurs, notamment politiques. Un autre modèle nous a permis de constater que si les réseaux électriques, en France et en Italie, offrent à peu près la même résistance aux défaillances aléatoires, en revanche, dans le cas d’une attaque ciblée, le système français est plus vulnérable, moins résilient. Une thèse, présentée voici quelques mois, au Commissariat à l’énergie atomique et aux énergies alternatives (CEA), modélise la ville et le milieu urbain, ce qui permet de prédire les dynamiques de formation des centres d’activité, les mobilités, les ségrégations résidentielles et la formation des quartiers. L’existence de ces traits saillants et de ces mécanismes dominants complexes ne pourrait pas être prédite par des équations analytiques directes.

Pour en venir à la philosophie, il existe un phénomène de diffusion vers celle-ci des concepts développés au sein de la physique, au-delà du champ des sciences que vous avez appelé, Monsieur le Président, « dures ». Le cas le plus connu est celui des mots relativité et quantique. Vers 1920, ces deux mots ont connu des pics de popularité. Ils se sont diffusés comme des métaphores. Cette diffusion présente un intérêt, mais également un danger. Par exemple, la France a suivi, avec quelques années de retard, le monde anglo-saxon dans la diffusion du mot intrication, dont j’ai parlé dans un petit livre. On voit comment les idées, les concepts sortent du champ des sciences dures pour entrer dans la culture.

La corrélation n’implique pas la cause et l’effet, et pourtant on en parle et on en reparle souvent. À titre de plaisanterie, il existe un site qui fait un catalogue amusant de corrélations n’ayant aucun sens. Par exemple, le financement de la science aux États-Unis présente une parfaite corrélation avec le nombre de morts par étranglement. Pourtant, je suppose que nos députés et sénateurs financent la science non pas par peur de l’étranglement mais parce que c’est dans l’intérêt de la nation. Vous voyez ainsi qu’il existe des corrélations très étranges.

Quel sens pouvons-nous donner à ces corrélations ? Ce débat existe en philosophie. Il a été lancé en particulier par Bertrand Russell au début du XXsiècle. C’est un très grand débat philosophique sur la notion de causalité, qui est éclairé par ce même débat sur le lien entre corrélation et causalité en sciences. Vous le connaissez probablement en physique statistique, mais il existe également en physique fondamentale, par exemple en physique quantique.

Pas plus tard qu’avant-hier, Quanta, probablement le meilleur magazine de vulgarisation scientifique au monde, qui n’existe malheureusement pas en français, a publié un article sur la manière dont une causalité peut émerger d’une problématique de corrélation, malgré cette idée reçue que causalité et corrélation n’ont rien à faire entre elles.

Pour conclure, je voudrais évoquer une question fondamentale : à Oxford, à Cambridge, et dans d’autres universités dans le monde, existent des programmes de master qui allient les deux enseignements de physique et de philosophie. Cela donne des résultats très intéressants, et devrait, à mon avis, être développé en France.

M. Jean-Yves Le Déaut. La dernière intervenante de cette table ronde est Mme Suzanne de Cheveigné, directrice émérite de recherche au CNRS, directrice du Centre Norbert Elias, physicienne qui s’est tournée vers les sciences humaines, à travers l’analyse des discours sur la science, et qui va nous proposer sa vision des relations entre les sciences, les techniques, l’environnement et la société. J’ajoute que j’ai déjà eu l’occasion de travailler avec Mme de Cheveigné, voici une vingtaine d’années, à l’époque des premières controverses sur les organismes génétiquement modifiés.

Mme Suzanne de Cheveigné, directrice émérite de recherche au CNRS, directrice du Centre Norbert Elias. Après une longue carrière commencée en physique et continuée dans le domaine de la sociologie, j’ai eu l’occasion de longtemps travailler à cette interface entre sciences dures et sciences humaines et sociales, dont je constate l’évolution depuis quelques temps. Je voudrais parler rapidement de l’étendue des interactions entre ces deux domaines scientifiques, et explorer ensuite quelques exemples pour illustrer mon analyse.

Je lancerai une mise en garde : les sciences dites dures doivent explorer l’ensemble des sciences humaines et sociales, et pas seulement celles qui leurs paraissent les plus proches, c’est-à-dire fréquemment celles mettant en œuvre des méthodes similaires, souvent quantitatives.

Cela me fait penser à l’économie, dans laquelle les sciences dures voient des approches comparables, permettant une interaction plus facile. Il est important d’entendre des sciences qui fonctionnent avec des méthodes différentes, parfois plus qualitatives, comme les sciences historiques ou celles de la culture, dont les objets ne sont pas forcément soumis à des méthodes de quantification et qui ont pourtant énormément de choses à dire aux sciences dures. Absence de méthodes de quantification ne veut pas dire absence d’objectivisation, ni de rigueur. Celle-ci est nécessaire dans les deux cas mais n’est pas forcément synonyme de quantification. Et quantification n’est pas synonyme de rigueur.

Il faut aller au-delà de cette recherche immédiate des nombres pour traiter le qualitatif. Cela n’exclut pas de travailler avec le numérique, car il existe des méthodes numériques pour traiter des données qualitatives, mais ce ne sont pas les premières que l’on rencontre. Il est très important d’aller au-delà de cette facilité d’aller chercher les nombres, qui a pour effet de réduire l’étendue des sciences avec lesquelles on va interagir et appauvrir les données avec lesquelles on va travailler.

Mon premier appel est de penser à aller au plus large, voir des historiens, des anthropologues, des sociologues également, quoi que, pour la sociologie quantitative, on commence à avoir des chiffres, et il y a là une première possibilité de reconnaissance. Mais mon premier point est donc bien de ne pas restreindre la reconnaissance au qualitatif.

Voici deux exemples montrant la manière dont la constitution d’objets évolue et où il peut y avoir des dialogues intéressants.

Un premier est celui du changement climatique. Je note, dans ce domaine, une grande ouverture depuis quelques années des sciences de l’atmosphère et des physiciens aux sciences humaines et sociales, sans doute parce que leur objet, l’atmosphère, objet des physiciens, commence à évoluer en dépendant des pratiques humaines. Cela change la nature et la possibilité d’autonomie des sciences physiques. Il y a donc une nouvelle prise de conscience de la nécessité de travailler ensemble mais il est difficile de savoir comment concrètement s’y prendre. M. Dominique Wolton l’a dit très clairement : il est difficile de communiquer entre sciences.

Un autre exemple montre l’importance de comprendre les interactions : l’énergie. C’est un concept très clair en physique. Une de mes doctorantes, Mme Johanna Lees, a étudié l’ethnographie de l’utilisation de l’énergie dans les milieux pauvres à Marseille. La première chose qui saute aux yeux est que l’énergie n’est pas une catégorie pour les gens dits ordinaires. Ce n’est pas une entité. On ne peut leur poser la question : « comment développez-vous vos pratiques de l’énergie ? ». Premièrement, l’énergie, c’est comme l’eau : la facture arrive découplée de la pratique, après l’utilisation des appareils, et elle est incontrôlable car on a beaucoup de mal à savoir quel sera le montant à payer. On évite donc d’utiliser l’électricité et l’on favorise le poêle à pétrole parce que l’on connaît ce qu’on est en train de dépenser. D’un certain côté, l’énergie est donc semblable à l’eau. Pourtant, d’un autre côté, elle est en bien des points différente. L’énergie, c’est la cuisine, domaine hautement culturel, le confort, dont les normes ont évolué, ou encore le déplacement. Donc, l’entité énergie n’a pas de sens en tant que telle pour le public. Si l’on veut travailler dans ce domaine, il faut comprendre ces complexités, suivre ces classifications et ces cheminements différents, avec des possibilités d’interaction.

Pour conclure, je suis très optimiste car je constate une ouverture d’esprit beaucoup plus grande, et votre audition l’illustre. Mais il est indispensable que l’interaction entre sciences dures et sciences humaines et sociales conduise à la fois à considérer l’ensemble de ce que ces dernières peuvent apporter, en acceptant leurs méthodes et en s’y adaptant, et à profiter de la richesse de leurs apports, qui sont une ouverture sur la difficulté à comprendre, dans l’intérêt de la société.

M. Jean-Yves Le Déaut. Nous avons la chance d’avoir parmi nous Mme Marie-Francoise Chevallier-Le Guyader, directrice de l’Institut des hautes études pour la science et la technologie (IHEST), avec laquelle nous avons beaucoup travaillé lors de la création de celui-ci. À côté de l’Institut des hautes études de défense nationale (IHEDN), peut-être plus connu, l’IHEST joue un rôle important dans la formation de différents responsables au sein de la société. Madame, comment voyez-vous cette question ?

Mme Marie-Françoise Chevallier-Le Guyader, directrice de l’Institut des hautes études pour la science et la technologie (IHEST). Je voudrais insister sur trois idées, sous l’angle de la pédagogie entre ces milieux, social et scientifique.

Nous avons vécu chez nos concitoyens, depuis la création de l’institut voici bientôt dix ans, des transformations des perceptions et de l’évaluation des choix scientifiques et technologiques. Nous sommes passés, dans les années 2000, d’évaluations fondées sur les bénéfices et les risques – donc sur le comment, à des évaluations fondées sur les valeurs éthiques, – donc sur le pourquoi. Dans ce passage de la controverse scientifique à un débat de valeurs, les sciences humaines et sociales sont de plus en plus convoquées, et aident les autres scientifiques. Nous avons vu dans des sondages – je m’excuse, M. Dominique Wolton – apparaître une contestation des institutions et des discours d’autorité qui n’épargne pas les sciences. Il faut la prendre en compte pour se mettre dans des situations qui répondent mieux aux attentes de nos concitoyens.

L’institut a donc été créé pour rassembler des dirigeants et les faire réfléchir à ces enjeux ; il s’agit de personnalités du monde de la science, du journalisme, de la politique, du syndicalisme et de l’art. Si les formations des auditeurs sont très différentes, une grande partie vient des sciences humaines et sociales.

Il est très classique – et nous avons eu une session autour du changement climatique en décembre – que certains ingénieurs ou scientifiques remettent en cause les sciences humaines et sociales, en considérant qu’elles ne sont pas des sciences. J’ai rencontré le cas en psychologie sociale récemment. Dans ces situations, que faire pour apprendre à avoir des visions beaucoup plus systémiques, sortir de l’organisation en silos de notre société et pouvoir réfléchir en collaboration sur ces enjeux ?

Je reviens à des travaux d’Heinrich Rickert, à la fin du XIXe siècle, sur les sciences de la nature et de la culture. Il est très intéressant de faire réfléchir des personnes sur des sciences généralisantes, utilisant des lois, celles de la nature, mettant en œuvre une règle s’adressant au singulier, et des sciences individualisantes, historiques, celles de la culture, qui permettent de comprendre la diversité historique, et intègrent ces singuliers dans des dispositifs hiérarchisés, leur donne du sens. On constate que beaucoup de disciplines sont entre ces deux dimensions, sciences de la nature et sciences de la culture, et évoluent en fonction aussi de leurs objets de recherche, en économie, sociologie, etc.

Cela incite à évoquer un dialogue interdisciplinaire concernant ces démarches qui donnent sens à l’interdisciplinarité. C’est vrai, ce dialogue est difficile. Mais quand nos dirigeants comprennent mieux ces dimensions, ils sont beaucoup plus à même de travailler avec ces différentes disciplines.

Enfin, cette réflexivité dans nos débats, nous fait en permanence nous emparer d’objets scientifiques et techniques. Nous avons travaillé depuis dix ans aussi bien sur les bâtiments à énergie positive, les drones, les véhicules autonomes, l’obésité, la neutralité de l’Internet ou la quantification du soi. Aujourd’hui, nous travaillons sur les masques immersifs. Tous ces sujets amènent à faire venir dans l’enceinte de l’institut des scientifiques en sciences de la nature et de la culture. Le questionnement qu’amènent nos auditeurs aux intervenants est extrêmement enrichissant, légitime l’action des uns et des autres, et enrichit leurs démarches respectives. Ainsi, lors de notre université d’été sur le réchauffement climatique le croisement des interventions de scientifiques en sciences humaines et sociales, des sciences exactes et de représentants de la société civile, a été une source d’enrichissement de la démarche des uns et des autres.

Voilà quelques leçons de pédagogie sur ces transformations que vous appelez de vos vœux.

M. Jean-Yves Le Déaut. Avec le président Alain Fuchs, nous avons estimé qu’il serait préférable de débattre à l’issue de la deuxième table ronde. Cependant je vais répondre tout de suite à l’interpellation de M. Dominique Wolton sur la fracture numérique. Une fracture, c’est la manifestation d’une inégalité. Or, la République, c’est l’égalité. La loi pour la République numérique vise donc à ouvrir, de manière égale pour tous, l’accès à un instrument qui devient de plus en plus utile dans la société.

M. Dominique Wolton. Ce qui m’intéresse, c’est la juxtaposition de deux mots de natures différentes.

M. Jean-Yves Le Déaut. Comme homme-sandwich, fou du roi, chevalier servant ! Mais nous reviendrons sur ce débat tout à l’heure.

DEUXIÈME TABLE RONDE :
LES SYNERGIES ENTRE LES SCIENCES HUMAINES
ET LES TECHNOLOGIES NUMÉRIQUES

M. Jean-Yves Le Déaut, député, président de l’OPECST. Nous passons à un sujet majeur, celui des interactions et des synergies entre les sciences humaines et les technologies numériques. Il a déjà été abordé avec le Big Data, les robots et les interfaces hommes-machines. Mme Danièle Bourcier, responsable d’un groupe de recherche à Panthéon Assas Paris II, devait nous faire un exposé sur l’apport des techniques de l’intelligence artificielle à l’analyse du droit, mais elle a eu un empêchement de dernière minute. Elle ne pourra, par conséquent, participer à cette table ronde.

Je donne la parole à M. Gianluca Manzo qui va nous expliquer ce que sont les sciences sociales computationnelles.

Les sciences sociales computationnelles

M. Gianluca Manzo, chargé de recherche au CNRS au sein du groupe d’études des méthodes de l’analyse sociologique de la Sorbonne (GEMASS), vice-président de l’International Association of Analytical Sociology (INAS). En sept minutes, je voudrais vous présenter un cas saillant et problématique de synergie entre sciences technologiques et sciences sociales, à savoir ce qu’il est désormais convenu d’appeler la « science computationnelle » – merci de tolérer l’anglicisme. Je commencerai par définir cette perspective ; je donnerai ensuite quelques exemples ; je conclurai en signalant un défi.

En un mot, la science computationnelle est l’étude des phénomènes sociaux à travers des données ou des méthodes liées à la technologie électronique, à l’infrastructure de l’Internet et à l’informatique. Plus précisément, on peut considérer quatre éléments distinctifs.

Tout d’abord une orientation théorique spécifique découle de ce que la science sociale computationnelle conçoit les phénomènes sociaux comme le résultat macroscopique du comportement d’une grande quantité d’entités en interaction perpétuelle à des échelles variées, d’où une attention particulière aux processus de diffusion et de contagion soutenus par les comportements mimétiques des acteurs.

En deuxième lieu, la science sociale computationnelle s’appuie souvent, mais pas exclusivement, sur des données nouvelles. Il s’agit de données collectées grâce à des innovations électroniques, telles que les micro-puces installées sur nos téléphones portables, sur nos cartes bancaires ou sur nos cartes de transports en commun, couplées, dans certains cas, avec des systèmes de géolocalisation exploitant le réseau satellitaire. Il s’agit aussi de données issues de l’Internet telles que les courriels, les tweets, les billets postés sur des blogs, les profils Facebook ou encore les sites de rencontre, d’hébergement, de notation ou d’achat en ligne, ainsi que de grandes banques de textes et de références bibliographiques. Il s’agit, enfin, de données issues de capteurs divers, tels que les caméra-vidéo ou les dispositifs enregistrant la proximité entre les individus.

En troisième lieu, la science sociale computationnelle s’appuie sur une combinaison de méthodes issues des mathématiques, de la physique et de l’informatique. Certaines de ces méthodes, comme la théorie des graphes et l’analyse des réseaux sociaux, sont utilisées depuis longtemps dans les sciences sociales. D’autres, comme la modélisation mathématique basée sur des systèmes d’évaluations différentielles sont plus rares mais ne leurs sont pas complètement étrangères. D’autres encore, comme les techniques d’extraction automatisée de l’information à visée prédictive, ainsi que la simulation informatique à base d’agents artificiels à visée explicative, sont en revanche encore peu connues, voire ignorées par les chercheurs en sciences sociales.

C’est d’ailleurs sur ce terrain méthodologique que le quatrième et dernier élément caractérisant la science sociale computationnelle, c’est-à-dire la pluridisciplinarité, est le plus visible.

Qu’étudie donc la science computationnelle ? Voici quelques exemples. On a montré comment des phénomènes de contagion sociale sont responsables de la distribution spatiale du diagnostic de pathologies telles que l’autisme, tout comme de la diffusion des virus à l’échelle planétaire. On a montré que des individus qui ne se connaissent pas et qui vivent aux quatre coins du globe peuvent entrer en contact en utilisant quelques intermédiaires bien choisis. On a étudié les émotions que nous manifestons dans les messages que nous échangeons à longueur de journée et on a découvert une tendance à être beaucoup plus agréable le matin que le soir. On a étudié les discussions en face-à-face lors de rencontres scientifiques et observé que, si nous acceptons de discuter avec tous les participants indépendamment de leur statut académique, nous discutons cependant moins longuement avec les collègues ayant un statut académique différent du nôtre. On a étudié la probabilité des appels téléphoniques en fonction de la distance géographique qui sépare les deux interlocuteurs potentiels, et on a découvert que cette relation suit la même loi que la gravité. On a pu inférer des échanges sur Twitter le nombre d’individus dont les acteurs ont besoin avant de s’engager dans un mouvement protestataire. On a montré que la diversité culturelle peut exister même en présence d’interactions sociales qui poussent les acteurs à rapprocher leurs croyances et leurs valeurs. On a mieux compris le rôle que l’imitation entre deux traders ainsi que la structure des réseaux entre les entreprises jouent dans l’apparition de cascades informationnelles pouvant conduire à des crises systémiques sur les marchés financiers. On a étudié la manière dont se structurent les réseaux terroristes, pour simuler leurs comportements et identifier les nœuds du réseau qu’il faudrait frapper pour mieux contrer leur consolidation. On a étudié et simulé l’impact qu’un certain type d’interactions sociales a sur l’apparition de certaines formes d’inégalités sociales, comme les inégalités face aux choix scolaires.

Quels sont les défis posés par ce type de recherche ? Des problèmes théoriques, méthodologiques, techniques et même éthiques existent et font débat parmi les chercheurs. Pour ma part, je voudrais insister sur un problème institutionnel particulièrement important. Afin que la science sociale computationnelle puisse se développer, les disciplines concernées doivent pouvoir entretenir un dialogue véritable. Or, force est de constater que, pour l’heure, la science sociale computationnelle est le fait de mathématiciens, d’informaticiens et de physiciens, bien d’avantage que de sociologues et d’économistes. Un auteur important dans ce domaine de recherche, le physicien de formation mais sociologue d’adoption Duncan Watts, l’a exprimé en disant qu’il faudrait faire un effort pour introduire le « social » dans les sciences sociales computationnelles. En France, plus qu’ailleurs, il y a une barrière importante à cette avancée. Une partie considérable des chercheurs en sciences sociales est sous-alphabétisée en mathématiques, en statistique et en informatique. Des mouvements intellectuels puissants ont même théorisé l’impossibilité de modéliser les phénomènes sociaux. Dans ces conditions, le dialogue avec ceux qui possèdent les méthodes et, en bonne partie, les données pour pratiquer la science sociale computationnelle, est donc sapé à la base.

Pour remédier à cette situation, la puissance publique peut, à mon sens, agir dans deux directions au moins. D’une part, il faudrait investir massivement dans les formations en mathématiques, statistiques et informatique des futurs chercheurs en science sociales. D’autre part, il faudrait créer des instituts de recherche dédiés aux sciences sociales computationnelles pour permettre aux chercheurs issus des sciences technologiques et des sciences sociales d’interagir de manière stable et sur des longues périodes. Depuis une dizaine d’années, des pays voisins comme le Royaume-Uni ou l’Allemagne, pour ne pas mentionner les États Unis, se sont résolument engagés dans cette double voie. Nous pourrions prendre appui sur ces expériences pour rendre possible, en France aussi, l’essor d’une science sociale computationnelle performante et compétitive au niveau international.

M. Jean-Yves Le Déaut. M. Marc Renneville, vous êtes à l’origine de la très grande infrastructure de recherche des humanités numériques Huma-Num et vous nous parlerez du projet « Criminocorpus », portail scientifique pour l’histoire de la justice, des crimes et des peines.

Les enjeux d’une gestion mutualisée des données numériques en sciences humaines

M. Marc Renneville, directeur de recherche au CNRS, directeur du Centre pour les humanités numérique et l’histoire de la justice (CLAMOR). J’ai décliné la proposition qui m’avait été faite de parler du Big Data et je suis content qu’un collègue se soit engagé à le faire car c’est une notion pour moi problématique en tant qu’historien. En effet, je pense que, en sciences humaines et sociales, elle est moins liée aux grands volumes des informations à traiter qu’à la détermination du seuil qui contraint le chercheur à modifier son mode d’analyse. Il s’agit donc plus, pour moi, d’une question d’échelle. Le Big Data commence avec tout corpus qui nécessite la réalisation d’une base de données relationnelle, pour en faire l’analyse. En tant qu’historien je peux facilement, c’est dans mon domaine, analyser un rapport d’expertise médico-légal, dix ou cent rapports, mais si je dépasse plusieurs milliers d’expertises je vais être obligé de modifier mon mode de lecture. Ce sera pour moi du Big Data, tout en sachant que, pour des spécialistes de l’information, six-mille rapports d’expertise médico-légale, ce n’est pas forcément un très grand chiffre. Je maintiens donc que, pour un chercheur en histoire, le seuil du Big Data est en fait très bas.

Pour cette raison j’ai préféré parler de quelque chose de moins connu mais de fondamental pour nous : la question de la gestion des données de la recherche. À mon avis, les chercheurs en sciences humaines et sociales doivent en prendre conscience, certaines institutions pouvant y aider. Jusqu’à une époque récente, cette question pouvait sembler relativement déconnectée de l’activité principale des chercheurs. Le chercheur en sciences humaines et sociales dépendait, comme aujourd’hui, des données accessibles, car elles ne le sont pas toujours et il lui fallait parfois, hier comme aujourd’hui, faire preuve d’ingéniosité et d’inventivité pour recueillir des données et surtout, dans mon domaine si j’ose dire, les faire parler par des problématisations ou des outils originaux. Il y avait, en amont, les sources conservées par les archives et les bibliothèques et, en aval, la publication des résultats de la recherche au format papier, sous forme d’édition critique de sources, d’articles ou de livres.

Mais, depuis le XXe siècle, de plus en plus de chercheurs sont également producteurs de données, sur des supports de haute technologie mais de faible pérennité. Je pense aux photographies, aux films, aux enregistrements sonores, bandes magnétiques, disquettes ou disques durs, autant de supports qui posent la question de la conservation et de la transmission des contenus. Le tournant numérique en sciences humaines et sociales a accéléré encore ce mouvement et induit la nécessité d’une politique de gestion de nos données, de leur traitement, de leur interopérabilité avec d’autres données, et enfin de leur conservation à long terme.

La fragilité des données numériques est, en effet, très préoccupante. Elle tient à deux facteurs : la fragilité des supports et l’évolution des formats de lecture. Pour le premier, le raccourcissement de la durée de vie des mémoires dans le temps constitue un paradoxe et un défi technologique : une inscription sur la pierre dure en moyenne dix-mille ans et un parchemin mille ans. Je me souviendrais toujours de ma visite des archives du Parlement de Paris à l’occasion de laquelle la conservatrice en chef a déposé sur le sol un très beau manuscrit du Haut moyen-âge, en précisant qu’elle n’était pas inquiète, car il durerait beaucoup plus longtemps que mon site Criminocorpus. Elle avait bien raison. Une pellicule se conserve une centaine d’année et un disque vinyle cinquante ans. Pour les supports informatiques, nous ne savons pas encore. Dans les années 1980, souvenez-vous, on croyait que la solution avait été trouvée avec le cédérom, support réputé inusable. Mais on connaît très bien, depuis, sa fragilité, sa fiabilité devenant incertaine au-delà d’une vingtaine d’années. Les disques durs, même très chers, ne sont garantis que cinq ans. La mémoire flash ne dépasse guère une dizaine d’années, si on ne la sollicite pas au-delà de cent-mille réécritures.

Le deuxième facteur de fragilisation réside dans l’évolution des formats. En vidéo, il reste très peu de lecteurs betacam, qui constituaient pourtant la norme voici quelques années. On connaît aussi tous la disparition des lecteurs de disquettes en informatique. En matière de numérique, la lecture des informations évolue avec les logiciels permettant l’interprétation des codes. Nous avons tous fait un jour l’expérience de l’impossibilité de relire un fichier vieux de quelques années. S’ajoute le problème de l’encapsulage des données dans des logiciels propriétaires, qui pose la question du libre accès à ces données, de leur interconnexion possible à d’autres corpus et de leur disponibilité future.

Toutes ces questions sans réponses simples et définitives constituent des défis scientifiques et technologiques. Mais on peut en tirer un constat, qui doit guider une politique rationnelle de gestion des données de la recherche. L’enjeu porte sur notre capacité à préserver l’accumulation des savoirs et à la transmettre, sans retourner évidemment à la gravure sur pierre. Cette transmission passe par une politique de conservation, coûteuse en temps. C’est probablement nouveau pour les sciences humaines et sociales. Effectivement, nous pouvons coûter de l’argent, beaucoup même si l’on s’intéresse à cette politique de données qui suppose une veille technologique coordonnée, du matériel et des centres de données sécurisés.

Cette politique de gestion des données de la recherche ne peut être mise en œuvre au niveau du chercheur. L’époque où l’on gérait ses petits carnets de recherche dans son coin, comme on a pu le croire au début du numérique, voici encore une dizaine ou une vingtaine d’années, est révolue. C’est très difficile à comprendre pour beaucoup de collègues, même au niveau des laboratoires. Il y a nécessité d’une stratégie coordonnée à l’échelle nationale et internationale, mais aussi d’une prise de conscience des chercheurs et d’infrastructures, notamment numériques.

La très grande infrastructure de recherche (TGIR) Huma-Num, créée en mars 2013, résulte de la fusion du très grand équipement (TGE) ADONIS (Accès unifié aux données et documents numériques des sciences humaines et sociales) et des consortiums Corpus-IR (Coopération des opérateurs de recherche pour un usage des sources numériques en SHS). Elle a construit et continue de construire des services pour le stockage, le traitement, l’exposition, le signalement, la diffusion et l’archivage des données à disposition de la recherche. Ces infrastructures sont récentes mais elles sont indispensables. Elles restent fragiles. Il faut assurer leur stabilité à long terme pour conduire une politique nationale coordonnée.

En conclusion, je voudrais souligner combien le développement de ce type de structures, qui permet une gestion mutualisée des données, peut avoir un effet bénéfique sur l’évolution de nos savoirs et le décloisonnement des disciplines. En effet, elles permettent de développer en parallèle de nouvelles méthodes de travail et de nous concentrer sur l’élaboration de nouveaux outils de publication, de visualisation et de diffusion de l’information scientifique. Nous sommes plusieurs ici à animer, depuis de nombreuses années, des plateformes de publication originales et évolutives. Elles ont permis de constituer des communautés d’intérêt scientifique qui expérimentent les voies de convergence des sciences humaines et sociales avec les sciences technologiques. Le formidable site fabula.org en est un exemple.

Dans le domaine de l’histoire de la justice, le site criminocorpus.org contient des bases de données relationnelles, des chronologies juridiques, un blog d’actualité, une revue, une bibliothèque numérique, mais aussi des réalisations plus spécifiques et plus expérimentales, comme des visites de lieux de justice qui combinent des plans de situation et des vidéos. On y trouve également des outils de consultation qui permettent de comparer des corpus de loi, par exemple le code civil pendant deux siècles, ou l’ordonnance de février 1945 sur la justice des mineurs. Ces outils de visualisation sont intéressants car ils permettent éventuellement d’ouvrir à des contributions citoyennes et d’ouvrir également les sciences humaines et sociales sur la société.

M. Jean-Yves Le Déaut. Je donne maintenant la parole à M. Alexandre Gefen, chargé de recherche au CNRS, qui se propose d’évoquer quelques exemples remarquables parmi « les humanités numériques ».

Les humanités numériques, quelques exemples remarquables

M. Alexandre Gefen, chargé de recherche au CNRS, chercheur à l’Observatoire de la vie littéraire (OBVIL). Je n’aborderai pas les problématiques liées à la diffusion de la science, ni au travail collectif que l’on peut mener avec des amateurs, ni aux modifications de l’expertise liée à cette diffusion massive de la science, mais j’évoquerai très concrètement, presque physiquement et spatialement, ce qu’est ce domaine des humanités numériques, ce que sont ces nouveaux laboratoires et ces nouvelles méthodes de travail.

Je travaille dans un laboratoire qui associe le CNRS à deux universités qui fusionnent, où l’on voit la confrontation entre les sciences humaines et les sciences technologiques, puisqu’il s’agit des universités Paris-Sorbonne et Pierre-et-Marie-Curie, profondément marquée par une tradition informatique. Dans ce laboratoire, on peut côtoyer une chercheuse traduisant l’Odyssée et programmant en langage Java, des ingénieurs de recherche spécialistes de l’analyse des données qui deviennent experts des corpus de poésie contemporaine, et moi-même qui, avec une formation littéraire traditionnelle, passe la moitié de mon temps à faire de l’analyse statistique et à chercher à comprendre des modèles, en différenciant les effets de corrélation et de causalité. Ces nouveaux laboratoires sont donc des espaces très étranges où se rencontrent des gens n’ayant jamais eu l’habitude de travailler ensemble. On tente d’y mettre en place des formations donnant, par exemple, aux littéraires les moyens d’apprendre à numériser des textes.

Mais par-delà cette dimension très inventive et innovante, ce sont des problématiques fondamentales, liées au tournant quantitatif des données culturelles, qui sont en train d’émerger. Celles-ci sont massivement accessibles grâce aux grandes entreprises patrimoniales de la Bibliothèque nationale et aux grands corpus d’écriture collaborative et collective que sont les réseaux sociaux et les blogs. La culture est transformée en données, accessibles facilement aux traitements algorithmiques, sur lesquelles on peut jeter des regards nouveaux. En effet, nous ne travaillons plus avec les quelques milliers de livres qu’un érudit avait pu connaître, ni avec d’énormes catalogues qu’il faut des heures et des heures pour inventorier. Nous travaillons avec des millions de livres.

Que fait-on avec des millions de livres qu’on ne peut pas lire directement et que nous apporte de travailler avec ces quantités de données ? Il se produit un véritable saut pratique et épistémologique. Nous sommes aujourd’hui dans la salle Lamartine. Si l’on peut voir comment la réputation de Lamartine, liée tantôt à son rôle politique, à son rôle d’écrivain et à son rôle assez court en littérature, a évolué au XIXe siècle, si l’on peut la corréler avec l’apport et l’importance de la littérature anglaise qui l’a souvent accompagnée, en utilisant des cartes, des graphes, des animations et des outils statistiques, le regard porté sur cette personnalité change. On peut non seulement vérifier des hypothèses intuitives sur le rapport entre Lamartine et, par exemple, l’écrivain anglais Samuel Coleridge, mais aussi, éventuellement, découvrir des associations nouvelles, des faits nouveaux, atypiques ou surprenants.

Autrement dit, on dispose d’outils de vérifications d’hypothèses en sciences humaines et sociales, sur l’histoire de la culture inaccessibles jusqu’à présent. On peut modéliser une hypothèse sur le rapport entre les auteurs du canon biblique et des auteurs plus mineurs, et essayer de la vérifier. Mais on peut aussi s’ouvrir à des faits nouveaux, liés à la capacité des ordinateurs à proposer leurs propres classifications. Par exemple, je travaille beaucoup avec l’université de Stanford, où les chercheurs développent le formalisme quantitatif, une méthode d’analyse qui compare, dans des centaines de discours rhétoriques, les formulations pour déterminer les formes et les mots permettant d’identifier le début ou la conclusion d’un discours. Les algorithmes nous permettent d’aller assez loin dans ce qui ne va pas seulement être la vérification mais aussi la découverte empirique de nouveaux faits ou, en tout cas, de nouvelles régularités.

Un dernier aspect des humanités numériques porte sur cette autre quantité considérable de textes, constituée par toutes les expressions culturelles maintenant disponibles sur Internet. Beaucoup de gens écrivent sur les réseaux sociaux, ou ont la visée d’écrire. Ce sont des milliers de poètes qui s’improvisent, des millions de photographes qui essayent d’avoir un regard sur le monde, des centaines et des centaines de forums de lecteurs et de blogueurs. On peut travailler sur les interactions, les échanges, pour essayer de trouver des modèles permettant de comprendre comment un évènement culturel se diffuse. Par exemple, il est possible d’étudier comment la mort de l’écrivain Michel Tournier a été annoncée sur Twitter et par quels réseaux. La nouvelle est-elle passée par la France, et quelle a été l’importance des États-Unis dans cette diffusion ? Cela permet de comprendre des faits tout à fait nouveaux sur la sociologie, l’évolution des valeurs littéraires et culturelles. N’oublions pas que l’industrie du livre est l’une des premières en France, que l’industrie de la culture est déterminante. Travailler tant sur la longue durée des faits culturels que sur des phénomènes relevant des sensibilités culturelles et comportements contemporains, me semble un double gain fondamental. Il ne se fait que dans ces laboratoires ou ces espaces, difficilement classables comme le disait M. Serge Abiteboul, entre science et non-science : celui des humanités numériques.

M. Jean-Yves Le Déaut. M. Mokrane Bouzeghoub est professeur à l’université de Versailles-Saint-Quentin-en-Yvelines (UVSQ) et directeur adjoint scientifique de l’Institut des sciences de l’information et de leurs interactions (INS2i) du CNRS. Monsieur, vous avez préparé récemment un rapport pour l’Alliance ALLISTENE sur « L’apport des sciences du numérique dans les sciences participatives », dont je compte bien que vous nous direz quelques mots, peut-être en revenant sur ce sujet pendant le débat. Pour l’heure, nous sollicitons plutôt vos compétences dans les bases de données. Vous allez traiter du Big Data en sciences humaines et sociales, Big Data traduit à l’OPECST, avec l’aval de l’INRIA, par : « traitements massifs de données », ce qui nous semble plus correct en français que l’expression « données massives » parfois utilisée.

Les traitements massifs de données (Big Data) en sciences humaines et sociales

M. Mokrane Bouzeghoub, professeur à l’université de Versailles-Saint-Quentin-en-Yvelines (UVSQ), directeur adjoint scientifique de l’Institut des sciences de l’information et de leurs interactions (INS2I) du CNRS. Je vais développer quelques points assez généraux, avec un regard d’informaticien qui a côtoyé un peu les collègues du domaine des sciences humaines et sociales dans le cadre de la mission d’interdisciplinarité du CNRS.

Le premier point porte sur la notion de Big Data et sa définition, car les collègues des sciences humaines et sociales se demandent si ce qu’ils font en fait vraiment partie. J’ai entendu plusieurs définitions intéressantes du Big Data. La première, c’est la frontière au-delà de laquelle les outils dont je dispose ne permettent pas le traitement effectif de mes données, soit en raison de leur volume, soit en raison de méthodes inadaptées. C’est-à-dire que je ne dispose pas encore d’outils permettant de comprendre ces données. Autre définition : il s’agit d’une nouvelle mise en œuvre de traitement et d’analyse de données, susceptible de créer une rupture dans ma façon de pratiquer le métier d’analyste ou de chercheur. Cette définition manifeste une attente vis à vis des informaticiens : nos collègues des sciences humaines et sociales nous demandent des méthodes qui leur permettent d’évoluer, d’avoir un impact épistémologique sur leur métier. Ce n’est donc pas toujours la volumétrie ou la vélocité des données qui est mise en avant mais souvent la question de la complexité des données, leur hétérogénéité, leur caractère incertain, incomplet, leur représentativité du monde réel ou leur interprétabilité.

Un deuxième point concerne l’émergence inopinée de nouvelles données. Il s’agit des données du Web ou des réseaux sociaux. Elles ne résultent d’aucune production scientifique ni enquête, ne correspondent à aucune observation, et pourtant elles sont là. Elles sont le fruit de nos traces sur Internet et offrent, par leur volume et leur dynamique, un champ d’investigation en SHS tout à fait inédit. De nombreux travaux sont lancés sur l’étude de ces données, comme l’émergence d’opinions, l’identification de leaders ou la détection de signaux faibles. En général, tous ces travaux sont fondés sur la fouille de données et l’apprentissage. Mais l’exploitation de ces masses de données inattendues ne sert pas seulement à l’analyse des groupes sociaux, elle contribue aussi à améliorer les algorithmes informatiques d’apprentissage ou de recherche d’information.

Le troisième point porte sur le caractère multi-échelle et multi-source de l’analyse. J’ai compris que, très souvent, la recherche en sciences humaines et sociales se focalise sur des objets d’étude isolés, mais avec une tradition d’analyse et d’interprétation très fine sur différentes dimensions, comme la géographie, la temporalité, le caractère social, linguistique ou culturel. Dans ce contexte, l’enjeu est souvent l’agrégation à grande échelle des résultats de ces études, en tenant compte des valeurs imparfaites, incomplètes ou approximatives de ces dimensions. L’interopérabilité entre plusieurs sources d’information, la formalisation du processus d’agrégation, et la visualisation de phénomènes saillants permettent une analyse et une compréhension plus globale. Plusieurs exemples existent en histoire, en archéologie, en littérature, où le rapprochement de corpus permet l’émergence de nouvelles connaissances ou de nouvelles hypothèses.

Le quatrième point est la capacité de mobilisation des « foules », groupes d’un grand nombre de personnes œuvrant de manière collaborative, ce qu’on appelle le « crowdsourcing » en anglais, pour l’acquisition de données, l’annotation de documents, de manuscrits, la documentation de bases de données et la reconnaissance ou l’identification de personnages dans des photos ou des tableaux. Le « crowdsourcing » permet la constitution de corpus très riches, souvent déterminants dans l’analyse ou l’interprétation d’objets ou de scènes. La constitution d’une grosse base de données de captchas, ces caractères un peu déformés que les applications Internet nous demandent de reconnaître, a été utilisée pour envisager des algorithmes nouveaux, destinés à la reconnaissance de caractères, très efficaces et performants aujourd’hui.

Le cinquième point vise la transition un peu risquée de l’analyse qualitative à une analyse quantitative. Ce point ayant été parfaitement identifié par une intervenante précédente, je ne le développerai pas.

Voici les points que j’ai relevés, en tant qu’observateur éloigné des disciplines des sciences humaines et sociales mais toujours intéressé par le dialogue et l’interaction avec la communauté concernée.

M. Jean-Yves Le Déaut. M. Mohamed Chetouani, professeur à l’université Pierre-et-Marie-Curie (UPMC), chercheur à l’Institut des systèmes intelligents et de la robotique (ISIR), va évoquer les synergies entre les sciences humaines et la robotique, en montrant que les influences jouent bien dans les deux sens.

Les synergies entre les sciences humaines et la robotique

M. Mohamed Chetouani, professeur à l’université Pierre et Marie Curie (UPMC), chercheur à l’Institut des systèmes intelligents et de la robotique (ISIR). Je travaille dans un laboratoire essentiellement consacré à la robotique, notamment aux interactions entre humains et robots, pour lesquelles les synergies entre sciences humaines et robotique sont très importantes. Il s’agit d’une situation assez classique : un humain et un robot se font face. Cela pose nécessairement des questions de synergies nécessitant l’intervention de spécialistes de la robotique, mais aussi de spécialistes de l’humain.

Je vais donner des exemples très simples de ce que l’on fait en robotique. La robotique est très intégrative. De ce fait, elle mobilise de nombreuses techniques, par exemple la reconnaissance d’objets et la synthèse de comportements. Or, il faut non seulement des capteurs, mais également des actionneurs pour générer des comportements. Aussi, faut-il résoudre des questions de planification, de partage de décisions et de de tâches pour savoir ce que fait le robot et ce que fait l’humain. Le robot planifie et prend des décisions, en tenant compte de ses propres activités en tant que robot, mais également de celles de l’humain. Il faut également faire le rapport entre percevoir et comprendre, ce que fait l’humain : par exemple reconnaître un geste est fondamental. Cela vaut aussi pour la reconnaissance de la parole, le traitement du langage.

Des domaines, comme l’informatique affective, commencent à devenir très importants. Qu’est-ce qu’une émotion pour un robot ? Cela nécessite des modèles. Ainsi, des expressions faciales peuvent se décrire très simplement par des mouvements du visage mais doivent faire l’objet d’une interprétation. Le traitement du signal social est ici l’équivalent des sciences computationnelles sociales mais appliquées à des échelles plus petites, c’est-à-dire essentiellement de petits groupes, des dyades : un humain et un robot, ou plusieurs humains et plusieurs robots. Cela concerne des interactions très courtes, que l’on va chercher à transcrire en modèles informatiques et mathématiques, pour obtenir des signaux et être capable de les comprendre, mais également de les synthétiser, c’est-à-dire de déterminer comment un robot arrive à prendre sa place dans cette interaction. On parle donc de phénomènes où l’on est obligatoirement à deux, par exemple porter un intérêt commun à des objets ou être en conflit : que ce passe-t-il s’il y a un conflit de décision ?

Certaines questions sont plus subtiles, comme celles de la personnalité et de son éventuelle prise en compte. Un robot doit-il disposer d’informations sur la personnalité de son interlocuteur : introverti ou extraverti, éventuellement avec des a priori très négatifs sur la robotique ? De nombreuses expériences ont été réalisées en tenant compte de ces informations qui changent fondamentalement les interactions.

Le robot et l’humain ont un vocabulaire commun du point de vue de la psychologie. Cela concerne, par exemple, l’expression faciale, la prosodie ou la posture. J’insiste beaucoup sur la notion de robotique sociale. À quoi cela sert-il ? On pourrait se dire que les interactions avec les systèmes robotiques sont de natures très différentes et, dans certains cas, peuvent même être très impersonnelles. Ainsi, la réservation d’un billet de train n’implique-t-elle pas, de prime abord, que le robot ait un comportement social, bien qu’un tel comportement soit tout à fait possible. Vous avez sans doute déjà fait l’expérience d’interroger le moteur Google et avez constaté qu’il est capable de recueillir sur vous des informations très personnelles, voire interpersonnelles, même dans le cas d’une simple réservation.

Les synergies entre sciences humaines et robotique se manifestent d’abord à travers des modèles qui essayent de rendre compte de signaux, d’intentions, de personnalités, voire de cultures. La question de la possibilité de construire des robots à comportement introverti ou extraverti, comme celle de savoir s’il faut essayer d’aller dans cette direction ou pas, reste posée.

Les synergies concernent également certains aspects méthodologiques touchant à la manière d’utiliser les données ou de conduire les expérimentations. De ce point de vue, la robotique a tout intérêt à s’appuyer sur un véritable savoir-faire en sciences humaines et en psychologie expérimentale, car l’objectif serait de modéliser les interactions avec un groupe d’une dizaine de personnes, et même au-delà, en tenant compte des signes d’acceptabilité et d’expressivité ainsi que de la lisibilité des comportements.

Inversement, le robot peut être utilisé comme un outil d’investigation en sciences humaines. Une utilisation de la robotique pour des investigations dans le domaine de l’autisme, ou dans d’autres domaines mettant en jeu des interactions sociales, comme la psychologie et l’éducation, est envisageable.

Enfin, les synergies entre sciences sociales et robotique sont essentielles dans la recherche de l’amélioration des interactions homme-machine, comme dans le cas du robot qui doit collaborer avec un ouvrier pour enrichir ses tâches.

Pour conclure, des obstacles demeurent pour faire jouer à plein ces synergies, au niveau de l’intégration dans les modèles, de la mise au point des approches, selon les communautés et les temporalités concernées. Aussi un renforcement de la formation des acteurs actuels et futurs du domaine est-elle indispensable pour se donner une chance de les surmonter.

M. Jean-Yves Le Déaut. Je donne la parole à Mme Laurence Devillers, professeure à l’université de Paris-Sorbonne IV et rattachée au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (LIMSI). En tant que spécialiste de l’analyse des signaux, verbaux ou non, qui permettent la compréhension dans un dialogue, Mme Laurence Devillers va nous indiquer ce qu’on sait des dimensions affectives et sociales des interactions homme-machine.

Les dimensions affectives et sociales des interactions homme-machine

Mme Laurence Devillers, professeure à l’université de Paris Sorbonne IV, rattachée au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (LIMSI). J’ai la grande chance de côtoyer à Paris Sorbonne des professeurs en sciences humaines et sociales, sociologues et philosophes. Mon domaine de recherche est par essence pluridisciplinaire, puisque s’intéresser à l’affect dans le dialogue avec les machines suppose de collaborer avec des psychiatres, des psychologues, des gérontologues, des socio-linguistes, des chercheurs en droit et des philosophes. Mon expertise porte plutôt sur l’apprentissage des machines et le traitement du signal mais je suis également experte en langage et j’ai beaucoup travaillé sur les émotions.

L’interaction affective et sociale, nous la pratiquons tous. Elle est immédiate, dans l’adaptation aux enfants, à une personne ne parlant pas notre langue ou qui n’est pas de notre culture. On sait aussi interagir avec les animaux, en créant des liens sociaux, par le paralangage. Mais que fait-on avec une machine et que doit-on comprendre des capacités potentielles d’un robot ? Cette question est assez complexe. Pourtant, il est évident que, dans certains cas, il est facile de parler à une machine. Des applications commencent à apparaître, comme à l’université de Californie du Sud, où une machine nommée Elie a pour but de détecter, chez les militaires, les signes de dépression ou de syndrome post traumatique. Cela existe pour d’autres pathologies.

La machine robotique peut être active vingt-quatre heures sur vingt-quatre. Elle peut prêter assistance à la personne, être une mémoire, un agenda ou un contact. Elle peut être un complément des personnels soignants. On travaille beaucoup sur cette interaction triangulaire, qui permet de répéter, d’écouter et de rassurer. La machine a une qualité : la patience. Et elle peut également créer du lien social.

Nous sommes allés enregistrer des futurs usagers de ce type de machine dans des établissements d’hébergement pour personnes âgées (EPAD) à travers le projet Romeo, avec des associations comme Approche (Association pour la promotion des nouvelles technologies au service des personnes en situation de handicap), qui essaient de promouvoir ces technologies et de les faire utiliser par de potentiels usagers. Cette importante application ne peut être développée sans prendre en compte l’usage, et sans mettre la personne au centre de la boucle d’interaction.

Je travaille dans un laboratoire du CNRS, le LIMSI (Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur), dont la principale activité est le traitement du langage et la communication homme-machine, au-delà du discours. Quand on dialogue, on co-construit quelque chose. On va détecter les émotions de l’autre, comprendre ses états mentaux, avoir de l’empathie et essayer de se synchroniser avec lui. On voit bien là émerger différentes disciplines.

Il existe des défis technologiques pour aller au-delà de machines qui soient simplement en train de parler ou d’écouter. On veut des agents intelligents, capables de comprendre réellement le comportement de l’humain, et c’est complexe. Il faut le faire en pluridisciplinarité, aller au-delà des mots, de la compréhension de ce qui est dit ponctuellement, pour l’intégrer dans un contexte de communication. Cela pose énormément de défis que l’on doit comprendre en coévolution humain-machine.

Je conduis un projet: « Rire avec les robots pour mieux vivre avec », qui montre que l’on va s’intéresser également à des sciences humaines et impliquer d’autres partenaires. J’ai également un projet européen sur un robot capable d’humour et d’empathie. Je travaille aussi, comme M. Mohamed Chetouani, sur le robot Romeo pour l’assistance aux personnes âgées.

Je me suis rapprochée des sciences humaines en professant à la Sorbonne, où j’enseigne, à des linguistes et des sociologues, les sciences affectives, l’informatique affective et l’éthique de ces différents systèmes. Je suis également responsable du Pôle coévolution humain-machine, dans le cadre de l’Institut numérique Paris-Saclay. Nous avons organisé une conférence en avril 2015 : Comprendre et construire la société du numérique, qui recoupait cette double communauté.

Ce groupe a beaucoup de projets. Par exemple, l’un d’entre eux associe des sociologues sur le sujet de l’engagement des humains dans une interaction sociale avec les robots, en un dispositif en triade : robot, dispositif de quantification de soi-même, en anglais quantified self : rythme cardiaque ou autres informations sur le rythme biologique, que le robot annonce. Cette question induit des recherches en linguistique et en sociologie sur la réflexivité langagière, dans l’objectif de renforcer, de manière innovante, le pouvoir de stimulation de l’interaction avec les robots.

Un autre projet impliquant notre équipe et la faculté de droit de Sceaux porte sur les dimensions affectives et sociales, car l’interaction humain-robot pose la question fondamentale de la conscience. On y travaille sur les traces et l’explication des actes du robot. Il y a un vrai sujet relatifs aux problèmes d’accès à ces données. Qui peut y avoir accès, suivant quelles modalités, et quelle est leur pérennité ? Cela aboutira à des préconisations qui permettront d’anticiper des recherches de responsabilité. Des entreprises telles que Aldebaran Robotics et d’autres industriels en robotique sont aussi impliqués.

Enfin, j’ai travaillé avec l’alliance ALLISTENE (Alliance des sciences et technologies du numérique), en lien avec sa Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA), puisque j’ai participé au rapport sur L’éthique du chercheur en robotique, publié en novembre 2014, où se trouve un grand nombre de préconisations sur différents aspects, notamment affectifs et sociaux, de l’interaction humain-robot, par exemple pour empêcher un déficit de confiance de la part des utilisateurs ou une confiance trop aveugle dans les robots.

En France, nous avons l’objectif de distinguer clairement ce qui est humain de ce qui ne l’est pas. Ce n’est pas le cas, par exemple, de nos collègues au Japon, où un partenaire, lors d’une conférence, indiquait chercher à faire passer le test de Turing à Geminoid, robot « jumeau » d’un être humain. L’approche est donc différente selon les cultures.

Je terminerai en évoquant la coévolution homme-machine. La distribution de l’intelligence et de l’inventivité entre les utilisateurs et les machines est un point très important, incluant connectique, maison intelligente, etc. Il faut comprendre qu’il existe un apprentissage conjoint entre humains et machines. La machine va s’adapter à l’humain ; on parle beaucoup de deep learning, et d’apprentissage par renforcement, ce qui pose des questions d’acceptabilité, d’interactions et d’éthique. 

L’évolution conjointe des technologies et des utilisateurs implique cette collaboration entre les acteurs des sciences et technologies de l’information et de la communication (STIC) et des sciences humaines et sociales, tout au long des projets, de leur conception à leur évaluation. Elle implique également une évaluation des interactions avec les utilisateurs, notamment sur le long terme, car on a très peu d’études sur les interactions à long terme avec ce genre de machine.

M. Jean-Yves Le Déaut. L’audition du mois dernier, sur les robots et la loi, a été très intéressante car la législation est obligée de s’adapter dans les domaines que vous avez abordés, notamment les objets connectés. Il existe déjà des conséquences juridiques pour la régulation de ces systèmes, qui ne sont pas prises en compte aujourd’hui.

Nous avons également organisé une audition sur les objets connectés en agriculture, car il en existe de plus en plus, invisibles, qui donnent énormément de renseignements captés par le fabricant de la machine, alors qu’ils devraient rester, au moins pour partie, la propriété de celui qui utilise la machine. Mais ce dernier ne sait même pas que ces renseignements sont transmis à des tiers, et que des services sont proposés par la suite, sur la base de ces données. Ce sont de vraies questions que vous posez.

Je vais donner la parole à M. Jean-Marie Pierrel, professeur à l’université de Lorraine, chercheur au Laboratoire d’analyse et traitement informatique de la langue française (ATILF) sur un sujet que j’ai appris à connaître, puisque je suis député de Pont-à-Mousson. Dans une autre vie, j’ai même enseigné dans cette université. Son recteur M. Paul Imbs avait proposé ce que l’on a appelé Le trésor de la langue française, dans un laboratoire propre du CNRS. Puis ce trésor s’est dilapidé jusqu’au jour, il y a une quinzaine d’années, où Mme Catherine Bréchignac a souhaité associer l’informatique à la linguistique. M. Jean-Marie Pierrel va nous parler de cette question.

Les avancées nouvelles en linguistique grâce aux technologies numériques

M. Jean-Marie Pierrel, professeur à l’université de Lorraine, chercheur au Laboratoire d’analyse et traitement informatique de la langue française (ATILF). Je vais structurer mon discours autour de trois points. Je voudrais d’abord montrer que l’apport des technologies numériques a conduit à une réelle évolution des paradigmes de la linguistique. Je voudrais ensuite donner un exemple dans un domaine très particulier et cumulatif de la linguistique historique, afin de montrer que l’on s’appuie sur des acquis, des erreurs historiques, qu’il convient de corriger. Enfin j’aborderai les apports, dans l’autre sens, de la linguistique à certains domaines des technologies numériques.

Les progrès des technologies numériques et leur usage en linguistique ont permis, au-delà d’une linguistique descriptive, d’en développer deux autres types : d’une part, une linguistique formelle, qui tend à proposer des modèles s’appuyant sur une double validation, explicative du point de vue du linguiste, et opératoire du point de vue de l’informatique et, d’autre part, une linguistique de corpus qui permet au linguiste d’aller au-delà de l’accumulation de faits de langue et de confronter ses théories à l’usage effectif de la langue.

C’est, d’ailleurs, une véritable révolution qui fait de l’informatique un outil indispensable dans une partie de la linguistique. Elle permet d’étudier la langue et ses propriétés grâce à l’exploitation de corpus de très grande ampleur, de structurer, de normaliser des connaissances linguistiques, de la phonétique à la pragmatique, de partager, mutualiser et valoriser ces résultats de recherche sous forme de modèles-ressources linguistiques, ou outils, en particulier sur Internet.

Avant l’ouverture de ces possibilités d’accès à de vastes corpus langagiers, les recherches en linguistique s’appuyaient souvent sur des exemples construits par le linguiste ou sur une introspection du linguiste qui s’interrogeait sur tel ou tel phénomène de langue. Aujourd’hui, nous pouvons nous appuyer sur l’exploitation de corpus véritables, numérisés et disponibles, pour étudier la langue telle qu’elle est, non pas telle que nous pensons qu’elle est.

Dans ce cadre, les aspects de gestion d’accès et d’exploitation de ressources, corpus, lexiques et traitements automatique, sont stratégiques. Ils servent de support aux travaux de recherche, mais aussi à la diffusion des résultats grâce à leur disponibilité sur la toile sous une forme facilement accessible. Pendant longtemps le linguiste, en termes de valorisation, publiait des ouvrages. Aujourd’hui, il met à disposition ses données sur le Web. À titre d’exemple, le portail lexical du Centre national de ressources textuelles et lexicales (CNRTL) qui est maintenant intégré à l’équipe ORTOLANG (outils et ressources pour un traitement optimisé de la langue) reçoit de l’ordre de six-cent-mille requêtes par jour sur le lexique français, dont plus de la moitié viennent de l’étranger.

Je vais présenter rapidement une avancée en linguistique historique, sur ce que l’on appelle les mots fantômes et une base de données de ces mots. En linguistique historique, on s’appuie, comme souvent en lexicographie quand on fait un dictionnaire, sur la reprise des dictionnaires précédents, que l’on complète. Des mots apparaissent, appelés pseudo-lexèmes, avec des sens qui n’ont jamais existé. Ils se trouvent dans des dictionnaires historiques très connus, par exemple le Godefroy de la fin du XIXe siècle, ou le FEW (Französisches Etymologisches Wörterbuch), dictionnaire étymologique français de von Wartbourg du XXe siècle. Leur correction et leur chasse est aujourd’hui le résultat de recherches menées avec la confrontation de grands corpus. On prend, par exemple, une entité lexicale apparaissant dans un dictionnaire historique, dont on ne sait pas trop d’où elle vient, en y ajoutant une citation. On va rechercher dans des corpus de la même époque les différentes occurrences. Quand on ne les retrouve quasiment que chez un seul auteur ou dans un seul document, même si c’est dans le meilleur dictionnaire du monde, il y a présomption de présence de mot fantôme.

Un exemple très simple : le dictionnaire de Godefroy contient l’entrée « labaille ». Celle-ci a posé pendant longtemps beaucoup de difficultés aux linguistes. C’est un substantif féminin, synonyme moderne d’écope, sorte de pelle creuse qui sert à vider l’eau dans une embarcation, avec comme référence un texte très précis de 1413. En 2006, Chauveau a démontré que ce vocable est un mot fantôme, consécutif à la mauvaise lecture d’un manuscrit et à son introduction dans un dictionnaire par agglutination fautive de l’article la et du lexème baille, qui signifie « baquet de bois en forme de demi-tonneau, ou de cône tronqué spécialement utilisé pour les bateaux ». Récupérer ces informations dans une base de données accessible par tous permet, dans un domaine de ce type, de corriger des erreurs historiques. En centralisant toutes les identifications de ces mots en français, jusqu’alors dispersées dans des articles de revues, des communications de colloque, des comptes rendus et des articles lexicographiques, la base informatisée des mots-fantômes permet aux chercheurs d’accéder facilement à ces informations.

Enfin, voici quelques idées sur ce que la linguistique apporte à certains domaines des sciences du numérique, particulièrement à celui du traitement automatique du langage et à ses applications remarquables qui existent en traitement de la parole ou en recherche d’information. Dans ce domaine de la recherche d’information, ce sont des résultats d’analyse et de modélisation linguistique qui permettent de mieux détecter les diverses formes de ce que l’on appelle les « entités nommées ». Il s’agit de dates, de noms de lieux, villes, pays, personnes, institutions, fonctions ou, dans des domaines spécialisés, de noms d’astres en astronomie, de molécules en chimie, de formules en mathématiques, de noms de plantes en botanique, etc. Ces « entités nommées » vont permettre dans des systèmes de rechercher, de détecter, de mettre en relation ou d’unifier des expressions aussi diverses que « le Président de la République française », « l’ancien premier secrétaire du parti socialiste » ou « François Hollande », et ainsi améliorer notablement la pertinence et la couverture des réponses à une requête dans un système de recherche d’information tels que ceux exploitables sur Internet.

DÉBAT

M. Laurent Gouzènes, membre du Conseil scientifique de l’OPECST. Il y a quelques années, lorsque j’étais président d’un jury en nanotechnologie à l’Agence nationale de la recherche (ANR), j’ai souhaité lancer des réflexions sur l’impact de l’usage des nanotechnologies du point de vue de la société. Pendant deux ans, l’ANR a catégoriquement refusé d’introduire dans le programme relatif aux nanotechnologies des études de toxicologie ou d’impact sociétal. Le consensus existant aujourd’hui sur la nécessité de prendre en compte les interactions sciences-société n’était donc pas si évident il y a quelques années, y compris au niveau des instances de programmation des crédits de recherche.

Dans le débat de société, beaucoup de gens voulaient interdire les nanotechnologies par analogie avec l’amiante, perçue comme diffusion des petites fibres, sous prétexte qu’il existait un potentiel de toxicité équivalent. Mais d’un point de vue logique, cela revenait à interdire la géologie sous prétexte que l’amiante était dangereuse. On voit bien que tous ces débats nécessiteront beaucoup de précision sur les termes utilisés, d’un côté comme de l’autre, car beaucoup de disputes naissent de problèmes de vocabulaire.

Ma deuxième remarque s’appuie sur l’intervention de M. Yves Bréchet relative à la séparation entre recherche fondamentale et appliquée ainsi que sur la présentation qui vient d’être faite des apports des analyses linguistiques. Ces exposés montrent l’absence de frontière entre science fondamentale et programmation informatique dans des domaines comme la traduction automatisée, nécessitant à la fois une recherche fondamentale et le développement de programmes adaptés avec, à la clef, dans le cadre de la mondialisation, des enjeux d’ordre culturel mais aussi économique.

De plus, j’observe que le nouveau manuel de définition internationale de la recherche de l’OCDE, dit « de Frascati », prend mieux en compte les sciences sociales dans sa version de 2015, et surtout ne les cantonne plus à la recherche publique, ce qui était le cas dans les manuels précédents. La responsabilité de la recherche sociétale est présentée comme relevant du public et du privé, ce qui correspond à une évolution en cours en France, puisque le nombre de chercheurs du privé dépasse enfin celui du public, ce qui constitue plutôt une bonne nouvelle.

M. Bernard Tardieu, membre de l’Académie des technologies. Tout à l’heure, M. Claude Didry, je crois, disait que le prix du CO2 a été le grand oublié de la COP21, ce qui m’a frappé, car j’ai été très impliqué dans ces deux dossiers du prix du CO2 et de la COP21 et il m’apparaît que les sciences humaines et sociales sont intervenues dans les deux cas.

La COP21, telle que je l’ai vécue, a été une machine à créer du consensus, à broyer des positions et à contraindre l’altérité, pour finalement arriver à une situation où tout le monde dit à peu près la même chose en même temps, quelles que soient ses arrières pensées. Et personne n’ose dire « cela ne m’intéresse pas ». C’est un succès de la procédure des sciences humaines.

Dans le cas du marché des quotas de CO2, système qui, techniquement, marche parfaitement bien, c’est l’incapacité d’avoir su prévoir sur le long terme les crises, en particulier la crise économique et celle provoquée par les politiques de subventions massives, qui ont abouti à la situation actuelle. Donc, techniquement, le système est parfait mais l’incapacité des sciences humaines et sociales et de l’économie à anticiper les problèmes ont fait que, aujourd’hui, le prix du CO2 est absurde.

M. Alexei Grinbaum. L’exemple que citait M. Laurent Gouzènes montre la crainte diffuse vis-à-vis des sciences dures créée par les métaphores ou les analogies, souvent utilisées dans les sciences sociales dès qu’elles s’intéressent au contenu des sciences dures. Il est important d’insister sur ce qu’a dit M. Gianluca Manzo et que j’ai moi-même mentionné en prenant l’exemple de l’enseignement d’Oxford combinant physique et philosophie, concernant le besoin de former non seulement les scientifiques, mathématiciens ou physiciens à la sociologie ou à la philosophie, mais également les futurs chercheurs en sciences humaines à la compréhension du langage mathématique et à la rigueur qui traverse toutes les sciences dures. C’est un message fort que pourrait envoyer le décideur politique à ceux qui ont la charge des programmes d’enseignement.

M. Yves Bréchet. J’ai effectivement simplifié les choses en disant « comprendre pour comprendre » et « comprendre pour faire » pour distinguer les sciences de la nature et les sciences de l’homme. Avec l’exemple du changement climatique, l’on se posait tout à l’heure la question de l’évolution de l’objet même de « nature », transformé par l’effet de l’activité humaine. J’ai passé ma vie à essayer de faire le continuum entre les sciences fondamentales et celles dites appliquées.

Mais un schéma permet au moins de classer la démarche. Il existe un grand nombre de cas où l’on peut se poser la question de ce qu’a apporté une discipline à une autre et inversement. Le cas de la linguistique est intéressant, car celle-ci ne fait pas simplement usage de l’outil informatique mais lui retransmet également des concepts dont il pourra lui-même faire usage. C’est ainsi que l’on va créer de la connaissance. Sur un objet donné, on aura trouvé deux questionnements ayant leur richesse propre, dans deux disciplines qui regardent cet objet.

M. André-Yves Portnoff. Je suis prospectiviste à Futuribles et coauteur du premier rapport français sur l’immatériel. J’ai été passionné par tout ce que j’ai entendu, d’autant qu’il y a un quart de siècle je choquais beaucoup en préconisant l’insertion dans tout programme européen d’une étude sur les conséquences de celui-ci sur la société. Ce qui m’a frappé aussi, Monsieur le Président, c’est votre évocation de la Renaissance. Elle n’aurait pas eu lieu si des personnes, notamment des dirigeants politiques, économiques et culturels, n’avaient eu une culture allant de l’art à la littérature, en passant par la philosophie et les sciences de l’ingénieur. Ces conditions ne sont plus remplies, à cause du découpage disciplinaire qui commence dès l’école. Il fait que les différents spécialistes ne comprennent pas ce que disent et font les autres, donc ne respectent pas leurs arguments et ne veulent pas collaborer.

Ce problème est souligné depuis plus d’un demi-siècle en France mais nous n’avons pas énormément progressé. Comment faire face à des problèmes de plus en plus complexes et nécessitant de réunir des connaissances de plus en plus diversifiées, ce qui suppose de plus en plus de collaboration, s’il n’y a toujours pas une vision globale, une pensée de la complexité ? Nous demeurons un pays strictement cartésien.

Comment diffuser dès l’école une pensée de la complexité et une attitude de respect vis-à-vis de l’autre et de ses arguments ? Et comment agir sur l’organisation de notre recherche alors que, par exemple en nanotechnologie, l’on sait que l’un des obstacles au progrès est la nécessité de construire des équipes pluridisciplinaires ? Cela pose même des problèmes de financement, en raison de la difficulté à savoir comment financer une étude pluridisciplinaire, lorsque celle-ci dépend de plusieurs départements. Comment passer aux actes face à ces problèmes de plus en plus graves et urgents ?

M. Jean-Yves Le Déaut. L’Office parlementaire constitue une passerelle entre les mondes des sciences et des technologies et le monde politique. En trente ans, nous avons abordé quasiment tous les sujets. Les convergences existent. Elles se manifestent d’abord au niveau technologique, entre l’informatique, le biologique et les nanotechnologies, auxquels s’ajoutent presque toujours le cognitif et la connaissance. Le CNRS a largement contribué à les faire ressortir.

La fondation de nouveaux départements, comme celui de l’environnement, le fait qu’il y ait de plus en plus d’interactions entre universités et la création, mentionnée tout à l’heure, d’un master associant physique et philosophie à l’université d’Oxford, montrent que ces idées se développent. Je serai donc moins pessimiste que vous sur ces évolutions.

Je suis, en revanche, plus pessimiste sur les controverses issues d’un décalage énorme entre la connaissance et la société. Elles sont sans doute dues au fait que la mission d’un chercheur ou d’un enseignant est également une mission de médiation vers la société. Cette dernière n’est peut-être pas suffisamment prise en compte. Elle ne l’est pas dans les carrières, c’est certain, mais pas non plus au niveau individuel. C’est peut-être le point sur lequel nous devrions travailler.

M. Laurent Gouzènes. L’explosion des connaissances est un vrai problème, car nous avons des millions de chercheurs qui produisent chacun trois ou quatre articles par an, et plus personne ne peut suivre. Il est difficile de construire des ponts entre les disciplines, de faire des synthèses, et il va falloir beaucoup travailler, non pas sur l’encyclopédisme mais sur la manière de communiquer des connaissances relativement complexes à des chercheurs d’autres disciplines. Ce sont les sciences humaines qui sont en charge de ce problème. Existe-t-il des méthodes plus efficaces et plus rapides pour assimiler les contextes scientifiques et permettre d’engager les dialogues dont on a besoin ?

M. Jean-Yves Le Déaut. C’est un vrai problème. Il existe aussi au Parlement. Comment simplifier des sujets complexes pour qu’ils soient appréhendés par celui qui va faire la loi ? On ne demande pas à un parlementaire d’être un spécialiste, mais de connaître le problème qu’il aura à résoudre. Il y a deux ans environ, la diffusion de la culture scientifique a fait l’objet d’un rapport de l’Office parlementaire de Mme Maud Olivier, députée élue de l’Essonne, et de M. Jean-Pierre Leleux, sénateur élu des Alpes-Maritimes, qui ont fait des suggestions. C’est une question majeure.

M. Claude Didry. Pour revenir sur l’interpellation de M. Bernard Tardieu, dire que la COP21 est une machine à fabriquer du consensus, issu notamment des sciences humaines et sociales, me paraît très intéressant. On peut dire la même chose à certains égards du Parlement comme machine à fabriquer des majorités. Il pourrait également être considéré comme un produit des sciences humaines et sociales.

Certes, le prix de la tonne de carbone me souciait aussi dans la construction des scénarios, mais ce qui me paraît important à saisir, c’est l’investissement que les sciences humaines et sociales peuvent représenter dans l’accompagnement de l’effort industriel que supposent les avancées scientifiques et technologiques. Cela mériterait d’être intégré dans les débats sur la culture scientifique car la désindustrialisation vécue ces dernières années est de nature à expliquer le recul et les craintes que suscitent les avancées scientifiques et technologiques dans la population. Étant lorrain, je peux dire que des gens travaillant dans la sidérurgie ou la chimie formaient une population exposée à des risques mais sensible également à des processus. La conjoncture actuelle est de nature à inverser cette perception.

Pour être plus optimiste, on peut dire que les enjeux du changement climatique et les technologies qui en résultent conduisent au développement de nouvelles filières et de nouvelles entreprises qui peuvent favoriser une sensibilité et une ouverture aux avancées techniques.

M. Jean Marie Pierrel. Je voulais profiter de cette table ronde pour évoquer une difficulté rencontrée actuellement lors de l’exploitation de corpus comme outils de base pour la recherche, dans les domaines des sciences humaines et sociales en particulier. Lorsqu’ils sont publiés sous forme d’ouvrages, les résultats des recherches sont sous droit d’éditeur, et nous n’avons plus le droit de les numériser pour pouvoir les exploiter dans de vastes corpus d’étude. C’est aussi le cas dans les domaines de la littérature et de la linguistique. Les chercheurs ont le droit d’exploiter ces résultats avec un surligneur, cet outil du XXIe siècle. Mais ils n’ont surtout pas le droit de le faire avec du numérique car ils violeraient la loi. Il faudrait réfléchir à ce problème au moment où la loi sur la République numérique est débattue à l’Assemblée nationale.

M. Jean-Yves Le Déaut. L’article 17 de ce projet de loi, qui prévoit un libre accès ou Open Access pour la version de l’auteur, avant celle de l’éditeur et ses embargos, a été très largement précisé. Pour l’instant, tous les retours que j’ai de la rédaction courante, à laquelle nous avons largement participé, sont plutôt positifs. Elle semble répondre à la question posée.

M. Serge Abiteboul. Je pense que la loi parle beaucoup d’Open Access à des documents. Il y a un autre aspect très intéressant, l’Open Access à des données obtenues dans un contexte scientifique. Les anglais sont en avance sur nous puisqu’ils l’ont prévu. Cela manque dans nos lois.

M. Jean-Yves Le Déaut. Absolument, et pour revenir sur l’exemple de l’agriculture, car c’est le même sujet, on commence à aborder cette question dans un autre article de la loi, notamment à travers le cas des objets connectés. L’Open Access aux données est un vrai sujet.

M. Jean-Pierre Finance, membre du Conseil scientifique de l’OPECST. Je rebondis sur les deux affirmations précédentes concernant le projet de loi sur le numérique. C’est vrai qu’il comporte l’article 17, encore fortement discuté en termes de durée d’embargo. Mais dans les projets mis en consultation voici quelques mois existait un article sur la fouille de textes et de données, ou Text and Data Mining (TDM), malheureusement disparu du projet de loi actuel.

C’est un véritable handicap pour la recherche française car le but n’est pas seulement de rendre l’accès aux publications scientifiques plus facile qu’à l’époque antérieure de l’écrit uniquement sur papier, mais de permettre l’utilisation de la puissance du numérique sur des textes de publications et des données issues de la recherche. C’est fondamental.

Le Text and Data Mining se développe fortement dans beaucoup de pays européens. Il ne faudrait pas que, à l’occasion de cette loi, l’opportunité de permettre le développement de ces algorithmes soit perdue. Les grands éditeurs vont disposer de ces bases de données et sont en train de développer des services à valeur ajoutée sur la base de la fouille de données. Ils vont nous revendre, une nouvelle fois, les résultats de nos propres recherches.

M. Jean-Yves Le Déaut. Je l’ai mentionné en évoquant l’exemple de l’agriculture. Le parlementaire doit être éclairé pour que la loi aille dans le bon sens. Cette nécessaire remontée d’information n’a rien à voir avec le lobbying. Le texte va passer au Sénat. Notre collègue sénatrice, Mme Dominique Gillot est là, qui suit ces questions. Elle écoute, et vous pouvez la saisir dès aujourd’hui car, pour ce qui concerne l’Assemblée nationale, nous en sommes déjà arrivés dans la discussion à l’article 18. Saisissez le Sénat pour que ce texte de loi évolue dans le bon sens. Vous avez raison, ce sont des sujets à préciser dans la loi.

TROISIÈME TABLE RONDE :
LES SCIENCES HUMAINES ET LES NOUVELLES TECHNOLOGIES
DE L’ÉNERGIE

M. Jean-Yves Le Déaut, député, président de l’OPECST. Cette troisième table ronde sera structurée principalement autour du dialogue entre l’alliance ATHENA et l’Alliance nationale de coordination de la recherche pour l’énergie (ANCRE), qui rassemble les organismes de recherche dans le domaine de l’énergie. C’est un exemple de dialogue entre alliances, similaire à celui mentionné tout à l’heure par M. Mokrane Bouzeghoub entre ATHENA et l’Alliance des sciences et technologies du numérique (ALISTEN). Notre prochaine audition sur l’apport des avancées technologiques aux sciences de la vie, prévue en avril, mettra en valeur des relations semblables entre ATHENA et l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN).

Les intervenants de cette table ronde se connaissent puisqu’ils travaillent ensemble. Une personnalité externe viendra dynamiser les échanges : M. Christian Ngô, qui a très longtemps travaillé avec nous comme membre de nos comités de pilotage, pour nos études sur les questions de l’énergie.

Les liens entre sciences humaines et recherche en énergie au niveau des alliances ANCRE et ATHENA

Mme Françoise Touboul, conseillère technique au cabinet de l’administrateur général du CEA. L’alliance ATHENA a été présentée ce matin par son président. Je vais juste vous dire quelques mots sur l’alliance ANCRE. Elle a été créée par quatre grands organismes : le CEA, le CNRS, l’IFP-EN (Institut Français du Pétrole-Énergies nouvelles) et la Conférence des présidents d’université (CPU), avec pour objectif de coordonner la recherche sur l’énergie. C’est donc un interlocuteur naturel des tutelles des autres alliances. Elle produit en particulier des feuilles de route technologiques sur les sujets pour lesquels les partenaires fondateurs et associés ont décidé de développer une stratégie partagée.

Il existe une différence fondamentale entre ces deux alliances. ATHENA est une alliance que j’appellerai disciplinaire, même si elle est multidisciplinaire. ANCRE est focalisée sur un sujet, un objectif, un enjeu sociétal : celui de l’énergie. Une deuxième différence concerne le positionnement de l’alliance ATHENA, plus axée sur l’objet de la connaissance et la recherche fondamentale, alors que l’alliance ANCRE regroupe plutôt des technologues, avec une approche de recherche appliquée.

Les partenaires de l’alliance ANCRE travaillent sur les deux aspects, sciences technologiques et sciences humaines et sociales, mais l’alliance s’est surtout développée en se fondant sur les sciences de la nature.

L’énergie est un enjeu vital pour l’avenir de l’homme et l’humain doit être au cœur de cet enjeu. Or, les porteurs de technologie sont surtout attachés à supprimer des verrous technologiques sans donner une place substantielle aux sciences humaines et sociales. Ces dernières ont donc peu investi le sujet et se sont parfois positionnées en réaction. Les deux communautés scientifiques des technologies et des sciences humaines et sociales ont tendance soit à s’ignorer, soit à peu dialoguer. Ce n’est pas totalement vrai car, on l’a vu ce matin, l’économie est à la frontière la plus immédiate de ces deux mondes. Mais elles ont développé des cultures et des langages très différents ainsi qu’une certaine méfiance.

On connait bien les reproches mutuels que s’adressent ces communautés, à mon avis pour partie justifiés. Il est reproché aux technologues de faire toujours intervenir les sciences humaines et sociales a posteriori, dans un souci d’acceptabilité des technologies, et aux chercheurs en sciences de la nature d’avoir tendance à penser que les sciences humaines et sociales se trompent d’objet de recherche en prenant pour sujet non l’énergie mais le chercheur lui-même.

Une concertation entre les deux alliances a été décidée pour faire évoluer les choses et surtout pour définir des objets communs de recherche. Nous en avons besoin si nous voulons mobiliser toute la créativité existante, dans les sciences de la nature et dans les sciences humaines et sociales, pour développer des systèmes dont la COP21 a démontré récemment toute la nécessité et l’urgence. Nous travaillons ensemble depuis 2013, initialement dans le cadre d’un groupe de travail de l’alliance ATHENA, qui s’est tout de suite saisi du sujet de l’énergie et a mobilisé une communauté très large de chercheurs en sciences humaines et sociales. Ce groupe de travail d’ATHENA a été, dès le départ, ouvert aux chercheurs de l’ANCRE.

Quand nous en sommes venus à construire des scénarios au sein de l’ANCRE, nous nous sommes posé des questions qui n’étaient pas d’ordre purement technologique. Des liens se sont noués, en particulier le groupe de travail a conduit à un rapport, à ma participation au directoire d’ATHENA et à un ouvrage de la collection ATHENA : « L’énergie des sciences humaines et sociales ». En 2014, nous avons organisé un séminaire où l’on s’est attaché à faire réfléchir les communautés sur trois sujets essentiels : scénarios et vision du futur, gouvernance et territoire, et citoyens, usagers et habitants.

Au sein de l’alliance ANCRE, une enquête a été menée pour essayer de déterminer les sujets pouvant conduire à des objets communs de recherche. Plusieurs thèmes ont été identifiés comme prioritaires : le rôle de l’expertise dans la décision publique, la problématique énergie et territoire, l’économie de l’énergie, l’énergie du sous-sol, avec un volet concernant le gaz de schiste, la vision du futur et la réalité de terrain, les comportements, ainsi que les risques et l’énergie.

Le chemin est long pour faire travailler ensemble ces deux communautés, mais le jeu en vaut la chandelle ; tout le monde en est persuadé. Il faut, à mon sens, travailler sur trois grands sujets pour continuer dans cette direction. Le premier concerne les formations interdisciplinaires. Si l’on veut avoir des projets communs de recherche, il faut des étudiants et des thésards ayant la double formation en technologie et en sciences humaines et sociales.

Le deuxième sujet porte sur le processus de sélection des projets. Les projets interdisciplinaires ont souvent du mal à être sélectionnés dans les grands appels à projets. Aussi, faudrait-il veiller à la multidisciplinarité des jurys de sélection. Le troisième sujet résulte de la diversité des sciences humaines et sociales, avec une multiplicité d’interlocuteurs, ce qui entraîne une difficulté, d’une part, pour nommer un représentant des sciences humaines et sociales dans ces jurys et, d’autre part, pour les sciences de la nature, à s’adresser à l’ensemble des sciences humaines et sociales. On travaille assez facilement avec des économistes, un peu avec des sociologues mais nous devons nous atteler à interagir avec des disciplines plus rarement sollicitées, comme l’histoire, la géographie et la philosophie.

Synergies entre sciences humaines et technologie en matière d’innovation

M. Christian Ngô, responsable du cabinet Edmonium. Un des objectifs de toutes les sociétés, c’est le progrès. Il faut que nos enfants vivent mieux que nous, comme nous vivons déjà mieux que nos parents. Déjà, au IVe siècle avant Jésus Christ, Aristote disait que le progrès ne vaut que s’il est partagé par tous. Le progrès vient de l’innovation, dont il existe plusieurs définitions dans la littérature. Une définition que j’aime et que je vous conseille de consulter est celle de M. Marc Giget, à l’origine des Mardis de l’innovation : « Essayer de partir de réservoirs de connaissances existant à un instant donné, et d’en faire un produit créatif qui satisfasse au mieux les individus ».

Comment progresse-t-on ? L’innovation peut venir de la recherche, mais aussi d’autres domaines. La recherche fondamentale va alimenter la recherche appliquée et, dans tous les cas, le réservoir des connaissances à partir duquel il peut y avoir de l’innovation, source éventuelle de progrès. De toutes les innovations qui arrivent sur le marché, les deux tiers sont éliminées peu de temps après. Le progrès résulte donc d’un petit nombre d’innovations. Les petites innovations sont plutôt des améliorations. Par exemple, faire passer une carte de mémoire pour un appareil photo de soixante-quatre à cent vingt-huit giga-octets sera une amélioration. De même, le prix peut être divisé par deux.

Ce qui est attendu dans une innovation, c’est en général que ce soit mieux, moins cher, ou utile. Par exemple, il y a quelques dizaines d’années, on utilisait des règles à calcul. Le passage à la calculatrice a été une révolution. Les innovations de rupture, les grandes innovations, provoquent des gagnants et des perdants. Dans le cas de la règle à calcul, du jour au lendemain, son fabricant Graphoplex n’en a plus vendues. Mais d’autres vendaient des calculatrices. Dans le cas de la photographie, nous sommes passés de l’argentique au numérique. Du jour au lendemain, les usines Kodak n’avaient plus aucune valeur. Au cours de ce processus, il y a destruction et création d’emploi et, en général, dans les phases d’innovations très importantes, survient aussi une crise financière.

La technologie n’est pas tout. Le marché est également à prendre en compte. Certes, des études de marché, fondées sur des techniques de vente, sont réalisées. Mais les innovations ne servent vraiment que si elles sont utiles à l’individu et à la société et c’est là plutôt le domaine du marketing de l’innovation, qui implique des sciences humaines et sociales. En région parisienne, Scientipôle initiative s’occupe des startups. Une étude a montré que sur cinq cents d’entre elles, la défaillance du marketing explique 50 % des échecs, le choix de la technologie moins de 30 %, et les finances moins de 20 %.

L’évolution temporelle d’une innovation montre que, au tout début, elle a besoin de sciences dures, qu’il s’agisse de recherche fondamentale ou de recherche appliquée. Ensuite apparaît le besoin de la connexion avec l’humain et la société, donc le besoin de sciences humaines et sociales. En voici trois exemples simples.

Dans les années 1990, les grands opérateurs de téléphonie, tels que France Télécom, Deutsche Telekom ou AT&T, et même des cabinets de consultants comme Arthur Andersen, pensaient que ce nouveau type d’appareil n’avait aucune chance de dépasser 1 % à 3 % du marché. Échaudée par une telle prévision, la société Motorola a réuni quatre-vingt-dix sociologues et acteurs des sciences humaines pour leur demander s’il n’exista it pas, tout de même, un marché. Ceux-ci ont conclu à la possibilité d’une conquête de 100 % du marché, ce qui s’est révélé exact, même à un niveau supérieur, puisque dans une famille qui possédait un seul téléphone fixe, on trouve maintenant un téléphone par personne. Motorola a donc prévu, avec raison, que le téléphone portable représentait un marché potentiellement important.

Un autre exemple montre l’effet des synergies entre deux innovations dans l’industrie pétrolière et illustre le fait que plus l’innovation concerne des clients technologiques, moins les sciences humaines sont utiles. Dans les années 1930 existait le forage dirigé, qui a abouti au forage incliné, puis au forage horizontal, le premier ayant été réalisé par Elf dans la région de Lacq en 1980. Une autre technologie porte sur la fracturation. Les premiers à mettre en œuvre la fracturation hydraulique étaient probablement les Gaulois qui cassaient les menhirs avec cette technique. Elle s’est développée pour l’exploitation du pétrole après 1947. L’association de ces deux technologies, forage horizontal et fracturation hydraulique, a permis d’exploiter le gaz et le pétrole dit de schiste, notamment aux États-Unis. Plus d’un million de forages ont été effectués depuis que cette double technologie a été introduite. J’observe au passage qu’avec le forage horizontal, il est possible de pomper le pétrole se trouvant chez le voisin…

Un troisième exemple concerne le démantèlement des centrales nucléaires. D’un point de vue technologique, tout est bien maîtrisé. En revanche, il existe un problème humain et de société. Le dogme actuel impose d’enlever en fin de vie le combustible du réacteur, très radioactif, puis de démanteler l’installation, en la décontaminant, en la découpant en petits morceaux, et en recherchant un site pour mettre les déchets très faiblement radioactifs ainsi produits. Cela coûte très cher et comme les déchets doivent être déplacés, personne ne veut les accueillir. Le coût estimé est de l’ordre de quarante milliards d’euros.

On pourrait trouver des solutions plus simples. Ainsi, laisser la centrale sur place présenterait plusieurs avantages. L’idée serait d’enlever le combustible usé, de tout noyer sous du béton, puis de recouvrir le monticule avec de la terre et du gazon, éventuellement des éoliennes et des panneaux photovoltaïques. L’avantage serait de laisser les déchets dans un lieu où les gens ont l’habitude du nucléaire, et d’éliminer ainsi le problème d’acceptation. Qui plus est, de cette façon, le site pourrait continuer à produire un revenu alors que, d’un point de vue économique, le coût du démantèlement serait à peu près dix fois moindre. La question est donc : pourquoi ne réfléchissons-nous pas à ce type de solution ?

Pour conclure, si les innovations peuvent venir de la recherche, certaines n’en sont pas issues. La création de la société BlaBlaCar, la plus grande plateforme de covoiturage au monde, n’est pas issue d’un laboratoire de recherche.

Le progrès est toujours centré sur l’individu et la société, et une innovation doit toujours être source de progrès. Pour les innovations technologiques, les sciences humaines et sociales sont d’autant plus indispensables qu’elles touchent à l’homme et à la société. Par exemple, le particulier se moque que le kilowattheure soit produit par l’éolien ou l’hydraulique. Ce qu’il veut, c’est un kilowattheure. Mais pour le bâtiment, s’agissant de la manière dont on va organiser une maison, dont on va la chauffer ou la climatiser, la dimension de sciences humaines va être très importante.

M. Jean-Yves Le Déaut. Je vais donner la parole pour une présentation à deux voix sur le rôle des sciences sociales dans la prospective en matière d’énergie à MM. Olivier Labuissière et Alain Nadaï qui ont écrit ensemble un ouvrage : « L’énergie des sciences sociales », publié en 2015 par l’alliance ATHENA.

Le rôle des sciences sociales dans la prospective en matière d’énergie

M. Olivier Labussière, maître de conférences en géographie et aménagement à l’université Joseph Fourier, chercheur à l’Institut de Géographie Alpine, au sein du laboratoire PACTE (Politiques publiques, Action politique, Territoires), unité mixte de recherche du CNRS, de Institut d’études politiques de Grenoble et de l’université de Grenoble Alpes. Nous intervenons au titre du groupe de travail d’ATHENA « Énergie et sciences humaines et sociales ». Notre contribution va porter sur trois points. Le premier porte sur les conditions de synergie entre, d’une part, sciences humaines et sociales et, d’autre part, sciences technologiques, à partir de notre expérience dans l’élaboration collective de l’ouvrage que le président vient de mentionner, et qui est téléchargeable librement en ligne. Le deuxième point est un témoignage sur la capacité des sciences sociales à travailler en synergie à la construction de futurs énergétiques, à partir de plusieurs programmes de recherche récents que nous avons conduits. Enfin, nous essaierons de dégager trois propositions visant à favoriser les synergies entre sciences humaines et sociales et sciences technologiques.

L’ouvrage « L’énergie des sciences sociales » est né d’un groupe de travail interdisciplinaire, composé de représentants de diverses disciplines des sciences humaines et sociales, ainsi que de quelques membres de l’alliance ATHENA, comme indiqué par Mme Françoise Touboul. Lancé en 2011 par l’alliance ATHENA, alors sous la présidence du CNRS, ce groupe de travail avait pour mission de permettre aux sciences humaines et sociales de se positionner dans le champ des enjeux énergétiques. Cet ouvrage se présente donc comme un exercice de diplomatie visant, pour les sciences sociales, à se rendre lisibles par les sciences technologiques et, au sein des sciences sociales, par les économistes. Pour la première fois, l’agenda d’une perspective interdisciplinaire des sciences humaines et sociales sur les enjeux énergétiques est proposé.

Le processus mis en œuvre par l’alliance ATHENA s’inscrivait dans un double contexte de l’énergie en France. D’une part, dans la perspective de la transition énergétique, le renouvellement des enjeux politiques et technologiques de l’énergie prend une dimension systémique et devient une question de société. D’autre part, le contexte historique rend une collaboration immédiate et directe entre sciences sociales et sciences technologiques peu évidente. On peut le résumer de la façon suivante : un positionnement des sciences humaines et sociales en aval des processus de décision, c’est-à-dire sur l’analyse des effets et en appui à des choix technologiques le plus souvent réalisés, une forte présence et une autorité historique de l’économie sur les enjeux énergétiques et un présupposé implicite d’uniformité des sciences humaines et sociales qui se traduit par des comités d’experts composés d’un expert par technologie et d’un seul représentant des sciences humaines et sociales, le plus souvent économiste.

L’exercice réalisé par le groupe de travail énergie de l’alliance ATHENA a mis en évidence l’hétérogénéité des méthodes et des agendas au sein des sciences humaines et sociales, notamment entre l’économie et les autres sciences sociales. Il a également permis de dégager trois éléments de méthode en matière de construction de l’interdisciplinarité. Le premier consiste à viser l’amont et à le structurer. Il est important de structurer des aires d’interaction disjointes des projets de recherche, offrant un temps et un espace pour construire un langage commun et croiser des agendas de recherche au sein des sciences humaines et sociales.

Le deuxième élément de méthode consiste à procéder progressivement. Les sciences humaines et sociales étant hétérogènes, il est souhaitable de les structurer d’abord en communautés interdisciplinaires, avant d’aborder les coopérations avec les autres sciences.

Le troisième élément de méthode concerne l’international. Il s’agit de s’inspirer de la structuration de l’interdisciplinarité des sciences à l’étranger, celle-ci étant notamment très avancée dans le domaine énergétique au Royaume-Uni.

M. Alain Nadaï, directeur de recherche au CNRS, chercheur au Centre international de recherche sur l’environnement et le développement (CIRED). La seconde partie de notre témoignage porte sur la capacité des sciences humaines et sociales à renouveler l’abord des enjeux de transition énergétique. Nous nous appuyons sur plusieurs projets de recherche récents, dont un projet de l’ANR. L’enjeu climatique conduit à rechercher des politiques de transition énergétique organisées autour de solutions technologiques à grande échelle, telles que la capture et la séquestration du carbone, le nucléaire ou l’éolien offshore. Cette gouvernance par les quantités promet de faire émerger une économie décarbonée en un temps court et semble plus gouvernable d’un point de vue économique. Pour autant, elle restreint considérablement notre perception des enjeux politiques, sociaux et environnementaux de la transition. Seules sont discutées les options les plus homogènes et les mieux quantifiables.

Les sciences humaines et sociales livrent une toute autre réalité des processus de transition énergétique. Le développement de nouvelles énergies ouvre des processus aux dimensions multiples. Valoriser le vent ou le soleil ne se fait pas sans utiliser d’autres ressources. Par exemple, l’éolien terrestre a soulevé d’importants enjeux de structuration foncière et de paysage, ou encore d’intégration au réseau électrique. Tous ces héritages sociaux, institutionnels, technologiques et spatiaux, constituent bel et bien des ressources pour la transition énergétique. Beaucoup des contributions des sciences humaines et sociales rendent compte de ces dimensions et des enjeux de conduite de la transition qu’ils soulèvent. Elles montrent aussi que si l’on réduit cette dernière à des dimensions trop exclusives, elle peut susciter, paradoxalement, de nouveaux blocages et conduire à tuer les gisements, notamment renouvelables, à partir desquels les sociétés pensent résoudre le nœud du climat et de l’énergie.

Les sciences humaines et sociales ne s’en tiennent pas aux constats, elles apportent une vision renouvelée de la technologie en la décrivant comme un assemblage ouvert, social et technique, composé d’entités multiples, parfois instables et changeantes. Cette perspective permet de prendre en compte les dimensions sociales et environnementales des processus de transition, leur caractère systémique, les évolutions des parties prenantes et le besoin constant de s’accorder sur ce qui est prioritaire et sur ce qui apporte de la valeur. Ce n’est pas contradictoire avec l’agenda stratégique mais appelle à en moduler l’exercice, de manière à garder, pourrait-on dire, les futurs ouverts et à favoriser une diversité de réponses à l’enjeu du climat et de l’énergie.

Enfin, en dernier point, voici trois propositions pour favoriser les synergies entre sciences humaines et sociales et sciences technologiques. Tout d’abord, on l’a déjà dit à de multiples reprises, il convient d’améliorer la représentation des sciences humaines et sociales dans les comités scientifiques ou d’experts, que ce soit à l’ANR ou, par exemple, dans les ministères. Cela suppose de dépasser le présupposé fréquent d’uniformité des sciences sociales. Elles ne peuvent pas avoir un représentant unique. Deuxième proposition, il faut soutenir des structurations interdisciplinaires en amont des projets de recherche, de l’exercice usuel de la recherche. C’est décisif pour forger un langage commun, et ensuite déployer les recherches de manière conséquente et constructive. Enfin, dernière proposition, il faut demander un pilotage conjoint par les sciences technologiques et les sciences humaines et sociales, voire un pilotage de projets scientifiques interdisciplinaires par les sciences humaines et sociales.

M. Jean-Yves Le Déaut. Le dernier intervenant de cette table ronde, M. Patrick Criqui, est bien connu de l’Office, puisqu’il est déjà venu dans cette salle le 24 septembre 2015, pour notre conférence européenne sur l’apport de l’évaluation scientifique à la gestion du changement climatique. Je remercie M. Criqui d’avoir quitté, pour venir nous retrouver, juste après l’avoir ouvert, un colloque de l’ANCRE sur « La chaleur dans la transition énergétique ».

L’apport de l’analyse économique au pilotage de la transition énergétique

M. Patrick Criqui, directeur de recherche au CNRS, chercheur au Laboratoire d’économie appliquée de Grenoble, au sein de l’équipe « Économie du développement durable et de l’énergie ». Plusieurs intervenants ont positionné l’économie à l’interface entre les sciences humaines et sociales et les sciences technologiques. M. Alain Nadaï a bien marqué la spécificité de l’économie qui joue un rôle particulier dans ces questions de transition énergétique au sein des sciences humaines et sociales. Dans mon intervention, je voudrais essayer d’identifier ce que peut et ce que ne peut pas apporter l’économie dans la transition énergétique. Et je plaiderai pour une vision dans laquelle l’économie ne se conçoit pas comme une science autosuffisante dans ces domaines qui constituent un objet complexe renvoyant à différentes facettes de la société. Je vais essayer d’en illustrer quelques-unes.

Tout d’abord, sur ces sujets de changement climatique global, l’économie permet-elle d’identifier la bonne politique mondiale ? On l’a vu lors de la COP21, avec les débats sur la limitation du réchauffement à deux degrés ou un degré et demi. Certains économistes estiment qu’il faudrait adopter une approche économique pour connaître l’augmentation de température optimale, ce qui supposerait d’être capable de faire une véritable analyse coût-avantage des politiques de réduction des émissions de gaz à effet de serre. Mais il faut reconnaître que nous sommes très loin aujourd’hui d’avoir les capacités de mener cette évaluation exhaustive des impacts, surtout monétaires. Par conséquent, j’ai toujours considéré que, dans ce domaine, il valait mieux adopter non pas une analyse coût-avantage, mais une analyse coût-efficacité. C’est aux politiques, informés par les sciences de la nature, de fixer une norme environnementale, et c’est exactement ce qui s’est produit dans la négociation internationale avec le critère des deux degrés. En conclusion de ce premier point, les économistes, autant que les politiques, ont besoin des climatologues pour pouvoir travailler. Cela chagrine certains de mes collègues qui ne sont pas très satisfaits de cette situation.

L’économie permet-elle de fixer les termes de la négociation internationale ? Avant la COP21, il y a eu des débats. La communauté des économistes a fait preuve d’une très grande inventivité. J’ai recensé une quinzaine de propositions qui, selon leurs auteurs, pouvaient permettre de régler les termes de la négociation internationale. Certains disaient que l’on ne pourrait se mettre d’accord que sur un prix international du carbone, d’autres considéraient un marché international des quotas. Beaucoup de collègues ont travaillé sur les questions du financement. Cette créativité était tout à fait positive, sauf lorsqu’il est apparu l’idée qu’il aurait fallu laisser la négociation dans les mains des économistes, car c’était la seule manière d’arriver à un bon résultat et que, finalement, on pouvait bien se passer des diplomates. La COP21 a bien montré que les économistes n’avaient pas toutes les clefs de la négociation, loin de là. C’est sans doute une très bonne chose que des diplomates bien informés, et ayant bien préparé le terrain, aient pu être aux commandes de la négociation. L’économie ne peut pas tout. Elle a certainement besoin, dans ce cas précis, de spécialistes des relations internationales.

C’est différent pour l’évaluation des coûts de la transition énergétique, car les diverses catégories de modèles économiques sont assez bien adaptées à une évaluation des coûts et des stratégies de transition. Les modèles sectoriels qui se focalisent sur le secteur énergétique permettent une description assez fine des technologies énergétiques, et des évaluations de coûts fondées sur des estimations d’ingénieurs. On sait ce que cela coûte de remplacer une centrale à charbon par une turbine à gaz, et une turbine à gaz par une éolienne. Ce type d’études est assez propice, par exemple, à l’identification de ce que devrait être les prix du carbone dans les différents secteurs pour déclencher les bonnes transitions technologiques et les bonnes décisions des acteurs. De même, les modèles énergie-économie permettent d’explorer les conséquences macroéconomiques de l’introduction, par exemple, d’une fiscalité carbone. Ces modèles permettraient d’évaluer les conséquences de l’introduction d’un prix du carbone dans différents secteurs, et surtout de déterminer les solutions intelligentes de recyclage du produit d’une telle fiscalité.

Dans ce domaine, les économistes ont besoin de travailler avec d’autres économistes, car on comprend beaucoup mieux les mécanismes en jeu quand on compare les résultats de différents modèles et qu’on essaie de savoir pourquoi ils ne sont pas identiques, plutôt que de chercher isolément « le » bon résultat avec « le » bon modèle. Une des grandes faiblesses de ces modèles, que je connais bien pour les avoir longtemps pratiqués, est que, sur des sujets essentiels, ils ne nous disent pas grand-chose, en particulier sur tout ce qui peut renvoyer à des dynamiques économiques de très long terme, sur la manière dont les contraintes environnementales sont susceptibles de modifier la compétitivité industrielle de différents pays, ou sur ce que peut apporter l’innovation. M. Christian Ngô a évoqué Joseph Schumpeter, le grand économiste du changement technique et de l’innovation. Les modèles actuels sont souvent très pauvres du point de vue de cette prise en compte de l’innovation.

Parfois, on se demande si les scénarios de transition énergétiques vont être plus coûteux ou nous mettre sur une nouvelle trajectoire de développement, qui apportera de nouvelles opportunités d’investissement dans de nouvelles technologies en permettant, non pas de retrouver des chiffres de croissance phénoménaux, mais de soutenir la croissance tout en transformant profondément son contenu.

Le dernier point concerne ce que peut apporter l’économie aux politiques de recherche. En économie de l’innovation, les outils permettent de bien analyser ce que peuvent être, par exemple, les impacts des effets d’expérience. Des courbes permettent de retracer les gains de coût et de performance à attendre des effets d’apprentissage des nouvelles technologies. En revanche, il faut reconnaître que, en ce qui concerne l’économie de la recherche et développement, certains collègues font des choses très intéressantes sur la stratégie des acteurs, la manière dont cela se traduit à travers les brevets, etc. En revanche, on est assez démuni pour dire, compte tenu de ce que l’on sait du développement des différentes technologies, ce que serait le bon panier, la bonne répartition d’investissements dans la recherche et développement. Ce ne sont pas des questions sur lesquelles des réponses fermes sont apportées.

En conclusion, il y a un domaine, en particulier après la COP21, qui fournit des objets communs à la fois à nos collègues des sciences de la nature, aux technologues, à nos collègues des sciences sociales, aux sociologues et éventuellement aux psychologues, que l’on appelle la fabrique des futurs, à savoir la construction de scénarios. L’ensemble des pays signataires de l’accord de la COP21 participent à la construction des futurs décarbonés mais les économistes y contribuent avec un sentiment d’urgence qui occasionne parfois des différences de perspectives avec leurs collègues des autres sciences sociales.

Structurer les communautés, c’est très bien, mais il faut faire vite. Gouverner avec des feuilles de route, cela paraît parfois un peu brutal, mais l’urgence est là. C’est un des débats qu’il convient de développer et de cultiver entre les différentes communautés car il y va de la réussite rapide de la transition énergétique.

DÉBAT

Mme Dominique Gillot, sénatrice. Tout à l’heure, j’ai entendu quelqu’un dire qu’il faut élaborer des méthodes de dialogue entre les chercheurs et entre les disciplines. Il me semble que l’université est le lieu privilégié pour cette élaboration. C’est sa mission d’organiser ce dialogue, ces rencontres, ce brassage, ce métissage des idées, et c’est ce qu’attendent les étudiants. Les jeunes générations sont très demandeuses de cette ouverture. Elles ne sont pas dans une démarche immédiate de spécialisation. Je viens de prendre connaissance d’un rapport qui reprécise la place du design et des métiers d’art. Il préconise de les associer aux filières cognitives, pour profiter de l’évolution des connaissances et des méthodes. Il y a donc un travail à faire au sein des universités et des groupements universitaires.

Je voudrais ensuite poser une question peut-être un peu malicieuse. Vous avez fait une démonstration sur le démantèlement des centrales nucléaires en donnant des chiffres… Vous avez terminé avec un « pourquoi ? » Je vous le renvoie. Pourquoi ne choisit-on pas la seconde solution de démantèlement ?

Enfin, à ce qui a été dit des conditions de réussite d’une innovation, avec la part du marketing, j’ajouterai l’art de susciter le désir. On a tous été en contact avec ces machines à café, présentées comme une innovation phénoménale, qui font que la tasse de café, sans être forcément meilleure, coûte dix ou quinze fois plus chère que celle issue d’une cafetière ordinaire. Mais le consommateur y a cru. Je vous demande, à vous chercheurs, de suivre le devenir de cette nouvelle machine à thé, qui est présentée comme similaire à la machine à café. Le consommateur va-t-il être aussi naïf face à elle, ou va-t-il comprendre que faire son thé avec une théière c’est mieux que d’utiliser une pastille ? Il faut considérer qu’il existe d’autres sciences, d’autres outils qui viennent contrecarrer quelquefois certaines analyses.

M. Christian Ngô. Pourquoi n’utilise-t-on pas la seconde solution de démantèlement des centrales nucléaires ? Je me demande si nous ne sommes pas partis avec des œillères sur la première. La seconde présente beaucoup d’avantages et, comme elle permet de passer d’un coût de 40 milliards d’euros à 4 milliards, elle ouvre la question de ce que l’on ferait des 36 milliards économisés. On peut les investir. Je me demande pourquoi nous n’y réfléchissons pas. C’est presque du bon sens. Pour la deuxième question relative à une nouvelle machine à thé, le choix sera fait par le consommateur.

Mme Françoise Touboul. Je vais faire une première réponse en tant que représentante du CEA, pour signaler que beaucoup de gens travaillent sur le sujet soulevé par M. Christian Ngô. Dans l’industrie du nucléaire, on l’aborde en prenant en compte la double dimension du seuil de libération, c’est-à-dire du niveau de radioactivité en deçà duquel on peut réutiliser les matériaux, et de l’état final. Nous n’en sommes pas restés à cette dichotomie assez simpliste.

Par ailleurs, je voudrais revenir sur votre interrogation concernant ce qui se passe dans les universités, en citant une initiative en cours de mise en place dans une université un peu spéciale, Paris-Saclay. On y crée une initiative « Énergie », à laquelle on a associé dès le départ la Maison des sciences humaines et sociales.

M. Claude Didry. Merci d’en parler. Je confirme.

Mme Laurence Devillers. C’est la même chose pour Paris-Sorbonne, qui est aussi une université spéciale, avec beaucoup de travaux communs aux sciences humaines et sociales (SHS) et aux sciences et technologies de l’information et de la communication (STIC).

QUATRIÈME TABLE RONDE :
L’APPORT DES RECHERCHES PLURIDISCIPLINAIRES À L’ANALYSE DU PHÉNOMÈNE DE RADICALISATION

M. Jean-Yves Le Déaut. Nous avons tenu, avec M. Alain Fuchs, à organiser cette quatrième table ronde, tout en étant conscients que la totalité de la question ne pourra évidemment être abordée en quatre interventions.

Mais il s’agit là surtout pour nous d’analyser le rôle des synergies entre différentes sciences sociales afin de mettre en valeur l’apport des approches croisées, des points de vue différents, en vue d’aller plus loin dans la connaissance. Après les attentats terroristes de 2015, et notamment le premier attentat, l’alliance ATHENA a alerté l’OPECST sur le fait qu’elle avait rassemblé un corpus de travaux sur le processus de radicalisation, et qu’elle souhaitait son soutien pour les présenter. Nous avons hésité car ce type de sujet ne relève pas directement de notre mission mais plutôt de celle des commissions permanentes compétentes. De plus, des commissions d’enquête ont été créées au Parlement spécifiquement pour analyser le terrorisme. Néanmoins, nous avons pensé pouvoir aborder la question de la radicalisation sans sortir de notre rôle au sein du Parlement, en nous situant dans le cadre d’une réflexion sur les synergies entre les sciences tout en restant sur le terrain de l’évaluation scientifique et de la pluridisciplinarité car, s’agissant de la radicalisation, le problème posé est d’abord de sélectionner les bonnes informations et de les analyser de manière pluridisciplinaire.

Nous abordons donc cette quatrième table ronde non pour traiter de la radicalisation de manière exhaustive mais pour mettre en valeur l’apport d’une approche pluridisciplinaire diversifiée, en l’occurrence celle des neurosciences cognitives, avec M. Yoursi Marzouki, de la sociologie du militantisme avec Mme Sylvie Ollitrault, enfin de la psychopathologie et de la psychanalyse, avec M. Fethi Benslama. Nous avons réussi à contacter M. Scott Atran, anthropologue américain, qui travaille sur ces sujets. Il n’a pas pu être des nôtres, mais il m’a fait parvenir un petit texte que je lirai tout à l’heure.

Je donne la parole à M. Yoursi Marzouki, maître de conférences à l’université d’Aix-Marseille, avec qui nous sommes entrés en contact grâce à un membre de notre conseil scientifique, M. Olivier Oullier, professeur dans la même université.

Le rôle des réseaux sociaux dans le développement du radicalisme

M. Yoursi Marzouki, maître de conférences à l’université d’Aix-Marseille, chercheur au laboratoire de psychologie cognitive (LPC). En tant que chercheur en psychologie cognitive et en neuroscience, j’ai articulé ma présentation autour de trois questions. Elles portent en premier lieu, sur le nouveau cadre de transmission de l’information dans lequel s’inscrivent les actions radicales en ligne ; en deuxième lieu, sur la capacité des réseaux sociaux à attirer tant de sympathisants, singulièrement des jeunes ; en troisième lieu, sur une question de nature plus sociétale ou éthique : doit-on suspendre, contrôler, ou juste se contenter de surveiller les actions en ligne ?

L’arrivée d’Internet a révolutionné le paradigme de transmission de l’information entre les individus. Auparavant, l’accès à l’information était exclusivement unidirectionnel, avec quelques sources : la presse, la télévision, etc. Aujourd’hui, avec le développement des moyens technologiques comme le téléphone intelligent, on devient non seulement consommateur passif mais aussi producteur d’information, ce qui génère un foisonnement.

L’information ne constitue plus un problème d’accès ou de disponibilité, mais d’organisation. L’historien et l’enseignant d’aujourd’hui sont face à un vrai défi : comment organiser l’information ? Cela génère un coût, sous la forme d’une charge supplémentaire pour nos ressources mentales et cognitives.

S’ajoute à cela l’arrivée des réseaux sociaux, épiphénomène sortant directement d’Internet. Ils ont non seulement révolutionné la façon de communiquer mais aussi donné corps au concept de Collusion Effect (effet de connivence) décrit par M. Sid Mohasseb, directeur général de Wise Window Inc., entreprise du Big Data. On pensait le monde réel séparé du monde virtuel. Ce n’est plus le cas. Nous devons composer avec cette réalité. Il y a notre virtualité digitale numérique et notre environnement réel. Cet entremêlement nous expose à quelques risques.

Le premier tient au paradoxe de la vie privée car toute trace en ligne est indélébile, autant pour l’utilisateur sporadique que pour l’utilisateur fréquent d’Internet. Les constantes modifications des paramètres de sécurité et d’ergonomie des interfaces des réseaux sociaux s’effectuent désormais aux limites de la technicité. À part les geeks qui s’y connaissent, les utilisateurs n’ont plus la patience de suivre l’évolution de ces paramètres de sécurité de la vie privée.

Des travaux ont montré que, au cours des cinq dernières années, à l’insu des utilisateurs, Facebook a augmenté de façon significative les modifications apportées à ses paramètres, ce qui ne l’a pas empêché de dépasser le milliard de comptes sur la planète, sans régression envisagée. Ce paradoxe reprend la prédiction de M. Philip K. Dick, auteur américain de science-fiction, concernant la cité vitrée, c’est-à-dire un monde de transparence absolue. Et pourtant ce défi est accepté, les gens ne cessant de souscrire à cette logique.

Ces travaux s’inscrivent dans un domaine de recherche tout récent, apparu voici quatre ans : la psycho-informatique, qui s’inspire de la bio-informatique. Il est né de la possibilité, grâce à l’accès au Big Data, de réaliser des expériences tout en restant assis devant son ordinateur, sans être obligé d’aller sur le terrain. Il convient alors d’être muni d’un bon modèle de comportements et d’une bonne approche en termes d’analyse des données, s’inspirant de la théorie des graphes et de celle des réseaux.

L’un de ces travaux a ainsi consisté à essayer de comprendre l’algorithme de Facebook à partir de contenus partagés, par exemple le nombre de Like (« J’aime ») émis, cet algorithme permettant de classer la personnalité des utilisateurs. Les profils résultant de l’algorithme ont été comparés à ceux des collègues, des amis, des membres de la famille et des conjoints. Cela a permis de mettre en évidence la proximité particulière des conjoints. On a pu vérifier aussi que l’algorithme a une performance supérieure à celle des juges humains utilisés pour l’expérience.

J’insiste sur le fait que ces réseaux sociaux jouent un rôle de catalyseur pour tous les comportements humains, y compris celui de radicalisation. Celle-ci prend du temps ; ce n’est pas du jour au lendemain que l’on se radicalise. D’abord, l’espace se rétrécit dans le monde virtuel ; le temps se raccourcit ; l’anonymat est prépondérant ; tout se fait sans effort. Ce qui met du temps à se matérialiser dans la vie réelle se fait à une vitesse virale, épidémique, quand on est en ligne.

Ces caractéristiques définissent un cadre parfait pour développer et renforcer le comportement de radicalisation. Les travaux déjà effectués en psychologie avant l’arrivée des réseaux sociaux montrent que la radicalisation est motivée par un contexte d’échec social ou un contexte économique et politique incertain, qui poussent les gens à chercher un groupe capable de renvoyer une sorte d’écho, d’image en miroir de leur échec.

Si ces groupes se développent si vite en ligne, c’est qu’ils ne prétendent pas à une image élevée mais affichent, au contraire, une grande modestie, ce qui rassure sur le fait de pouvoir souscrire à leur logique.

Cette logique est poussée jusqu’à atteindre l’entitativité, c’est-à-dire jusqu’à parvenir à une fermeture d’esprit, une forme de déconstruction mentale de type idéologique, avec des rituels. L’aspect vestimentaire en constitue l’élément le plus apparent, mais ce n’est pas le seul. Finalement, on finit par faire corps avec l’organisation.

En examinant le groupement Al-Qaïda dans nos travaux avec nos a priori d’Occidentaux, nous avons cru qu’il était extrêmement organisé. C’était une grossière erreur. Le concept de fraternité – en anglais, brotherhood – nous a échappé pendant très longtemps. Celui-ci conduit à une organisation complètement différente, qui caractérise les groupes islamistes. Il s’agit d’une forme de leadership moral, qui échappe à celui, formel, que nous connaissons.

M. Scott Atran donnait, le 3 mars 2015, le premier témoignage dans la littérature sur des membres du groupement Daech. Les trois combattants interrogés étaient très jeunes. L’absence d’un environnement sécurisant au sein de leur famille et l’invasion américaine étaient en grande partie responsables de la fermeture pour eux de toutes les issues d’espoir, rendant ces jeunes sensibles aux tentatives de recrutement.

Une chose est claire, ils ne connaissaient rien du Coran, ni de l’histoire de l’Islam, sauf ce qu’ils en avaient appris des membres des groupements Al-Qaïda et État islamique. Aucun d’entre eux n’avait un niveau dépassant l’enseignement primaire.

Au début de l’année 2015, j’ai effectué une étude à partir des principales sources de presse en ligne à l’origine d’articles ayant provoqué du buzz, avec le mot clef Daech, sur la période allant du 7 août 2014 au 16 février 2015. Pour ces dix sources en ligne, 99 % de partage a été effectué sur Facebook avec plus de 2,7 millions d’échanges. Twitter venait ensuite avec 32 000 échanges, puis Google+ et Linkedin, plus centrés quant à eux sur les universitaires et les intellectuels. La majorité de la masse de sympathisants radicaux se retrouve sur Facebook et Twitter.

Un élément démographique intéressant échappe parfois aux travaux : on estime la part de la génération Z, celle qui a toujours connu les technologies de l’information et de la communication, à 85 % des sympathisants et des actifs en ligne dans les groupes radicaux. Il n’y a aujourd’hui, dans cette salle, aucun représentant de cette tranche d’âge. Cela renforce encore le fossé intergénérationnel et le manque de dialogue.

Ces personnes ont beaucoup de défauts de notre point de vue mais elles ont également beaucoup de qualités. L’une d’entre elles est d’être incapable de travailler de façon isolée. Elles ont une grande propension à se retrouver en réseaux, ce qui renforce leur facilité à communiquer des informations.

Lancé par le groupement Al-Qaïda en 2010, Inspire Magazine a été conçu pour promouvoir le radicalisme islamiste. En 2014, un numéro spécial, le numéro douze, a été entièrement écrit par les membres du groupement Daech. Les grands spécialistes en marketing journalistique s’accordent tous sur le professionnalisme de ce magazine en ligne. Il contient des témoignages et des tutoriels sur la fabrication d’une bombe. Une meilleure appréhension de cette publication aurait permis de prévoir les attaques du marathon de Boston car elles étaient directement inspirées par ce numéro.

Pour conclure et évoquer rapidement la troisième question que je me proposais d’aborder, des initiatives ont été prises par l’UNESCO consistant à demander à des jeunes non radicaux de combattre le radicalisme avec les armes et les outils qu’il utilise lui-même.

Il importe, en effet, de bien comprendre les techniques de communication employées par le radicalisme. Aussi, je ne pense pas que fermer ses sites seraient une bonne idée car ils constituent autant d’Open Access Intelligence pour nous les chercheurs qui pouvons ainsi récupérer des données pour essayer de mieux comprendre les mouvances radicales.

M. Jean-Yves Le Déaut. Je donne maintenant la parole à Mme Sylvie Ollitrault, directrice de recherche au CNRS et co-responsable de l’équipe « Mobilisations, citoyennetés et vie politique » au sein du Centre de recherches sur l’action politique en Europe (CRAPE), laboratoire rattaché au CNRS, à l’université Rennes 1, à Institut d’études politiques de Rennes et à l’École des hautes études de santé publique. Madame Ollitrault, vous êtes une spécialiste de la sociologie de l’action collective et de l’engagement, du militantisme, et c’est sous cet angle que vous proposez une analyse de la radicalisation.

Sociologie du militantisme, radicalités et radicalisations

Mme Sylvie Ollitrault, directrice de recherche au CNRS, membre du Centre de recherches sur l’action politique en Europe (CRAPE), université de Rennes 1. Je ne vais pas balayer en sept minutes la variété des recherches autour de la question de la radicalisation.

Il s’agit d’une vieille question, bien documentée, en tout cas dans mon champ de recherche qui est la sociologie politique. Cette matière est pluridisciplinaire puisque, sur les questions de militantisme par exemple, l’auteur le mieux connu, qui fait presque l’unanimité, a travaillé en tant qu’historien. Il s’agit de M. Charles Tilly. Il nous aide beaucoup car il nous a permis de penser les formes de comparaison et les formes de temporalité. En effet, les transformations des modes d’action évoluent avec le temps, pour l’individu comme pour le collectif.

Actuellement, je m’intéresse beaucoup à la radicalisation et collabore avec M. Jacques Semelin, spécialiste des violences collectives et des massacres, qui utilise ce terme englobant le génocide et toutes les formes d’actions terroristes. J’en parlerai dans la deuxième partie de ce propos. En sociologie du militantisme, les analyses se font en considérant soit les individus, soit les collectifs.

Dans le premier cas, on n’est pas loin de ce que fait M. Yoursi Marzouki, en regardant la plupart du temps les réseaux de familles ou de pairs. Mais l’on a déjà constaté, depuis une dizaine d’années, que les réseaux Internet ou les communautés virtuelles construisent également des identités fortes, qui peuvent concurrencer les réseaux de familles et de pairs. Tout l’intérêt est de constater que, dans des aires culturelles éloignées, il peut y avoir des réseaux très forts, claniques, de parenté. Ils concernent des jeunes que l’on a vu dans les printemps arabes ou ailleurs. Ils ne sont pas membres du groupement Daech, mais ils ont une capacité à passer à l’acte, pas forcément de façon violente. Ils utilisent les réseaux sociaux sur Internet, qui, pour les moins de vingt-cinq ans, viennent faire vaciller les réseaux que sont les familles et les pairs, c’est-à-dire ceux de leurs proches. Ainsi ils s’émancipent des barrières connues. Donc on peut aborder la question par des récits de vie individuelle qui, grâce aux recherches, commencent à produire des données comportant des invariants. D’ailleurs, cette question sera peut-être abordée dans le débat tout à l’heure. Nous avons beaucoup de données mais la communauté de chercheurs ne les a pas encore mises dans l’espace public.

En sociologie du militantisme, on peut également examiner le collectif, les modes d’organisation. Sans sociologie des organisations, sans une connaissance minimale du management des collectifs, ce qu’on observe ne pourrait pas être compris. Par exemple, s’agissant des groupes les plus radicalisés, et cela est confirmé par toute la littérature sur les terroristes depuis les années 1970, on observe qu’il s’agit de groupes fermés, avec des rituels d’initiation, dans un
entre soi, dont le coût de sortie est élevé. En effet, la radicalisation est une chose, mais la déradicalisation en est une autre. L’Italie a eu l’expérience de l’une et de l’autre. La tension entre société et organisation est déjà bien documentée.

Une autre question est celle de la violence. Comment en arrive-t-on, dans une société dite « pacifiée », comme la qualifierait M. Norbert Elias, à recourir à la violence ? Nous n’avons pas les outils des psychologues mais, en tant que sociologues, nous observons que nous sommes dans une société où la violence ne fait pas consensus. Ce n’est pas une arme politique quelconque. Si elle est choisie, on peut se demander ce que cela veut dire, notamment pour les groupes, car généralement ils ne passent pas immédiatement à l’excès du massacre.

M. Jacques Semelin a beaucoup réfléchi sur la temporalité du massacre, et sur l’organisation en amont qui y conduit. Il a étudié l’organisation de génocides, avec parfois des États entiers impliqués. Mais on peut observer aussi au niveau des groupes ou du processus de massacre lui-même, en construisant une typologie : massacre ciblé ou indifférencié, de type génocidaire. On l’a vu récemment, on est tué pour des raisons soit symboliques – le symbolique parfait étant l’hebdomadaire Charlie Hebdo – soit indifférenciées, comme au Bataclan, la catégorie la plus large, toute une population civile étant alors visée.

Pour finir en ouvrant le débat, il existe déjà des réseaux importants de recherche, y compris au niveau international, avec l’European Consortium for Sociological Research (ECSR) ou l’European Philosophy of Science Association (EPSA). La plupart des unités mixtes de recherche (UMR) savent à peu près s’auto-organiser au sein de ces réseaux. Mais il faudrait les renforcer car, au moment où la recherche est interpellée par la société civile, ces réseaux ont du mal à s’activer. Cela ne veut pas dire que l’on ne réagisse pas car, au CNRS, nous avons commencé à penser à une école thématique qui pourrait être une structure d’interdisciplinarité des sciences humaines et sociales sur la question de la radicalisation. Il reste le problème des données déjà emmagasinées dans divers UMR, qui ne sont pas encore diffusées dans l’espace public.

M. Jean-Yves Le Déaut. Je donne la parole à M. Fethi Benslama, auteur, en 2015, d’un livre remarqué sur le sujet de cette table ronde : « L’idéal et la cruauté, subjectivité et politique de la radicalisation ».

Les ressorts subjectifs du processus de radicalisation et du passage à l’action violente

M. Fethi Benslama, professeur de psychopathologie clinique, directeur de l’UFR d’études psychanalytiques et de l’Institut des humanités à l’université Paris Diderot, membre de l’Académie tunisienne. Le problème de ce que l’on appelle aujourd’hui radicalisation, c’est que l’on y met beaucoup de choses. Tel que j’ai pu l’approcher sur le terrain, depuis les années 1990, à partir de consultations en Seine-Saint-Denis ou avec des associations de quartier, elle est la condensation de plusieurs facteurs d’inégale importance selon les périodes et les cas. Depuis l’amplification de l’offre salafiste et djihadiste sur Internet et la guerre en Syrie, le facteur de la fragilité psychologique des personnes radicalisées a dépassé, à mon avis, les autres, tels que la classe sociale ou le niveau d’instruction, pour des raisons qui seraient longues à analyser mais dont une partie a été exposée par M. Yoursi Marzouki.

Je vais souligner deux aspects apparaissant dans les données fournies par le ministère de l’Intérieur, sur cinq mille personnes signalées comme radicalisées. D’abord, il s’agit très majoritairement de personnes jeunes: les deux tiers ont entre quinze et vingt-cinq ans et le quart sont des mineurs. Ensuite, le nombre de celles que l’on désigne par l’expression « converties » avoisine les 40 %.

Concernant le premier point, l’âge de quinze à vingt-cinq ans correspond à la période de la transition de l’adolescence, qui confine à l’adolescence persistante ou à la post-adolescence, lorsqu’on va au-delà des vingt-cinq ans. Sur le plan de la clinique psychologique, cette transition liée à l’adolescence est marquée par des perturbations symptomatiques de failles identitaires importantes qui vont parfois jusqu’à la pathologie. Je n’entends pas, par faille identitaire, les seuls problèmes d’identité culturelle mais l’identité de la personne humaine propre à cette période de la vie, qui consiste en des remaniements qui touchent à des aspects fondamentaux tels que le moi ou le non-moi, la vie, la mort, le réel et l’irréel, le monde d’ici et l’au-delà. Ces remaniements sont très cruciaux. Certaines personnes qui connaissent ces difficultés et ces impasses les vivent parfois dans un état asymptomatique dans lequel ces dernières n’apparaissent pas, de sorte qu’elles sont découvertes tardivement par leur famille. Ces personnes sont donc imprévisibles dans leurs attitudes. D’autres ont déjà un parcours marqué par des tendances antisociales et des transgressions : délinquance, actes d’incivilité, etc.

Quand ces jeunes rencontrent l’offre de radicalisation – et je l’ai constaté pour des adolescents en grande difficulté – ces failles sont colmatées. Les perturbations sont d’une certaine façon recouvertes, comme si l’on avait posé dessus un nouveau revêtement ou une sorte de chape apportée par la croyance totale dans ce que propose le processus de radicalisation. Il en résulte pour ces sujets une sédation de leurs angoisses, un sentiment de libération et des élans de toute puissance. Le sujet devient autre. Il adopte d’ailleurs un autre nom, tout en abdiquant une large part de sa singularité. C’est la raison pour laquelle les radicalisés, pourrait-on dire, se ressemblent et tiennent les mêmes discours, comme s’ils étaient la même personne. Pour ceux qui ont des conduites antisociales ou transgressives, ils obtiennent, à travers la radicalisation, une sorte de légitimation ou d’anoblissement de leurs pulsions. Le sujet qui adhère à cette offre opère au fond une réparation de lui-même, la création d’un nouveau soi, à travers la rencontre d’une croyance qui ne souffre aucun doute. L’adhésion à la radicalisation apporte un soulagement, sinon même une sorte de guérison des troubles. Il faut donc avoir à l’esprit cette efficacité de l’offre de la radicalisation par rapport à ces sujets qui peuvent être en souffrance.

Le deuxième point concerne les convertis. Certains n’appartiennent pas à un milieu familial musulman. D’autres, la majorité des 40 %, sont issus de familles de culture musulmane mais n’ayant pas de pratique religieuse. Une partie d’entre eux va vivre la situation intérieure que j’ai décrite tout à l’heure, mais avec une particulière virulence. Un phénomène est remarquable : le désir de radicalisation précéde la rencontre du produit sur le marché répondant le mieux à leur besoin.

Je voudrais formuler une préconisation. En France, nous avons besoin d’une étude exhaustive de cette question de la radicalisation avec la participation de plusieurs chercheurs, à partir d’une base d’informations dont nous disposons aujourd’hui. Il s’agit du grand fichier géré par l’Unité de coordination de la lutte antiterroriste (UCLAT) : le fichier de traitement des signalés pour la prévention et la radicalisation à caractère terroriste (FSPRT). Un premier appel d’offres a été infructueux. Ce fichier est très important ; il relève d’un traitement de Big Data. La direction des études de l’UCLAT m’a montré sa structure. Il concerne quatorze mille personnes, dont cinq-mille inscrites depuis 2014. Il est très bien construit, avec des informations larges et importantes. Il me semble qu’il ne faudrait pas seulement lancer un appel d’offre mais construire une équipe pluridisciplinaire coordonnée qui puisse travailler sur ce fichier. On pourrait ainsi obtenir, dans des délais assez rapides, une vue d’ensemble de ce que l’on appelle la radicalisation. C’est très urgent pour des raisons politiques mais également pour certains de ces jeunes, à des fins de prévention, sur le plan sécuritaire, social et psychologique.

Je n’aurai pas le temps de parler des centres expérimentaux de déradicalisation qui vont se mettre en place. Nous avons, là aussi, besoin de dispositifs de recherches en même temps que d’action et de traitement, sinon on risque de ne pas comprendre ce que l’on fera. Ce serait une source très importante de connaissances pour les chercheurs, mais cette mise en place tarde.

M. Jean-Yves Le Déaut. Nous avons pu contacter le représentant d’un groupe du nom de Casimir, qui signifie : « Comportement des acteurs militaires et renseignement ». C’est un programme, conçu notamment en soutien aux dispositifs de lutte contre la radicalisation, de recensement de techniques et de méthodes issues de sciences humaines et sociales qui permettent d’améliorer l’analyse des comportements. Les membres de ce groupe ont rendu un rapport. Mais pour présenter ce programme sous ses aspects les plus opérationnels, je voudrais donner la parole à Mme Viviane Seigneur, chercheur indépendant, invitée au Centre d’études des relations internationales de l’Institut d’études politiques de Paris et consultante pour le ministère de la défense. Mme Viviane Seigneur, sollicitée hier, a pris un train de nuit pour être avec nous aujourd’hui, et je l’en remercie vivement. M. Philippe Lemercier, qui a lancé ce programme au ministère de la défense, en 2014, est également parmi nous ce matin. Il pourra s’exprimer dans le débat tout à l’heure.

Mme Viviane Seigneur, chercheur indépendant invitée au Centre d’études des relations internationales de l’Institut d’études politiques de Paris, consultante pour le ministère de la défense. D’une manière générale, vous en conviendrez tous, piloter une dizaine de chercheurs en vue d’un travail collectif n’est déjà pas trop dans notre ADN mais pratiquer, en plus, l’interdisciplinarité n’a pas non plus été pour moi une chose simple.

En revanche, nous étions tous issus des sciences humaines et sociales. J’ai entendu tout à l’heure M. Gianluca Manzo dire que nous avons une certaine conscience de notre illettrisme mathématique. C’est vrai. Nous avons donc pris notre grigri de l’École des mines pour essayer de compenser notre inculture en la matière. En effet, pour aborder les questions de radicalisation, toute l’expérience du numérique est indispensable. Elle a une intensité émotionnelle et sociale incontournable aujourd’hui, et ce n’est pas le lieu des mosquées qui nous intéresse le plus. J’ai l’impression qu’en sciences humaines et sociales, malgré l’interdisciplinarité, on s’approprie assez rapidement les travaux qui tiennent la route. En sociologie psychosociale et en ethnographie, les frontières sont poreuses.

Il existe une grande différence entre la radicalisation religieuse et la radicalisation violente. On pourrait associer le fondamentalisme avec le salafisme piétiste. Pourtant cette dernière pratique s’abstrait de toute violence et de toute politique, tant dans l’idéologie que dans le discours. Il existe des lignes de fractures claires entre un djihadiste et un salafiste piétiste. Malheureusement, nous n’avons pas eu le temps de donner ces informations avant les perquisitions administratives qui se sont déroulées dans de nombreux lieux de culte. Nous avons ainsi perdu beaucoup de temps sur de fausses pistes et des amalgames. Je le comprends car, pendant une crise, on essaie d’agir. Les djihadistes ont un discours sur l’illumination, l’apocalypse imminente et l’apologie du martyr. Tout cela est impensable chez les salafistes piétistes. La documentation et l’ethnographie nous permettent de comprendre certains éléments de manière opérationnelle, pour éclairer la gendarmerie ou des services plus spécialisés, ou même des intervenants sociaux.

Pour la radicalisation violente, même si l’on sait qu’il n’y a pas de portrait-robot du terroriste, il existe des invariants. L’essentiel de la différence entre la radicalisation violente et la radicalisation religieuse tient justement dans le rapport à la violence et à la clandestinité. Les salafistes piétistes sont dans l’ostentation et dans la distinction, au sens « bourdieusien » du terme. Ils n’ont pas intérêt à se dissimuler puisque, pour eux, toute la plus-value symbolique est, au contraire, dans l’apparence.

Nous avons besoin du savoir-faire de nos amis du numérique, notamment pour toutes les pratiques de clandestinité. Nous avons étudié quelques organes de propagande des réseaux djihadistes. Dar Al Islam, un journal francophone de propagande à leur destination, comporte une rubrique « gestion du risque du musulman », avec toutes les pratiques de clandestinité à adopter, notamment sur Internet : utilisation d’un réseau privé virtuel ouVPN, du deep Internet, etc. Le saut générationnel dans l’expérience du numérique, notamment dans ses applications affectives et sociales, est remarquable. Dans les services de renseignements où la moyenne d’âge est la même que celle autour de cette table, on les appréhende difficilement. C’est bien par cette rencontre du technologique, des sciences de l’ingénieur et des sciences humaines et sociales que l’on arrivera vraiment à faire des étincelles, parce qu’énormément de choses aujourd’hui se passent à cette confluence.

Je terminerai avec la question de la déradicalisation. Je n’aime pas ce terme, d’abord parce qu’il contient un côté « cure stalinienne », comme s’il y avait une bonne façon de pratiquer la religion et de penser. Cela me dérange énormément. En revanche, on sait, à partir des travaux sur les personnes issues du terrorisme, que leur manière de passer à autre chose consiste souvent à se désaffilier, sans se déradicaliser. Cela veut dire que, globalement, si l’on a été aux Brigades rouges, on devient rarement un militant de Les Républicains. On retrouve ces indications dans les témoignages des déserteurs de la zone syro-irakienne, notamment au travers de leurs dénonciations des luttes fratricides qui vont à l’encontre de cet imaginaire de la communauté des musulmans, l’Oumma, où tous devraient être frères. Finalement, ils se sont rendu compte que plutôt que d’aller lutter contre M. Bachar el Assad, ils ont combattu entre eux. Ils ont découvert les atrocités commises à l’encontre d’innocents qui n’étaient pas des Yézidis, mais des Sunnites. On découvre donc une intégration, un rapport à la violence qui reste très marqué chez ces personnes, avec une forme de banalisation, de légitimité et de justification.

M. Jean-Yves Le Déaut. Je donne la parole à M. Alain Fuchs, qui a fait appel, le 18 novembre 2015 après les attentats de Paris, à des projets de recherche sur la radicalisation, ouvrant la voie à des solutions nouvelles, sociales, techniques et numériques. Certains d’entre vous sont concernés par ces sujets, et j’espère que vous lui avez répondu. Cet appel invitait particulièrement à explorer les croisements de champs disciplinaires.

Bilan de l’appel lancé le 18 novembre 2015 pour susciter des projets de recherche sur la radicalisation

M. Alain Fuchs, président du CNRS. Je remercie l’OPECST et son président, ainsi que les personnes organisatrices de cette audition. Celle-ci représente, en quelque sorte, un premier essai que je crois très réussi. Je remercie tous les intervenants qui, en des durées très réduites, ont réussi à faire passer des messages extrêmement intéressants. Cette quatrième table ronde est évidemment trop courte, Mais s’il y a de la frustration, c’est plutôt une bonne chose parce que cela nous donne envie de nouer des contacts, de consolider les réseaux et de les faire travailler ensemble dans un esprit interdisciplinaire.

Je vais dire, en deux mots, ce qui s’est passé en 2015 au sein de l’alliance ATHENA. Après les évènements du début de l’année 2015, c’est-à-dire les attentats contre l’hebdomadaire Charlie Hebdo et le supermarché Hyper Cacher, nous avons lancé un recensement des travaux existants ou en cours sur cette radicalisation. Celui-ci a fait l’objet d’un rapport que je remettrai la semaine prochaine, au nom du directoire de l’alliance ATHENA, au secrétaire d’État à l’enseignement supérieur et à la recherche. Évidemment, ce recensement n’est pas exhaustif, mais on commence à avoir une bonne idée de tout ce qui a été fait depuis les années 2000, ou un peu avant, et c’est considérable. Nous commençons à disposer d’une cartographie des travaux menés dans tous les domaines mais pour l’essentiel dans ceux des sciences humaines et sociales. Cette cartographie nous sera très utile. Elle permettra de créer des contacts pour constituer des groupes de travail.

Nous avons dialogué avec les décideurs politiques et les interlocuteurs des ministères techniques : Intérieur, Justice et Défense. Nous constatons notamment un contraste entre l’existence de nombreux travaux de très grande qualité, ne serait-ce que dans la sphère francophone – sachant que nous élargissons cette cartographie à l’international, et un transfert non réalisé ou très limité. Personne n’en est coupable car le milieu académique, d’un côté, celui des décideurs, de l’autre, ne refusent nullement de travailler ensemble mais ont des logiques différentes, d’autant que les demandes n’étaient pas explicites. Elles le sont aujourd’hui.

Quel peut-être l’effet de nos travaux de recherche sur l’action publique ? Les événements dramatiques du mois de novembre mettent cette question sur la table. Dans le contexte de l’après 13 novembre 2015, nous, chercheurs, sommes taraudés, au-delà de l’émotion et de l’horreur, par le désir de comprendre. Loin de nous l’idée d’affirmer que rien n’avait été fait, bien au contraire. Mais nous avons néanmoins jugé opportun de lancer un appel à projets sous une forme très légère. L’idée est de consacrer un peu d’argent à des travaux d’amorçage, des projets qui peuvent améliorer nos connaissances, faire émerger des idées nouvelles et qui ne viendront qu’en complément de tout ce qui existe déjà.

Il se trouve que cet appel a connu un certain succès. Nous avons reçu deux cent cinquante-cinq réponses, des propositions de recherche, des témoignages, des lettres d’intention, des informations sur des colloques, des articles, des publications en cours, des films et d’autres contributions. Nous allons fonctionner d’une façon qui ne correspond pas du tout à une agence de financement traditionnelle. Nous n’allons pas faire du compétitif, mais travailler de façon collaborative sur l’ensemble de ces projets, en tenant compte de la cartographie que nous connaissons. Nous allons chercher non pas à animer nous-mêmes mais à contribuer à l’animation d’une communauté en faisant venir dans des groupes de travail ceux de nos collègues qui ont répondu à l’appel à projets ainsi que ceux travaillant sur les mêmes sujets identifiés par notre cartographie. Nous essaierons de créer un peu de lien et de structurer une communauté. C’est un peu prétentieux, on ne structure pas une communauté comme cela. Mais nous contribuerons à créer des contacts et des coopérations.

La deuxième action que mènera l’alliance ATHENA sera de retravailler, d’une manière générale, à des interfaces entre milieux académiques et décideurs de la société civile. Il s’agit d’ailleurs plutôt de recréer ces liens, car des groupes de contact et de réflexion, avec le ministère de l’Intérieur par exemple, ont existé dans le passé sur de nombreux sujets. Nous n’avons aucun intérêt à construire des « usines à gaz ». Il s’agit simplement de reconstruire ces interfaces. Nous avons des demandes fortes de la part des décideurs. Dans les cabinets des ministères, des gens extrêmement intéressés et intelligents nous sollicitent et veulent connaître le rapport que nous allons remettre à M. Thierry Mandon.

Nous allons nous appuyer sur l’observatoire dont j’ai parlé ce matin. L’idée est bien de faire en sorte que l’ensemble des travaux de très bonne facture, déjà publiés ou encore en cours, ainsi que les équipes de chercheurs concernés, contribuent à la réflexion de nos décideurs. Ce n’est pas nous qui décidons mais il faut que nos travaux puissent être transférés, et nos connaissances valorisées. Je pense avec optimisme que nos initiatives porteront leurs fruits.

M. Jean-Yves Le Déaut. Je voudrais lire ce petit mot de M. Scott Atran, anthropologue américain, directeur de recherche au CNRS, chercheur à l’université d’Oxford, professeur à l’université du Michigan, professeur de droit criminel au John Jay College à New York. Comme il ne pouvait pas venir aujourd’hui, il a transmis l’introduction d’un rapport qui lui avait été demandé par le Conseil de sécurité des Nations unies pour le Comité de lutte contre le terrorisme. Je lis juste une phrase sur la manière dont il analyse la question : « Pour contrer la stratégie et les techniques du radicalisme islamique, il faut mobiliser des chercheurs en sciences sociales et cognitives, des historiens, des spécialistes de la géopolitique, des responsables religieux, des professionnels de la sécurité et du renseignement, des experts du marketing et de la communication, des éditeurs de blogs, de nouveaux médias, de jeux vidéo, des scénaristes. Tout cela pour élaborer et tester les messages d’espoir à l’intention de ceux qui ont perdu leurs repères et leurs illusions, et qui sont à la recherche de sens, de gloire, de reconnaissance, d’aventure, de respect, d’un destin, d’une camaraderie, de justice, de révolte, d’un sacrifice. »

M. Scott Atran propose là sa vision de la vulnérabilité de certains individus à une période de leur vie. Il l’explique par une quête d’absolu que nos sociétés démocratiques n’offriraient plus mais je ne pense pas qu’on puisse mieux souligner la dimension pluridisciplinaire de la recherche de solutions que par ce petit texte que je voulais vous soumettre.

DÉBAT

M. Philippe Lemercier, chargé d’études à la Direction générale de l’armement (DGA), ancien chargé d’études prospective à la Direction du renseignement militaire et commanditaire de l’étude CASIMIR, secrétaire d’études sur le renseignement près le Conseil scientifique de la défense et le Conseil général de l’armement. En 2014, j’étais à la direction du Renseignement militaire. Je m’occupais de la préparation de l’avenir et je souhaitais anticiper. Mais les services d’anticipation ont parfois du mal à accomplir leur tâche car, s’ils ont beaucoup de moyens techniques et de recrutements, la prospective ne suit pas.

Je veux témoigner au titre de Casimir, dont le premier rapport a été rendu le 6 janvier 2015 et la clôture planifiée un an auparavant au 13 novembre 2015 matin. Nous avons donc été marqués par le sceau des événements.

Je propose que l’étude de Casimir soit mise à disposition de la communauté scientifique. En effet, le travail de Mme Viviane Seigneur, chercheuse indépendante, est très intéressant car il ne prend pas une forme universitaire. Son regard est un peu décalé, ce qui lui confère une valeur particulière. Elle a abordé le sujet à travers dix ou quinze disciplines, sans en favoriser une par rapport à d’autres. Elle s’est confrontée à des universitaires qui avaient, comme cela arrive parfois dans les services de renseignements, un certain ego et certains biais cognitifs, comme nous en avons tous. Ce travail d’animation par des tiers extérieurs – quelquefois des tiers exclus, pour faire un mauvais jeu de mots – me paraît très important.

Les synergies entre le monde de la recherche et les services de renseignement doivent être construites. On a besoin de passeurs entre les expertises de part et d’autre car, tout compte fait, au-delà de certains inconvénients, les avantages des deux systèmes sont très importants. Un service de renseignement n’a pas d’obligation de publier son analyse. Contrairement aux chercheurs qui doivent publier pour leur carrière, il n’a donc pas besoin de cohérence par rapport à ce qu’il a dit six mois auparavant. C’est un avantage qu’il faut savoir utiliser. De plus, il a accès à certaines sources non ouvertes à tous.

En revanche dans les services de renseignements, on manque cruellement de temps. Aujourd’hui les services de renseignement américains font de la prospective. Qui en fait en France ? Il faudrait croiser les regards. Aussi, j’appelle de mes vœux l’établissement de ces fameux ponts. J’y travaillais quand j’étais dans les services de renseignement mais c’était très difficile car ce sont des sociétés fermées confrontées à des interdits.

De la même manière, pour les scientifiques, il est très difficile d’aller voir les services de renseignement car on appréhende leur angle de vue axé sur l’espionnage. C’est faux. Il faut changer de paradigme. La finalité des services de renseignements, comme ceux du téléphone par exemple, est de donner l’information juste. C’est cela qui caractérise un service de renseignement. Il doit connaître non pas le secret mais ce qui se rapproche le plus de la vérité. Donc, redéfinissons ce qu’est le renseignement, travaillons de manière scientifique.

M. Laurent Gouzènes. L’ingénieur est celui qui traduit sous forme de produit concret les résultats de la recherche scientifique et les met au service de la société. Lors de cette transformation apparaissent des tas de problèmes imprévus, de prix, de mise en œuvre et de fabrication. L’ingénieur est un lien essentiel entre les chercheurs scientifiques et les chercheurs en sciences humaines, car c’est lui qui va valider les approches techniques mises en œuvre pour résoudre les problèmes de la société.

Dans le cadre des études économiques qui vont être menées sur le réchauffement climatique, mais aussi sur d’autres sujets de société, tels que le vieillissement, l’habitat ou les transports, il est essentiel de prendre en compte les solutions des ingénieurs pour étudier les problèmes du futur. Mettez donc dans la boucle les ingénieurs qui vont apporter des solutions pratiques aux sujets que vous étudiez. Ils ont une vision bien meilleure que les chercheurs dans les laboratoires, que ce soit en technologie ou en sciences humaines et sociales.

CONCLUSION

M. Jean-Yves Le Déaut, député, président de l’OPECST. Je vais conclure, en remerciant M. Alain Fuchs, M. Yves Bréchet et tous les autres intervenants d’avoir abordé ces questions difficiles. C’était une première. Nous n’avons pas l’impression d’avoir tout dit sur ces sujets mais cette audition publique a le mérite d’avoir eu lieu, grâce à vous.

Les synergies entre sciences humaines et technologiques n’ont pas la même intensité selon les domaines considérés. On voit clairement que les liens avec les sciences du numérique sont déjà très forts. Ces synergies sont manifestement, de part et d’autre, des stimulants pour la recherche. On a eu longtemps tendance à mettre la sociologie et d’autres sciences humaines au service des sciences dures mais les contributions se font maintenant dans les deux sens et l’on s’intéresse aujourd’hui aux apports de toutes les disciplines.

J’ai noté les conflits de légitimité entre les connaissances, la démocratie, et la nécessité de l’action. La connaissance doit amener à l’action.

Nous n’avons pas voulu, en préparant cette audition, que l’on se focalise sur les interactions sciences-société mais vous avez tous confirmé l’importance de l’expertise et du débat dans la décision. Vous avez tous indiqué la nécessité de réaliser ce difficile équilibre, dans la décision publique, entre le citoyen, l’expert et le politique, et d’améliorer la manière de les faire travailler ensemble.

Vous avez parlé de nouveaux sujets comme l’interface homme machine, la nécessité de former à l’interdisciplinarité et de disposer de formations innovantes. Certains ont même dit que les universités pourraient s’en charger.

Vous avez même donné des renseignements techniques utiles, posant de vraies questions, sur la durée de vie des supports, les logiciels, les codes sources, les techniques de déchiffrage informatique, et leurs usages dans l’avenir.

Vous avez mentionné la possibilité de construire des modèles informatiques du comportement, tout en précisant, par ailleurs, que la technique doit être confrontée au terrain. En quelque sorte, comme disait Montaigne, « Il faut voyager pour frotter et limer sa cervelle contre celle d’autrui », surtout quand cette autre cervelle est dotée d’une expérience scientifique, humaine ou sociale. Cela reste un des moyens les plus sûrs de renouveler son approche et de percevoir d’autres pistes possibles.

Vous avez indiqué que les synergies entre sciences humaines et technologiques les amènent à rapprocher leurs méthodes. On le perçoit à travers l’exemple des analyses sur la vulnérabilité à la radicalisation. Le renforcement, dans les sciences humaines, du rôle des critères directement liés à l’opérationnel, par une confrontation avec des éléments de terrain, les font se rapprocher des sciences expérimentales.

Au travers des différentes interventions de ce matin, cette dimension plus directement opérationnelle des sciences humaines apparaît comme un axe d’analyse nouveau, motivé par le souci d’identifier des déclencheurs, en même temps qu’est mise par ailleurs en valeur l’aptitude des sciences humaines à faire émerger des résultats contre-intuitifs, qui restent la marque de leur originalité.

Cette dimension opérationnelle renouvelée milite pour un soutien actif aux sciences humaines, et à leur présence renforcée dans les structures de réflexion mises en place par l’État pour l’aider dans la gestion de la complexité. Nous y avons contribué à travers l’organisation de cette audition.

Au-delà de ces quelques commentaires à chaud, je préparerai une conclusion à nos travaux de ce matin que nous discuterons en réunion de l’Office avec mes collègues parlementaires. Nous avons abordé globalement la question du progrès de la société, sans verser comme le disait M. Dominique Wolton dans les scientismes, les sociologismes, et les technicismes. Ainsi que l’a dit un intervenant en citant Aristote : « Le progrès ne vaut que s’il est partagé par tous », et c’est ce à quoi nous contribuons à l’OPECST, en jouant ce rôle, qui nous est dévolu, de passerelle entre le monde de la science et le monde politique.

COMPTE RENDU DE L’AUDITION PUBLIQUE DU 28 AVRIL 2016
SUR « L’APPORT DES AVANCÉES TECHNOLOGIQUES
AUX SCIENCES DE LA VIE »

INTRODUCTION

M. Jean-Yves Le Déaut, député, président de l’OPECST. Je voudrais tout d’abord vous remercier toutes et tous d’être là et vous dire combien je suis heureux de vous accueillir, au nom du Sénat et de l’Assemblée nationale. Je vous rappelle en effet que l’Office parlementaire est un organisme mixte, réunissant dix-huit députés et autant de sénateurs.

L’idée de cette audition consacrée à l’apport des avancées technologiques aux sciences de la vie m’a été suggérée par M. Vincent Berger, directeur de la recherche fondamentale du Commissariat à l'énergie atomique et aux énergies alternatives (CEA). Nombre de chercheurs du CEA travaillant dans les domaines de la physique, des sciences des matériaux, de la chimie, de la biologie et de la santé, il était logique que l’on attire l’attention de l’Office sur l’importance croissante des interactions entre nouvelles technologies et sciences de la vie. On parle aujourd’hui volontiers de convergence entre les technologies. C’est, je pense, ce que cette audition va illustrer.

Cette suggestion s’inscrit naturellement dans le cadre des travaux de l’OPECST, qui a déjà abordé à plusieurs reprises des sujets approchant ; citons, par exemple, en janvier 2011, les sauts technologiques en médecine et, en mai 2014, le numérique au service de la santé. Les interactions entre technologies et sciences de la vie ont également été prises en compte par plusieurs études de l’Office, consacrées à divers aspects des biotechnologies et de la santé.

L’audition de ce jour s’articule, par ailleurs, avec celle relative aux synergies entre sciences technologiques et sciences humaines et sociales, organisée en janvier 2016 avec l’Alliance nationale des sciences humaines et sociales (ATHENA). Lors de cette réunion, nous avions indiqué que nous n’aborderions pas les questions en lien avec les problèmes de santé, auxquelles nous avions prévu de consacrer un temps d’échange aujourd’hui.

Le compte rendu de l’audition de janvier est à votre disposition à l’entrée de la salle Lamartine ; il sera publié dans sa version définitive avec celui de la présente audition, suivi des conclusions communes sur les enjeux de la pluridisciplinarité et de l’interdisciplinarité. La première implique un travail commun sur un sujet donné, entre chercheurs de diverses disciplines, sans remise en cause de leurs spécificités, la seconde supposant des interactions et un enrichissement mutuel entre spécialités.

L’organisation de l’audition d’aujourd’hui prend également en compte, pour éviter toute redondance, les études en cours au sein de notre Office, notamment celle menée par MM. Alain Claeys et Jean-Sébastien Vialatte, députés, sur les enjeux et perspectives de l’épigénétique dans le domaine de la santé, et celle que Mme Catherine Procaccia, sénateur, et moi-même avons engagée voici quelques mois sur les enjeux économiques, environnementaux, sanitaires et éthiques des biotechnologies, à la lumière des nouvelles pistes de recherche. C’est ainsi que nous avons estimé nécessaire d’écarter aujourd’hui, par souci de rationalité, les propositions d’interventions soumises par l’Alliance nationale pour les sciences de la vie et de la santé concernant, par exemple, la modification ciblée du génome avec CRISPR-Cas9, dans la mesure où cela a déjà été traité lors de notre audition du 7 avril 2016. Je tiens à cet égard à remercier tout particulièrement Mme Claire Giry, directrice du centre CEA de Fontenay-aux-Roses, qui a assuré la coordination de cette journée au sein de l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN).

Outre les chercheurs éminents du CEA, cette audition mettra également en valeur les recherches menées au sein du Centre national de la recherche scientifique (CNRS), notamment dans le domaine du nucléaire, de l’Institut national de la santé et de la recherche médicale (INSERM) et de l’Institut Pasteur.

Elle s’articulera autour de trois tables rondes. La première traitera d’avancées des sciences de la vie dans diverses disciplines, résultant d’innovations technologiques sans relation aucune avec les sciences de l’atome. La deuxième abordera, au contraire, les progrès réalisés dans les sciences de la vie grâce aux technologies atomiques, entre autres dans l’imagerie. L’imagerie ne se limitant pas à la radiographie et à ses dérivés, d’autres technologies pourront être évoquées. Enfin, la dernière table ronde sera consacrée, sous divers angles, aux enjeux de l’importance croissante des avancées technologiques dans les développements des sciences de la vie. Voilà, brièvement présenté, le programme général de cette matinée.

Nous recevions, hier soir à Paris, le jury international Initiatives d’excellence (IDEX), qui se réunit aujourd’hui et demain. Nous avons eu l’occasion d’échanger avec certains de ses membres, qui nous ont avoué être très impressionnés par la qualité de la science française, le seul problème à leurs yeux résidant dans un déficit de communication et une insuffisante mise en valeur des travaux menés. Je souhaitais vous transmettre ce message avant de commencer nos travaux.

PREMIÈRE TABLE RONDE :
LES NOUVELLES TECHNOLOGIES AU SERVICE DU VIVANT

Présidence de M. Jean-Yves Le Déaut, député, président de l’OPECST.

M. Jean-Yves Le Déaut. À la suite des différentes interventions qui vont émailler cette première table ronde consacrée aux « nouvelles technologies au service du vivant », nous disposerons d’un temps d’échange, afin de débattre des questions qu’elles ne manqueront pas de susciter.

Le saut qualitatif dans l’étude structurale des interactions cellules/pathogènes résultant des avancées méthodologiques et technologiques récentes

M. Félix Rey, directeur du département de virologie, Institut Pasteur. Je vais évoquer des avancées en biologie structurale.

La microscopie électronique a connu, au cours des dernières années, une véritable révolution, lui permettant d’atteindre un degré de résolution jusqu’alors inconnu. La structure du virus zika vient par exemple d’être publiée dans le journal Science avec une résolution atomique de 3,8 angströms, qui permet de voir tous les acides aminés et les différents assemblages, ce qui n’était possible auparavant qu’en utilisant des cristaux et le rayonnement synchrotron, le soleil par exemple. On peut maintenant effectuer ce type d’étude sans disposer de cristaux, ce qui révolutionne totalement les travaux dans ce domaine.

Cela a été rendu possible par l’amélioration des microscopes, beaucoup plus stables aujourd’hui, et surtout par la mise au point de détecteurs directs d’électrons, qui permettent de supprimer presque totalement le bruit de fond. Les échantillons biologiques sont extrêmement sensibles à la radiation ; or ceci permet d’avoir des doses extrêmement faibles, rendant possible l’accès à ce type de résolution.

Ainsi, le Royaume-Uni envisage de se doter d’au moins une douzaine de microscopes Titan Krios permettant ce type d’observation. Il devient possible d’observer non seulement des particules isolées, comme dans le cas du virus zika, préalablement purifié et étudié en l’absence du milieu dans lequel il évolue, mais aussi, par exemple, les interactions de ce virus avec une cellule qu’il va infecter. Cela doit permettre de voir comment la membrane du virus fusionne avec la cellule et d’étudier les différentes étapes de réplication à l’intérieur de cette cellule.

C’est également rendu possible par la visualisation en tomographie, avec des résolutions de plus en plus performantes, en combinaison avec des développements dans le domaine de la microscopie optique à super résolution, qui seront ultérieurement évoqués par M. Christophe Zimmer. Grâce à ces procédés, on peut, par exemple, imaginer faire des zooms de plus en plus importants, c’est-à-dire partir d’un tissu puis observer les cellules et leurs interactions avant d’aller à l’intérieur d’une cellule et d’y étudier jusqu’aux interactions atomiques. Cela reste encore un rêve mais dont on s’approche de plus en plus.

Les premières images issues de la microscopie électronique ont été publiées en 1986. Il a fallu tout ce temps pour évoluer jusqu’à la résolution que nous connaissons aujourd’hui. Je pense, que dans les dix années à venir, des progrès considérables vont encore être effectués dans ce domaine.

NGS – Évolution du séquençage de nouvelle génération et applications en génomique médicale.

M. Jean-François Deleuze, PhD, directeur du Centre national de génotypage (CNG), Institut de génomique, direction de la Recherche fondamentale, CEA, directeur scientifique de la Fondation J. Dausset. Je voudrais vous convaincre que le séquençage des génomes va révolutionner la médecine de demain. À cette fin, je vais aborder à la fois les avancées technologiques et leurs applications en médecine.

La Déclaration universelle des droits de l’homme postule que nous sommes tous égaux. Or, si cela est vrai en droit, cela cesse de l’être au regard de notre ADN. Si l’espèce humaine se caractérise, au niveau macroscopique, par l’existence de quarante-six chromosomes, il n’en demeure pas moins que chaque individu est singulier. Au niveau de la séquence d’ADN, on observe, en effet, des millions de polymorphismes nucléotidiques simples (single-nucleotide polymorphism ou SNP), qui varient d’un individu à l’autre et sont à l’origine de nos différences, en termes par exemple de susceptibilité aux maladies, de physique ou de réponse aux médicaments. Être en mesure de les caractériser et de les connaître en amont permettrait de développer une médecine plus personnalisée et plus prédictive, d’agir plus précocement.

Je souhaiterais battre en brèche une idée reçue, selon laquelle une séquence effectuée un jour serait valable pour toute la vie. Il s’agit d’une vision très anthropomorphique du génome humain. L’homme est en fait une mosaïque, qui comporte beaucoup plus de bactéries que de cellules eucaryotes. Sans les bactéries, nous ne serions rien. Mieux vaut donc parler du génome au pluriel : il s’agit d’analyser des génomes et leur expression, en ayant présent à l’esprit l’aspect dynamique du phénomène. Non seulement notre génome constitutionnel n’est pas exactement le même dans toutes les cellules, mais son expression est extrêmement différente selon les types cellulaires. Le facteur déclenchant (driver) de nos susceptibilités réside dans ces variations, à la fois à l’échelle génétique et dans l’expression du génome.

Il faut également savoir que nous avons dans le corps probablement dix fois plus de cellules d’origine procaryote que de cellules eucaryotes. L’étude de ce microbiome, c’est-à-dire l’analyse de notre flore intestinale, le séquençage de ces bactéries, prend aujourd’hui une importance phénoménale, à la fois dans notre parcours de santé et dans la médecine de demain. Il convient donc de parler des génomes plutôt que d’un génome, et probablement de plusieurs séquençages au cours de la vie.

Je souhaite, avant d’en arriver plus précisément à la question du séquençage, illustrer ce que sont des maladies communes et monogéniques. Par exemple, dans le cas de la mucoviscidose, si l’on a la malchance d’avoir une base C à la place d’une base T, on développera la maladie, quel que soit l’environnement. Il s’agit d’une maladie très pénétrante, monogénique, qui renvoie au spectre des maladies rares. Être capable de la prédire permettrait d’intervenir plus tôt. Or, il n’existe aujourd’hui que quelques exemples en science pour lesquels on peut prédire des anomalies génétiques avec une fonctionnalité définitive.

Le spectre des maladies communes correspond à une constellation d’altérations, à des endroits différents du génome, qui vont concourir à augmenter le risque de développer, dans un environnement donné, par exemple un diabète. La prédiction de ces mutations combinées, dans un environnement donné, permettra d’indiquer à un patient les risques qu’il court d’avoir telle ou telle maladie. Pendant des années, de telles analyses n’ont été possibles que ponctuellement. Nous souhaiterions aujourd’hui pouvoir les effectuer à l’échelle du génome entier.

Deux scientifiques, prix Nobel, ont particulièrement marqué l’histoire de ces technologies : il s’agit de Fred Sanger, inventeur du séquençage – c’est-à-dire de la façon de lire l’ADN – dans les années 1970, et de Kary Mullis, inventeur de la PCR (polymerase chain reaction ou réaction en chaîne par polymérase) – sorte de photocopieus de l’ADN permettant, à partir d’échantillons très petits, d’amplifier le signal et de pouvoir séquencer – dans les années 1980-1990. Les technologies d’aujourd’hui dérivent encore de ces travaux pionniers.

Quelles sont les évolutions en cours actuellement ? Depuis quarante ans environ, on sait séquencer des petits morceaux de paires de base. Mais, voici une dizaine d’années, une rupture technologique s’est produite par la convergence de miniaturisation et de PCR particulières, qui a conduit à une baisse du coût du séquençage, quasiment d’un facteur dix millions. Il a fallu à l’origine trois milliards de dollars pour séquencer le génome humain. C’est possible aujourd’hui pour mille euros. Cette diminution des coûts permet désormais d’envisager de séquencer des populations entières ; le coût du séquençage étant ramené au niveau de celui d’un test classique. La révolution est là, dans cette rupture introduite voici une dizaine d’années.

Le séquençage trouve déjà des applications dans le domaine du cancer, pour la mise au point de thérapies ciblées. On séquence aujourd’hui des tumeurs pour indiquer le traitement le mieux adapté pour un patient donné. Les exemples les plus connus concernent les mutations de BRAF, KRAS et les amplifications HER2 dans les cancers du sein. Il trouve aussi des applications dans certaines maladies rares. Le séquençage complet améliore ainsi considérablement le diagnostic et la prise en charge du retard mental chez les enfants. Cela est essentiel, dans la mesure où une absence de diagnostic conduit bien souvent les parents dans une errance au cours de laquelle ils sont amenés à consulter des dizaines de services, pendant de nombreuses années. Le fait de poser un défaut moléculaire sur la pathologie change totalement le cours des choses.

La médecine de précision consiste ainsi à utiliser l’analyse du génome pour l’aide au diagnostic. Dans le cancer du poumon, par exemple, on dispose aujourd’hui de pistes très positives concernant l’immunothérapie. Lorsque l’on séquence les tumeurs, on s’aperçoit que les patients qui répondent à l’immunothérapie présentent une accumulation de mutations absentes chez les patients qui n’y répondent pas. Le séquençage des tumeurs permet donc de prédire si les malades répondront ou pas à une immunothérapie et d’engager ceux dont on sait qu’ils n’y répondront pas dans d’autres protocoles thérapeutiques.

Les travaux du Pr Laurence Zitvogel montrent, par ailleurs, que la flore intestinale récupérée dans les selles est très prédictive de la réponse à l’immunothérapie. Dans notre réponse aux médicaments, il existe donc une diaphonie (crosstalk) entre notre flore intestinale et notre génome. Ainsi, dans le futur, on séquencera non seulement le génome d’un même individu plusieurs fois, mais aussi ses tissus et ses selles.

Aujourd’hui, la médecine essaie essentiellement de soulager au mieux les personnes atteintes de maladies sévères. Le but de la médecine de demain est d’essayer de remonter vers la prévention, sans oublier le soin entre les deux bouts de la chaîne. Dans ce cadre, on peut envisager que plusieurs séquençages systématiques seront réalisés au cours de la vie d’un individu, au niveau de son génome, de ses cellules, de sa méthylation, de son épigénome, etc.

Quels sont, aujourd’hui, les moteurs (drivers) de l’évolution ? Sans doute avez-vous tous entendu parler de la suprématie actuelle de la société américaine Illumina. Le séquençage s’effectue aujourd’hui par tout petit fragment. Or, on a besoin d’aller plus vite, pour moins cher, de séquencer de plus longs fragments, afin de limiter le risque d’erreur, et d’être plus sensible, pour aller chercher la cellule qui fait émerger une mutation donnant la résistance à un cancer. Plus longs, plus vite, moins cher et plus sensible sont donc, aujourd’hui, les quatre moteurs (drivers) de l’évolution.

On peut, dans ce contexte, évoquer deux grandes technologies, souvent présentées comme les David et Goliath du séquençage : d’une part, la technologie d’Illumina, associant dix séquenceurs, produit technique et marketing mis en place pour pouvoir séquencer le génome pour mille euros, d’autre part, une technologie anglaise nommée Nanopore, présentée sous forme d’une clé USB, qui permet de réaliser du séquençage unique et portable en petite taille. Ce sont les séquenceurs de demain.

Malheureusement, la France n’est pas présente dans cette course technologique. Le premier sur le podium, Illumina, est une société américaine. Viennent ensuite la Chine, très présente à la fois avec de très grands centres de séquençage et du développement technologique, puis le Royaume-Uni, avec Nanopore. Même si elle dispose d’excellents physiciens et mathématiciens et certainement d’un espace suffisant pour développer le séquençage, la France n’est pas dans le jeu aujourd’hui car elle n’a, pour ce faire, ni le tissu réglementaire, ni la filière industrielle.

Découverte de nouveaux pathogènes par les méthodes de séquençage de nouvelle génération

M. Marc Eloit, responsable de l’unité de biologie des infections de l’Institut Pasteur. Mon intervention porte sur l’une des applications du séquençage à haut débit. La capacité d’acquérir à faible coût, relativement rapidement, la séquence de tous les acides nucléiques présents dans un échantillon, révolutionne en effet le domaine des maladies infectieuses. Pour vous donner un ordre de grandeur quantitatif, il faut savoir que, il y a une dizaine d’années, lors d’une expérimentation, on arrivait à générer une quantité de données correspondant à une ramette de papier. Actuellement, la même durée d’expérimentation conduirait à une pile de papier de cinquante kilomètres de hauteur. On se situe donc bien là dans le domaine du traitement massif des données (Big Data) et de l’informatique.

L’une des applications immédiates est la capacité, en séquençant un échantillon biologique, d’effectuer un tri des séquences humaines, de les éliminer et d’identifier ce qui reste, c’est-à-dire, pour ce qui nous concerne, le génome d’agents infectieux. La première application de cela se situe dans le domaine de la recherche et de la découverte. Le développement de ces technologies a conduit à une explosion du nombre de virus connus et, dans une moindre mesure, de bactéries, le plus souvent d’ailleurs non associés à des maladies. Par exemple, on a découvert de nouveaux virus associés à des cancers, à des encéphalites ou à des lésions dermatologiques, en particulier chez les personnes immunodéprimées.

L’autre application progressive, toujours dans le domaine de la recherche mais plus proche de la santé publique, a été l’identification rapide, en cas d’émergence de maladies, de l’étiologie des agents infectieux responsables. Aujourd’hui, il est extrêmement facile d’identifier les agents responsables des maladies infectieuses aiguës qui émergent à travers le monde. Cela a été le cas du coronavirus du syndrome respiratoire du Moyen-Orient (Middle East respiratory syndrome ou MERS-CoV) pour l’humain ou du virus de Schmallenberg dans le monde animal. À titre d’exemple, on estime que ce qui a nécessité tant d’efforts et conduit à un prix Nobel pour la découverte du virus du SIDA aurait pu être réalisé en une semaine de travail de routine avec les outils actuels. Ces technologies sont progressivement développées dans les quelque vingt Instituts Pasteur présents à travers le monde et participent à la surveillance des émergences au plan mondial.

Si beaucoup de ces technologies servent, dans un premier temps, à la recherche, elles évoluent vers l’utilisation en diagnostic. Cela concerne notamment les personnes immunodéprimées, susceptibles d’être infectées par un très grand nombre d’agents infectieux inoffensifs pour des personnes possédant un système immunitaire normal. Je pense, par exemple, aux patients sous immunodépresseurs, dans un contexte de greffe d’organes solides ou bénéficiant de thérapeutiques anticancéreuses dans le domaine de l’hématologie. Très souvent, lors de syndromes infectieux, les techniques habituelles donnent une étiologie dans environ 10 % des cas. Or, ces nouvelles approches absolument sans a priori permettent d’augmenter considérablement le nombre de diagnostics positifs réalisés.

Enfin, une dernière application concerne les infections nosocomiales, hospitalières. Ces techniques permettent d’acquérir très rapidement les séquences complètes des génomes de bactéries qui circulent, d’identifier les locus de résistance aux antibiotiques et de virulence, donc de mieux caractériser ces agents, aussi bien en termes de pathogénicité que d’épidémiologie.

En résumé, ce type d’approche, totalement sans a priori, bouleverse ce qui a pu être enseigné à des générations d’étudiants en médecine, auxquels on apprenait à ne trouver que ce que l’on cherchait. Aujourd’hui, la tendance s’inverse : on dispose d’une photographie d’ensemble et le travail commence avec l’interprétation des résultats. Ces technologies, ne reposant pas sur des hypothèses a priori, révolutionnent de ce point de vue les approches aussi bien en matière de recherche que de diagnostic médical.

Diagnostic des maladies émergentes : nouvelles technologies pour le développement rapide et nouveaux formats de tests

Mme Elodie Brient-Litzler, directrice adjointe du Centre d’innovation et recherche technologique de l’Institut Pasteur. Je vais aller quelque peu à l’encontre des propos de M. Marc Eloit, en affirmant que le diagnostic ciblé n’est aujourd’hui absolument pas mort et répond encore aux besoins des cliniciens, notamment dans des contextes d’épidémies.

Si une femme enceinte souffrant d’une fièvre indifférenciée arrive chez son médecin en Amérique du Sud, celui-ci va vouloir savoir de prime abord si sa patiente est infectée par le virus zika, avant de chercher plus avant dans son sang ou par l’intermédiaire d’un prélèvement biologique. On a donc besoin de tests ciblés, ce d’autant que, à l’heure actuelle, avec les technologies mises au point récemment, ils restent plus sensibles, plus robustes et beaucoup moins coûteux que toutes les méthodes développées sans a priori, par ailleurs extrêmement prometteuses pour l’avenir. On peut vouloir détecter, en matière de pathogènes, soit le virus et des composants du virus, son matériel génétique ou ses protéines, soit la réponse du patient à ce virus et, en particulier, la présence d’anticorps.

On pourrait, pour repositionner les technologies de séquençage par rapport aux diagnostics ciblés, utiliser la métaphore suivante : si l’on assimile un prélèvement biologique à une botte de paille, dans laquelle on chercherait l’aiguille représentée par le virus, faire du séquençage massif revient à examiner, un à un, très rapidement, tous les brins de paille, pour tomber au final sur l’aiguille, que l’on sait reconnaître, alors que le diagnostic ciblé commence par la création d’un aimant, dans la mesure où l’on connaît l’aiguille et ses propriétés, pour attirer cette dernière et la reconnaître une fois qu’elle sera sur l’aimant. Tout ce processus commence donc avec la création de sondes biologiques, qui permettent d’attraper les molécules que l’on peut détecter. Il faut ensuite créer des systèmes dits « de transduction », capables de détecter cette interaction.

Je vais essayer de vous décrire rapidement des avancées intervenues récemment, à la fois sur la création des sondes, sur les systèmes de transduction et en matière de miniaturisation, d’automatisation et d’intégration de tous ces procédés, afin de pouvoir réaliser l’analyse du prélèvement biologique au résultat, en une étape et dans un temps réduit.

Le domaine des sondes, pour ce qui est du matériel génétique, tourne maintenant en routine, depuis une vingtaine d’années. Nous disposons de méthodes très efficaces pour les synthétiser. Je ne vais donc pas m’attarder sur ce point. En revanche, les sondes pour les protéines ont connu de réelles innovations ces dernières années. Il ne s’agit pas d’innovations de rupture mais plutôt de nature incrémentale, induites par l’utilisation des molécules biologiques dans l’industrie pharmaceutique, en remplacement des molécules chimiques. Ce développement industriel a conduit à la mise au point de nombreuses technologies pour accélérer les processus de découverte et d’optimisation de production, avec des innovations dans différents domaines, relevant par exemple du génie des procédés, avec la possibilité de cribler des conditions de production de ces sondes, de manière massive, avec des consommables disposant de multiples capteurs intégrés, ce qui facilite et accélère leur développement.

Pour ce qui est des technologies de transduction, nous sommes vraiment là dans un domaine scientifique très interdisciplinaire. Créer un système de transduction requiert, en effet, des innovations en biochimie, en chimie et en physico-chimie, pour accrocher physiquement la sonde à une molécule traceur, mais aussi en physique et en ingénierie, afin de disposer d’un détecteur efficace et peu cher. Cela suppose aussi des innovations en termes de miniaturisation. La microfluidique a ainsi largement contribué à l’évolution dans ce domaine. Je vais simplement citer quelques exemples pour illustrer mon propos, parmi lesquels les nanoparticules fluorescentes ou magnétiques, ou encore les points quantiques (quantum dots), utilisés aujourd’hui en traceurs plus efficaces encore. Nous disposons également de nanomatériaux, sur lesquels accrocher les sondes, pour détecter la fixation des molécules cibles et obtenir un signal électrique de manière plus efficace.

Il faut également souligner que les coûts des composants de détection, capteurs CCD ou composants utilisés pour faire de l’excitation des nanoparticules, comme les lasers, ont considérablement décru, du fait de leur utilisation dans l’industrie électronique. Cela permet d’obtenir globalement des dispositifs moins onéreux, donc plus facilement déployables dans différentes conditions de diagnostic. Le dernier point concerne la question de l’intégration, qui soulève des défis d’ingénierie que l’industrie s’est vraiment attachée à relever ces dernières années, avec des sociétés intervenant à l’origine dans le domaine de la microfabrication, de la microélectronique, qui se sont mises à développer des systèmes miniaturisés pour la mise en œuvre de procédés biologiques. Ainsi, Sony, dans ses usines d’Autriche, utilise les technologies qui servent à presser les disques Blu-ray pour fabriquer des dispositifs microfluidiques permettant de mettre en œuvre ces tests de diagnostic. L’idée est de disposer, pour réaliser les tests, de consommables peu chers afin de pouvoir les déployer dans des conditions telles que des situations d’épidémies dans l’hémisphère sud, où les moyens sont très limités. On vise ici non pas les mille euros nécessaires à la réalisation d’un séquençage massif mais plutôt un euro par test.

En conclusion, je pense, comme cela vous a été présenté par
MM. Jean-François Deleuze et Marc Eloit, que l’évolution des technologies de séquençage massif, avec leur coût qui décroît et leur portabilité qui augmente, ceci allant de pair avec des avancées en termes de pouvoir de calcul et de miniaturisation des microprocesseurs, pourrait faire que ces méthodes soient, à terme, complètement déployées sur le terrain, pour effectuer du diagnostic dans le futur. Pour le moment, nous n’en sommes pas encore là.

La nanomédecine

M. Cédric Chauvierre, chercheur INSERM, U1148. Je remercie Mme Élodie Brient-Litzler d’avoir introduit en partie mon exposé en évoquant les nano-objets utilisés actuellement.

La nanomédecine correspond à l’utilisation des nanotechnologies dans le domaine médical qui a permis de très nombreux progrès, dans différents domaines, notamment l’analyse médicale, avec une amélioration de la sensibilité et de la rapidité des tests, grâce à la microfluidique, aux biocapteurs et aux laboratoires sur puces. Elle a également permis de parvenir à une thérapie ciblée et à une imagerie permettant des diagnostics précoces, voire moléculaires. Par ailleurs, il est désormais envisageable d’associer thérapie ciblée et diagnostic dans ce que l’on qualifie aujourd’hui de « théranostic », terme formé par la contraction de « thérapeutique » et « diagnostic ». Nous espérons ainsi, dans le futur, pouvoir disposer d’une médecine plus personnalisée.

Concevoir cette nanomédecine nécessite de créer des objets ayant des dimensions à l’échelle nanoparticulaire, mesurant de quelques nanomètres à quelques centaines de nanomètres. Pour vous donner une idée, cela va de la taille de l’enzyme à celle du virus, ce qui est dans tous les cas dix à cent fois inférieur à la taille d’un globule rouge.

L’idée de cette nouvelle technologie appliquée aujourd’hui n’est pas récente, puisqu’elle trouve son point de départ voici une centaine d’années environ, lorsque le professeur Paul Ehrlich, prix Nobel de médecine, conçut, au cours d’une représentation de l’opéra romantique de Carl Maria von Weber, Der Freischütz, l’idée d’une « balle magique » susceptible d’emmener directement la drogue là où elle doit agir, afin d’éviter tous les effets secondaires possibles.

La matérialisation de ces nano-objets a pris de longues années. Les tout premiers sont arrivés vers les années 1965, avec les travaux du professeur Gregoriadis sur les liposomes, systèmes lipidiques couramment utilisés aujourd’hui en cosmétique. On s’est ensuite aperçu que, lorsqu’on injectait ces corps étrangers dans l’organisme, celui-ci les rejetait très facilement. Il a donc fallu élaborer des stratégies pour rendre ces systèmes invisibles et ainsi leur permettre de circuler longtemps et d’agir. Il a ensuite fallu trouver des moyens pour les recouvrir en surface avec des éléments pouvant cibler des récepteurs spécifiques des pathologies, afin de mettre en œuvre une thérapie ciblée. Tout cela a pris plus de cinquante ans, à partir des années 1960.

Quelles sont les spécificités de ces nanosystèmes ? Leurs principaux avantages, compte tenu de leur taille, sont de disposer d’une surface spécifique remarquable et de propriétés leur permettant de protéger l’actif de fluides biologiques, de protéger bien entendu les organes, d’avoir des propriétés magnétiques et optiques, spécifiques, d’éviter d’être éliminés par les reins et de pouvoir passer les barrières assez facilement, y compris si elles sont saines, et plus facilement encore si elles sont altérées.

Ils ont été couramment utilisés, en première intention, dans le domaine de la cancérologie. En effet, les agents anticancéreux étant la plupart du temps très cytotoxiques, si la nanoparticule en elle-même présentait une certaine cytotoxicité en étant ciblée, alors la balance bénéfice – risque était intéressante.

Le défi, aujourd’hui, est de pouvoir concevoir des nanosystèmes totalement sains vis-à-vis de l’organisme afin de pouvoir être utilisés dans des domaines comme le cardiovasculaire ou tout autre pathologie ne nécessitant pas de tuer les cellules.

L’examen de la littérature permet de s’apercevoir qu’il existe des dizaines de milliers de publications abordant les nanotechnologies. Or, le nombre de nanosystèmes utilisés en thérapeutique, en clinique, est excessivement restreint. Cela tient au fait qu’il est très compliqué et consommateur de temps de concevoir un système biocompatible allant de la paillasse aux patients. Il faut pouvoir sélectionner en amont les composés et obtenir des structures qui ne seront pas inflammatoires. Dans le futur, le défi majeur sera de pouvoir appliquer ces nanotechnologies en thérapeutique et d’être en capacité de protéger les utilisateurs de ces nanotechnologies dans les laboratoires.

Un gros travail est en cours afin de parvenir à disposer de textes règlementaires permettant d’utiliser ces systèmes. L’Agence nationale de sécurité du médicament et des produits de santé (ANSM) s’y emploie, de même que l’Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (ANSES). Par ailleurs, l’INSERM a lancé, voici quelques temps, le principe de bonnes pratiques d’utilisation de ces nanosystèmes.

L’optogénétique pour éclairer le rôle des réseaux des neurones dans notre cerveau

M. Gabriel Lepousez, chercheur en neuroscience, unité Perception et mémoire de l’Institut Pasteur. Je suis neurobiologiste et appartiens à cette communauté de chercheurs qui étudient le fonctionnement du cerveau. Le cerveau est un organe très complexe, comportant quatre-vingt à cent milliards de neurones, dont chacun établit entre mille et dix-mille connexions avec d’autres partenaires. Il s’agit probablement du dernier organe de notre corps que nous ne parvenons pas à comprendre dans sa globalité et sa complexité. Les nouvelles technologies sont toutefois porteuses d’une véritable révolution en matière de connaissances disponibles dans ce domaine. Je pense notamment aux puissances de calcul, qui nous permettent aujourd’hui de commencer à modéliser le fonctionnement de cet organe.

Les connaissances dont nous disposons sur le cerveau sont essentiellement de deux ordres. Pendant tout le XXe siècle, on a essayé de caractériser son anatomie. On connaît désormais les cellules composant les différentes régions du cerveau, leur anatomie et leur forme. On dispose ainsi d’une image relativement précise, mais figée, des neurones de notre cerveau. À côté de cela, les technologies d’imagerie cérébrale qui vous seront détaillées ultérieurement par le professeur Le Bihan nous permettent de savoir comment le cerveau s’active à l’échelle de grandes régions, en particulier chez l’homme. On dispose donc aujourd’hui de deux niveaux d’analyse : l’échelle du neurone et celle des régions du cerveau.

Mais entre ces deux pôles, il existe un fossé ou gap pour tout ce qui concerne l’analyse au niveau des circuits et des réseaux de neurones. Nous n’avons que très peu de connaissances dans ce domaine, car il nous manquait jusqu’à présent les outils nécessaires pour caractériser le fonctionnement dynamique de ces réseaux et comprendre la fonction des neurones qui les composent. Connaître l’anatomie d’un neurone ou d’un groupe de neurones est intéressant mais l’objectif aujourd’hui est de comprendre la fonction de chaque groupe et la manière dont il participe au fonctionnement global du cerveau, c’est-à-dire à la perception de notre environnement, au stockage de l’information, à la genèse de nos émotions et à tous les paramètres de notre esprit. Aujourd’hui, l’analyse des circuits et des réseaux de neurones est une priorité.

Il existe ainsi, à l’échelle de l’Europe, un projet intitulé Human brain project, auquel seront consacrés dix milliards d’euros sur dix ans, pour étudier et déchiffrer un circuit cortical, puis le recomposer in silico, dans un super ordinateur, afin d’essayer de comprendre et d’inférer des règles de calcul qui s’opèrent dans notre cerveau. Aux États-Unis, le projet Brain initiative, lancé par le président Obama et doté de plusieurs milliards d’euros sur cinq ans, vise à développer de nouvelles technologies, pour mieux appréhender ces circuits, à la fois dans l’anatomie, dans la manipulation et dans la détection du fonctionnement de ces réseaux de neurones. Des projets équivalents émergent par ailleurs au Japon et en Chine, avec des budgets considérables.

Il s’agit donc bien là d’un niveau d’analyse prioritaire à l’échelle internationale, que l’on ne maîtrise pour l’heure pas très bien. En effet, aujourd’hui, lorsqu’on essaie par exemple de cibler un circuit en médecine, on utilise une électrode, c’est-à-dire un morceau de fer, qui va stimuler une sous-région, une subdivision du cerveau, en envoyant un courant électrique qui va dépolariser toutes les cellules alentours, de manière complètement aspécifique et activer à la fois des neurones excitateurs et des neurones inhibiteurs. L’utilisation d’une stimulation non spécifique, telle qu’une électrode, revient donc à appuyer simultanément sur le frein et sur l’accélérateur, si bien que l’on va se trouver certainement face à des effets secondaires, et en tout cas pas en présence des effets escomptés.

Il fallait donc trouver un moyen permettant d’appuyer sélectivement sur l’accélérateur et pas sur le frein. Cette technique, découverte très récemment, s’appelle l’optogénétique. Elle va permettre de cibler spécifiquement un groupe de neurones et de l’activer avec de la lumière. Il s’agit vraiment d’une technologie de convergence, puisqu’elle fait appel à la fois à la génétique, incluant les connaissances en thérapie génique, aux techniques d’optique et de microscopie mais aussi aux développements liés aux télécommunications et à l’optimisation du cheminement de la lumière.

L’optogénétique est basée sur une molécule, une protéine photosensible qui, en réponse à un flash lumineux, va s’ouvrir et faire entrer des charges électriques dans la cellule qui la porte. Si l’on place, par conséquent, cette protéine à la surface d’un neurone que l’on éclaire à distance, des charges électriques vont pénétrer dans celui-ci, qui va envoyer un signal électrique, une information. On peut ainsi télécommander à distance un neurone et voir immédiatement la manière dont il réagit, dont il interagit avec ses partenaires et surtout tester directement son implication dans un comportement, une émotion ou un processus cognitif.

Il s’agit d’une véritable révolution, dans la mesure notamment où cette technologie a tout de suite été offerte à tout le monde (open source), si bien que des milliers de laboratoires l’utilisent aujourd’hui. L’intérêt de cette technique réside, en outre, dans le fait qu’elle a des impacts à la fois dans le domaine de la recherche fondamentale et en thérapeutique, puisque l’on va pouvoir cibler un réseau de neurones endommagé et moduler ainsi le circuit qui dysfonctionne.

Ces nouvelles technologies nous permettent de manipuler l’activité des neurones et, plus récemment, de visualiser en temps réel l’activité de l’un d’entre eux. Elles viennent en complément de l’imagerie cérébrale et nous permettent véritablement de lire l’activité d’un neurone. C’est donc grâce à la combinaison de techniques d’optique et de génétique que l’on peut lire l’activité du cerveau à une résolution cellulaire, manipuler les réseaux de neurones et ainsi appréhender le niveau d’analyse des circuits des réseaux de neurones, fondamental pour la compréhension de notre cerveau, à la fois en termes de recherche et en thérapeutique.

Imagerie et modélisation pour la biologie quantitative et prédictive

M. Christophe Zimmer, directeur de l’unité Imagerie et modélisation de l’Institut Pasteur. M. Félix Rey a évoqué précédemment les développements en cryomicroscopie électronique, qui permettent d’obtenir une résolution atomique dans des échantillons in situ. Je travaille pour ma part dans le domaine de l’imagerie optique, dont la résolution a été longtemps limitée à deux-cents nanomètres, ce qui ne permet pas d’étudier, par exemple, la structure de la plupart des virus, dont le virus du SIDA qui a une taille inférieure à cette dimension.

Depuis dix ans environ, une révolution s’est produite dans ce secteur, qui a permis de gagner un facteur dix en résolution, donc de s’approcher de l’échelle moléculaire. L’avantage de l’imagerie optique par rapport à l’imagerie électronique, et qui les rend complémentaires, est de nous offrir la capacité d’avoir une spécificité moléculaire : on peut ainsi marquer par fluorescence des espèces moléculaires différentes, donc accéder à une information d’un autre ordre, directement liée aux fonctions et à la génétique.

L’autre caractéristique importante de la microscopie optique est de permettre de travailler sur les cellules vivantes. Des développements très importants ont eu lieu dans ce domaine, avec notamment la microscopie super-résolutive mais aussi la microscopie à feuille de lumière, qui permet maintenant d’observer des embryons qui se développent, donc des milliers de cellules, sans les endommager. Ce dernier aspect est très important, car toute technique d’investigation a tendance à perturber les systèmes que l’on cherche à étudier. Des progrès vraiment considérables ont été accomplis dans ce domaine, qui conduisent maintenant à une explosion de données. On peut considérer, comme M. Eric Betzig, récent prix Nobel pour ses développements en imagerie super-résolutive, que, dans une certaine mesure, le goulot d’étranglement se déplace maintenant de l’instrumentation vers l’analyse des données.

Nous sommes face à une explosion d’informations, notamment à l’échelle moléculaire puisque l’on peut désormais observer des molécules individuelles dans des cellules uniques, ce qui permettra un jour d’aboutir à une cartographie dynamique de la cellule, en complémentarité avec l’imagerie électronique. La microscopie corrélative, qui consiste en effet à superposer des images électronique et optique, a certainement un immense avenir devant elle et elle va jouer un rôle crucial en biologie.

Je voulais également évoquer la question de la modélisation. On est très loin actuellement d’être capable de modéliser un organisme vivant. C’est certainement ce qui distingue la biologie de sciences comme la physique, dans lesquelles on dispose de théories permettant de prédire très précisément de nombreux processus.

Des avancées se produisent cependant en biologie. Voici quelques années, un groupe de l’université de Stanford a, par exemple, développé un modèle d’une bactérie avec un génome très réduit, qui incorpore tout ce que l’on connaît sur le fonctionnement de cette cellule et est capable de prédire son évolution dans le temps et d’effectuer des prédictions testables expérimentalement, mais qu’il aurait été impossible d’effectuer sans ce type d’approche de modélisation. Cela permet notamment de tester l’effet de mutations de différents gènes sur la rapidité de croissance de ces bactéries.

À long terme, un objectif majeur de la biologie est d’arriver à élaborer un modèle prédictif, capable de simuler dans un ordinateur la réponse d’une cellule mais aussi d’un organisme complet, à des stimulations externes, à partir d’une connaissance précise des génomes et d’autres caractéristiques. Cette capacité prédictive jouera un rôle très important en médecine.

Notre époque se caractérise par une explosion des informations disponibles provenant de l’imagerie et du séquençage mais aussi d’autres techniques. L’élément crucial dorénavant est de parvenir à interpréter ces données et à les intégrer dans un modèle prédictif. On en est encore assez loin aujourd’hui mais on peut penser que des développements récents en intelligence artificielle pourraient jouer un rôle très important dans cette perspective. Au cours des dernières décennies, l’intelligence artificielle a connu des hauts et des bas. Des succès très spectaculaires ont toutefois été enregistrés récemment dans une grande panoplie d’applications, différentes des applications médicales, mais qui justifient, par exemple, le fait que l’industrie automobile investisse aujourd’hui des milliards dans ce domaine, pour le pilotage automatique des voitures. On peut penser que ce type de développement pourra jouer un rôle très important dans la compréhension des systèmes biologiques et la capacité à intervenir au niveau thérapeutique de façon ciblée, en étant, par exemple, capable de prédire le résultat d’un traitement plutôt que de devoir le constater en le testant sur des êtres humains. À terme, cela pourrait être très important, à la fois au niveau fondamental, dans la compréhension des systèmes vivants, mais aussi en médecine.

DÉBAT

M. Jean-Yves Le Déaut. Merci de vos interventions liminaires. Nous disposons à présent d’une vingtaine de minutes pour débattre.

M. Patrick Hetzel, député. Je souhaiterais vous faire part de deux interrogations. La première, sur laquelle nous aurons certainement l’occasion de revenir, m’a été suggérée par l’intervention de M. Jean-François Deleuze, qui faisait notamment référence à l’existence de blocages ou d’inadaptations réglementaires. Il s’agit évidemment là d’un point qui, en tant que parlementaires, nous intéresse au premier chef.

Le second point s’inscrit dans le prolongement de l’intervention de M. Cédric Chauvierre sur la place de la nanomédecine. À l’OPECST, nous sommes intéressés par la manière de parvenir à une acceptabilité, de la part de nos concitoyens, d’un certain nombre d’orientations de la recherche. Or je ne vous apprends rien en vous disant que nous constatons, y compris au sein du Parlement, quelques résistances quant au recours potentiel à la nanomédecine, au nom notamment d’une vision très restrictive du principe de précaution, qui invite à ne rien faire et est très problématique, dans la mesure où cela revient à figer ce qui pourrait être effectué en matière de recherche. Or, si des risques sont parfois pris lorsque l’on développe des recherches, l’enjeu et l’objectif sont de parvenir à les identifier et à envisager la manière de les maîtriser, tout en sachant que le « zéro risque » n’existe pas. Je souhaiterais que nous revenions sur ce point, récurrent pour nous dans la mesure où nous avons, en tant que législateur, régulièrement affaire à un certain nombre de groupes de pression qui cherchent à nous faire intervenir de manière législative pour interdire tel ou tel processus. La nanomédecine se trouve indéniablement aujourd’hui dans ce spectre de visée.

M. Jean-François Deleuze. Concernant l’aspect règlementaire, je voulais essentiellement parler d’éthique et de consentement éclairé. Il s’agit d’ailleurs moins de blocages que de limitations pour des personnes désireuses de développer ces technologies et ces recherches. Nous sommes actuellement contraints par des systèmes de consentement éclairé qui imposent, par exemple, de préciser le gène sur lequel on va travailler. Or, on parle aujourd’hui du génome et d’une technologie qui évolue sur une base mensuelle. Tout en étant évidemment raisonnable – il ne s’agit absolument pas de se mettre hors la loi ni de faire n’importe quoi – il convient, selon moi, de faire évoluer le consentement éclairé vers une utilisation possible plus large, bien encadrée, des échantillons d’ADN disponibles dans nos collections. Il faut savoir que, lorsqu’on dispose, par exemple, d’une très belle collection sur laquelle on pourrait être compétitif scientifiquement, si trois mots clés ne figurent pas dans le consentement éclairé signé par la personne des années auparavant, alors il ne nous est pas possible d’utiliser les échantillons, même si les recherches envisagées s’inscrivent tout à fait dans la logique du consentement donné par le patient. On ne se situe alors ni hors la loi, ni hors déontologie mais un juriste pourrait y trouver à redire.

Je pense donc qu’il faudrait faire évoluer ces consentements vers des consentements modernes, dynamiques, électroniques, qui permettraient, tout en continuant évidemment à ne jamais rien toucher du patient sans lui demander son avis de façon systématique, de pouvoir le contacter avec beaucoup plus de réactivité. Cela représente aujourd’hui un frein au niveau à la fois de la compétitivité scientifique et vis-à-vis de l’idée que les gens se font des difficultés de mener des recherches en France.

M. Patrick Hetzel. A-t-on des points de comparaison sur ce sujet ? Dispose-t-on d’exemples d’autres pays dans lesquels il existerait à la fois une sécurisation juridique et une plus grande liberté d’action pour les organismes de recherche ?

M. Jean-François Deleuze. Il existe effectivement des pays dans lesquels le consentement est moins technique. Le consentement, tel qu’il est conçu aujourd’hui, est extrêmement technique, pour des raisons notamment de protection juridique, au point que l’on se demande même si le patient peut le comprendre.

M. Jean-Yves Le Déaut. La loi demande, préalablement à toute modification de la loi bioéthique, que l’OPECST et le Comité consultatif national d’éthique (CCNE) produisent des rapports. Il serait bien que vous nous adressiez une note sur ce sujet et que vous saisissiez également le CCNE.

Je partage votre sentiment et pense comme vous que des thèmes dynamiques ne doivent pas être figés au niveau règlementaire, car cela risque de bloquer notamment la recherche. Nous sommes donc prêts à travailler sur ce sujet.

M. Alain Houpert, sénateur. Je voudrais saluer tous ces chercheurs qui ont le courage de rester en France.

L’OPECST permet de faire se rencontrer des chercheurs et des parlementaires chargés de construire le monde de demain, de le faire évoluer et de donner aux scientifiques les moyens nécessaires à leurs travaux.

M. Jean-François Deleuze a indiqué que la France n’était actuellement pas dans le jeu. Avant d’être parlementaire, je suis d’abord médecin radiologue. J’ai fait mes études de médecine à Dijon, où j’ai eu l’opportunité de connaître un grand monsieur, en la personne du Pr Louis Guillemin, inventeur de l’hormone thyréotrope (TRH, thyrotropin-releasing hormone) qui, n’ayant pu être nommé agrégé à Dijon, est allé s’installer aux États-Unis, s’est fait naturaliser Américain et a obtenu le prix Nobel. Il existe d’autres exemples de ce type. Je pense notamment à un autre collègue dijonnais, le professeur Nabholtz, inventeur du tamoxifène.

Je souhaiterais que vous nous donniez votre sentiment sur les moyens mis en œuvre et sur le gâchis humain que cela engendre. On forme à grands frais des personnes comme vous, qui sont ensuite achetées par des chasseurs de têtes des universités outre-Atlantique, qui ont besoin de vos compétences. Je pense que nous avons, en France, la capacité à former des gens mais pas à les retenir.

M. Jean-François Deleuze. Je suis, pour ma part, très bien en France. Cette question est beaucoup plus globale, stratégique, et dépasse le cadre de la génétique et de la génomique. Je force le trait à dessein car j’aimerais que nous puissions aller plus vite dans la découverte de cibles pour des médicaments et que nous ayons la possibilité d’exploiter pleinement les ressources dont nous disposons, tout en restant dans le cadre de l’éthique. Je pense que cela relève de choix stratégiques, dont certains n’ont pas été faits à un moment donné, peut-être parce qu’ils l’ont été dans d’autres domaines scientifiques que celui de la génomique et de l’analyse génétique, dans lequel nous étions pourtant, voici une vingtaine d’années, un leader mondial. D’autres directions ont ensuite été prises, probablement pour des raisons de choix politiques.

L’intérêt de la France est de disposer d’une convergence de qualité clinique. Beaucoup d’Américains viennent ainsi en France pour essayer de récupérer nos cohortes de patients, qui présentent une qualité d’analyse phénotypique que l’on ne trouve pas aux États-Unis, où le système de santé est tel que cela n’y est pas possible dans les mêmes conditions.

Le système français offre donc à la fois des avantages et des inconvénients : avantages liés à la qualité, inconvénients dus au fait que nous ne sommes pas un peuple d’entrepreneurs. Il existe, par exemple, deux biothèques en séquençage en France quand il y en a des dizaines et des dizaines aux États-Unis, en Corée ou en Angleterre. Nous n’avons pas, dans notre culture, d’appétence pour la création de sociétés, ce qui constitue également un frein.

Votre question est très difficile. Je n’ai, pour ma part, pas nécessairement envie d’aller enrichir la recherche effectuée à l’étranger et préfère contribuer à nourrir celle qui se développe dans mon pays.

M. Jean-Yves Le Déaut. Dans le cadre du rapport que je prépare avec Mme Catherine Procaccia sur les nouvelles biotechnologies, concernant notamment les modifications ciblées du génome, j’ai eu l’occasion de rencontrer Mme Emmanuelle Charpentier qui a, avec Mme Jennifer Doudna, découvert une technique dans ce domaine et en a fait progresser la précision. Après avoir travaillé à l’Institut Pasteur et être allée aux États-Unis, elle a fait des demandes d’intégration au CNRS, à l’INSERM et à l’INRA, mais n’a pas été retenue. Il est donc parfois compliqué de revenir, même si les grands organismes de recherche font des efforts aujourd’hui pour essayer de s’adapter à une population de chercheurs mondiale.

Cette question mérite donc d’être posée et réfléchie afin de pouvoir formuler et proposer des solutions en termes de stratégie nationale de recherche et de la priorité à donner à certaines thématiques. La loi de 2013 a mis en place pour la première fois une stratégie nationale de recherche, que l’Office parlementaire est chargé d’évaluer. Nous commençons ce travail le 20 juin, avec une audition sur le thème de l’innovation et de la création d’entreprise, au cours de laquelle nous entendrons M. Louis Schweitzer, commissaire général aux investissements.

Je vous propose d’en venir, à présent, à la question relative à la nanomédecine et à l’écart croissant entre science et société.

M. Cédric Chauvierre. Il est vrai que l’on a tendance, en France, à réagir assez violemment dans les deux sens, c’est-à-dire à laisser faire dans un premier temps puis à prendre conscience et à tout interdire. L’opinion publique, apprenant par exemple que, pour que ses chewing gums soient blancs, on y inclut des nanoparticules de dioxyde de titane, se pose naturellement des questions et s’interroge notamment sur le devenir de ces nanoparticules ingérées en grande quantité, sur du long terme, dans l’organisme. Les crèmes solaires contiennent également du dioxyde de titane et la population s’interroge sur la capacité de ces nanoparticules à pénétrer dans la peau et à passer dans la circulation sanguine. Le débat est vaste.

Dans le cas de la nanomédecine proprement dite, au niveau diagnostic, on a affaire à des microdoses. Dans le contexte d’une application thérapeutique, de nombreux tests doivent être mis en place avant de pouvoir faire des expérimentations chez l’animal, puis chez l’homme. Avant de délivrer l’autorisation de mener un essai clinique chez l’homme, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) est très regardante et a mis en place une procédure spécifique, dans laquelle tout dispositif nanoformulé n’est plus considéré comme un dispositif médical, mais comme un actif. Il existe donc des garde-fous.

Je pense que l’on devrait également s’intéresser, à l’image de ce que l’INSERM met en place actuellement, à l’utilisation des nanoparticules dans les laboratoires. Nombre d’entre eux essaient en effet de faire des nanoparticules pour formuler des actifs, sans disposer nécessairement d’une expérience suffisante. Ils se réfèrent alors à certains textes, qui considèrent, par exemple, comme nano-objet tout objet dont les dimensions sont inférieures à cent nanomètres. Si ces laboratoires produisent des nanosystèmes à une échelle légèrement plus grande, ils vont considérer qu’ils ne créent pas de nano-objets et qu’il ne leur est donc pas nécessaire de prendre les précautions adéquates. Or cela présente des risques potentiels. La forme et les quantités des systèmes créés sont également importantes en termes de risques encourus, selon qu’il s’agit par exemple de systèmes en suspension liquide ou en poudre pulvérulente.

Aujourd’hui, il convient de développer une véritable prévention dans ce domaine et une formation pour les utilisateurs. Quant à l’usager futur, au patient, je pense que nous avons mis en place tous les garde-fous nécessaires pour assurer la sécurité des futurs nanosystèmes à usage médical, thérapeutique ou diagnostic. Il en va tout autrement dans le domaine agroalimentaire.

M. Félix Rey. Vous avez fait allusion au principe de précaution, parfois considéré d’une manière très restrictive. Nous sommes très souvent confrontés à cela dans le domaine des pathogènes. Les règlementations en France sont beaucoup plus contraignantes que dans les autres pays d’Europe dès lors qu’il s’agit d’un agent classé dans une liste établie par l’ANSM. Cela peut décourager les chercheurs et les inciter à étudier d’autres virus moins dangereux, qui ne posent pas de problème. De même, pour la manipulation de certains gènes, il faut avoir moins de cinq-cents paires de base. Ceci finit par décourager les chercheurs et avoir un effet vraiment négatif. Je souhaiterais que cela puisse être pensé au niveau législatif.

Mme Dominique Le Guludec, chef de service de médecine nucléaire, responsable U1148 INSERM, Univ P7, Assistance publique – Hôpitaux de Paris. Je souhaiterais, en tant que médecin, intervenir à propos de l’acceptabilité de certaines innovations par la société et par nos patients. En quelques années, j’ai pu observer une augmentation considérable du caractère administratif du consentement. Je puis vous assurer qu’un patient est aujourd’hui incapable de lire et de comprendre le moindre mot de nos formulaires de consentement obligatoires, qui comportent tellement de détails abscons que l’on a le sentiment de lire du chinois. Il faut absolument agir dans ce domaine, où l’on est totalement contreproductif. Nous donnons de la contre-information à nos patients, ce qui va assurément à l’encontre de l’acceptabilité des innovations.

M. Pierre Médevielle, sénateur. Je partage les inquiétudes de mon collègue sénateur, Alain Houpert, par rapport à la recherche mais conserve toutefois quelque optimisme après la visite que j’ai pu effectuer, en compagnie de notre président et de quelques autres membres de l’Office, sur le plateau de Saclay. Je suis également en contact régulier avec une école doctorante toulousaine ainsi qu’avec l’INRA. Je crois que la recherche française est confrontée à des problèmes récurrents mais a néanmoins toujours de beaux jours devant elle, avec des résultats probants.

Concernant la question des nanoparticules, j’ai lu récemment un article d’une équipe de chercheurs américains qui a mené avec succès une expérimentation avec des nanoparticules comme « balles magiques », qui leur ont permis de transporter des brins de petit ARN interférent, en association avec un traitement à la doxorubicine, avec des résultats spectaculaires. Où en sommes-nous en France ?

M. Cédric Chauvierre. La France est très compétitive au niveau des nanotechnologies. Le professeur Couvreur, de l’université Paris Sud, a été admis à l’Académie des sciences sur la base de ses travaux sur les nanoparticules, notamment sur le développement des cyanoacrylates dans les systèmes anticancéreux. Une start-up s’est montée à partir de ses recherches au début des années 2000. Elle est aujourd’hui en phase trois sur un hépatocarcinome. Nous développons aussi des nanosystèmes avec les acides nucléiques. Je pense que, en nanomédecine, la France est très bien située par rapport aux enjeux mondiaux et qu’il n’existe pas actuellement, dans ce domaine, de freins à la recherche dans les laboratoires. Je pense que l’on peut être fier des travaux menés en France dans le domaine des nanotechnologies.

En revanche, je partage tout à fait le point de vue du professeur Le Guludec quant à leur utilisation chez le patient. Mener un essai clinique est plus compliqué en France qu’ailleurs et la facilité consisterait à aller l’effectuer dans un autre pays.

M. Jean-Yves Le Déaut. L’un des intervenants a indiqué que le goulot d’étranglement pourrait, demain, résider dans l’analyse des données. Cette question me semble majeure.

DEUXIÈME TABLE RONDE :
LE CAS DES TECHNOLOGIES ISSUES DES SCIENCES DE L’ATOME ET DES TECHNOLOGIES D’IMAGERIE APPLIQUÉES À LA SANTE

Présidence de M. Pierre Médevielle, sénateur.

M. Pierre Médevielle. Nous sommes ravis de vous accueillir, au nom de l’Assemblée nationale et du Sénat, pour cette deuxième table ronde qui mettra l’accent sur la contribution des technologies issues des sciences de l’atome et des technologies d’imagerie aux sciences de la vie. Celles-ci ont notamment permis de réaliser des progrès considérables dans le domaine de la santé.

Je voudrais remercier tous les scientifiques qui ont accepté de prendre sur leur temps pour éclairer l’OPECST et les parlementaires à ce sujet, ce qui nous permettra ensuite de prendre des décisions pragmatiques lorsqu’il s’agira de légiférer à ce propos.

La France contribue de manière importante, depuis Henri Becquerel et Pierre et Marie Curie, à l’effort scientifique et technologique effectué pour maîtriser l’atome. Sa position s’est encore affirmée avec la création, en 1945, à l’initiative du Général de Gaulle et sous l’impulsion de Frédéric Joliot-Curie, d’un centre de recherche dédié à l’étude de l’atome et de toutes ses applications, y compris pour les sciences de la vie. Il s’agit bien entendu du Commissariat à l’énergie atomique (CEA), au nom duquel se sont ajoutées depuis les énergies alternatives.

Les recherches dans ce domaine sont également menées, souvent en liaison avec le CEA, au sein d’autres organismes comme le CNRS et l’INSERM, dont les travaux nous seront également présentés au cours de cette matinée.

L’instrumentation nucléaire pour la santé

M. David Brasse, Institut pluridisciplinaire Hubert Curien, Strasbourg, CNRS. Mon intervention ne sera bien évidemment pas exhaustive. J’ai voulu éclairer ou illustrer les différentes améliorations technologiques au travers de deux modalités.

La première vise simplement à vous rappeler l’utilisation des rayons X, découverts par Wilhelm Conrad Röntgen en 1895. Pour la première fois, on pouvait observer l’intérieur de l’être humain sans être nécessairement invasif. Notre rôle, en tant que méthodologistes ou chercheurs travaillant dans le développement technologique, est de donner des outils à nos cliniciens et praticiens pour sécuriser leurs diagnostics, en termes de précision et de caractérisation de la maladie, afin de leur permettre ensuite d’orienter la thérapie. Par cette image de la première main radiographiée, je voulais illustrer les sauts et révolutions technologiques qui ont permis d’aborder ceci et vous montrer les avancées réalisées en un peu moins d’un siècle en matière de rayonnements X. On est passé d’une radiographie en deux dimensions à une investigation du corps humain dans toutes ses dimensions, qu’elles soient spatiales ou temporelles.

La radiographie s’est caractérisée par une différence de densité tissulaire. On voit ainsi un contraste naturel entre les os, les tissus et l’air. On pourrait se dire, au vu de ces images, que toutes ces technologies, toutes ces avancées, réalisées dans le secteur privé mais également en parallèle dans le monde académique, au sein du CEA, du CNRS ou d’autres institutions, que l’on est arrivé à la croisée des chemins, avec une précision spatiale de l’ordre de quelques centaines de microns et un contraste intéressant entre les tissus. Depuis quelques années, d’aucuns prétendent de façon récurrente que, au vu de ces progrès, l’imagerie X est terminée.

Il m’apparaît néanmoins que l’on peut aller au-delà. Mon propos ce matin consiste à souligner l’avenir de cette technique et à faire rêver les cliniciens en leur montrant que l’on peut aller plus loin avec les rayons X, en caractérisant peut-être des matériaux. On voit que, par des sauts technologiques, en utilisant de nouveaux détecteurs et de nouvelles approches, on peut, par exemple, coupler à une imagerie purement morphologique quelques cartographies de matériaux, comme le calcium ou l’iode. Cela s’effectue avec un nouveau protocole. En introduisant de nouveaux détecteurs capables de discerner en temps réel les différentes énergies de ces rayons gamma ou X, on peut directement cartographier ces différents matériaux.

Bien évidemment, ces développements technologiques sont réalisés dans le monde industriel mais émanent surtout aujourd’hui des recherches fondamentales, notamment en physique nucléaire et en physique des particules. Ces détecteurs sont, en effet, développés au sein de nos instituts, dans le cadre de grandes expériences, telles que celles menées au CERN sur les détecteurs de particules CMS (Compact Muon Solenoid) ou ATLAS (A Toroidal LHC Apparatus).

Je voulais illustrer ici, avec l’exemple des rayons X, le fait que, bien que d’aucuns estiment cette modalité terminée, on peut ouvrir de nouvelles perspectives pour les cliniciens.

Le deuxième exemple que je souhaite évoquer est celui de la tomographie par émission de positrons, introduite cliniquement dans les années 1960. Très classiquement, on passe alors d’une imagerie anatomique à une imagerie fonctionnelle. À cette époque, le premier réflexe a été de considérer que cette image n’était pas très bonne. Elle met néanmoins en évidence une dysfonction métabolique. La première image fonctionnelle est réalisée au gallium 68. C’est très paradoxal, car on nous indique en ce moment que le gallium 68 peut être l’isotope de demain pour l’imagerie de tomographie par émission de positrons (TEP). Entre 1963 et maintenant, le saut technologique est considérable. Aujourd’hui, on peut voir dans le corps entier une distribution radio-pharmaceutique, comme un analogue du glucose qui va indiquer spécifiquement la surconsommation de glucose des cellules tumorales.

En 2000, une révolution est apparue cliniquement, lorsqu’on a associé imagerie anatomique et imagerie fonctionnelle. Malheureusement, elle s’est produite aux Etats-Unis. Cela a néanmoins permis d’introduire cette technologie dans tous les hôpitaux. Cet examen est ainsi devenu fondamental dans le suivi en oncologie.

La révolution technologique actuelle consiste à coupler la tomographie par émission de positrons avec l’imagerie par résonance magnétique (IRM). Le défi est, ici, purement technologique. Le développement des détecteurs et de la microélectronique nécessaires pour réaliser ce type d’image s’effectue dans le secteur privé mais également, en parallèle, dans toutes les institutions académiques. L’avenir, probablement, est de continuer à améliorer la précision et la caractérisation de ces technologies.

Prenons l’exemple de la mesure du temps de vol : en prenant en compte une information temporelle, nous avons acquis un gain énorme en contraste. Pour continuer dans cette logique et avancer encore, il faut développer de la microélectronique, des détecteurs et s’appuyer sur les recherches académiques. Il faudra aussi, peut-être, changer les concepts et s’appuyer sur des isotopes innovants, qui émettent trois photons et permettent d’améliorer l’efficacité et la résolution.

Je me suis servi de ces deux exemples pour illustrer l’histoire des progrès technologiques et vous montrer que tout n’est pas fini. L’avenir est pavé de nouvelles technologies, qui vous donneront probablement une assurance meilleure sur les diagnostics.

Je voudrais conclure en posant la question de l’adéquation des moyens mis en jeu pour relever ces défis et du tissu industriel français sur lequel se reposer pour transférer ces technologies.

Les apports de la physique nucléaire au traitement du cancer par faisceau de particules

M. Jean Colin, Laboratoire de physique corpusculaire (LPC) de Caen, CNRS. Je vais présenter l’apport de la physique nucléaire aux outils de radiothérapie de demain. La problématique est la suivante. Chaque année, en France, on dénombre environ trois cents mille nouveaux cas de cancers, dont la moitié traitée par de la radiothérapie associée à de la chirurgie et de la chimiothérapie. On arrive aujourd’hui à résoudre un cas sur deux, ce qui est assez extraordinaire en termes d’évolution. Il n’en reste pas moins, malheureusement, autant d’échecs qui se traduisent soit par un échec local, avec une tumeur qui redémarre, soit par l’installation de tissus indésirables dans d’autres compartiments, c’est-à-dire des métastases.

On peut diminuer le taux d’échec local de deux façons : soit en améliorant la balistique du tir, c’est-à-dire en mettant plus de doses au niveau des tissus tumoraux et en mobilisant plus d’énergie et d’efficacité pour les détruire, tout en diminuant les effets sur les tissus sains, soit essayer d’augmenter l’efficacité de destruction des tissus indésirables. Cela se fait par différentes techniques. On dispose, aujourd’hui, en radiothérapie de nouveaux outils comme la modulation d’intensité sur les faisceaux, la tomothérapie et le cyberknife, qui utilisent des rayons X comme auparavant, mais aussi d’autres particules qui sont essentiellement aujourd’hui les protons et les carbones.

Concernant les technologies X, nous disposons aujourd’hui d’appareils et de machines qui tiennent dans des pièces de taille normale, de l’ordre de vingt à trente mètres carrés. En revanche, les machines utilisant des particules en protonthérapie sont beaucoup plus volumineuses et nécessitent, pour les plus petites, des pièces de trente à quarante mètres carrés, surtout si l’on veut faire tourner le faisceau autour du patient.

On utilise ces particules parce qu’elles ont, au point de vue physique, un comportement particulier. Quoi que l’on fasse, les photons X déposent la plus grosse partie de leur énergie à l’entrée des tissus, puis de moins en moins en profondeur. Les particules chargées, telles que les protons ou carbones, ont un comportement à peu près inverse. Elles déposent peu d’énergie en entrée, pour en déposer davantage par la suite, lorsqu’elles ralentissent dans les tissus. On obtient ainsi le dépôt d’un maximum d’énergie en fin de parcours. C’est ce que l’on qualifie de « pic de Bragg ». C’est évidemment un élément pertinent pour traiter certaines tumeurs en profondeur, surtout si l’on ne veut pas déposer d’énergie au-delà de ce pic. C’est donc très intéressant, en complément de la radiothérapie conventionnelle X.

Il existe environ cinquante centres de traitement par faisceau de protons aujourd’hui dans le monde, qui ont permis de traiter quelque cent six mille patients depuis les années 1990, chiffre à rapprocher des deux cent cinquante mille personnes traitées chaque année en X uniquement en France.

La France compte actuellement deux centres de protonthérapie, à Orsay et à Nice. Un troisième est en construction à Caen et traitera les premiers patients à la fin de l’année 2018.

Il existe, en outre, huit centres de traitement par ions carbone dans le monde : quatre au Japon, deux en Chine, un en Allemagne et un en Italie. Treize mille patients y ont été traités depuis les années 2000. Un seul projet de ce type a été lancé en France l’an dernier : il s’agit du centre ARCHADE (Advanced Resource Centre for Hadrontherapy).

Les rayons X resteront néanmoins l’essentiel des traitements en radiothérapie externe, avec des installations légères et parfaitement maîtrisées permettant une précision moyenne sur le tir ainsi qu’une efficacité biologique et de destruction moyenne. Les protons permettent, quant à eux, une précision de tir beaucoup plus grande. Les carbones se caractérisent essentiellement par des installations lourdes, mais un énorme gain en efficacité biologique. C’est la raison pour laquelle nous travaillons dans ces particules, qui permettent aujourd’hui de traiter des tumeurs radio-résistantes, inaccessibles chirurgicalement et par la chimiothérapie.

Le programme ARCHADE, dont les travaux viennent à peine de débuter, comporte trois volets : un volet sanitaire de traitement en protons, qui sera opérationnel à la fin de l’année 2018, un volet recherche sur l’optimisation des traitements avec les ions carbone et d’autres ions, grâce à une machine que l’on va créer, et un volet industriel, avec la création d’une entreprise chargée de développer, fabriquer et commercialiser cette nouvelle machine. La machine protons, qui va faire du traitement, consistera en deux cyclotrons supraconducteurs. La machine carbone servira, dans un premier temps, à effectuer de la recherche clinique-physique et en radiobiologie.

Les apports de la physique nucléaire dans ces thématiques sont évidents, notamment du point de vue des machines : sources d’ions et accélérateurs, lignes faisceau et têtes d’irradiation. Ces technologies sont les mêmes que celles que nous utilisons pour nos machines de recherche fondamentale.

Il en va de même pour toute la recherche à développer : nous avons besoin de données physiques pour maîtriser les processus physiques qui ont lieu dans ces interactions, et de modélisations. Cet aspect de modélisation est très important. En effet, il va falloir, demain, pour un patient donné, choisir entre un traitement X, un traitement protons et un traitement carbones. Il faudra ainsi être capable de modéliser un traitement de A à Z, depuis la particule jusqu’aux effets cliniques qui en découlent. Il s’agit d’un véritable enjeu, dans lequel l’apport des physiciens nucléaires est considérable.

Je terminerai en évoquant les marges de progression dont nous disposons pour jouer un rôle majeur en hadronthérapie. Comme vous l’avez compris, des machines sont installées en Chine, en Allemagne et en Italie. Nous avons pris un peu de retard mais sommes aujourd’hui en situation de tenir une place tout à fait importante. Nos équipes de physiciens nucléaires sont en ordre de marche pour répondre aux questions que j’ai soulevées ici. Le principal problème est de constituer la filière industrielle qui va fabriquer ces nouvelles machines et nous permettra véritablement de jouer un rôle dans ce domaine. Nous avons évidemment besoin sur ce point du soutien à la fois des politiques et des industriels du domaine.

Application des microfaisceaux d’ions aux sciences du vivant

M. Hervé Seznec, biologiste, chargé de recherche, responsable de l’équipe iRiBio, CNRS. Les microfaisceaux d’ions sont des technologies émanant de la physique nucléaire et de la physique des particules. Ils ont été créés dans les années 1970, en réponse au besoin des physiciens de caractériser l’interaction entre rayonnements et matière. Ils ont été développés pour atteindre des échelles compatibles avec la caractérisation d’une matière particulière, à savoir la matière vivante, constituée de protéines, de lipides mais aussi d’éléments traces et d’ions, essentiels dans la physico-chimie.

Ces microfaisceaux d’ions ont été développés grâce à des techniques telles que la détection, la production de source, la faisceaulogie et la détection de ces faisceaux. On a donc pu utiliser, comme on l’aurait fait avec des microscopes électroniques, des microscopes à base de protons et de particules alpha, qui viennent interagir avec le cortège électronique des atomes et les atomes eux-mêmes et donner la possibilité, lorsqu’on travaille sous vide, d’avoir accès à la composition chimique, à la cartographie de la distribution des éléments chimiques dans un organisme et surtout à la quantification multi-élémentaire. On va ainsi, si l’on considère une biopsie, une cellule humaine ou un nématode de référence comme le ver Caenorhabditis elegans (C. elegans), pouvoir regarder la distribution des éléments chimiques comme le sodium, le chlore ou le soufre. Cela trouve des applications très intéressantes, notamment dans de nouvelles technologies telles que la nanomédecine.

Il existe environ une soixantaine d’installations microfaisceaux dans le monde. Une dizaine fonctionne en Europe, dont une en France, complètement tournée vers les sciences du vivant, pour la micro-analyse.

Une autre application des microfaisceaux d’ions est la micro-irradiation ciblée et contrôlée. Dans ce cas, le faisceau est extrait à l’air et piloté de façon à l’amener où on le souhaite dans la cellule, voire choisir la cellule que l’on veut irradier, à la dose que l’on veut. Cette application est très importante dans la compréhension de la radiobiologie fondamentale.

Pour le biologiste que je suis, entrer dans un laboratoire de physique nucléaire est assez loin de la paillasse et de la petite cellule. Il faut s’adapter. En effet, le mot clé de ce type d’application est véritablement l’interdisciplinarité, c’est-à-dire la capacité de définir et développer de nouveaux outils, et de répondre à des problématiques qui vont toucher le vivant, notamment l’homme, en étant capable d’intervenir à différentes échelles : biopsie, culture cellulaire ou organisme de référence.

Il était précédemment question de réglementation. Aujourd’hui, je travaille dans un environnement à la croisée du nucléaire, des OGM et des nanotechnologies. C’est un véritable casse-tête lorsqu’on doit, de surcroît, travailler avec trois disciplines différentes : physiciens, biologistes et chimistes, et mettre en place un protocole expérimental répondant aux règles liées à l’hygiène, à la sécurité ainsi qu’à la protection des personnes.

Je vais maintenant vous présenter une illustration de la micro-analyse chimique. La question est, en l’occurrence, de savoir ce qu’il advient si un nématode vivant dans l’environnement mange des nanoparticules de dioxyde de titane. Peut-on les détecter, les quantifier et les suivre ? Les microfaisceaux d’ions nous permettent de le faire. On est capable, grâce aux protons, de faire des micro-scanners, comme on le fait en médecine avec des X, et de voir toute l’anatomie du ver. On peut également superposer l’ensemble des éléments chimiques jusqu’au calcium, l’intérêt de ce ver étant que son calcium ne se localise que dans ses cellules intestinales. On constate ainsi que, lorsque le ver a mangé des nanoparticules de dioxyde de titane, celles-ci se localisent au niveau de son lumen intestinal. Le ver est alors atteint d’une pathologie conduisant à une anomalie de son homéostasie calcique et intestinale, donc à des troubles qui, lorsqu’on étudie ensuite les problèmes d’écotoxicologie et de toxicologie sur l’organisme, se traduisent par des problèmes de croissance et de reproduction.

Cette application peut être très intéressante. Aujourd’hui, nous sommes ainsi très sollicités pour répondre à toutes les problématiques d’exposition environnementale, qui vont concerner également les expositions professionnelles. On pense, par exemple, à la question de l’uranium dans l’industrie nucléaire ou encore des oxydes d’aluminium dans les vaccins, les adjuvants anti-vacciniques ou les compléments alimentaires. Cela renvoie également à toutes les problématiques des pathologies neurodégénératives, avec le rôle des ions dans les maladies comme les maladies de Parkinson, d’Alzheimer ou de Huntington. Ces technologies trouvent enfin des applications dans le domaine des nanotechnologies. Si l’on veut évaluer la toxicité d’une nouvelle nanoparticule ou d’un nanomédicament, il faut pouvoir les détecter, les suivre et les quantifier.

Ces technologies offrent aussi la possibilité de faire de la micro-irradiation ciblée, en dose contrôlée. C’est tout l’enjeu de la radiobiologie, et notamment d’une problématique concernant les faibles doses. Les microfaisceaux d’ions sont capables de déposer dans une cellule le niveau et la dose de particules que l’on souhaite. On est ainsi capable de travailler à l’échelle cellulaire, sur des cellules humaines, et d’irradier, par exemple, uniquement le génome. Pour avoir des effets des rayonnements ionisants, il faut aujourd’hui endommager l’ADN. Ces systèmes permettent de déposer la quantité de radioactivité souhaitée sur les gènes et de suivre en temps réel la réponse de la cellule à ces dommages. On peut, par exemple, travailler avec des lignées cellulaires caractérisées par séquençage en profondeur et dont on connaît exactement la totalité des mutations et des anomalies génétiques, et regarder l’impact du niveau de radiation sur ces cellules. Cela peut également se faire sur un organisme de référence comme C. elegans. On peut alors aller choisir dans un embryon en développement, qui va avoir sa propre vie, une seule cellule et développer une faible dose de radioactivité dans cet organisme, donc avoir une approche transgénérationnelle, mais également in vivo, des effets biologiques de faibles doses de radioactivité.

On se situe donc à la fois dans une démarche de radiobiologie fondamentale et dans l’évaluation préclinique de nouvelles approches thérapeutiques, puisque des sociétés développent, par exemple, aujourd’hui, des nanoparticules qui vont potentialiser les effets des rayonnements ionisants. La question est alors de savoir quels sont ces mécanismes fondamentaux : on peut aujourd’hui y répondre, de même qu’à la problématique des faibles doses d’exposition.

Ces outils se situent en outre souvent dans des niches technologiques. L’ensemble des compétences de nos instituts, comme le CNRS ou l’Institut national de physique nucléaire et de physique des particules (IN2P3), permettent d’avoir toutes les composantes techniques nécessaires au développement de ce type d’outils, avec de forts transferts technologiques, tant par la formation des personnels que par la définition des protocoles ou la création des outils, avec notamment les transferts de ce type d’équipement sur les lignes microfaisceaux et sur les installations de l’Institut de radioprotection et de sûreté nucléaire (IRSN), fortement impliqué dans tous les problèmes de radioprotection et de sûreté nucléaire.

Toutes ces applications sont enfin très intéressantes dans la mesure où elles attirent énormément d’industriels. Cela renvoie à la problématique de laboratoires de recherche fondamentale, qui ont besoin de continuer leurs travaux et sont très sollicités par des instituts de recherche privés, en l’occurrence, pour nous, l’Institut de recherche Pierre Fabre ou la société Nanobiotix, qui ont besoin de ces technologies de pointe, qui ne peuvent pas forcément être appliquées en routine mais permettent néanmoins des transferts vers l’industrie.

La production de radio-isotopes pour la médecine (cyclotron Arronax, Nantes)

M. Ferid Haddad, maître de conférences à l’université de Nantes, directeur adjoint du GIP Arronax. Je vais vous présenter ici un panorama lié à la production de radio-isotopes pour des applications médicales. Le rayonnement des radio-isotopes est, en médecine, la matière première utilisée pour faire soit de l’imagerie, soit de la thérapie. Cela trouve des applications variées, principalement en cancérologie, en neurologie et en cardiologie. Mais on peut parfaitement imaginer d’autres usages de ces rayons ionisants.

Les applications dépendent des caractéristiques de ces radio-isotopes, qui pourront être utilisés soit à faible dose, pour faire de l’imagerie fonctionnelle, soit à forte dose, pour effectuer de la radiothérapie interne, pouvoir s’attaquer, par exemple, aux cancers métastatiques et cibler l’ensemble des cellules en utilisant des rayonnements particuliers, comme les rayonnements alpha. Il s’agit d’utiliser des vecteurs qui vont permettre d’acheminer la radioactivité sur les cellules ciblées, que ce soit pour l’imagerie ou pour la thérapie. Ensuite, la radioactivité détruit la cellule ou envoie un signal à l’extérieur du patient pour que l’information puisse être récupérée dans le cadre de l’imagerie.

Comme cela a été souligné précédemment, le lien entre l’imagerie et la thérapie est aujourd’hui de plus en plus étroit et permet d’envisager des applications en médecine personnalisée, souvent qualifiée de « théranostic ».

Certains radio-isotopes sont disponibles depuis longtemps. L’intérêt aujourd’hui est de pouvoir bénéficier de radio-isotopes innovants par leurs périodes radioactives, par leurs propriétés chimiques et par les radiations utilisables. Ces radio-isotopes peuvent être produits principalement par deux méthodes, en utilisant soit des réacteurs nucléaires de recherche, soit des accélérateurs de particules. Vous pouvez voir sur cette diapositive une liste des principaux radio-isotopes : y figurent en rouge ceux qui sont utilisés de manière très classique, qui représentent l’essentiel des examens en routine clinique, et en bleu des radio-isotopes innovants, qui intéressent le monde médical et sur lesquels des développements restent à faire. Tout le travail de recherche va consister à mettre ces radio-isotopes à disposition, en quantité et qualité suffisantes, de manière à pouvoir accompagner le développement de nouveaux produits radiopharmaceutiques et protocoles cliniques. Pour atteindre cet objectif, il est nécessaire qu’une collaboration étroite s’établisse entre les monde académique, hospitalier, industriel, souvent à l’échelle internationale, de manière à pouvoir mutualiser au maximum les compétences.

Pour illustrer l’intérêt de ce travail collaboratif, j’ai choisi de vous présenter le cas de la crise du technétium 99m (99mTc). Le technétium 99m est l’isotope le plus utilisé en imagerie en médecine nucléaire. En 2008, des problèmes d’approvisionnement récurrents sont survenus, liés à ses spécificités de production, à savoir un nombre de centres de production limité, avec un parc vieillissant. Cela a conduit à des arrêts non volontaires de production et à des difficultés d’approvisionnement. Afin de résoudre en partie ces problèmes, une concertation internationale a été mise en œuvre, qui a permis de mettre en lumière différents points de convergence, parmi lesquels une optimisation de l’utilisation des générateurs de technétium Mo/Tc par le monde médical. Cette concertation a également conduit à la mise en place d’une stratégie de coût complet. Souvent, ces réacteurs avaient été construits pour d’autres applications et l’amortissement n’était pas pris en compte dans le coût réel du radio-isotope, ce qui faisait barrage à l’entrée de certains acteurs privés sur ce marché, soit pour développer de nouveaux radio-isotopes, soit pour mettre en place de nouvelles méthodes de production.

En outre, un travail a été mené sur les réacteurs existants afin de pouvoir les convertir à la production de radio-isotopes, tout en évitant le risque de prolifération nucléaire. Un programme de construction de nouveaux réacteurs a par ailleurs été initié. La France a ainsi lancé la construction du réacteur de recherche Jules Horowitz pour les années à venir. Malgré les moyens mis en œuvre, il semble que la demande va rester supérieure à l’offre sur la période de 2015 à 2017. Ces mesures devraient toutefois permettre de pallier en partie le problème dans les années suivantes, à condition que l’ensemble des points prévus soient effectivement réalisés. Il faut donc rester vigilant, poursuivre la collaboration internationale, mais aussi développer des alternatives, sous forme de radio-isotopes innovants.

Je souhaiterais, pour terminer, faire état de l’intérêt qu’il pourrait y avoir à développer une filière spécifique de radio-isotopes en France, en prenant en compte un certain nombre d’atouts, de faiblesses, d’opportunités et de menaces associés à cette production. Parmi les atouts, figure le fait que la France dispose d’une grande expérience et d’un savoir-faire dans les techniques nucléaires, de laboratoires ayant développé des techniques de pointe, susceptibles d’être transférées vers l’industrie, d’installations existantes de premier plan et de sociétés radio-pharmaceutiques internationalement reconnues.

Au niveau des faiblesses identifiées, citons un frein au développement de certains nouveaux isotopes lié à la disponibilité d’équipements, au fait que les vecteurs disponibles au sein des grands groupes pharmaceutiques ne le sont pas forcément pour faire des études cliniques, la radioactivité n’étant pas nécessairement leur priorité, et à l’existence de contraintes réglementaires, en termes notamment d’essais cliniques.

Au rang des opportunités, il convient de mentionner notamment un leadership sur les émetteurs alpha, qui pourrait constituer une méthodologie de traitement intéressante.

Au titre des menaces, je citerai la politique de remboursement des médicaments, qui représente un frein important à la volonté des industriels de nous accompagner. Sans doute une réflexion devrait-elle être menée dans ce domaine. Je souhaite souligner également le besoin de former des personnels hautement qualifiés en physique nucléaire, en radio-chimie, en radio-pharmacie, de manière à pouvoir disposer de spécialistes capables d’accompagner les développements associés à ces productions.

M. Pierre Médevielle. Il est vrai que le problème du remboursement des médicaments est aujourd’hui entier, en lien avec le coût de nouvelles thérapies. Le législateur devra faire des choix peut-être plus pragmatiques dans l’utilisation de nos ressources financières et rembourser des technologies d’avenir comme
celles-ci.

Nous allons à présent passer au second volet de cette table ronde, qui concerne aussi pour partie les technologies issues de l’atome, puisqu’il est consacré à l’imagerie. Celle-ci constitue l’une des plus grandes révolutions de l’histoire de la médecine et plus généralement des sciences du vivant. Dans ce domaine, les technologies ont, au cours des dernières décennies, apporté des progrès considérables et continus en matière de diagnostic.

Imagerie médicale multimodale

M. Luc Darasse, directeur du Laboratoire d’imagerie par résonnance magnétique médicale et multi-modalités et du Groupement de recherche « Imageries in vivo », CNRS. Je vais revenir sur l’aspect des grandes découvertes introduit précédemment par mon collègue David Brasse. Ces découvertes, issues de la fin du XIXe siècle et développées tout au long du XXe siècle, nous ont permis de mettre en œuvre différents types d’ondes, capables de traverser les tissus vivants de manière non destructive, tout en rendant visibles les structures internes. Il s’agissait d’un défi inimaginable avant la découverte de la radioactivité et des rayons X. Cela a conduit à toute une gamme de modalités que vous connaissez tous : la radiologie, la médecine nucléaire, l’échographie, l’IRM, les imageries optiques qui sont en train d’émerger, l’électro et la magnéto-encéphalographie, etc.

Tous ces développements spectaculaires, dont l’utilité est incontestable pour le diagnostic, ont constitué une véritable révolution en médecine. Selon des chiffres de 2010, plus de cinq milliards d’examens d’imagerie clinique auraient été réalisés. Ces techniques d’imagerie ne s’appliquent pas seulement à l’homme. L’imagerie préclinique s’applique à l’animal, utilisé comme modèle des pathologies. Il s’agit là d’un aspect important, qu’il ne faut pas négliger.

Du point de vue du physicien, ces modalités se distinguent essentiellement par les différents modes d’interaction des ondes utilisées avec le milieu vivant. Cela a conduit historiquement à des conceptions radicalement différentes de l’imagerie.

L’imagerie anatomique, issue historiquement de l’imagerie radiologique, utilise les rayons X. Il s’agit d’une imagerie de transmission au travers des tissus, qui permet de voir l’atténuation de l’onde au travers des tissus traversés, qui interagissent avec les atomes. Elle est basée essentiellement sur une très haute résolution spatiale. Le diagnostic se fonde sur la morphologie. En cancérologie du sein, par exemple, lorsqu’une tumeur est spéculée, la forme en étoile très caractéristique de celle-ci permet de dire qu’il s’agit d’une tumeur agressive. Cela requiert de disposer d’une très bonne résolution. Il en va de même pour la recherche des métastases.

L’imagerie fonctionnelle, historiquement basée sur l’imagerie nucléaire, s’appuie sur des traceurs radioactifs. Ce type d’imagerie est complètement différent du précédent puisque la source est, cette fois-ci internalisée. On voit les émissions effectuées depuis la source vers des détecteurs situés à l’extérieur. On n’observe plus essentiellement l’anatomie, mais la biodistribution des molécules radioactives en fonction de leur constitution moléculaire et de la façon dont elles vont être métabolisées. Le diagnostic est donc fondé sur la métabolisation.

L’imagerie fonctionnelle dynamique s’est développée historiquement avec l’échographie, qui offre la possibilité de voir des réflexions d’ondes sur des obstacles, le mouvement de ces ondes, la vitesse des écoulements sanguins, puisque les globules rouges réfléchissent les ondes et provoquent l’effet Doppler. En utilisant des microbulles, on peut également réaliser de l’échographie de contraste, apportant de nombreuses informations sur la dynamique des phénomènes qui surviennent à l’échelle cardiovasculaire et microvasculaire.

Il résulte de tout cela un ensemble d’outils, qui, au départ, ne sont absolument pas équivalents. Avec l’évolution spectaculaire qui s’est produite tout au long du XXe siècle, les techniques se sont toutes intéressées à ces différents aspects de l’imagerie, en essayant de pousser leurs capacités dans leurs retranchements. On peut dire aujourd’hui que toutes les méthodes sont plus ou moins morphologiques et fonctionnelles.

Des différences subsistent toutefois. Ainsi, l’imagerie nucléaire présente une résolution relativement grossière, de l’ordre de quelques millimètres. La résolution temporelle n’est pas extraordinaire non plus, dans la mesure où il se produit un effet de lissage. Il existe donc une limite du côté de l’imagerie moléculaire nucléaire. On constate également des limites de vitesse, qui affectent beaucoup cette technologie. Une autre limite concerne la pénétration dans les tissus, c’est-à-dire la profondeur à laquelle on peut utiliser une onde avec une résolution donnée. On sait, par exemple, que les ultrasons sont limités : à fréquence élevée, qui permet une résolution spatiale poussée, on ne parviendra pas à pénétrer profondément.

Comment aborder les nouveaux défis qui se présentent avec, notamment, le développement de la génomique, de la protéomique et de la métabolomique ? Ces visions des différents composants moléculaires et de leurs interactions remettent considérablement en cause les approches traditionnelles de l’imagerie. Les approches thérapeutiques sont de plus en plus ciblées et il émerge ainsi un nouveau rêve de médecine personnalisée. Cela révèle trois enjeux : la spécificité, consistant à faire le lien entre les différentes échelles (moléculaire ou cellulaire), la sensibilité, essentielle pour effectuer un diagnostic précoce et adapter le suivi thérapeutique à des thérapies complexes, et l’accessibilité, c’est-à-dire le coût, l’innocuité des examens et la portabilité des systèmes d’imagerie. Il convient aujourd’hui d’essayer de concilier ces différents aspects, ce qui nécessitera d’associer différentes modalités et de faire jouer les synergies. Il faut impliquer des physiciens, des chimistes, des biologistes, des médecins et des traiteurs d’images, afin de pouvoir gérer cet ensemble.

Deux approches coexistent. L’une consiste en l’utilisation de fusion d’images issues de différentes modalités et en un traitement par des démarches de type traitement massif des données (Big Data).

L’autre est celle de l’imagerie hybride qui vise à combiner dans un même appareil deux modalités. Il existe plusieurs exemples de ce type de développement : la TEP-TDM (tomographie par émission de positrons/tomodensitométrie) consiste ainsi à associer les rayons X, qui donnent une résolution spatiale et une information morphologique, à la médecine nucléaire. Ce procédé est déjà éprouvé. Les nouveaux rêves que l’on peut envisager dans ce cadre concernent notamment la TEP-IRM, qui associerait une information fonctionnelle moléculaire et des données physiologiques dynamiques. Cela serait très intéressant en termes de diagnostic et permettrait de corriger certaines limites de la TEP par une aide à la reconstruction d’images, en la guidant grâce aux informations données par l’IRM sur le mouvement.

On entend également parler d’autres projets plus exotiques, comme la photo-acoustique, qui offrirait la possibilité d’aller plus profondément dans les tissus avec l’imagerie optique, qui est très limitée en pénétration mais donne des informations moléculaires extrêmement riches. On peut aussi citer l’élastographie, qui consiste à associer des ondes mécaniques à un autre système d’imagerie (ultrasons ou IRM), afin d’obtenir des informations sur la viscoélasticité des tissus, en une sorte de palpation interne. On peut enfin mentionner le guidage des thérapies par des modalités d’imagerie croisées, dont mon collègue, Yves Rémond, va nous parler lors de la troisième table ronde.

Tout cela ouvre un champ considérable et nous disposons, en France, de certains atouts pour relever ces défis.

L’imagerie moléculaire pour la santé

Mme Dominique Le Guludec, chef de service de médecine nucléaire, responsable U1148, Univ P7, Assistance publique – Hôpitaux de Paris. Je souhaiterais, en préambule, signaler que nous ne sommes que deux femmes sur dix-neuf orateurs et souligner que cela ne reflète pas notre communauté.

Mme Elodie Brient-Litzler, directrice adjointe du Centre d’innovation et recherche technologique de l’Institut Pasteur. Je ne partage pas totalement ce point de vue, dans la mesure où, malheureusement, notre communauté n’est, de manière générale, pas très féminine. Cela constitue, dans le monde des technologies pour les sciences de la vie, une question à part entière.

M. Jean-Yves Le Déaut, député, président de l’OPECST. Pour choisir les intervenants, nous sollicitons les différents organismes de recherche, la CPU, les Académies, et leur demandons, sur un sujet donné, de nous suggérer les personnes qui leur semblent le mieux à même de nous éclairer. Il va donc falloir vous retourner vers vos tutelles pour leur soumettre cette question. Je souligne que nous avons, dans la composition de notre Conseil scientifique, progressé de manière volontariste dans ce domaine. J’espère que nous parviendrons un jour à une stricte parité.

Mme Dominique Le Guludec. Je vous remercie. L’INSERM m’a donc choisie pour vous parler de l’aspect médical des progrès de l’imagerie et de son avenir.

Je parlerai essentiellement ici de l’imagerie moléculaire. Vous savez tous que l’imagerie morphologique et l’imagerie fonctionnelle, qui se basent sur les changements des caractéristiques physiques des tissus, ont permis des apports majeurs en médecine. La nouvelle ère qui s’ouvre concerne essentiellement l’imagerie moléculaire : on ne regarde alors plus des caractéristiques physiques mais un processus biologique. Bien entendu, associer les imageries morphologique, fonctionnelle et moléculaire représente pour moi un champ majeur pour traiter nos patients.

Il s’agit donc, avec l’imagerie moléculaire, de regarder un processus biologique. Qu’on l’observe par scanner ou en IRM, l’anatomie ne change pas ; en revanche, l’image obtenue grâce à l’imagerie moléculaire est multiple, puisqu’il y en a autant que de fonctions biologiques. On peut, par exemple, regarder la consommation de sucre par le cerveau, son activité, la perfusion, les récepteurs de l’humeur ou de la dopamine. Le contraste présent dans l’image est lié, d’une part, à un ligand spécifique, qui va cibler un processus biologique, d’autre part, à un isotope qui permet sa détection. Il faut, en outre, une sensibilité très élevée. Je souligne que les techniques nucléaires présentent l’avantage de n’avoir ni effet toxique, ni effet pharmacologique, ce qui est très important.

Il existe deux innovations majeures dans ce domaine. Les nouveaux ligands font l’objet de nombreux travaux de recherche, de la part d’équipes INSERM et autres. Cela suppose une association multidisciplinaire étroite entre biologie, chimie, radio-pharmacie et médecine spécialisée de l’imagerie. Le deuxième volet d’innovation concerne les améliorations en instrumentation et en création de radio-isotopes.

Pourquoi faut-il des ligands spécifiques ? Là se situe un impact majeur de l’imagerie moléculaire car cela permet d’effectuer des diagnostics bien avant les signes et les complications cliniques. Cela aide, en outre, à la thérapie ciblée. Je vais m’appuyer, pour illustrer mon propos, sur l’exemple des démences en neurologie. En 1984, la maladie d’Alzheimer se définissait par la démence : il s’agissait d’une définition clinique. Quelques années plus tard, la définition s’est établie au moment des premiers symptômes, des troubles de la mémoire, que des imageries métaboliques comme le TEP-FDG permettaient de diagnostiquer. Aujourd’hui, on se situe à un stade de diagnostic préclinique, seul stade au cours duquel les thérapies pourront avoir un effet car dans les deux stades précédemment cités, les neurones sont déjà détruits. Cela permet d’avoir un coup d’avance sur la maladie. C’est précisément là que pourront s’insérer les traitements. Nous disposons pour ce faire de traceurs TEP des plaques amyloïdes ou de protéine tau, qui bénéficient d’une autorisation de mise sur le marché (AMM) mais ne sont pas encore remboursés, et qui permettront de réaliser des diagnostics à un moment où la thérapeutique pourra être efficace.

Il en va de même en cardiologie : il existe de nombreuses techniques permettant d’observer le rétrécissement des artères des coronaires ou des carotides, la plaque d’athérosclérose diminuant la lumière. On sait effectuer un diagnostic à ce stade. En revanche, il faut savoir que la moitié des infarctus se produisent en l’absence de tout rétrécissement et sont dus à une inflammation dans la paroi artérielle que seule l’imagerie moléculaire pourra permettre de déceler. Cela permettra d’établir le diagnostic avant même que l’infarctus se produise. 40 % des AVC ont des causes inconnues. Là encore, l’utilisation de l’imagerie moléculaire, avec de nouveaux traceurs de l’inflammation, peut permettre de voir les causes des accidents vasculaires cérébraux. Des études ont été menées sur des molécules qui diminuent l’inflammation, comme l’atorvastatine par exemple. Il a fallu dix-mille patients et cent millions d’euros pour montrer qu’un traitement à quatre-vingt milligrammes faisait mieux qu’un traitement à dix milligrammes sur la mortalité et le nombre d’infarctus. En imagerie moléculaire, il a suffi de quatre-vingt-trois patients et de cent mille euros pour le démontrer. Ces techniques d’imagerie permettent donc également d’effectuer des économies considérables sur l’évaluation des thérapeutiques.

Je souhaitais, enfin, citer un exemple de théranostic concernant le ciblage spécifique de récepteurs de tumeurs endocrines digestives, pour lesquelles il n’existait pas de traitement jusqu’à présent. Nous disposons désormais d’outils avec un marquage au gallium, pour détecter des micro-métastases et voir réellement l’extension du cancer chez les patients. Cela est effectué sans cyclotron mais avec des générateurs, sans module de synthèse mais avec des kits froids faits dans nos services. Lorsqu’on a changé l’isotope et mis un émetteur beta qui détruit les cellules à la place du gallium pour faire de l’imagerie, la survie sans progression tumorale a augmenté de façon considérable. Cela a constitué un véritable scoop l’an dernier. Cette thérapie qui va se cibler sur les cellules est la seule efficace aujourd’hui. Elle est de plus développée par une entreprise française, Advanced Accelerator Applications. Nous disposons donc d’un important potentiel dans ce domaine.

Je parlerai peu d’améliorations physiques et d’instrumentation, déjà largement évoquées par mes collègues. Cela concerne notamment les détecteurs et les isotopes. Les nouveaux détecteurs à semi-conducteurs, déjà utilisés chez nous, permettent une augmentation de sensibilité par les caméras semi-conducteurs de l’ordre de dix et une réduction des doses administrées aux patients et de la durée des examens. Ils permettent également d’obtenir, par leur résolution en énergie due aux multi-isotopes, plusieurs informations en même temps, comme l’innervation cardiaque, qui permet de savoir à quels patients présentant une insuffisance cardiaque implanter un défibrillateur.

Il existe, en France aujourd’hui, trois machines de TEP-IRM. Nous espérons qu’il y en aura davantage dans les années à venir. Par exemple, dans le cas d’un cancer de la prostate, cette technique permet de le voir en IRM et de constater, grâce à un gallium, qu’il fixe ces fameux antigène prostatique spécifique (en anglais Prostate-specific antigen ou PSA) que l’on sait détecter dans le sang. On observe également deux petits ganglions, de taille infra-clinique, dont on aurait pensé, dans le cadre d’une IRM simple, qu’ils étaient bénins. Or, l’imagerie permet de montrer qu’ils sont envahis. Cela va permettre de traiter le patient avec une classification (staging) beaucoup plus efficace. Le même PMSA (prostate-specific membrane antigen), avec le lutécium, va permettre de faire de la thérapie ciblée sur ces petites tumeurs.

Nous disposons, en France, de très bonnes technologies, de très bons industriels mais il existe un manque de financement. On finance toute la recherche d’amont préclinique. On dispose de programmes hospitaliers de recherche clinique (PHRC) pour les industriels. Pour la recherche clinique le manque se situe dans le passage de l’animal à l’homme. Il n’existe, dans ce domaine, aucun appel d’offres. Les industriels ne veulent pas prendre le risque. Cette recherche translationnelle n’existe pas. Même les appels d’offre dits translationnels ne financent pas le passage à l’étude clinique et aux premières études humaines. Il y a là un manque criant.

M. Pierre Médevielle. Il s’agit effectivement là d’un réel problème sur lequel scientifiques et parlementaires devront revenir. Je donne à présent la parole à M. Denis Le Bihan, directeur de NeuroSpin. NeuroSpin est une grande infrastructure de recherche, unique en Europe, visant à repousser les limites actuelles de l’imagerie cérébrale. Le professeur Le Bihan est en particulier reconnu dans le monde entier pour ses travaux pionniers concernant l’IRM de diffusion, aujourd’hui utilisée dans tous les pays avancés pour étudier l’anatomie du cerveau et son fonctionnement.

Nouvelles technologies d’imagerie médicale

M. Denis Le Bihan, directeur de NeuroSpin, CEA. Comprendre le cerveau est un enjeu majeur, désormais à notre portée. L’enjeu est à la fois académique et philosophique puisqu’il s’agit d’essayer de comprendre les mécanismes de notre vie mentale. Il est également technique : pourra-t-on un jour répliquer le fonctionnement cérébral et disposer de systèmes artificiels, pour des personnes handicapées par exemple ? On estime que, à l’horizon 2040, le Japon comptera plus de robots que de voitures. Notre société va beaucoup évoluer de ce point de vue.

Sur le plan médical, de nombreuses pathologies psychiatriques sont très mal comprises aujourd’hui. Cela est, en outre, accentué par le vieillissement de la population qui représente un problème considérable à l’échelle mondiale. Le cerveau vieillit parfois bien et parfois moins bien. Il faut en comprendre les mécanismes.

Les enjeux sociétaux sont également, à l’évidence, très importants. Peut-on comprendre les liens et les éventuelles incompréhensions entre les êtres humains et les religions ? Comment améliorer les méthodes d’éducation ou nos performances cognitives ? Cela soulève de nombreuses questions. L’exploration du cerveau est devenue un effort vraiment interdisciplinaire, qui doit réunir physiciens, chimistes, médecins, neuroscientifiques, spécialistes des technologies de l’information, mais aussi hommes politiques.

Cette exploration est devenue possible chez l’homme justement parce que l’imagerie permet d’accéder à l’intérieur de notre crâne de manière non traumatique. Quand la radiographie est apparue et que l’on a pu voir des images des os, cela a permis de visualiser le crâne, mais non l’intérieur de la boîte crânienne. L’apparition du scanner à rayons X, puis de l’IRM, a permis de voir en direct ce qu’il y avait dans notre tête, ce qui a bien sûr constitué une révolution pour les patients puisque cela permettait de voir les lésions de leur vivant et, éventuellement, de les traiter, ce qui n’était pas envisageable auparavant.

La révolution suivante a été de pouvoir utiliser l’imagerie chez des sujets réputés bien portants, de façon à comprendre le fonctionnement du cerveau « normal ». L’IRM est particulièrement intéressante dans ce champ car elle permet d’obtenir des images qui couplent et structurent anatomie et fonctions avec une très grande précision, sans utiliser de radiations ionisantes. On peut ainsi répéter les examens à volonté et étudier éventuellement des enfants et des femmes enceintes, ce qui n’est pas envisageable avec d’autres techniques d’imagerie.

Le problème aujourd’hui est essentiellement un problème d’échelle. On sait obtenir des images magnifiques des connexions intracérébrales et de l’activation des différentes régions du cerveau, avec une précision de l’ordre du millimètre. Côté moléculaire, on dispose de nombreuses informations sur le fonctionnement de chaque cellule, sur le plan cellulaire et moléculaire. Mais il existe, entre les deux, un trou, correspondant à ce que je qualifierais d’« échelle intermédiaire », niveau que l’on ne sait pas aborder aujourd’hui, en tout cas chez l’homme. L’idée est de parvenir à voir s’il est possible, avec l’imagerie, de descendre à cette échelle, de façon à combler ce manque dans notre connaissance.

Par exemple, concernant le code génétique dont on connaît aujourd’hui le potentiel, bien qu’il ne soit pas encore totalement exploré, le microscope avait permis de mettre en évidence l’existence des chromosomes, liés à l’hérédité. De là à aller jusqu’au code génétique, il restait un grand pas à franchir. La présence d’ADN dans ces chromosomes a ensuite été découverte. Mais comment lier cet ADN à autre chose ? Personne n’a eu l’idée. Ce n’est que lorsque James Watson et Francis Crick ont imaginé que l’ADN était organisé dans l’espace pour coder une information que le code génétique a vraiment pu être compris. Tout cela relève également d’un problème d’échelle. Il s’agit, en effet, pour faire apparaître le code génétique, de descendre du chromosome à la molécule d’ADN puis de remonter à l’organisation dans l’espace des constituants de cet ADN.

Il est fort possible qu’il en aille de même pour le cerveau. Certaines régions sont, schématiquement, spécifiques de la vision, de la motricité ou du langage. On sait, depuis une centaine d’années déjà, que les cellules composant le cerveau sont organisées de manière différentielle, avec un nombre et une forme différents selon les régions. Il existe ainsi un couplage entre la structure anatomique fine, l’organisation à trois, voire quatre dimensions dans la mesure où cela varie dans le temps, de ces cellules dans le cerveau, et la fonction sous-jacente qui va jusqu’à la pensée.

Pourrait-on imaginer découvrir un jour une sorte de « code neural », comme il existe un code génétique ? C’est un rêve, une idée à poursuivre.

Nous allons avoir la chance, à NeuroSpin, de disposer bientôt d’un aimant hors norme, le premier au monde de ce type, fonctionnant à champ magnétique extrêmement élevé : deux cent vingt mille fois le champ magnétique terrestre, qui va nous permettre d’accéder à cette échelle. Cet aimant a été conçu par les ingénieurs et physiciens du CEA, en collaboration avec nos équipes de neuroscientifiques et physiciens, et réalisé à Belfort dans les locaux d’Alstom.

La France possède tous les atouts pour être au meilleur de ce que l’on peut faire dans ce domaine. À nous de savoir attirer les équipes étrangères et de leur donner la possibilité de travailler avec nous. Cela constitue le meilleur moyen pour nous non seulement de rester en France mais surtout d’inverser la tendance. Ce savoir-faire mériterait, en tout cas dans le domaine de l’IRM, de se concrétiser sous forme industrielle. Or la France manque aujourd’hui cruellement d’industriels dans le domaine de l’imagerie par résonnance magnétique. Nous pouvons concevoir et fabriquer des aimants uniques au monde aussi bien pour des champs très élevés que très bas.

La mammographie est aujourd’hui, pour le cancer du sein, la technique de dépistage de référence. Parfois, cela constitue aussi malheureusement un gros souci, puisque cela conduit à des sur-diagnostics et fait apparaître des lésions qui n’existent pas. Si l’on arrivait à mettre au point des examens utilisant une méthode d’imagerie comme l’IRM, offrant suffisamment de sensibilité et de spécificité, avec un petit appareil portable et peu cher, je pense que cela révolutionnerait le domaine du dépistage du cancer du sein.

M. Pierre Médevielle. La compréhension du fonctionnement du cerveau est un sujet mythique. Si vous parvenez à expliquer les raisons pour lesquelles les gens ne se comprennent pas, nous en aurons, je pense, des applications très intéressantes en politique. Nous allons à présent ouvrir un temps d’échange et de débat.

DÉBAT

M. Alain Houpert, sénateur. M. David Brasse a indiqué que les rayons X n’étaient pas finis. Cela est vrai dans la mesure où chaque examen est complémentaire. Il a déploré, par ailleurs, que l’on n’ait plus, en France, de fabricant de machines à rayons X. Le dernier industriel dans ce domaine a été racheté par General Electric, si bien que tous nos composants sont aujourd’hui fabriqués au Japon et assemblés souvent aux États-Unis. Il est ainsi regrettable que la France, pays de l’innovation, se prive de cet apport. Peut-être faudrait-il réfléchir à la question de savoir s’il est préférable de construire des Airbus ou d’investir massivement dans l’innovation en médecine. La seconde solution me semble la meilleure.

Entre la main radiographiée d’Anna Röntgen et le premier scanner de Hounsfield, soixante-dix-sept années se sont écoulées. Permettez-moi de vous raconter une petite anecdote à ce propos. Quand, en 1972, Godfrey Hounsfield a inventé le scanner, il est allé voir la société Philips, qui l’a pris pour un plaisantin. Comme il était britannique, il a vu les Beatles et rencontré le directeur de la société EMI, spécialisée dans la production de disques. C’est finalement cette entreprise qui a construit le premier scanner, qu’elle a ensuite vendu à Philips, avec d’importantes royalties à la clé. Si la musique nous enchante, elle peut donc également faire avancer la médecine. Grâce à John Lennon, nous pouvons aujourd’hui bénéficier des scanners, de l’IRM et de la médecine nucléaire.

Par ailleurs, la question des données a été évoquée à plusieurs reprises. Je pense que la France est très en retard dans ce domaine. Nous avons légiféré encore dernièrement sur l’analyse des données et sommes toujours extrêmement timides par rapport aux États-Unis, par exemple. J’ai participé, à Tempa en 2009, à un congrès sur l’informatique médicale. Nos collègues américains directeurs d’hôpitaux vendent toutes leurs données à l’industrie pharmaceutique, ce qui représente chaque année plusieurs millions de dollars. Les données sont anonymes et chaque médecin, chaque patient, chaque cas est analysé. Je pense que si ce type de pratique avait été généralisé en France, cela nous aurait peut-être permis de voir, par exemple, plus rapidement les dégâts causés par le Mediator ou encore de mettre moins longtemps pour découvrir Helicobacter pylori, en constatant que les personnes qui prenaient des antibiotiques souffraient moins souvent que les autres de cancer de l’estomac.

Les données informatiques, les data, constituent selon moi un sujet très important. Je pense que les événements du mois de novembre 2015 nous ont fait progresser face à cette peur vis-à-vis de l’anonymat. Tant qu’un patient est anonyme, tout ce qui peut lui arriver dans sa vie et tout ce que l’on pourra découvrir par les nouvelles techniques d’imagerie peut faire avancer la médecine à pas de géant.

M. Franck Montaugé, sénateur. Revient de manière récurrente dans les divers exposés que nous venons d’entendre la question de la faiblesse du tissu industriel et de la frilosité des acteurs économiques lorsqu’il s’agit d’investir dans le passage des phases précliniques à la problématique des transferts de technologies. Il serait intéressant qu’un point soit fait sur la manière dont ces sujets sont pris en compte, ou non, dans le cadre de la démarche des plans industriels d’avenir. Trente-quatre de ces plans ont été prépositionnés, à propos desquels des entreprises et groupements d’entreprises de natures diverses se sont manifestés dans le cadre d’appels à projets, gérés par BPI France. La médecine, la santé, les nanotechnologies font partie de certains de ces plans. Il serait intéressant de voir précisément où l’on en est et, peut-être, d’en tirer des enseignements en termes d’accompagnement, d’incitations de l’État à aller dans ces directions à fort enjeu pour les sujets eux-mêmes et pour l’économie de notre pays.

M. Pierre Médevielle. En ce qui concerne les données, je pense que nous évoluons. Nous légiférons sur ce sujet en ce moment-même. Il s’agit assurément d’un thème d’actualité. Je reste optimiste et pense que nous pouvons rattraper notre retard.

Quant aux plans industriels, je crois que la balle est dans le camp de l’OPECST, de l’Assemblée, du Sénat, en concertation avec le monde scientifique. Nous devons prioriser actions et plans. Il a été question d’un manque de financements à certaines étapes du processus, notamment lors du passage aux essais chez l’homme. Cela nécessite assurément une réflexion supplémentaire et des décisions pragmatiques. Thérapies et appareils coûtent tous de plus en plus cher. Il faudra faire des choix et procéder, dans ce domaine aussi, à un certain ciblage.

M. Jean-Yves Le Déaut. Le 30 juin prochain, nous allons, dans le cadre des compétences que la loi de 2013 confère à l’Office en matière d’évaluation de la Stratégie nationale de recherche, travailler sur cette question. Il s’agira notamment d’évaluer le passage de la recherche à l’innovation, puis aux développements industriels. Nous auditionnerons entre autres le Commissariat général à l’investissement (CGI) et M. Louis Schweitzer pour faire le point sur les plans industriels d’avenir. Nous évoquerons notamment dans ce cadre la question des technologies médicales.

M. Alain Houpert. Je vous prie de bien vouloir m’excuser d’intervenir à nouveau, mais je souhaiterais ajouter un élément aux propos de M. Denis Le Bihan sur la mammographie. Il ne faut pas oublier que, derrière toute imagerie médicale, il y a un médecin. Tout dépend de l’opérateur. Certains professionnels sont plus et mieux formés que d’autres et il est important de bien choisir son diagnosticien.

M. Denis Le Bihan. Je partage tout à fait votre point de vue : l’expérience compte beaucoup. Certaines techniques d’imagerie sont toutefois beaucoup plus dépendantes de l’opérateur que d’autres. Je pense en particulier à l’échographie ou à la mammographie. L’idée est justement de mettre en place des méthodes d’imagerie de moins en moins dépendantes de l’opérateur, voire même permettant de faire du diagnostic de façon quasi automatique afin d’éviter les variations d’interprétation d’un lecteur à l’autre. Il s’agirait de placer toute la connaissance disponible dans des logiciels, de façon à aider au diagnostic. Aux États-Unis et au Japon, les radiologues ne sont pas en nombre suffisant, si bien que les examens y sont lus à distance. La France résiste encore à cela, mais il y a fort à parier que cela se fera un jour. Il est donc important de placer l’intelligence dans des logiciels qui pourront non pas remplacer mais assister le médecin dans son diagnostic.

M. Pierre Médevielle. Je vous remercie une fois encore, toutes et tous, pour vos contributions passionnantes et vais redonner la parole au président Le Déaut pour la troisième table ronde.

TROISIÈME TABLE RONDE :
LES ENJEUX DES SYNERGIES ENTRE TECHNOLOGIES
ET SCIENCES DU VIVANT.

Présidence de M. Jean-Yves Le Déaut, député, président de l’OPECST

M. Jean-Yves Le Déaut. Cette troisième table ronde concerne les enjeux découlant du rôle de plus en plus important des technologies dans le développement des sciences du vivant. Nous allons évoquer notamment, au travers d’exemples concrets, l’impact de cette évolution sur la démarche scientifique de recherche, ainsi que sur l’innovation. Je salue M. Vincent Berger, qui vient de nous rejoindre et qui est, pour partie, à l’initiative de cette journée d’audition.

La chirurgie guidée par l’image, réalité augmentée et robotique médicale

M. Yves Rémond, professeur à l’université de Strasbourg, directeur adjoint scientifique CNRS-INSIS. Je travaille au CNRS et plus précisément au sein de l’Institut des sciences de l’ingénierie et des systèmes (INSIS). Pour information, je suis également, en compagnie de M. Franck Lethimonnier, à la direction de l’Institut thématique multi-organismes (ITMO) « Technologies pour la santé » de l’alliance AVIESAN.

Au CNRS, la question qui se pose à nous est d’essayer de trouver des concepts nouveaux qui vont nous guider pour irriguer nos laboratoires. Les sciences de l’ingénierie représentent environ cent vingt laboratoires en France et une quinzaine à l’étranger, soit quelque quinze mille personnes avec l’ensemble des institutions partenaires, universitaires notamment.

L’un des angles pour aborder cette question consiste à suivre le parcours d’un patient lors d’une chirurgie. Cela permet d’appréhender toutes les étapes et de comprendre où se déroulent des phénomènes que nous pouvons juger importants. Cette approche est évidemment partielle et mériterait d’être longuement développée mais il s’agit là de points qui nous intéressent beaucoup.

La première étape, celle du diagnostic, comporte évidemment de l’imagerie, y compris sous forme de multi-modalités entre l’anatomie et le fonctionnel. Je n’y reviens pas, dans la mesure où il en a déjà été beaucoup question aujourd’hui, dans des exposés remarquables.

Une fois le diagnostic posé, une chirurgie peut s’avérer nécessaire, pour laquelle le chirurgien a besoin d’une imagerie pour préparer son intervention. Le concept d’« homme transparent », mis en place voici bien longtemps, lui permet de disposer d’un certain nombre d’éléments. Mais lorsqu’un chirurgien commence son action chirurgicale, il a une vision de surface des organes et des tissus et non une vision volumique. Or cela rend son intervention plus compliquée, dans la mesure où il est nécessaire, pour être précis, de savoir où se situent la tumeur, les vascularisations, les terminaisons nerveuses, etc.

Comment faire pour introduire une vision volumique, par fausse transparence, sur la vision dont dispose le médecin en surface ? On peut, par exemple, superposer à l’image dont dispose déjà le chirurgien un certain nombre d’informations volumiques qui nécessitent, bien sûr, une modélisation et une reconstruction tridimensionnelle de l’ensemble des organes, à une échelle donnée. Cela se pratique par exemple à Strasbourg, au sein de l’Institut de recherche sur le cancer de l’appareil digestif ou de l’institut hospitalo-universitaire (IHU).

Le problème qui se pose alors est que, dans la réalité de l’opération, les tissus bougent, pour au moins trois raisons : le cœur bat, le patient respire et le chirurgien lui-même agit sur les tissus. On a donc besoin d’apporter un complément, c’est-à-dire de proposer, en temps réel, une information volumique en trois dimensions, précise, avec tous les mouvements possibles.

Cette question, essentielle, intéresse toutes les sciences de l’ingénierie : informatique, mécanique, électronique. On connaît aujourd’hui dans ce domaine des révolutions lentes, parmi lesquelles la réduction de modèle, aussi appelée « PGD » (Décomposition propre généralisée), qui permet de résoudre des problèmes et des systèmes d’équations absolument monstrueux, avec des techniques de dérivation pouvant accéder jusqu’au temps réel. Sans doute avez-vous tous résolu, en classe de troisième, des équations du type « ax + by = c ». Si l’on mettait les équations qu’il nous faut résoudre aujourd’hui pour simplement simuler un foie avec ses différents sous-organes, on écrirait à la même échelle que cette équation un système d’équations qui ne tiendrait pas dans l’Atlantique et que l’on aurait deux dixièmes de seconde pour résoudre. Or, on sait le faire aujourd’hui, notamment grâce à des approches utilisant par exemple ces réductions de modèle ; et l’on peut désormais envisager de le fournir aux chirurgiens. Ces techniques sont notamment issues des travaux du Pr Pierre Ladevèze, de l’École normale supérieure de Cachan, maintenant Saclay, et du Pr Francisco Chinesta, de l’École centrale de Nantes.

L’un des défis à relever réside dans la nécessité, pour le chirurgien, de disposer de technologies permettant de suivre cela dans la salle d’opération, sachant que l’on ne peut pas y installer d’ordinateur. Tout cela doit donc pouvoir être accessible sur une tablette. De nombreux verrous existent donc encore, qu’il nous faudra lever.

Ces technologies doivent, en outre, être accessibles non seulement pour le chirurgien humain, mais aussi pour le chirurgien robot, qui a besoin de connaître ce même genre d’informations. La seule différence est que le robot pourra réaliser des interventions inaccessibles pour le chirurgien humain comme, par exemple, opérer sur le cœur battant ou en microchirurgie très fine. Diverses organisations sont impliquées. Je pense, par exemple, au PIA cité précédemment ou à l’équipement d’excellence ROBOTEX, qui relie l’ensemble des structures de recherche en robotique, y compris médicale.

Ainsi, au CNRS, nous essayons de mettre en place de nouveaux concepts, liés par exemple à la mécano-biologie qui peut agir sur le déplacement des cellules. Après « l’homme transparent », on parle aujourd’hui au CNRS d’« homme élastique », d’« homme fluide », d’« homme électro » et d’« homme 5G ».

Voilà, brièvement présentés, quelques-uns des points qui seront mis en place cette année dans le secteur d’ingénierie pour la santé de l’INSIS, au sein du CNRS.

Reproductibilité de la recherche

M. Jean-Christophe Olivo-Marin, responsable de l’unité Analyse d’images biologiques, directeur de la Technologie, Institut Pasteur. Au regard des exposés précédents, je crains fort que mon intervention ne fasse l’effet d’une douche froide.

Je pense que l’on ne peut pas, quand on parle de recherche, qu’elle soit scientifique, fondamentale ou technologique appliquée, ne pas se poser la question de la reproductibilité des résultats. Peut-on faire confiance aux résultats publiés et avalisés par la communauté ? Cela est devenu un problème central dans un certain nombre de domaines.

La reproductibilité de la recherche se définit comme la capacité, pour un chercheur autre que celui du laboratoire qui a produit les résultats, de reproduire ces mêmes résultats de façon indépendante. Elle se définit aussi, en creux, par ce qu’elle n’est pas comme le fait que l’on puisse trouver des erreurs ou déceler des fraudes consistant à sélectionner, voire à fabriquer des données. Il s’agit là d’un aspect dont je ne traiterai pas aujourd’hui, pour m’intéresser plutôt à la question de la non-disponibilité des outils. Plusieurs des interventions précédentes ont fait appel à l’instrumentation, à l’analyse et à la génération de données. Tout cela passe plus ou moins aujourd’hui par l’utilisation de technologies, en particulier numériques, qui sont très sensibles à la disponibilité de l’outil pour les autres chercheurs.

Je voudrais aussi insister sur le fait que la non-reproductibilité a un coût scientifique extrêmement lourd, en termes de confiance vis-à-vis des résultats, mais aussi en termes financiers. Le temps passé à valider ses propres résultats face à des résultats qui se révèlent faux est très conséquent. La non-reproductibilité présente aussi un coût sociétal, dans la mesure où elle soulève la question de la crédibilité de la recherche auprès du public et des instances en général. Cela touche tous les domaines scientifiques : recherche clinique, préclinique, ingénierie, biologie, sciences de l’information et de l’ingénieur, etc. Il s’agit vraiment d’un problème global.

Je vais aujourd’hui centrer mon propos sur mon domaine, qui est celui du traitement de l’image et de l’information. L’acquisition de données numériques est à la base de la plupart des technologies dont il a été question dans les interventions précédentes. Cela concerne l’imagerie, le séquençage, la protéomique, la cristallographie, etc. À chaque fois, des données sont acquises, stockées et analysées par des méthodes numériques.

Quand on publie un article, il arrive que l’on reçoive des messages de la part de chercheurs qui disent avoir utilisé la méthode décrite dans la publication et n’être pas parvenus à la reproduire. Ils demandent alors que leur soient envoyés non seulement le programme utilisé mais aussi l’ensemble des jeux de paramètres et leurs valeurs. Dans le meilleur des cas, on parvient à reproduire le processus et les résultats mais, la plupart du temps, on se rend compte, même dans les laboratoires ayant généré les données, que les résultats ne sont pas toujours reproductibles. Cela peut être dû à diverses raisons, dont l’évolution des codes et de la précision des machines. Se posent aussi parfois des problèmes de compilation. Des erreurs d’arrondis peuvent ainsi s’accumuler et conduire si ce n’est à fausser, du moins à modifier des résultats.

Ces divers éléments font que la connaissance des programmes devient essentielle et ne doit pas se limiter au fonctionnement du programme, mais comporter un accès aux codes sources. Toute la communauté demande à ce que l’ensemble des programmes sources soit mis à sa disposition librement, pour que chacun puisse reproduire, de façon indépendante, les résultats publiés par les autres et surtout bâtir sur cet acquis de connaissances qui, sinon, nécessite d’être réinventé à chaque fois.

Les avantages attendus de la recherche reproductible, avec mise à disposition des codes sources, sont multiples : tout d’abord un meilleur encadrement de la qualité des résultats mais aussi le fait de ne pas avoir à réinventer à chaque fois des programmes pour pouvoir avancer. Le fait que les programmes soient publics permettrait, en outre, d’obtenir une meilleure qualité, par un effet de communauté conduisant à une amélioration des programmes, à des corrections de petites erreurs identifiées et communiquées immédiatement à l’ensemble de la communauté. D’un point de vue plus égoïste, pour les équipes, cela permettrait aussi d’augmenter l’impact des résultats publiés, dont on serait certain de la qualité et qui pourraient ainsi servir de base à d’autres travaux.

Les modalités pratiques de cet échange de bons procédés nécessitent la mise en place de plateformes, au niveau d’instituts ou à l’échelle nationale, afin d’offrir aux chercheurs la possibilité de communiquer, de stocker et de maintenir l’état de l’art des programmes informatiques utilisés par la communauté scientifique. Il faut pour cela disposer d’ordinateurs, de programmes, mais aussi demander aux journaux scientifiques de faire leur part du travail, en contrôlant la qualité des résultats publiés et avalisés. Il convient également de considérer l’aspect lié à la protection de la propriété intellectuelle, par des licences adaptées permettant la diffusion du savoir-faire tout en retenant la propriété de l’invention aux niveaux des équipes qui la produisent.

Cette question de la reproductibilité touche le domaine du logiciel, mais aussi, de plus en plus, le matériel (hardware). Des initiatives de type « open hardware » se développent et deviennent extrêmement importantes dans la communauté. Elles visent à diffuser largement le savoir-faire, à éviter que les chercheurs n’aient à réinventer la roue à chaque fois et doivent permettre de vérifier que les méthodes utilisées sont reproductibles et donnent bien les résultats publiés, ce qui n’est pas toujours le cas.

Stratégie en matière de technologies appliquées aux sciences du vivant

M. Philippe Chomaz, directeur scientifique exécutif, direction de la recherche fondamentale, CEA. Je voudrais faire un point sur la stratégie du CEA en matière de recherche technologique et fondamentale, en particulier pour les questions liées au vivant.

Ces stratégies sont perceptibles dans la nouvelle organisation du CEA, qui se traduit notamment par la réunion de deux directions en une seule, celle des sciences du vivant et celle des sciences de la matière, de manière à rassembler les physiciens, les chimistes, les biologistes, les médecins, les technologues, afin de développer une stratégie commune, basée non pas simplement sur un apport d’une discipline vers une autre, sur une interdisciplinarité, mais sur une convergence, envisageable à trois niveaux : les enjeux, les approches et les technologies.

Lorsque j’ai commencé la recherche, on parlait de disciplines et de connaissances ; finalement, les enjeux de société tels que l’environnement, l’énergie ou la santé, s’ils étaient certainement au cœur des préoccupations de chacun, n’apparaissaient pas dans la pratique. Au fil des années, la société, tout comme le monde scientifique, a évolué et s’est mobilisée sur les enjeux. On croit souvent que ces derniers sont définis dans le cadre d’une politique nationale. En réalité, je pense que cela relève d’un mouvement commun de la société, des chercheurs et des disciplines, elles-mêmes polarisées sur ces perspectives. Si l’on réfléchit aujourd’hui en termes d’enjeux et plus de disciplines, il apparaît une nécessaire convergence des disciplines pour répondre aux enjeux soulevés, parmi lesquels la santé et la compréhension du vivant. Je vois là une première dynamique qu’il faut non seulement accompagner mais aussi développer. Il s’agit donc moins d’apports d’une discipline à l’autre que de convergences entre les disciplines pour résoudre des questions importantes.

La deuxième convergence est celle des approches. Si l’on regarde nos disciplines avec un peu de recul, on constate que l’on essayait auparavant d’observer pour comprendre. Aujourd’hui, les chercheurs revendiquent non pas simplement le fait de travailler dans la recherche fondamentale mais assimilent leurs travaux à de l’« ingénierie fondamentale » : il s’agit de fabriquer pour comprendre et agir. Cette transformation des approches touche l’ensemble des disciplines. Sciences du vivant et de la matière regardent notre environnement, à toutes les échelles. Cette façon de fabriquer des objets, des sondes, pour observer mieux, constitue une convergence commune multi-échelles. Elle vise à observer de la molécule jusqu’à la fonction mais également à ne pas réduire le système en sous-systèmes, à l’aborder dans toute sa complexité. Toutes les disciplines suivent aujourd’hui ce même chemin de décomposition et de recomposition de ce qui nous entoure. Cette convergence rapproche indéniablement les disciplines les unes des autres. J’ai, par exemple, pu constater qu’en biologie nos équipes de Grenoble travaillaient sur des ingénieries bio-inspirées, en utilisant des nanotechnologies, tandis que les équipes travaillant habituellement dans le domaine des nanotechnologies s’intéressaient à la biologie, avec l’objectif d’utiliser leurs connaissances pour avoir un impact en médecine ou une meilleure compréhension du vivant.

La troisième convergence, essentielle, est technologique. La méthodologie appliquée aujourd’hui consiste à fabriquer, observer et agir, ce qui passe par les technologies. Je voudrais insister sur le fait que la technologie constitue un atout essentiel. Si des universités avaient pu fournir à Galilée une lunette dix fois plus précise que la sienne ou les jumelles que l’on trouve aujourd’hui dans n’importe quel magasin, il se serait assurément rapproché de celle qui lui aurait proposé de mettre à sa disposition cet instrument magique lui permettant d’observer des choses jusqu’alors inobservables. La technologie est non seulement un facteur essentiel d’avancée des sciences mais aussi un élément d’attractivité. Pour attirer les meilleurs chercheurs, donnons-leur les meilleurs outils ; je suis sûr qu’ils viendront. Il est important de prendre cela en considération dans la définition de nos politiques.

Cette stratégie, consistant à créer une direction de la recherche fondamentale rassemblant l’ensemble des disciplines et des technologies pour observer et agir à différentes échelles sur la matière inerte ou vivante, est celle que nous essayons de développer au CEA.

Nos atouts sont triples. En rapprochant les différentes disciplines, on crée tout d’abord entre elles un continuum permettant une réelle interdisciplinarité, une pluridisciplinarité, un travail commun qui favorise cette convergence.

Le deuxième atout concerne ce que je qualifierais de « continuum des TRL », c’est-à-dire des niveaux de maturité technologiques ; le continuum entre l’ingénieur et le chercheur, entre la brique de base au niveau de la découverte et l’outil. Conserver ce continuum et supprimer les barrières entre le chercheur et l’ingénieur me semble un élément essentiel. Au CEA, nous disposons ainsi d’un seul statut qui nous permet de bénéficier de cette dynamique. Les autres organismes de recherche comptent, bien sûr, des ingénieurs et des chercheurs. La seule différence est que nous ne nous préoccupons pas de savoir si une personne est ingénieur ou chercheur mais nous intéressons uniquement à ce qu’elle fait et non à ce qu’elle est ou à l’école dont elle est issue.

Le dernier atout est le potentiel technologique considérable dont nous disposons : j’en veux pour exemple le travail que nous menons avec le CERN. L’ingénieur du CEA responsable du grand aimant ATLAS, que nous avons tous vu en une du journal Le Monde et qui a contribué à la découverte du boson de Higgs, est aussi celui qui a lancé pour NeuroSpin le projet d’aimant Iseult, afin d’obtenir les 11,7 teslas offrant la meilleure résolution possible en imagerie. Il existe en France un potentiel technologique très important, concentré dans des hubs technologiques. Il s’agit vraiment d’une force, dont il faudrait profiter.

La stratégie de recherche technologique de l’Institut Pasteur

M. Jean-Christophe Olivo-Marin, responsable de l’unité Analyse d’images biologiques, directeur de la Technologie, Institut Pasteur. La technologie a un impact de plus en plus fort dans la recherche du vivant, en particulier en biologie. Si l’Institut Pasteur en avait conscience depuis plusieurs années, cela est vraiment devenu une réalité avec l’arrivée de M. Christian Bréchot à la direction de l’établissement et la création d’une direction de la technologie, qui marque la reconnaissance du rôle essentiel des technologies dans la recherche.

L’Institut Pasteur n’est pas un institut de recherche à vocation technologique ; ce n’est pas le Massachusetts Institute of Technology (MIT). Il apparaît cependant que l’aspect technologique est un atout qu’il faut maintenant pouvoir maîtriser si l’on veut être compétitif au niveau mondial.

La recherche technologique que l’Institut Pasteur souhaite mener en interne, pour ses équipes, vise à mettre en œuvre des innovations, des ruptures technologiques en biologie fondamentale. Nous cherchons ainsi à avoir une meilleure convergence entre la recherche écologique et technologique, sans attendre qu’elle soit développée par nos collègues à l’extérieur.

Il s’agit donc de se donner les moyens d’accéder à des technologies émergentes et innovantes, soit en interne, soit en s’alliant avec des instituts dont le corps de métier est précisément le développement technologique, en leur donnant les indications visant à s’assurer que les développements technologiques qu’ils mettent en œuvre sont bien adaptés à nos besoins. Cela correspond à la mission de cette nouvelle direction de la technologie et d’un centre d’innovation et de recherche technologique créé à l’arrivée de M. Christian Bréchot à l’Institut Pasteur, que je co-pilote avec Mme Elodie Brient-Litzler, qui s’est exprimée lors de la première table ronde.

L’idée est de définir une stratégie visant à stimuler et à faciliter des projets à fort contenu technologique, ayant un impact direct sur la recherche menée au sein de l’Institut Pasteur. Il s’agit, en outre, de créer un terreau propice, par imprégnation, pour à la fois développer de nouvelles technologies et faire que la biologie avance beaucoup plus vite.

Pour ce faire, l’Institut Pasteur a développé à un espace spécifiquement dédié à la recherche et au développement en technologie : le « Tech Lab ». L’institut a alloué, à travers des programmes interdisciplinaires, des fonds qui vont amorcer et faciliter la prise de contact et le dialogue entre les biologistes et les technologistes, et a structuré des partenariats avec des organismes externes. Cela concerne notamment l’École supérieure de physique et de chimie industrielle de la ville de Paris (ESPCI), avec laquelle nous avons signé un accord-cadre, mais aussi les Instituts Carnot, qui sont l’une des branches armées de l’Institut Pasteur pour avoir, par exemple, accès, à travers des programmes inter-Carnot institutionnels ou privés, aux travaux de nos collègues du CEA et à des technologies disponibles dans les laboratoires, mais pas toujours directement exploitables et dont nous n’avons surtout pas nécessairement connaissance, du fait notamment d’un manque de communication.

Nous voulons aussi créer, via cette direction de la technologie, une sorte d’effet « boule de neige », par la pédagogie de l’exemple, en nous fondant sur des exemples de réussites, en créant de nouvelles disciplines comme les biomatériaux, la microfluidique ou le criblage à haut débit, pour pouvoir en interne développer des axes stratégiques ciblés.

Nos plateaux techniques font concrètement le lien entre les équipes de recherche fondamentale en biologie, les équipes technologiques et les lieux où la technologie va être appliquée de façon quotidienne, dans des activités à la fois de service et de prospective.

Voilà, très brièvement esquissée, la stratégie de l’Institut Pasteur pour les années à venir.

M. Jean-Yves Le Déaut. Nous allons entendre à présent M. Philippe Guedon, directeur de l’ingénierie et du développement du pôle MEDICEN, pôle de compétitivité de niveau mondial dans le domaine des hautes technologies pour la santé et les nouvelles thérapies, qui va nous indiquer pourquoi et comment l’innovation en santé constitue un exemple en matière de convergence.

Les pôles de compétitivité ont été développés pour passer de la recherche à l’innovation et créer les conditions pour que des entreprises se montent. J’ai entendu dire à plusieurs reprises ce matin que le principal écueil résidait précisément dans ce passage à la dimension industrielle. Les pôles de compétitivité jouent-ils réellement leur rôle dans ce domaine ?

L’innovation en santé : un exemple de multidisciplinarité

M. Philippe Guedon, PhD, directeur de l’ingénierie et du développement du pôle MEDICEN. MEDICEN est l’un des soixante-neuf pôles de compétitivité en France, l’un des sept consacrés à la santé et le seul en Ile-de-France. Il couvre à la fois l’ensemble des organismes de recherche, des universités, des grandes écoles concernées de près ou de loin par les problématiques liées à la santé et aux sciences du vivant, mais également des cliniciens, l’AP-HP, un certain nombre d’'établissements de santé privés d'intérêt collectif (ESPIC), des grands groupes, des équipementiers en imagerie, des laboratoires pharmaceutiques et tout un tissu de PME et de start-up.

La vocation des pôles de compétitivité n’est pas de créer des entreprises. Ce rôle a été confié, dès 1999, aux incubateurs dits « Allègre » et, depuis lors, à de nombreux autres types d’incubateurs : santé, numérique, etc. La mission des pôles de compétitivité est de convertir la création de connaissances en création de valeur. Ce point est absolument fondamental.

Nous remplissons cette mission de différentes façons. Nous accompagnons ainsi des projets de recherche et de développement collaborative, qui regroupent l’ensemble des typologies d’acteurs précédemment citées, avec une logique d’expertise et pas forcément « techno-push ». Il ne s’agit pas, en effet, de produire de la technologie pour la technologie mais bien de répondre à des enjeux de marché, c’est-à-dire aux besoins des patients, en atteignant un niveau d’acceptabilité sociétale en termes d’éthique et surtout une acceptabilité économique. C’est là tout l’enjeu aujourd’hui du développement de l’innovation dans la santé.

L’innovation technologique est la rencontre entre une connaissance, une invention, une découverte, et son marché. Elle se mesure donc, à mon avis, a posteriori, une fois cette rencontre faite. Nous sommes, en tant que pôle de compétitivité, l’un des acteurs de la chaîne de valeur qui conduit à cette innovation. Nous essayons de mettre en œuvre une politique de l’Etat et des collectivités territoriales en termes de création de valeur.

J’en reviens à mon propos visant à décrire la manière dont la convergence, la multidisciplinarité, sont une source d’invention capable de répondre à des besoins de marché, donc d’aboutir à l’innovation, à la création de valeur et d’emploi en France. Je vais pour ce faire vous citer un certain nombre d’exemples concrets, ayant donné lieu à des créations d’entreprises, et parfois à des succès.

Je commencerai par l’exemple, connu de tous, des dispositifs bio-embarqués, développés notamment par la société CARMAT. On se trouvait dans une forme de paradigme de transhumanisme, d’humain augmenté. On arrive en fait aujourd’hui à mettre en œuvre un dispositif complètement biomimétique, qui réplique tous les mouvements du cœur et est doté de technologies incroyables, notamment en termes de biomatériaux, de biocompatibles, de micromécanique, de structuration interne et de microfluidique. Voilà ce que nous sommes capables de faire en France et le type de projet que nous aimons accompagner, c’est-à-dire des premières mondiales. Cela démontre que notre primauté technologique et scientifique est également susceptible de créer de la valeur et de l’espoir pour les patients.

Les pôles de compétitivité avaient tout d’abord un rôle d’usine à projets puis d’usine à produits. La mission qui nous tient à cœur aujourd’hui est de mettre ces produits sur les marchés.

Toujours dans le même cadre, nous sommes en train d’accompagner un projet ayant pour finalité de créer un pancréas artificiel. Cette initiative présente aujourd’hui de très bonnes chances de succès avant vingt-quatre mois. Se pose ensuite la question de son industrialisation. Or nous sommes aujourd’hui dans une ornière en termes de poche de financement. Je pourrai y revenir si vous le souhaitez.

La technologie de l’ingénieur consiste souvent à mettre en œuvre des capteurs, des modes de transduction. Nous sommes aujourd’hui confrontés à deux explosions : celle du numérique et celle des modes de communication de cinquième génération (5G). Ces capteurs, riches en numérique, en technologies très fines mêlées à des modes de communication 4G ou 5G, constituent ce que l’on appelle aujourd’hui l’Internet des objets. Cela va permettre, dans le domaine qui nous concerne, de tracer de nombreux signaux physiologiques, pour pouvoir effectuer un diagnostic en temps réel et en continu.

À titre d’exemple, la société Instent, que nous accompagnons, développe, outre des méthodologies de conception de stents innovants, des stents connectés permettant, en temps réel et en continu, d’envoyer des signaux à qui veut bien les suivre – si possible un médecin français ou vivant en France –, et d’éviter ainsi des thromboses liées à la pose de ces stents. Ce type de problème concerne environ 30 % des porteurs de stents. Il s’agit d’un exemple particulièrement intéressant. On constate en effet qu’il existe un virage dans les modèles d’affaire de ces entreprises, qui ne vont pas vendre uniquement des molécules ou des dispositifs mais une information. Cette modification de la création de valeur est l’une des chances de la France aujourd’hui par rapport à un certain nombre de pays occidentalisés et hautement industrialisés.

L’ingénierie cellulaire requiert également un savoir-faire très particulier. Nous avons la chance de disposer en France de centres éminents dans ce domaine, notamment en Ile-de-France, qui développent les nouveaux modes de prolifération, de spécialisation et de spécification, entre autres des cellules souches, pour pouvoir reprogrammer ou réparer un organe. Cela est lié à la modélisation mais aussi à la biologie intégrative et à la recherche opérationnelle en informatique. Nous assistons donc, une fois encore, à la convergence de plusieurs disciplines.

J’évoquais précédemment la vague subversive du numérique, qui concerne tous les domaines. Il a été beaucoup question de la donnée, la data, que l’on retrouve dans la quasi-totalité des exemples cités lors des interventions présentées ce matin. Cela constitue aujourd’hui la richesse fondamentale, toujours en recherche d’exploitation. L’imagerie humaine donne lieu à des études cliniques quasiment virtuelles, à la recherche de biomarqueurs qui nous permettent de rejouer un certain nombre d’imageries, de les interpréter sous différents angles et de mettre en réseaux plusieurs centres d’imagerie, afin de créer des cohortes très importantes. Tout cela passe par l’émergence des super calculateurs et notre capacité à diffuser rapidement l’information. Il y a donc aujourd’hui un réel enjeu autour de l’imagerie. Je déplore donc que nous n’ayons pas, en France, de grands imageurs. C’est une réalité, avec laquelle nous essayons de composer.

Enfin, la France n’a pas encore pris totalement conscience du fait qu’elle ne pouvait pas former suffisamment de spécialistes de la science des données, ou data scientists. Cela constitue, à mon sens, l’une des plus grandes problématiques qui s’offrent à nous, pas uniquement dans le domaine de la santé mais notamment dans celui-ci. Cette difficulté n’est pas nouvelle. Nombre d’entre vous y avez sans doute été déjà confrontés. Je vous engage donc, dans la mesure du possible, à essayer de pousser l’idée selon laquelle il faut former en France beaucoup plus de spécialistes de la science des données.

M. Jean-Yves Le Déaut. La parole est, à présent, à M. Gérard Hascoët, président du conseil d’administration de la société CorWave. Cette jeune entreprise, née en 2011, développe des solutions de rupture en matière de circulation sanguine. Vous allez nous présenter ces technologies au travers d’une courte vidéo. Le PDG de la société, M. Louis de Lillers, est actuellement aux États-Unis. J’ignore s’il va pouvoir intervenir à distance.

Saut technologique dans l’assistance cardiaque implantable

M. Gérard Hascoët, président du conseil d’administration, CorWave. M. Louis de Lillers est en ligne, en téléconférence, et pourra éventuellement intervenir.

Je suis le fondateur d’un incubateur particulier, consacré uniquement aux technologies médicales et bénéficiant d’un financement privé. La vocation de cet incubateur est d’examiner des projets de recherche en Europe, dont 40 % en France, et de sélectionner un certain nombre d’entre eux, avec comme critère la possibilité de créer, autour du projet, une entreprise de taille significative à vocation internationale. Cet incubateur, créé en 2009, a été à l’origine de la création de cinq entreprises, aujourd’hui à des stades de maturité différents.

Parmi ces cinq sociétés, figure la société CorWave, que je préside. La technologie qu’elle promeut a vu le jour dans un laboratoire de mécanique acoustique de l’université de Compiègne. Il s’agissait d’une technologie de propulsion de fluides particulièrement innovante mais dont on n’avait pas imaginé à l’origine qu’elle pourrait être utilisée pour des applications cardiovasculaires. Nous avons, autour de cette technique, développé une entreprise et une technologie qui permettent l’assistance ventriculaire, par l’intermédiaire d’une petite pompe implantée, fixée sous le ventricule. Nous avons apporté une animation qui devrait vous permettre, je l’espère, de mieux comprendre le dispositif.

(L’animation est projetée, assortie des commentaires enregistrés suivants) « L’insuffisance cardiaque est la première cause de mortalité au monde. Les assistances cardiaques (ou LVAD) permettent de rétablir le débit sanguin et de sauver la vie de ces patients. Mais ces pompes de type turbine exposent le sang à d’importantes forces de cisaillement et endommagent les éléments figurés du sang. Par ailleurs, ces pompes à débit continu suppriment le pouls et nécessitent des accessoires percutanés encombrants. Ainsi, plus de 80 % des patients subiront une complication grave dans les deux ans à cause de la pompe, principalement des saignements, des accidents vasculaires cérébraux ou des infections. L’équipe d’ingénieurs de CorWave développe un nouveau type de pompe cardiaque, avec le soutien des plus grands chirurgiens mondiaux. Inspirée du mouvement de la nage ondulatoire des animaux marins, la membrane CorWave reproduit le flux à faible contrainte de cisaillement et pulsatile du cœur natif. Nous avons testé avec succès notre système chez l’animal et pensons qu’il pourra améliorer considérablement les résultats cliniques des assistances cardiaques. Notre technologie de rupture a donc le potentiel de généraliser le recours aux assistances cardiaques et de faire passer ce marché de sept cent cinquante millions de dollars de ventes annuels à plus de deux milliards de dollars de ventes annuels. »

Comme cela vient de vous être montré, il s’agit assurément d’une technologie de rupture et d’une évolution majeure dans l’assistance ventriculaire. Entre 2011, année de la création de l’entreprise, et 2013, nous sommes parvenus à créer un prototype miniaturisé, qui avait la même taille que la plus petite des pompes actuellement sur le marché. Nous avons pu prouver qu’elle pouvait apporter à la fois la pression, le débit et les caractéristiques du flux sanguin, y compris la pulsatilité. En 2013, il a fallu, une fois la phase d’incubation terminée, financer l’entreprise. Nous avons alors pu réaliser une première implantation sur l’animal et sommes parvenus, comme toute start-up, à lever trois millions d’euros auprès de fonds de capital-risque. De fin 2013 à aujourd’hui, nous avons continué à développer la technologie et envisageons des implantations animales plus importantes en cette fin d’année et une deuxième levée de fonds qui va nous permettre d’aller vers des essais cliniques en 2018 et possiblement vers un marquage CE en 2019. Il s’agit donc d’un projet extrêmement ambitieux, à très long terme, qui va nécessiter beaucoup d’investissements.

Nous envisageons également de miniaturiser la technologie, de faire que cette petite pompe puisse être mise en place de manière minimalement invasive. Cela permettra alors de toucher un nombre de patients beaucoup plus important. On estime que les effets délétères des actuelles pompes à turbine limitent leur implantation. Nous espérons, avec cette nouvelle technologie, doubler, voire tripler la taille du marché. La miniaturisation devrait permettre d’accéder à des centaines de milliers de patients, aujourd’hui en insuffisance cardiaque et non traités par les méthodes médicamenteuses.

Nous sommes donc au début d’une aventure, qui fonctionne assez bien jusqu’à ce jour, puisque nous avons atteint la quasi-totalité des objectifs que nous nous étions fixés, y compris celui d’attirer à bord un directeur général qui nous a rejoints depuis cinq à six mois. Cette entreprise peut assurément devenir une société de taille mondiale et réaliser un chiffre d’affaire significatif, supérieur à plusieurs centaines de millions d’euros, avec une implantation française et des emplois très importants à la clé.

M. Louis de Lillers, président directeur général, CorWave. Je n’ai pas grand-chose à ajouter aux propos très complets de M. Gérard Hascoët. J’ai eu la chance de rejoindre cette société en septembre 2015. Je m’occupe essentiellement de la partie opérationnelle, qui vise à transformer cette technologie en un produit ayant vocation à devenir une innovation majeure sur le marché de l’assistance cardiaque.

M. Jean-Yves Le Déaut. Je vais pour terminer donner la parole à M. Frédéric Worms qui va, en tant que membre du Comité consultatif national d’éthique (CCNE), aborder la question des enjeux éthiques de cet impact toujours plus important des technologies des sciences du vivant.

Il s’agit là de sujets que nous abordons en permanence, puisque le CCNE et l’OPECST ont notamment pour mission de donner leur avis préalablement à toute modification des lois bioéthiques. Les enjeux éthiques sont importants ; nous comptons sur vous pour nous aider à les cerner.

Les enjeux éthiques

M. Frédéric Worms, directeur-adjoint Lettres de l’Ecole normale supérieure, membre du Comité consultatif national d’éthique (CCNE). Cette invitation m’a, en effet, été adressée au titre de ma participation au Comité consultatif national d’éthique. Je tiens toutefois à préciser que je ne m’exprime pas pour autant en son nom. Je tenterai simplement de mettre en perspective les enjeux éthiques et les intersections susceptibles de se produire entre les sujets traités aujourd’hui et les thèmes de réflexion au sein du CCNE.

Je représente encore moins l’École normale supérieure mais terminerai toutefois en disant un mot des enjeux de recherche et de formation qui peuvent accompagner ces sujets. La convergence interdisciplinaire des technologies et des sciences du vivant, élargie aux sciences humaines et à toutes les disciplines des humanités, doit en effet donner lieu à des enjeux de recherche mais aussi de formation.

Les deux aspects ne sont d’ailleurs pas sans relation, puisque M. Jean-Claude Ameisen, président du CCNE, et moi-même avons créé un lien entre le Comité d’éthique et les institutions d’enseignement supérieur, dont l’ENS, sous forme de séminaires conjoints permettant de mettre en place cette formation.

Le lien entre technologie et sciences pourrait, de prime abord, faire peur d’un point de vue éthique. Cette convergence pourrait sembler problématique, en ce sens qu’elle rejoindrait un certain type d’imaginaire, d’angoisse éthique, autour des idées de robots chirurgiens, de traitement massif des données (Big Data) mettant en péril la relation clinique individuelle et le suivi du patient, d’une médecine personnalisée dont on se demande si elle l’est au sens éthique ou statistique ; autant d’éléments susceptibles d’accroître une certaine défiance vis-à-vis de la science et de la technologie, par leur convergence même.

Or il me semble au contraire que ce lien entre sciences du vivant et technologies nous renvoie directement du côté de l’éthique, à certaines conditions. Deux principes m’apparaissent ainsi de façon évidente, auxquels il conviendrait d’en ajouter deux autres orientant vers cette obligation d’interdisciplinarité élargie aux sciences humaines et sociales, à toutes les disciplines des humanités, ainsi qu’à la politique et au droit, donc à nos instances : comité d’éthique, législateur, instances politiques et juridiques.

Les deux premiers principes reposent sur l’idée selon laquelle ce lien entre sciences et techniques, bien loin d’orienter vers une sorte d’autonomisation de la technique, immédiatement barbare ou problématique pour les relations humaines, conduit à l’idée que ce qui fait la valeur éthique d’une science et d’une technique n’est pas sa nature mais bien son usage. Il s’agit d’un point extrêmement important, qui rejoint les questions sur le nucléaire, amplement évoquées aujourd’hui. On voit, à travers les applications médicales du nucléaire, qu’aucune technique, si problématique soit-elle pour l’environnement et au regard d’un certain nombre de risques qu’elle peut faire courir, n’est bonne ou mauvaise en elle-même, mais peut donner lieu à deux types d’usages, qui déterminent sa valeur.

Le deuxième principe, qui oriente implicitement tout ce qui a été dit ce matin et qu’il convient d’expliciter, est que la base de l’usage éthique reste, selon moi, thérapeutique. L’usage des techniques, des technosciences du vivant, doit rester orienté vers la réponse à des maux, des maladies, des souffrances, par opposition à deux éléments, qu’il me semble important de rappeler. Le premier renvoie non pas au soin ou à la thérapie mais à la destruction de vies humaines. Toute technique peut devenir une arme. Le deuxième concerne un aspect très problématique, apparemment positif, qui est la recherche du perfectionnement humain, voire de l’homme parfait, de l’immortalité, du transhumanisme et autres éléments de ce style. Le positif est en fait situé entre deux négatifs : un négatif de base, ce contre quoi il faut lutter, via la thérapeutique, et un négatif, celui de la destruction, qu’il faut refuser.

La norme thérapeutique ne saurait toutefois suffire. L’idée selon laquelle tout ce qui guérit, tout ce qui peut résoudre une pathologie, une souffrance humaine, est éthique s’avère très séduisante. Elle est vraie en un sens mais il n’est pas possible de s’en contenter. Il convient ainsi d’ajouter à cela au moins trois autres dimensions éthiques, qui obligent le Comité d’éthique, les citoyens et nos réflexions, y compris en termes de formation.

Le thérapeutique ne suffit pas parce que l’on peut, en son nom, faire violence aux hommes. C’est là l’origine de la bioéthique : les recherches médicales n’autorisent pas tout, en particulier l’expérimentation sur l’homme.

Il apparaît, par ailleurs, qu’au-delà des usages directement thérapeutiques, tout ne peut être interdit. Il existe ainsi des usages dits « sociétaux » des techniques. S’il est évident qu’il faut refuser la destruction, on ne peut pour autant tout interdire, ni tout restreindre aux thérapeutiques.

Il faut donc mener une réflexion sur l’usage éthique des techniques, fondée non seulement sur la finalité thérapeutique, qui est la base, mais aussi sur le respect des libertés et des relations humaines, sans risque de violence entre les êtres humains, les citoyens, donc sur une forme de justice et de droit.

Il apparaît ainsi nécessaire de normer l’usage de ces techniques, et pas seulement l’usage thérapeutique, puisque se posera, en effet, à un moment donné, la question du consentement, des relations humaines et de la violence.

La deuxième dimension qu’il convient d’ajouter à ce paysage concerne l’aspect de justice sociale et économique, qui fait aussi partie des techniques et de leurs usages. La question du coût est intervenue à plusieurs reprises dans les interventions précédentes.

On rencontre paradoxalement, à ce propos, deux types de problèmes éthiques. Le premier concerne l’accès juste aux techniques coûteuses. Il ne s’agit pas de considérer uniquement le lien avec le marché mais aussi celui avec la protection sociale et la justice.

Un problème éthique se pose également lorsque les techniques sont très peu coûteuses. C’est le cas, par exemple, des nouvelles techniques de séquençage du génome, dont CRISPR, qui outre les enjeux anthropologiques et de transformation de l’humain, sur lesquels je reviendrai, posent un problème éthique, social et politique très particulier, en raison précisément de leur faible coût, qui va leur permettre de pouvoir être diffusées très largement. La question de l’aspect économique et social, présent dans quasiment tous les avis du CCNE, au même titre que les libertés, le thérapeutique et les risques cliniques, est absolument fondamentale. Je pense ainsi qu’il faut parler, dans les applications de ces techniques et de ces sciences, en termes d’égalité, de liberté et de justice.

Le dernier point est anthropologique : il faut voir ce que les techniques changent aux relations humaines. Il est certain que la chirurgie par robot ou le traitement massif des données, sans être violentes en elles-mêmes – je m’élève contre toute critique de la technique comme telle – changent certainement quelque chose de la médecine, qu’il faut mesurer. Elles modifient, par exemple, vraisemblablement l’expérience subjective, l’accompagnement humain de la médecine, ainsi que la dimension culturelle, anthropologique de notre rapport à la médecine, sous peine de voir un imaginaire de la peur dominer de nouveau.

Ces différents enjeux, de liberté, d’égalité, d’anthropologie, obligent à une interdisciplinarité élargie. Pour les penser, il faut convoquer à la fois les scientifiques, les médecins, les technologues mais aussi toutes les disciplines des sciences sociales. Il faut, en effet, comprendre comment une société s’approprie ces enjeux, cherche à les penser. Cette interdisciplinarité est évidemment présente au sein du Comité d’éthique, avec la présence de juristes, de philosophes et de médecins. Il conviendrait d’élargir encore cette réflexion aux autres disciplines de sciences sociales, comme l’anthropologie.

En termes de formation, nous disposons déjà, à l’École normale supérieure, en collaboration notamment avec l’Institut Pasteur, d’un programme médecine-sciences, qui va s’élargir à un programme médecine-humanités. Il y a besoin aujourd’hui de convergence autour de ces techniques, qui vont changer quelque chose dans le vivant et, du même coup, dans les rapports entre les hommes, pour des raisons qui sont éthiques ou peuvent l’être selon leurs usages. Il faut y réfléchir, philosophiquement, anthropologiquement, sociologiquement, juridiquement, politiquement.

DÉBAT

M. Jean-Yves Le Déaut. Nous disposons à présent d’un peu de temps pour débattre. Avant de conclure, je demanderai à M. Vincent Berger de nous donner son sentiment sur ces questions et de formuler éventuellement quelques conseils à l’attention de l’OPECST.

M. Jean Colin. En tant qu’universitaire, je souhaiterais intervenir sur l’ensemble des propos que j’ai pu entendre ce matin. Je suis très sensible à tout ce qui a pu être dit sur les questions de pluridisciplinarité, de convergence. Pour moi, l’élément important réside dans les gens qui, issus de différents instituts, structures, disciplines et régions, vont réellement travailler ensemble, sur le terrain. J’aimerais aussi employer le terme de synergie. Or cela ne se décrète pas, même si l’on peut évidemment encourager ce type de démarche. Je ne voudrais pas qu’on se limite à dire qu’il suffit, au niveau d’une structure, d’avoir mis en place la possibilité de travailler de cette manière. Il me semble extrêmement important d’encourager, partout où cela se fait, ce travail réel, sur le terrain, d’équipes pluridisciplinaires. Cela me paraît fondamental.

Intervenant en tant qu’enseignant dans des filières scientifiques, je pense que l’on a vraiment un problème majeur avec tout ce qui concerne la formation supérieure scientifique et technique. Nous sommes confrontés, en France mais pas uniquement, à la difficulté de recruter des étudiants pertinents dans ces filières. Je pense qu’il faudrait que, collégialement, nous parvenions à trouver des approches nouvelles dans ce domaine. Je me sens absolument impuissant à changer seul les choses à ce niveau, mais suis totalement convaincu que l’on pourrait, ensemble, faire évoluer la situation et inverser cette dévalorisation constatée des filières techniques et scientifiques supérieures.

M. David Brasse. Je voulais revenir sur les propos de M. Philippe Chomaz sur la convergence, au niveau notamment du CEA. J’aimerais que vous m’éclairiez sur les convergences non seulement au sein d’organismes mais aussi entre organismes, par rapport notamment aux agences de moyens et au tissu industriel. Comment faire pour que toutes ces entités convergent ?

M. Philippe Chomaz. Je pense qu’il s’agit d’un point essentiel. Je suis intervenu en tant que responsable au CEA et me suis donc limité à ce périmètre. Ceux qui me connaissent savent que j’ai commencé au CNRS et que j’ai eu un parcours diversifié. Mon propos ne se voulait donc absolument pas réducteur. Au sein du CEA, nous essayons de travailler pour enlever toute barrière et profiter pleinement de ces convergences.

Vous avez totalement raison : il s’agit d’un enjeu majeur. Il faut que cette démarche soit démultipliée et que cette dynamique de convergence ne se heurte pas aux limites existant parfois entre les différentes disciplines, surtout dans une période économiquement difficile, où les ressources sont rares. La tentation pourrait être grande alors de se replier sur ses bases. Or, c’est précisément l’inverse qu’il convient de faire. L’innovation ne pourra surgir que de la convergence, qui seule peut permettre de s’attaquer à de nouveaux problèmes et enjeux et d’avancer, avec l’industrie. Nous sommes très sensibles à la politique de sites, qui est certainement un atout, dans la mesure où il peut exister localement une grande dynamique. Par-delà les régions, il faut élargir les collaborations et éviter à tout prix que ces politiques ne recréent duchés, comtés et châteaux.

L’enjeu économique est majeur, car les difficultés économiques du pays impactent directement la dynamique dont nous sommes en train de discuter aujourd’hui.

M. Vincent Berger, directeur de la recherche fondamentale, CEA. On a entendu parler, aujourd’hui, de technologies parfois appliquées, comme la pompe permettant de réguler le débit sanguin mais aussi de technologies qui révolutionnent, ou en tout cas font avancer, la connaissance en général, la biologie fondamentale ou la compréhension de l’être humain.

J’ai le sentiment que nous vivons un moment épistémologique tout à fait particulier et important. Il est difficile de savoir si la science avance plus vite ou moins vite : seuls les historiens de la science pourront se prononcer sur ce point. Tout le monde sait aujourd’hui qu’il s’est passé, au début du XXe siècle, beaucoup de choses en physique quantique, en physique des particules ou en physique nucléaire. Mais cela est plus facile à dire maintenant que dans les années 1920, où l’on n’enseignait nulle part la physique quantique en France. Cela n’est venu que très tardivement. Il est plus facile de savoir après coup quand la science a véritablement accéléré.

J’ai néanmoins l’impression que nous nous situons à un moment épistémologique particulier dans les différentes disciplines exposées ce matin. Par exemple, dans le domaine du séquençage, le coût de mise en œuvre des techniques s’est effondré, passant du milliard d’euros à mille euros aujourd’hui, et certainement à dix euros dans quelques années. Le passage de mille à dix est tout à fait extraordinaire. Si l’on voulait séquencer la population de la France, cela coûterait aujourd’hui environ soixante milliards d’euros, ce qui est considérable. Lorsqu’un séquençage ne coûtera plus que dix euros, ce coût sera réduit à six cents millions d’euros. Un séquençage deviendra alors envisageable à l’échelle d’un État. On est donc en train de passer d’une époque où l’on a la capacité de séquencer des échantillons de quelques personnes, une fraction des patients, des organismes ou des tumeurs, à un moment où il sera possible de procéder à un séquençage général.

En neurologie, il existe de même, ainsi que nous l’a expliqué M. Denis Le Bihan, des techniques de compréhension des phénomènes à l’échelle microscopique et d’autres permettant d’appréhender un niveau plus macroscopique. Bientôt, on disposera d’une vision plus complète encore du processus.

Il a aussi été largement question de données. Dans le domaine de la cancérologie, la situation va énormément évoluer lorsqu’on sera en mesure d’effectuer de la fouille de données à grande échelle, à partir notamment des données d’imagerie et de séquençage, ce qui va permettre d’effectuer des analyses et de faire progresser la connaissance. Ainsi, il ne s’agit pas uniquement de faire de la technologie pour développer des applications, bien que cela soit très important, mais aussi pour bouleverser complètement la science et la connaissance.

Il existe de plus en plus de laboratoires multidisciplinaires, dont l’activité repose essentiellement sur des savoir-faire d’ingénieurs, sur de la technologie : imagerie, séquençage, fouille de données, etc. Nombre d’entre eux réalisent désormais des analyses multi-échelles de plus en plus complètes, de l’ADN jusqu’à l’organisme, peut-être pour faire émerger une théorie du vivant.

Si l’on achète aujourd’hui un manuel d’institut universitaire de technologie (IUT) de biotechnologie et un autre de physique, on est frappé de constater que le premier comporte de nombreux mots que l’on ne connaît pas et très peu d’équations, alors que le second utilise du vocabulaire familier et un très grand nombre d’équations et de théories. En biologie, il n’existe pas encore réellement de théorie complète, seulement des morceaux qu’il s’agit de rabouter. Or c’est en ce moment que tout cela se passe.

Il se produit même actuellement un certain brouillage de la frontière entre le vivant et l’inerte puisque l’on fabrique maintenant avec des filaments d’actine par exemple, en utilisant des méthodes de croissance particulières, des contacts électriques. Peut-être parviendra-t-on demain à fabriquer, avec des objets issus de la biologie, des transistors ou autres. Il s’agit là d’une inversion du sens de la marche scientifique. Désormais, ce n’est plus la biologie qui utilise les instruments de l’ingénierie. Elle devient elle-même un instrument d’ingénierie.

Tout cela est extraordinaire. Pour autant, je trouve qu’il s’agit d’un travail relativement silencieux. Aujourd’hui, tout le monde est au courant que l’on est en train de travailler sur la voiture sans conducteur, qui va arriver dans vingt-cinq ans. Des reportages y sont régulièrement consacrés. Or, je trouve que, par rapport aux enjeux et à d’autres évolutions de la société, le grand public est relativement peu informé de ce qui va changer dans le domaine de la médecine personnalisée, de la connaissance que l’on a de soi-même et des pathologies. Le rôle de l’OPECST m’apparaît, dans ce contexte, essentiel, dans la mesure où il établit un pont entre la communauté scientifique et les élus, dont il est très important qu’ils soient au courant de ces évolutions. Les enjeux éthiques, politiques et budgétaires sont, en effet, considérables.

Les enjeux éthiques ne sont pas nouveaux. Le jour où l’on a réalisé le premier implant mammaire, on avait déjà touché une zone sensible entre le transhumanisme et le thérapeutique. Les questions vont toutefois se multiplier, pour toutes les maladies rares. Il va devenir par exemple de plus en plus facile, avec la technologie CRISPR, de modifier le génome. Tout cela ouvre des enjeux et des questionnements éthiques considérables.

Les dix années qui s’ouvrent constituent, selon moi, un moment épistémologique exceptionnel. Il s’agit donc d’être présent. Or sur le plan de la communication, par exemple, je trouve que le public est assez mal informé de tout cela. Il importe également d’informer les parlementaires. C’est précisément l’objet de ce type de réunion.

La France, pays d’ingénieurs, est plutôt bien placée dans ce paysage. Nous avons des atouts à faire valoir. Je suis toutefois un peu inquiet sur la question des budgets. Les chercheurs n’ont pas les mêmes arguments que les étudiants pour se faire entendre auprès du ministère de l’éducation, de l’enseignement supérieur et de la recherche, si bien que les arbitrages budgétaires sont toujours défavorables à la recherche.

Je ne voudrais pas terminer sur cette note négative et souhaite vous remercier d’avoir organisé cette rencontre. Il est, en effet, très important que l’on puisse échanger sur ces sujets.

CONCLUSION

M. Jean-Yves Le Déaut, député, président de l’OPECST. Il m’appartient d’essayer de conclure cette matinée très riche dont il me semble difficile d’effectuer une synthèse.

Je partage les propos de M. Vincent Berger selon lesquels la recherche française est d’un bon niveau. Vous l’avez toutes et tous prouvé ce matin.

Hier soir, nous avons eu l’opportunité de nous entretenir avec le jury international des initiatives d’excellence (IDEX), qui a également insisté sur ce point, tout en déplorant le manque de communication de la France sur ce sujet.

Je crois que l’évaluation technologique, ou technology assessment, c’est-à-dire la possibilité de comprendre les techniques et de les faire comprendre à nos collègues parlementaires et au public, est un élément majeur. C’est ce à quoi nous nous employons ici, au sein de l’OPECST. Pour être capable d’élaborer une bonne loi, il faut pouvoir comprendre toutes les problématiques inscrites dans la technique. On doit ainsi, en amont de la loi, être capable d’en préparer la fabrique. C’est le rôle de l’Office parlementaire.

J’assistais hier, à Vienne, avec quelques collègues, à la réunion du réseau des Offices parlementaires, l’EPTA. Le modèle développé au niveau français, avec notamment le principe des auditions publiques ouvertes et contradictoires, à l’image de celle qui nous réunit aujourd’hui, semble constituer un bon moyen de confronter des opinions. Même si cela ne dispense évidemment pas de donner des explications au public, il apparaît que le sujet évoqué aujourd’hui est plutôt consensuel. Ce n’est pas toujours le cas. Il faut, pour être en mesure de choisir, pouvoir faire se confronter les avis. Les auditions publiques et contradictoires sont des espaces particulièrement propices à cela.

Nous sommes, avec les sciences de la vie, face à de fantastiques enjeux. Cela est apparu tout au long de vos interventions. Toutes ces nouvelles technologies font converger des disciplines : nano, bio, cogno, info, etc. Il est important de parvenir à une interdisciplinarité élargie et d’intégrer dans ces approches l’apport des sciences humaines et sociales. Tel fut notre propos lors d’une audition organisée par l’OPECST voici deux mois, en présence de M. Alain Fuchs, président de l’alliance de recherche ATHENA.

Les connaissances augmentent dans ces domaines. Le grand public ignore souvent et découvre parfois avec horreur que notre corps n’est constitué que de 10 % de cellules et 90 % de bactéries. Convertis en kilogrammes, ces chiffres créent un certain effroi.

On a réussi à comprendre l’infiniment petit, par le séquençage, de plus en plus rapide, par la vectorisation, la médecine personnalisée et prédictive, la modélisation, la robotisation, l’intelligence artificielle et le traitement des données, grâce aux super calculateurs. Vous avez tous montré globalement que ces disciplines émergent et collaborent. Aussi, suis-je très heureux de cette rencontre entre les sciences fondamentales et des sociétés qui développent des technologies, en s’appuyant précisément sur la science fondamentale, pour permettre des progrès dans le domaine de la médecine et, pourquoi pas, dans un certain nombre de cas, d’arriver à des technologies de rupture.

Le but est effectivement de profiter des progrès de la science fondamentale pour parvenir à développer les technologies du futur. L’imagerie volumique est, par exemple, un élément majeur pour le chirurgien de demain, qui va ainsi pouvoir s’appuyer sur toutes les connaissances acquises précédemment pour réaliser un acte et aller vers de la « micro-micro-chirurgie », c’est-à-dire vers des niveaux auxquels on n’accédait pas précédemment avec l’œil humain et les microscopes.

Je souhaiterais à présent extraire de vos interventions quelques éléments susceptibles de nous être particulièrement utiles dans l’élaboration de nos prochaines législations et règlementations.

Vous avez d’abord indiqué que la baisse des coûts de ces technologies devait inciter à se méfier de l’émergence d’éventuelles « technologies de garage ». Très vite, l’utilisation trop facile de technologies peut créer des difficultés.

Vous avez également souligné la possibilité de goulots d’étranglement dans le domaine de l’analyse des données et mentionné qu’il fallait prendre cette question en considération avec le plus grand sérieux. Avec l’Internet des objets, il faut, à mon avis, se préoccuper également de la protection des données acquises par l’intermédiaire des technologies et susceptibles d’être très facilement transmises. Nous avons organisé une audition publique centrée sur le domaine de l’agriculture. Tous les matériels agricoles transmettent, par exemple, des données culturales. Si ces données venaient à être transmises aux fabricants de matériel agricole, alors ces derniers pourraient les utiliser pour proposer des services particuliers. Il pourrait en aller de même dans le domaine médical. Il faut que l’on se préoccupe de la protection des données au niveau règlementaire.

Beaucoup d’entre vous ont mentionné la qualité de la recherche et de l’innovation en France mais aussi déploré l’absence de passage à l’industrialisation ou les difficultés rencontrées par de petites sociétés, vite absorbées par de plus grosses entreprises. Il s’agit également d’une question très importante, qui doit être réfléchie afin de mieux organiser le lien entre la recherche et l’industrie.

Le système actuel du passage de l’académique à l’industrialisation est très complexe. Il existe dans ce domaine tout un écosystème autour du monde académique : pôles de compétitivité, instituts de recherche technologique (IRT), centres régionaux d’innovation et de transfert de technologies (CRITT), incubateurs, sociétés d’accélération de transferts de technologies, du système financier : fonds d’État, dispositifs de capital risque, instituts de participation et autres business angels, du système d’audit et d’expertise et, en bout de la chaîne, des industriels qui, souvent, ne se préoccupent pas de l’émergence de nouvelles disciplines. Par exemple, en matière d’énergies renouvelables, nous avons constaté ce décalage et le voyons aujourd’hui aussi dans les domaines qui nous préoccupent. Sans doute faut-il, sans nécessairement supprimer ces différentes couches, arriver à un système d’accélération permettant à tous les acteurs de se retrouver autour des projets. Un chercheur porteur d’une initiative n’est pas forcément spécialiste du management et inversement. Il serait important que chaque projet puisse être analysé collégialement, de manière à voir ce qui manque pour lui faire franchir toutes les étapes, sans oublier la phase d’industrialisation. Nous avons, dans la région que je représente, commencé à travailler sur de tels systèmes d’accélération. Il convient de mettre du liant entre les nombreuses strates qui existent déjà.

Certains d’entre vous ont évoqué des freins règlementaires. Par exemple, concernant la réglementation des essais cliniques. J’avoue avoir été frappé, en visitant plusieurs entreprises installées en France, de constater que beaucoup de nos hôpitaux hésitent à tester des expérimentations ou des innovations développées chez nous, en raison justement de freins règlementaires. Vous avez évoqué notamment la question du consentement éclairé et la règlementation relative aux pathogènes. Ce sont là autant de point sur lesquels nous devons être en lien, pour que nous, parlementaires, puissions détecter ces freins.

Vous avez, enfin, abordé la formation et la nécessité de former notamment des spécialistes de la science des données. En outre, il semble essentiel, aujourd’hui, d’adopter une approche liant l’ingénieur et le chercheur. Nous ne pouvons qu’être en accord avec vous sur ces points, que nous ferons figurer dans nos conclusions, pour essayer d’avancer sur ces sujets.

Le dernier point concerne les liens entre science et société. La conclusion de M. Frédéric Worms était suffisamment claire pour que l’on puisse se l’approprier : l’éthique ne concerne pas uniquement l’aspect thérapeutique, mais englobe aussi le respect des libertés, des relations sociales entre les individus, des données personnelles, l’accès de tous aux techniques développées et la compréhension de la manière dont l’apparition de nouvelles technologies modifie les rapports humains.

Tous vos propos ont contribué à nous éclairer. Un compte rendu de cette matinée va être produit, dont nous souhaiterions qu’il contribue à informer non seulement les parlementaires, mais aussi le grand public. Malheureusement, si l’OPECST a développé depuis trente ans un lien et des passerelles entre la science et le Parlement, il n’a pas encore réussi à attirer vraiment les journalistes, bien qu’ils puissent désormais nous suivre via le réseau de télévision de l’Assemblée nationale. Peu d’articles sont consacrés à ces sujets. Or nos concitoyens, non informés de ces questions, versent très souvent dans l’irrationnel et dans la peur.

Nous sommes, pour conclure, très heureux de cette initiative de M. Vincent Berger, relayée par l’Office parlementaire. Je remercie tous les organismes présents ce matin, les universitaires, les industriels et vous toutes et tous qui avez suivi ces échanges ou y avez participé.

EXTRAIT DE LA RÉUNION DE L’OPECST DU 28 JUIN 2016 PRÉSENTANT LES CONCLUSIONS DES DEUX AUDITIONS PUBLIQUES

1. Présentation des conclusions relatives à l’audition publique sur « Les synergies entre les sciences humaines et les sciences technologiques » du 21 janvier 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST

M. Jean-Yves Le Déaut, député, président de l’OPECST. L’audition publique du 21 janvier 2016 consacrée aux synergies entre sciences humaines et sciences technologiques était une première à deux titres.

D’une part, c’était la première audition dont le sujet principal concernait les sciences humaines, et cela constituait en soi un défi car l’OPECST n’a été créé, en 1983, que pour accompagner, au niveau législatif, l’introduction des technologies dans la société. Or cette dimension essentielle demeure et l’OPECST n’a pas de véritable légitimité pour aborder les questions touchant aux sciences humaines en tant que telles. L’approche consistant à s’intéresser aux synergies pour jeter un pont entre les deux grandes communautés des sciences humaines et technologiques constituait une manière de contourner cette difficulté, et cela s’est révélé fructueux.

D’autre part, c’était notre première audition en lien avec l’Alliance nationale des sciences humaines et sociales (ATHENA) et nous pouvons maintenant constater que nous avons mené des travaux conjoints avec chacune des cinq alliances de recherche, puisqu’au-delà de nos interactions fréquentes avec l’Alliance nationale de coordination de la recherche pour l’énergie (ANCRE) et l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN), nous avons sollicité l’Alliance des sciences et technologies du numérique (ALLISTENE), à l’occasion de nos travaux sur le risque numérique et le traitement massif des données (Big Data), et l’Alliance nationale de recherche pour l’environnement (ALLENVI) dans le cadre de nos travaux sur la transition énergétique et sur la lutte contre le changement climatique.

L’audition a permis de bien mettre en valeur l’apport des sciences humaines même si, bien évidemment, il n’a pas été possible d’en aborder toutes les dimensions, compte tenu de la diversité des champs couverts par celles-ci. Il a fallu effectuer des choix de cadrage concernant notamment trois aspects.

D’abord, les questions d’ordre médical impliquant des interactions entre sciences humaines et sciences technologiques ont été renvoyées à l’audition publique du 28 avril sur « L'apport des avancées technologiques aux sciences de la vie », qui y a consacré une table ronde spécifique. À cet égard, les deux auditions publiques sont liées, la thématique de la jaquette du rapport en rendra compte et c’est aussi pourquoi j’ai tenu à ce que leurs conclusions soient présentées lors de la même réunion.

Ensuite, il fallait bien veiller à ne pas réduire la problématique des synergies à l’approche « sciences-société ». Certes, il s’agit bien là d’une dimension du sujet. Ainsi, Mme Marie-Françoise Chevallier-Le Guyader, directrice de l’Institut des hautes études pour la science et la technologie (IHEST), après avoir observé que l’on était passé, dans les années 2000, des évaluations sur la base des bénéfices-risques et, donc, du « comment », à des évaluations sur la base de valeurs d’éthique et, donc, du « pourquoi », a souligné que, à la faveur de ce glissement de la controverse scientifique vers un débat de valeur, les sciences humaines et sociales étaient de plus en plus convoquées. Mais il existe encore de nombreux domaines où les synergies entre les sciences humaines et les sciences technologiques jouent aussi de façon constructive, par exemple, dans les recherches sur l’amélioration des interactions homme-machine, comme l’a indiqué Mme Laurence Devillers.

Enfin, quoique n’ayant pas de lien avec la technologie, la question de la radicalisation a été abordée en montrant les synergies possibles entre sciences humaines, c’est-à-dire en mettant en valeur l’apport de la pluridisciplinarité, et en soulignant, grâce aux travaux effectués dans le cadre du projet CASIMIR porté par une cellule prospective au sein des services de renseignement, les résultats concrets qu’on peut en tirer.

Par ailleurs, les contraintes d’organisation nous ont conduits à laisser dans l’ombre, faute de pouvoir mobiliser des intervenants, certains aspects du sujet.

Ainsi, il aurait été intéressant de faire appel à des spécialistes de l’histoire des sciences pour savoir si des études étaient disponibles sur l’analyse de ces synergies dans la longue durée, comme j’en ai esquissé le schéma dans mon introduction. Mais les personnalités sollicitées n’étaient pas disponibles.

J’ai regretté aussi l’empêchement de dernière minute de Mme Danièle Bourcier qui devait nous apporter un éclairage sur « L’apport des techniques de l’intelligence artificielle à l’analyse du droit », sujet particulièrement intéressant dans le contexte du Parlement. Elle est aussi une spécialiste de la « sérenpidité », ce phénomène totalement aléatoire de la découverte, et son avis aurait été précieux lorsque nous avons abordé avec M. Christian Ngo la question du rôle des sciences humaines dans l’innovation.

Je pense aussi qu’il aurait été utile de faire appel à ces conseillers, spécialistes en « sciences humaines », parfois placés auprès des dirigeants de grandes entreprises, pour savoir dans quelle mesure ceux-ci peuvent influer sur l’analyse des problèmes et les décisions.

Enfin, la dernière table ronde était un peu brève, même si son objectif se limitait à montrer l’intérêt de la pluridisciplinarité dans l’analyse des réflexions sur la vulnérabilité à la radicalisation. Il est dommage de n’avoir pas pu entendre directement l’anthropologue Scott Atran, de même que les spécialistes du Centre d’études des relations internationales de l'Institut d'études politiques de Paris ou de l’École des Hautes études en sciences sociales qui n’ont pu se libérer.

Après ces quelques remarques qu’il me semble important de fixer dans le compte rendu pour en conserver la mémoire lorsque l’OPECST sera amené à revenir sur ce même sujet, j’en viens aux enseignements qu’il me semble utile de retenir des échanges.

Manifestement, les synergies entre sciences humaines et sciences technologiques ne sont pas de même intensité selon les domaines considérés. Ces synergies sont manifestement déjà très intenses dans le cadre des interactions avec le numérique. Dans le domaine de l’énergie, elles sont en train de se formaliser à travers les échanges entre les alliances ANCRE et ATHENA.

Deuxièmement, ces synergies sont manifestement, de part et d’autre, des stimulants pour la recherche. On retrouve là un enseignement général de la recherche, à savoir qu’on se met en position de faire des découvertes lorsqu’on change son point de vue sur ce qu’on étudie. « Se frotter et limer la cervelle à celle d’autrui », comme dirait Montaigne, surtout lorsque cette autre cervelle est nourrie d’une autre expérience scientifique, reste l’un des plus sûrs moyens de renouveler son approche, de percevoir d’autres pistes possibles. Donc ces synergies sont en soi un facteur de progrès des connaissances, comme en a témoigné M. Alexandre Gefen pour les activités de l’Observatoire de la vie littéraire, qui regroupent des chercheurs des universités Paris-Sorbonne et Pierre et Marie Curie. Mme Suzanne de Cheveigné, directrice du Centre Norbert Elias, physicienne qui s’est tournée vers les sciences humaines, a souligné l’apport des sciences humaines au niveau de l’analyse qualitative, en complément des méthodes quantitatives des sciences technologiques, sachant que cela ne signifie pas « absence d’objectivation ni de rigueur ».

Troisièmement, les synergies entre sciences humaines et sciences technologiques les amènent à se rapprocher dans leurs méthodes. M. Serge Abiteboul, membre de l’Académie des sciences, voit en particulier cette convergence à l’œuvre dans ce qu’on appelle les « humanités numériques » qui utilisent les techniques du Big Data pour analyser les textes, comme avec le logiciel Hyperbase de M. Etienne Brunet, ou la modélisation pour étudier le comportement des foules, par exemple pour essayer de comprendre les émeutes britanniques d’août 2011.

Enfin, l’exemple des analyses sur la vulnérabilité à la radicalisation montre que le croisement des disciplines favorise la découverte de critères directement opérationnels. La confrontation avec les données de terrain rapproche ainsi les sciences humaines des sciences expérimentales, en aidant à l’identification de déclencheurs bien définis. Ainsi, Mme Viviane Seigneur a souligné que le radicalisme de Daech repose sur un discours de l’imminence de l’apocalypse impensable dans une approche intégriste de l’islam, comme celle des salafistes piétistes. Ce signe distinctif devrait permettre d’éviter de mobiliser des ressources de police sur de fausses pistes. En même temps, l’approche ancrée dans l’analyse des données n’empêche pas les sciences humaines de faire émerger des résultats contre-intuitifs, qui restent une marque de leur originalité. Par exemple, M. Yoursi Marzouki du laboratoire de psychologie cognitive d’Aix-Marseille, a expliqué que la cohésion de mouvances radicales telles qu’Al-Qaïda ou Daech ne s’appuyait pas sur une hiérarchie forte, mais sur le sentiment d’appartenance à une fraternité.

La mise en évidence de l’apport que peut constituer l’existence de synergies entre sciences humaines et sciences technologiques milite pour un développement de ces synergies. C’est une recommandation de tous les participants de l’audition qui ont mis l’accent sur deux niveaux d’intervention possible pour aller dans ce sens.

D’abord, la formation. M. Alexei Grinbaum du LARSIM a souligné que, à Oxford et Cambridge, il existait déjà des enseignements combinant physique et philosophie. M. Gianluca Manzo, chercheur spécialisé en sciences sociales computationnelles a demandé un renforcement massif de la formation des chercheurs des sciences sociales en mathématiques, statistiques et informatique.

Inversement, M. Dominique Wolton a défendu l’idée que, dans les sciences technologiques, la formation devrait s’accompagner de séminaires aidant à préserver l’imaginaire, gage, selon lui, de la capacité à faire émerger les connaissances. Mme Françoise Touboul, en charge des relations entre les alliances ANCRE et ATHENA, a réclamé un plus grand nombre d’étudiants et de thésards possédant une double formation en technologie et en sciences humaines et sociales.

Ensuite, il serait souhaitable d’assurer une meilleure représentation des sciences humaines dans les comités scientifiques ou les instances d’expertise. Il s’agit d’ailleurs, à cet égard, de mieux tenir compte de la diversité des sciences humaines et de ne pas se contenter, comme souvent, de désigner un économiste, comme l’a observé M. Olivier Labussière de l’université Joseph Fourrier. Cette mixité disciplinaire devrait notamment devenir la règle pour les jurys de sélection des projets interdisciplinaires, selon M. Alain Nadaï, chercheur au Centre international de recherche sur l’environnement.

Sur ces bases, il deviendrait possible de multiplier les laboratoires rassemblant des chercheurs des deux communautés, comme l’a préconisé M. Marc Renneville, directeur du Centre pour les humanités numériques et créateur du portail Criminocorpus mettant la puissance des moyens numériques au service d’une présentation de l’histoire de la justice.

De même, le renforcement des formations duales faciliterait une meilleure prise en compte des sciences humaines dans les structures de l’État confrontées à la gestion complexe d’une multitude d’informations désordonnées. C’est précisément le sens de l’étude CASIMIR, commandée par la direction du renseignement militaire du ministère de la défense, avec l’intention d’essayer de mieux appréhender le « phénomène Daech », et qui a été présentée au cours de l’audition.

La stratégie nationale de recherche que l’OPECST est chargée d’évaluer a bien pris en compte ce besoin de développer des synergies entre sciences humaines et sciences technologiques puisqu’elle en a fait une « action » qui doit prendre la forme des instituts de convergence, soutenus par les investissements d’avenir. Le dépouillement des réponses de l’appel à projets doit justement commencer dans les prochains jours. Ces instituts auront pour vocation, d’une part, de rassembler, dans un partenariat organisé en un lieu donné, des compétences de recherche diversifiées visant à produire des savoirs nouveaux par la mobilisation conjointe de différentes compétences disciplinaires, et, d’autre part, de développer, en lien avec ces recherches interdisciplinaires, des formations aux niveaux master et doctorat, en formation initiale comme en formation continue.

Au sein du monde scientifique lui-même, la meilleure prise en compte de l’apport des sciences humaines devrait permettre de progresser face à deux difficultés structurelles auxquelles la science se trouve aujourd’hui confrontée. D’abord, il est important de travailler à faire émerger un consensus éthique dès l’amont de la découverte scientifique car le schéma consistant à mobiliser les sciences humaines a posteriori, une fois les premières applications réalisées, est désormais en totale contradiction avec l’esprit du principe de précaution. Ensuite, la pertinence des sciences humaines pour des approches qualitatives doit être sollicitée pour essayer d’appréhender la masse toujours plus volumineuse des connaissances produites en permanence. C’est là l’idée, en quelque sorte, de la logique « floue »

Plusieurs intervenants, dont M. Claude Didry, directeur de la Maison des sciences de l’homme de Paris-Saclay, ont observé que la science physique du changement climatique faisait déjà l’objet d’une grande ouverture aux sciences humaines et sociales, sans doute parce que c’est l’objet même de cette science de constater que son objet, l’atmosphère, évolue en dépendant des pratiques humaines. Mais M. Dominique Wolton a souligné d’emblée la menace de passer d’un extrême à l’autre : le scientisme et le technicisme ne sont pas moins réducteurs que le sociologisme, qui consiste à rapporter les interactions sciences et techniques à une seule logique intellectuelle et cognitive. Selon lui, plus il y a d’interactions, de relations, de ressemblances, plus il faut veiller à préserver la dynamique de la science et de la connaissance.

M. Yves Brechet a mis ainsi en garde contre une injonction de « collaboration », qui conduirait à rapprocher des disciplines au prix de graves et durables malentendus, comme cette demande des technologues aux sociologues pour identifier les conditions d’acceptabilité d’une technologie par une société. Cela serait, selon lui, aussi inefficace que l’injonction faite autrefois aux sciences fondamentales de collaborer, coûte que coûte, avec les sciences appliquées.

Les synergies entre sciences humaines et sciences technologiques doivent permettre de mieux servir l’idée de progrès de la société, au sens où, comme l’a rappelé M. Christian Ngo en citant Aristote : « Le progrès ne vaut que s’il est partagé par tous ».

C’est en tout cas cette conception-là du progrès que nous défendons à l’OPECST, en jouant ce rôle de passerelle entre le monde de la science et le monde politique. Et c’est pourquoi cette audition publique constituait une contribution importante à nos travaux.

2. Présentation des conclusions relatives à l’audition publique sur « L’apport des avancées technologiques aux sciences de la vie » du 28 avril 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST

M. Jean-Yves Le Déaut, député, président de l’OPECST. L’audition du 28 avril 2016 sur les apports des avancées technologiques aux sciences de la vie s’articule avec celle consacrée, trois mois auparavant, aux synergies entre sciences humaines et sciences technologiques. Il s’agissait, au cours de ces deux auditions, de mettre en évidence les convergences entre sciences et technologies, l’importance croissante de ces interactions dans la recherche ainsi que les conditions dans lesquelles celles-ci pourraient être encouragées et facilitées.

Cette audition a été organisée en liaison avec la direction de la recherche fondamentale du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) qui regroupe des chercheurs des domaines de la physique, des sciences des matériaux, de la chimie, de la biologie et de la santé. Il était logique que son directeur, M. Vincent Berger attire l’attention de l’Office parlementaire sur l’importance croissante des interactions entre nouvelles technologies et sciences de la vie. Par ailleurs, cette suggestion s’inscrivait naturellement dans le cadre de nos travaux, l’OPECST ayant déjà abordé à plusieurs reprises des sujets approchants : par exemple, en janvier 2011, les sauts technologiques en médecine ou, en mai 2014, le numérique au service de la santé. Les interactions entre technologies et sciences de la vie ont également été prises en compte par plusieurs études de l’Office consacrées à divers aspects des biotechnologies et de la santé.

Le CEA a aussi assuré la coordination au sein de l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN). L’Office parlementaire a été conduit à écarter un certain nombre de propositions d’interventions, par exemple sur la modification ciblée du génome avec CRISPR-Cas9 déjà traitée lors de l’audition du 7 avril 2016, afin d’éviter toute redondance avec les études en cours au sein de notre Office, notamment celle menée par les députés Alain Claeys et Jean-Sébastien Vialatte sur les enjeux et perspectives de l’épigénétique dans le domaine de la santé, et celle que la sénatrice Catherine Procaccia et moi-même avons engagée voici quelques mois sur les enjeux économiques, environnementaux, sanitaires et éthiques des biotechnologies, à la lumière des nouvelles pistes de recherche.

Contrairement au cas des sciences technologiques et des sciences humaines et sociales, les interactions entre technologies et sciences de la vie s’exercent, à ce jour, pour l’essentiel dans une seule direction, si bien qu’il semblait difficile de reprendre, pour l’intitulé de cette audition, la notion de « synergie », laquelle implique l’action coordonnée de plusieurs disciplines en vue de la réalisation d’un objectif commun. Néanmoins, à l’occasion de cette audition, M. Vincent Berger a indiqué que la biologie devenait elle-même un instrument d’ingénierie, plusieurs développements en cours permettant d’entrevoir des applications technologiques des sciences de la vie, par exemple la fabrication de contacts électriques à partir de filaments d’actine – une protéine qui joue un rôle important pour l'architecture et les mouvements cellulaires – en utilisant des méthodes de croissance particulières.

L’audition du 28 avril a d’abord permis d’illustrer le rôle majeur des innovations technologiques dans les développements récents survenus en sciences de la vie, aussi bien en ce qui concerne les applications que la compréhension du vivant. Ainsi, M. Jean-François Deleuze, directeur du Centre national de génotypage, a présenté les applications du séquençage à haut débit en médecine de précision, alors que M. Marc Eloit, responsable de l’unité de biologie des infections de l’Institut Pasteur, a montré l’intérêt de celui-ci pour l’identification de nouveaux pathogènes. En matière de compréhension du vivant, M. Denis Le Bihan, directeur de NeuroSpin, a indiqué que l’exploration du cerveau était devenue un effort vraiment interdisciplinaire, qui réunit désormais physiciens, chimistes, médecins, neuroscientifiques et spécialistes des technologies de l’information

Par conséquent, comme l’a souligné M. Vincent Berger, directeur de la recherche fondamentale du CEA, il semblerait que nous nous trouvions à un moment épistémologique tout à fait remarquable. Alors que, depuis le début du XXe siècle, les avancées de la science ont été accompagnées par une séparation croissante entre disciplines et une spécialisation de plus en plus étroite au sein de chacune d’entre elles, l’interaction entre les sciences et les technologies apparaît de plus en plus souvent comme une condition nécessaire à la poursuite du progrès scientifique.

Cette interpénétration ne peut évidemment se décréter. Mais il est possible de l’encourager et de la faciliter. J’ai déjà mentionné plusieurs pistes, mises en évidence à l’occasion de l’audition de janvier 2016.

Mais il est clair que cette interpénétration relève avant tout de l’initiative des organismes de recherche eux-mêmes. M. Philippe Chomaz pour le CEA et M. Jean-Christophe Olivo-Marin pour l’Institut Pasteur, ont d’ailleurs présenté les stratégies mises en œuvre dans ce domaine au sein de leurs organismes respectifs. Le CEA a ainsi regroupé au sein d’une seule direction les activités de recherche en sciences du vivant et en sciences de la matière, jusque-là disjointes ; il a aussi choisi de donner à ses chercheurs et ingénieurs un statut indifférencié. Quant à l’Institut Pasteur, il a notamment créé une nouvelle direction de la technologie et un nouvel espace spécifiquement consacré à la recherche et développement en technologie ; deux décisions marquant la reconnaissance du rôle essentiel des technologies dans la recherche. Ces exemples peuvent inspirer d’autres organismes, sachant que l’accès à des technologies performantes constitue un facteur d’attractivité important pour les chercheurs.

Comme à l’occasion de l’audition sur les synergies entre sciences humaines et sciences technologiques, la formation supérieure scientifique et technique a été mise en avant comme l’un des leviers majeurs – sinon le levier majeur – pour promouvoir cette nouvelle approche des sciences. L’université est le lieu privilégié pour organiser ces possibilités d’échanges, forcément plus difficiles à concrétiser au sein de structures d’enseignement plus spécialisées ou de taille plus réduite. Ce constat vient appuyer les orientations que j’avais présentées en janvier 2013, à la suite de l’audition : « Refonder l’université, dynamiser la recherche : des Assises au débat parlementaire », notamment quant au repositionnement de l’université au cœur du système d’enseignement supérieur et de recherche et à l’éclectisme du parcours des étudiants. Incidemment, un manque en compétences en science des données, ou data science, a été signalé par M. Philippe Guedon, directeur de l’ingénierie et du développement du pôle MEDICEN, et confirmé par plusieurs autres intervenants.

Du côté des freins, plusieurs difficultés d’ordre réglementaire ont été relevées à l’occasion de cette audition, par exemple dans le domaine des essais cliniques. M. Hervé Seznec, responsable de l’équipe iRiBio du CNRS, a ainsi indiqué qu’il devait prendre en compte les contraintes liées au nucléaire, aux OGM et aux nanotechnologies. Un peu comme dans le cas des robots, la diversité des applications et des technologies mises en œuvre conduit à une variété de situations nouvelles qui relèvent d’ajustements au cas par cas de la législation ou de la réglementation en place. Mais une dimension apparaît commune à pratiquement toutes les applications des technologies aux sciences du vivant : il s’agit du numérique et des données. Les questions de protection et de propriété des données apparaissent donc transverses ; l’extension des applications des technologies se traduisant souvent par l’acquisition de nouvelles informations à caractère sensible qui ont, en elles-mêmes, une valeur commerciale.

Comme cela a souvent été le cas lors de nos auditions abordant des sujets touchant à l’innovation, plusieurs intervenants ont confirmé l’excellence de la recherche française, tout en regrettant aussitôt que l’industrialisation pose difficulté et que, dans le cas où elle est réussie, les acteurs de celle-ci puissent se trouver rapidement absorbés par les mastodontes du secteur. Ainsi, M. Denis Le Bihan a-t-il déploré que, malgré les atouts dont elle dispose pour être au meilleur niveau de ce que l’on peut faire dans ce domaine, la France se trouve privée d’acteur industriel en matière d’imagerie médicale. Il faut donc, plus que jamais, nous préoccuper de cette question de l’organisation de notre système entre la recherche et l’industrialisation.

Un dernier point concerne les aspects d’éthique et, plus largement, de liens entre science et société. Ainsi que l’a souligné M. Frédéric Worms, directeur-adjoint Lettres de l’École normale supérieure et membre du Comité consultatif national d'éthique (CCNE), leur prise en compte suppose de normer les applications, notamment mais pas seulement thérapeutiques, des techniques dans les sciences de la vie, en prenant en compte les critères de respect des libertés, de rapports humains et de justice sociale, les technologies pouvant s’avérer coûteuses. A l’inverse, il convient également de mesurer le risque de prolifération résultant de la baisse de prix de certaines technologies.

Enfin, l’extension de l’usage des technologies au sein des sciences de la vie, impose une obligation d’interdisciplinarité élargie aux sciences humaines et sociales, à toutes les disciplines des humanités ainsi qu’à la politique et au droit. Ce point renforce le rôle central que doivent jouer les universités pour assurer aux étudiants l’accès à un large choix de disciplines.

Tous ces éléments confirment à la fois la pertinence et la complémentarité de l’organisation de ces deux auditions sur la question des convergences entre sciences et technologies ainsi que l’importance du rôle de l’OPECST, en tant que pont entre les mondes scientifique et politique.


© Assemblée nationale