Accueil > Contrôle, évaluation, information > Les comptes rendus de l'Office parlementaire d'évaluation des choix scientifiques et technologiques
Afficher en plus grand
Afficher en plus petit
Voir le compte rendu au format PDF

Office parlementaire d’évaluation des choix scientifiques et technologiques

Mardi 28 juin 2016

Séance de 18 h 30

Compte rendu n° 78

Présidence de M. Jean-Yves Le Déaut, député, Président

– Présentation des conclusions relatives à l’audition publique sur « Les synergies entre les sciences humaines et les sciences technologiques » du 21 janvier 2016, par M. Jean-Yves
Le Déaut, député, président de l’OPECST 2

– Présentation des conclusions relatives à l’audition publique sur « L’apport des avancées technologiques aux sciences de la vie » du 28 avril 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST 6

– Présentation des conclusions relatives à l’audition publique du 7 avril 2016 sur les « Maladies à transmission vectorielle », par M. François Commeinhes, sénateur 9

– Examen du projet d’étude de faisabilité relatif à la saisine sur l’intelligence artificielle, présenté par M. Claude de Ganay, député, et Mme Dominique Gillot, sénatrice 19

– Nomination de rapporteurs sur « L’évaluation du Plan national de gestion des matières et des déchets radioactifs 2016-2018 » (PNGMDR) 28

– Nomination d’un rapporteur pour l’évaluation de la stratégie nationale de recherche en énergie 29

– Renouvellement de la Commission nationale d’évaluation des recherches et études relatives à la gestion des matières et déchets radioactifs (CNE2) 29

– Remplacement des démissionnaires dans les organismes extra-parlementaires 30

Office parlementaire d’évaluation des choix scientifiques et technologiques

Mardi 28 juin 2016

Présidence de M. Jean-Yves Le Déaut, député, président

La séance est ouverte à 18h40

– Présentation des conclusions relatives à l’audition publique sur « Les synergies entre les sciences humaines et les sciences technologiques » du 21 janvier 2016, par M. Jean-Yves Le Déaut, député, président de l’OPECST

M. Jean-Yves Le Déaut, député, président de l’OPECST. L’audition publique du 21 janvier 2016 consacrée aux synergies entre sciences humaines et sciences technologiques était une première à deux titres.

D’une part, c’était la première audition dont le sujet principal concernait les sciences humaines, et cela constituait en soi un défi car l’OPECST n’a été créé, en 1983, que pour accompagner, au niveau législatif, l’introduction des technologies dans la société. Or cette dimension essentielle demeure et l’OPECST n’a pas de véritable légitimité pour aborder les questions touchant aux sciences humaines en tant que telles. L’approche consistant à s’intéresser aux synergies pour jeter un pont entre les deux grandes communautés des sciences humaines et technologiques constituait une manière de contourner cette difficulté, et cela s’est révélé fructueux.

D’autre part, c’était notre première audition en lien avec l’Alliance nationale des sciences humaines et sociales (ATHENA) et nous pouvons maintenant constater que nous avons mené des travaux conjoints avec chacune des cinq alliances de recherche, puisqu’au-delà de nos interactions fréquentes avec l’Alliance nationale de coordination de la recherche pour l’énergie (ANCRE) et l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN), nous avons sollicité l’Alliance des sciences et technologies du numérique (ALLISTENE), à l’occasion de nos travaux sur le risque numérique et le traitement massif des données (Big Data), et l’Alliance nationale de recherche pour l’environnement (ALLENVI) dans le cadre de nos travaux sur la transition énergétique et sur la lutte contre le changement climatique.

L’audition a permis de bien mettre en valeur l’apport des sciences humaines même si, bien évidemment, il n’a pas été possible d’en aborder toutes les dimensions, compte tenu de la diversité des champs couverts par celles-ci. Il a fallu effectuer des choix de cadrage concernant notamment trois aspects.

D’abord, les questions d’ordre médical impliquant des interactions entre sciences humaines et sciences technologiques ont été renvoyées à l’audition publique du 28 avril sur « L'apport des avancées technologiques aux sciences de la vie », qui y a consacré une table ronde spécifique. À cet égard, les deux auditions publiques sont liées, la thématique de la jaquette du rapport en rendra compte et c’est aussi pourquoi j’ai tenu à ce que leurs conclusions soient présentées lors de la même réunion.

Ensuite, il fallait bien veiller à ne pas réduire la problématique des synergies à l’approche « sciences-société ». Certes, il s’agit bien là d’une dimension du sujet. Ainsi, Mme Marie-Françoise Chevallier-Le Guyader, directrice de l’Institut des hautes études pour la science et la technologie (IHEST), après avoir observé que l’on était passé, dans les années 2000, des évaluations sur la base des bénéfices-risques et, donc, du « comment », à des évaluations sur la base de valeurs d’éthique et, donc, du « pourquoi », a souligné que, à la faveur de ce glissement de la controverse scientifique vers un débat de valeur, les sciences humaines et sociales étaient de plus en plus convoquées. Mais il existe encore de nombreux domaines où les synergies entre les sciences humaines et les sciences technologiques jouent aussi de façon constructive, par exemple, dans les recherches sur l’amélioration des interactions homme-machine, comme l’a indiqué Mme Laurence Devillers.

Enfin, quoique n’ayant pas de lien avec la technologie, la question de la radicalisation a été abordée en montrant les synergies possibles entre sciences humaines, c’est-à-dire en mettant en valeur l’apport de la pluridisciplinarité, et en soulignant, grâce aux travaux effectués dans le cadre du projet CASIMIR porté par une cellule prospective au sein des services de renseignement, les résultats concrets qu’on peut en tirer.

Par ailleurs, les contraintes d’organisation nous ont conduits à laisser dans l’ombre, faute de pouvoir mobiliser des intervenants, certains aspects du sujet.

Ainsi, il aurait été intéressant de faire appel à des spécialistes de l’histoire des sciences pour savoir si des études étaient disponibles sur l’analyse de ces synergies dans la longue durée, comme j’en ai esquissé le schéma dans mon introduction. Mais les personnalités sollicitées n’étaient pas disponibles.

J’ai regretté aussi l’empêchement de dernière minute de Mme Danièle Bourcier qui devait nous apporter un éclairage sur « L’apport des techniques de l’intelligence artificielle à l’analyse du droit », sujet particulièrement intéressant dans le contexte du Parlement. Elle est aussi une spécialiste de la « sérenpidité », ce phénomène totalement aléatoire de la découverte, et son avis aurait été précieux lorsque nous avons abordé avec M. Christian Ngo la question du rôle des sciences humaines dans l’innovation.

Je pense aussi qu’il aurait été utile de faire appel à ces conseillers, spécialistes en « sciences humaines », parfois placés auprès des dirigeants de grandes entreprises, pour savoir dans quelle mesure ceux-ci peuvent influer sur l’analyse des problèmes et les décisions.

Enfin, la dernière table ronde était un peu brève, même si son objectif se limitait à montrer l’intérêt de la pluridisciplinarité dans l’analyse des réflexions sur la vulnérabilité à la radicalisation. Il est dommage de n’avoir pas pu entendre directement l’anthropologue Scott Atran, de même que les spécialistes du Centre d’études des relations internationales de l'Institut d'études politiques de Paris ou de l’École des Hautes études en sciences sociales qui n’ont pu se libérer.

Après ces quelques remarques qu’il me semble important de fixer dans le compte rendu pour en conserver la mémoire lorsque l’OPECST sera amené à revenir sur ce même sujet, j’en viens aux enseignements qu’il me semble utile de retenir des échanges.

Manifestement, les synergies entre sciences humaines et sciences technologiques ne sont pas de même intensité selon les domaines considérés. Ces synergies sont manifestement déjà très intenses dans le cadre des interactions avec le numérique. Dans le domaine de l’énergie, elles sont en train de se formaliser à travers les échanges entre les alliances ANCRE et ATHENA.

Deuxièmement, ces synergies sont manifestement, de part et d’autre, des stimulants pour la recherche. On retrouve là un enseignement général de la recherche, à savoir qu’on se met en position de faire des découvertes lorsqu’on change son point de vue sur ce qu’on étudie. « Se frotter et limer la cervelle à celle d’autrui », comme dirait Montaigne, surtout lorsque cette autre cervelle est nourrie d’une autre expérience scientifique, reste l’un des plus sûrs moyens de renouveler son approche, de percevoir d’autres pistes possibles. Donc ces synergies sont en soi un facteur de progrès des connaissances, comme en a témoigné M. Alexandre Gefen pour les activités de l’Observatoire de la vie littéraire, qui regroupent des chercheurs des universités Paris-Sorbonne et Pierre et Marie Curie. Mme Suzanne de Cheveigné, directrice du Centre Norbert Elias, physicienne qui s’est tournée vers les sciences humaines, a souligné l’apport des sciences humaines au niveau de l’analyse qualitative, en complément des méthodes quantitatives des sciences technologiques, sachant que cela ne signifie pas « absence d’objectivation ni de rigueur ».

Troisièmement, les synergies entre sciences humaines et sciences technologiques les amènent à se rapprocher dans leurs méthodes. M. Serge Abiteboul, membre de l’Académie des sciences, voit en particulier cette convergence à l’œuvre dans ce qu’on appelle les « humanités numériques » qui utilisent les techniques du Big Data pour analyser les textes, comme avec le logiciel Hyperbase de M. Etienne Brunet, ou la modélisation pour étudier le comportement des foules, par exemple pour essayer de comprendre les émeutes britanniques d’août 2011.

Enfin, l’exemple des analyses sur la vulnérabilité à la radicalisation montre que le croisement des disciplines favorise la découverte de critères directement opérationnels. La confrontation avec les données de terrain rapproche ainsi les sciences humaines des sciences expérimentales, en aidant à l’identification de déclencheurs bien définis. Ainsi, Mme Viviane Seigneur a souligné que le radicalisme de Daech repose sur un discours de l’imminence de l’apocalypse impensable dans une approche intégriste de l’islam, comme celle des salafistes piétistes. Ce signe distinctif devrait permettre d’éviter de mobiliser des ressources de police sur de fausses pistes. En même temps, l’approche ancrée dans l’analyse des données n’empêche pas les sciences humaines de faire émerger des résultats contre-intuitifs, qui restent une marque de leur originalité. Par exemple, M. Yoursi Marzouki du laboratoire de psychologie cognitive d’Aix-Marseille, a expliqué que la cohésion de mouvances radicales telles qu’Al-Qaïda ou Daech ne s’appuyait pas sur une hiérarchie forte, mais sur le sentiment d’appartenance à une fraternité.

La mise en évidence de l’apport que peut constituer l’existence de synergies entre sciences humaines et sciences technologiques milite pour un développement de ces synergies. C’est une recommandation de tous les participants de l’audition qui ont mis l’accent sur deux niveaux d’intervention possible pour aller dans ce sens.

D’abord, la formation. M. Alexei Grinbaum du LARSIM a souligné que, à Oxford et Cambridge, il existait déjà des enseignements combinant physique et philosophie. M. Gianluca Manzo, chercheur spécialisé en sciences sociales computationnelles a demandé un renforcement massif de la formation des chercheurs des sciences sociales en mathématiques, statistiques et informatique.

Inversement, M. Dominique Wolton a défendu l’idée que, dans les sciences technologiques, la formation devrait s’accompagner de séminaires aidant à préserver l’imaginaire, gage, selon lui, de la capacité à faire émerger les connaissances. Mme Françoise Touboul, en charge des relations entre les alliances ANCRE et ATHENA, a réclamé un plus grand nombre d’étudiants et de thésards possédant une double formation en technologie et en sciences humaines et sociales.

Ensuite, il serait souhaitable d’assurer une meilleure représentation des sciences humaines dans les comités scientifiques ou les instances d’expertise. Il s’agit d’ailleurs, à cet égard, de mieux tenir compte de la diversité des sciences humaines et de ne pas se contenter, comme souvent, de désigner un économiste, comme l’a observé M. Olivier Labussière de l’université Joseph Fourrier. Cette mixité disciplinaire devrait notamment devenir la règle pour les jurys de sélection des projets interdisciplinaires, selon M. Alain Nadaï, chercheur au Centre international de recherche sur l’environnement.

Sur ces bases, il deviendrait possible de multiplier les laboratoires rassemblant des chercheurs des deux communautés, comme l’a préconisé M. Marc Renneville, directeur du Centre pour les humanités numériques et créateur du portail Criminocorpus mettant la puissance des moyens numériques au service d’une présentation de l’histoire de la justice.

De même, le renforcement des formations duales faciliterait une meilleure prise en compte des sciences humaines dans les structures de l’État confrontées à la gestion complexe d’une multitude d’informations désordonnées. C’est précisément le sens de l’étude CASIMIR, commandée par la direction du renseignement militaire du ministère de la défense, avec l’intention d’essayer de mieux appréhender le « phénomène Daech », et qui a été présentée au cours de l’audition.

La stratégie nationale de recherche que l’OPECST est chargée d’évaluer a bien pris en compte ce besoin de développer des synergies entre sciences humaines et sciences technologiques puisqu’elle en a fait une « action » qui doit prendre la forme des instituts de convergence, soutenus par les investissements d’avenir. Le dépouillement des réponses de l’appel à projets doit justement commencer dans les prochains jours. Ces instituts auront pour vocation, d’une part, de rassembler, dans un partenariat organisé en un lieu donné, des compétences de recherche diversifiées visant à produire des savoirs nouveaux par la mobilisation conjointe de différentes compétences disciplinaires, et, d’autre part, de développer, en lien avec ces recherches interdisciplinaires, des formations aux niveaux master et doctorat, en formation initiale comme en formation continue.

Au sein du monde scientifique lui-même, la meilleure prise en compte de l’apport des sciences humaines devrait permettre de progresser face à deux difficultés structurelles auxquelles la science se trouve aujourd’hui confrontée. D’abord, il est important de travailler à faire émerger un consensus éthique dès l’amont de la découverte scientifique car le schéma consistant à mobiliser les sciences humaines a posteriori, une fois les premières applications réalisées, est désormais en totale contradiction avec l’esprit du principe de précaution. Ensuite, la pertinence des sciences humaines pour des approches qualitatives doit être sollicitée pour essayer d’appréhender la masse toujours plus volumineuse des connaissances produites en permanence. C’est là l’idée, en quelque sorte, de la logique « floue »

Plusieurs intervenants, dont M. Claude Didry, directeur de la Maison des sciences de l’homme de Paris-Saclay, ont observé que la science physique du changement climatique faisait déjà l’objet d’une grande ouverture aux sciences humaines et sociales, sans doute parce que c’est l’objet même de cette science de constater que son objet, l’atmosphère, évolue en dépendant des pratiques humaines. Mais M. Dominique Wolton a souligné d’emblée la menace de passer d’un extrême à l’autre : le scientisme et le technicisme ne sont pas moins réducteurs que le sociologisme, qui consiste à rapporter les interactions sciences et techniques à une seule logique intellectuelle et cognitive. Selon lui, plus il y a d’interactions, de relations, de ressemblances, plus il faut veiller à préserver la dynamique de la science et de la connaissance.

M. Yves Brechet a mis ainsi en garde contre une injonction de « collaboration », qui conduirait à rapprocher des disciplines au prix de graves et durables malentendus, comme cette demande des technologues aux sociologues pour identifier les conditions d’acceptabilité d’une technologie par une société. Cela serait, selon lui, aussi inefficace que l’injonction faite autrefois aux sciences fondamentales de collaborer, coûte que coûte, avec les sciences appliquées.

Les synergies entre sciences humaines et sciences technologiques doivent permettre de mieux servir l’idée de progrès de la société, au sens où, comme l’a rappelé M. Christian Ngo en citant Aristote : « Le progrès ne vaut que s’il est partagé par tous ».

C’est en tout cas cette conception-là du progrès que nous défendons à l’OPECST, en jouant ce rôle de passerelle entre le monde de la science et le monde politique. Et c’est pourquoi cette audition publique constituait une contribution importante à nos travaux.

– Présentation des conclusions relatives à l’audition publique sur « L’apport des avancées technologiques aux sciences de la vie » du 28 avril 2016, par M. Jean-Yves
Le Déaut, député, président de l’OPECST

M. Jean-Yves Le Déaut, député, président de l’OPECST. L’audition du 28 avril 2016 sur les apports des avancées technologiques aux sciences de la vie s’articule avec celle consacrée, trois mois auparavant, aux synergies entre sciences humaines et sciences technologiques. Il s’agissait, au cours de ces deux auditions, de mettre en évidence les convergences entre sciences et technologies, l’importance croissante de ces interactions dans la recherche ainsi que les conditions dans lesquelles celles-ci pourraient être encouragées et facilitées.

Cette audition a été organisée en liaison avec la direction de la recherche fondamentale du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) qui regroupe des chercheurs des domaines de la physique, des sciences des matériaux, de la chimie, de la biologie et de la santé. Il était logique que son directeur, M. Vincent Berger attire l’attention de l’Office parlementaire sur l’importance croissante des interactions entre nouvelles technologies et sciences de la vie. Par ailleurs, cette suggestion s’inscrivait naturellement dans le cadre de nos travaux, l’OPECST ayant déjà abordé à plusieurs reprises des sujets approchants : par exemple, en janvier 2011, les sauts technologiques en médecine ou, en mai 2014, le numérique au service de la santé. Les interactions entre technologies et sciences de la vie ont également été prises en compte par plusieurs études de l’Office consacrées à divers aspects des biotechnologies et de la santé.

Le CEA a aussi assuré la coordination au sein de l’Alliance nationale pour les sciences de la vie et de la santé (AVIESAN). L’Office parlementaire a été conduit à écarter un certain nombre de propositions d’interventions, par exemple sur la modification ciblée du génome avec CRISPR-Cas9 déjà traitée lors de l’audition du 7 avril 2016, afin d’éviter toute redondance avec les études en cours au sein de notre Office, notamment celle menée par les députés Alain Claeys et Jean-Sébastien Vialatte sur les enjeux et perspectives de l’épigénétique dans le domaine de la santé, et celle que la sénatrice Catherine Procaccia et moi-même avons engagée voici quelques mois sur les enjeux économiques, environnementaux, sanitaires et éthiques des biotechnologies, à la lumière des nouvelles pistes de recherche.

Contrairement au cas des sciences technologiques et des sciences humaines et sociales, les interactions entre technologies et sciences de la vie s’exercent, à ce jour, pour l’essentiel dans une seule direction, si bien qu’il semblait difficile de reprendre, pour l’intitulé de cette audition, la notion de « synergie », laquelle implique l’action coordonnée de plusieurs disciplines en vue de la réalisation d’un objectif commun. Néanmoins, à l’occasion de cette audition, M. Vincent Berger a indiqué que la biologie devenait elle-même un instrument d’ingénierie, plusieurs développements en cours permettant d’entrevoir des applications technologiques des sciences de la vie, par exemple la fabrication de contacts électriques à partir de filaments d’actine – une protéine qui joue un rôle important pour l'architecture et les mouvements cellulaires – en utilisant des méthodes de croissance particulières.

L’audition du 28 avril a d’abord permis d’illustrer le rôle majeur des innovations technologiques dans les développements récents survenus en sciences de la vie, aussi bien en ce qui concerne les applications que la compréhension du vivant. Ainsi, M. Jean-François Deleuze, directeur du Centre national de génotypage, a présenté les applications du séquençage à haut débit en médecine de précision, alors que M. Marc Eloit, responsable de l’unité de biologie des infections de l’Institut Pasteur, a montré l’intérêt de celui-ci pour l’identification de nouveaux pathogènes. En matière de compréhension du vivant, M. Denis Le Bihan, directeur de NeuroSpin, a indiqué que l’exploration du cerveau était devenue un effort vraiment interdisciplinaire, qui réunit désormais physiciens, chimistes, médecins, neuroscientifiques et spécialistes des technologies de l’information

Par conséquent, comme l’a souligné M. Vincent Berger, directeur de la recherche fondamentale du CEA, il semblerait que nous nous trouvions à un moment épistémologique tout à fait remarquable. Alors que, depuis le début du XXe siècle, les avancées de la science ont été accompagnées par une séparation croissante entre disciplines et une spécialisation de plus en plus étroite au sein de chacune d’entre elles, l’interaction entre les sciences et les technologies apparaît de plus en plus souvent comme une condition nécessaire à la poursuite du progrès scientifique.

Cette interpénétration ne peut évidemment se décréter. Mais il est possible de l’encourager et de la faciliter. J’ai déjà mentionné plusieurs pistes, mises en évidence à l’occasion de l’audition de janvier 2016.

Mais il est clair que cette interpénétration relève avant tout de l’initiative des organismes de recherche eux-mêmes. M. Philippe Chomaz pour le CEA et
M. Jean-Christophe Olivo-Marin pour l’Institut Pasteur, ont d’ailleurs présenté les stratégies mises en œuvre dans ce domaine au sein de leurs organismes respectifs. Le CEA a ainsi regroupé au sein d’une seule direction les activités de recherche en sciences du vivant et en sciences de la matière, jusque-là disjointes ; il a aussi choisi de donner à ses chercheurs et ingénieurs un statut indifférencié. Quant à l’Institut Pasteur, il a notamment créé une nouvelle direction de la technologie et un nouvel espace spécifiquement consacré à la recherche et développement en technologie ; deux décisions marquant la reconnaissance du rôle essentiel des technologies dans la recherche. Ces exemples peuvent inspirer d’autres organismes, sachant que l’accès à des technologies performantes constitue un facteur d’attractivité important pour les chercheurs.

Comme à l’occasion de l’audition sur les synergies entre sciences humaines et sciences technologiques, la formation supérieure scientifique et technique a été mise en avant comme l’un des leviers majeurs – sinon le levier majeur – pour promouvoir cette nouvelle approche des sciences. L’université est le lieu privilégié pour organiser ces possibilités d’échanges, forcément plus difficiles à concrétiser au sein de structures d’enseignement plus spécialisées ou de taille plus réduite. Ce constat vient appuyer les orientations que j’avais présentées en janvier 2013, à la suite de l’audition : « Refonder l’université, dynamiser la recherche : des Assises au débat parlementaire », notamment quant au repositionnement de l’université au cœur du système d’enseignement supérieur et de recherche et à l’éclectisme du parcours des étudiants. Incidemment, un manque en compétences en science des données, ou data science, a été signalé par M. Philippe Guedon, directeur de l’ingénierie et du développement du pôle MEDICEN, et confirmé par plusieurs autres intervenants.

Du côté des freins, plusieurs difficultés d’ordre réglementaire ont été relevées à l’occasion de cette audition, par exemple dans le domaine des essais cliniques. M. Hervé Seznec, responsable de l’équipe iRiBio du CNRS, a ainsi indiqué qu’il devait prendre en compte les contraintes liées au nucléaire, aux OGM et aux nanotechnologies. Un peu comme dans le cas des robots, la diversité des applications et des technologies mises en œuvre conduit à une variété de situations nouvelles qui relèvent d’ajustements au cas par cas de la législation ou de la réglementation en place. Mais une dimension apparaît commune à pratiquement toutes les applications des technologies aux sciences du vivant : il s’agit du numérique et des données. Les questions de protection et de propriété des données apparaissent donc transverses ; l’extension des applications des technologies se traduisant souvent par l’acquisition de nouvelles informations à caractère sensible qui ont, en elles-mêmes, une valeur commerciale.

Comme cela a souvent été le cas lors de nos auditions abordant des sujets touchant à l’innovation, plusieurs intervenants ont confirmé l’excellence de la recherche française, tout en regrettant aussitôt que l’industrialisation pose difficulté et que, dans le cas où elle est réussie, les acteurs de celle-ci puissent se trouver rapidement absorbés par les mastodontes du secteur. Ainsi, M. Denis Le Bihan a-t-il déploré que, malgré les atouts dont elle dispose pour être au meilleur niveau de ce que l’on peut faire dans ce domaine, la France se trouve privée d’acteur industriel en matière d’imagerie médicale. Il faut donc, plus que jamais, nous préoccuper de cette question de l’organisation de notre système entre la recherche et l’industrialisation.

Un dernier point concerne les aspects d’éthique et, plus largement, de liens entre science et société. Ainsi que l’a souligné M. Frédéric Worms, directeur-adjoint Lettres de l’École normale supérieure et membre du Comité consultatif national d'éthique (CCNE), leur prise en compte suppose de normer les applications, notamment mais pas seulement thérapeutiques, des techniques dans les sciences de la vie, en prenant en compte les critères de respect des libertés, de rapports humains et de justice sociale, les technologies pouvant s’avérer coûteuses. A l’inverse, il convient également de mesurer le risque de prolifération résultant de la baisse de prix de certaines technologies.

Enfin, l’extension de l’usage des technologies au sein des sciences de la vie, impose une obligation d’interdisciplinarité élargie aux sciences humaines et sociales, à toutes les disciplines des humanités ainsi qu’à la politique et au droit. Ce point renforce le rôle central que doivent jouer les universités pour assurer aux étudiants l’accès à un large choix de disciplines.

Tous ces éléments confirment à la fois la pertinence et la complémentarité de l’organisation de ces deux auditions sur la question des convergences entre sciences et technologies ainsi que l’importance du rôle de l’OPECST, en tant que pont entre les mondes scientifique et politique.

– Présentation des conclusions relatives à l’audition publique du 7 avril 2016 sur les « Maladies à transmission vectorielle », par M. François Commeinhes, sénateur

M. François Commeinhes, sénateur. – Le 7 avril 2016, l’OPECST a organisé une après-midi d’audition publique sur les maladies à transmission vectorielle à la suite d’une demande que j’avais formulée auprès du Bureau de l’Office. Cette audition a réuni près d’une trentaine d’intervenants qui ont versé au débat des contributions d’une grande qualité relatives à la prolifération de tous les vecteurs, des moustiques en particulier, et sur les dangers sanitaires qu’ils représentent.

Je rappelle que la recrudescence de la présence de vecteurs a pris une ampleur inquiétante pour la santé, la vie quotidienne et le tourisme. C’est ainsi que l’épidémie causée par le virus Zika est présente dans tous les esprits et que les zones géographiques où elle apparaît s’étendent.

Si la priorité va évidemment aux questions de santé, il n’est cependant pas envisageable non plus que ces insectes rendent la vie impossible aux habitants de certaines régions françaises, qu’elles soient métropolitaines ou d’outre-mer. C’est le cas également pour les touristes qui trouvent actuellement dans nos régions à moustiques la même situation qu’il y a cinquante ans, c’est-à-dire celle d’avant la démoustication de masse qui a permis de jeter les bases de l’industrie touristique. Mais l’extension des zones de présence des tiques est également préoccupante.

Même si l’OPECST ne pouvait, en une après-midi d’audition publique, trouver des solutions pratiques à un problème d’une telle ampleur, la contribution de l’Office, avait pour ambition d’appréhender le maximum d’aspects de cette question avec l’aide, indispensable, des meilleurs spécialistes. Il a été rappelé que différents types de vecteurs existent : les anophèles, les phlébotomes, les tiques, les moustiques susceptibles de transmettre des maladies aussi graves et invalidantes que le paludisme, la filariose, les leishmanioses de plusieurs types, différents flavovirus, mais également le chikungunya, la dengue, le Zika et des fièvres comme le West Nile, la fièvre jaune ou encore celle de la vallée du Rift.

Comme à son habitude, l’OPECST a mis à profit cette audition publique pour appréhender tous les aspects scientifiques et technologiques des maladies à transmission vectorielle à travers une approche rigoureuse et aussi complète que possible : toutes les maladies, tous les vecteurs, tous les milieux.

L’audition a ainsi permis de faire émerger des pistes de solutions concrètes – qu’elles soient ou non d’ordre législatif.

Ni le 7 avril ni aujourd’hui, il n’est possible de tirer une conclusion définitive de l’audition publique menée par l’Office. Néanmoins, l’adoption du compte-rendu de cette audition aujourd’hui, dans un contexte national et international confirmant les risques et dangers des maladies à vecteurs depuis le jour de l’audition, permettra de diffuser ce point de connaissances multiples résultant de la richesse des propos des intervenants.

Cette audition n’est qu’une phase provisoire qui s’inscrit dans un processus où nombre d’acteurs institutionnels ou privés ont leur rôle à jouer pour que la connaissance des risques et dangers des maladies à transmission vectorielle, encore trop lacunaire à ce jour, permette une lutte plus efficace.

Comment vivre du mieux possible avec les vecteurs ? Où placer les limites entre les précautions et mesures d’intervention efficaces et raisonnables et celles qui constitueraient, en elles-mêmes, une atteinte excessive à la santé ou à la qualité des milieux ?

Cette audition a d’abord permis de mieux cerner le phénomène des arboviroses, de prendre conscience de la difficulté et du rythme des solutions à apporter, et des méthodologies, nouvelles ou éprouvées, auxquelles il faudra recourir pour limiter ou endiguer ce phénomène.

Les conclusions présentées à l’Office s’articulent de la manière suivante : après l’énoncé de quelques informations indispensables, mais pas forcément très connues, sur les vecteurs, seront rappelées les questions qui se posaient à tout un chacun avant l’audition publique avec, en réponse, les principaux éléments d’information tirés de l’audition.

Cette mise en regard montrera que certaines questions étaient mal posées, que des problèmes non perçus sont parfois prépondérants mais, également, qu’une palette de solutions peut être mise en œuvre.

À ce stade, je crois nécessaire de rappeler quelques faits indispensables pour entrevoir la complexité des vecteurs : il existe près de trois mille cinq cents espèces de moustiques dont soixante en France et quarante sur le littoral méditerranéen et il a été dénombré deux cents espèces de tiques molles et sept cents espèces de tiques dures.

C’est le moustique femelle qui pique.

La prolifération du moustique tigre est grandement aidée par la multiplication des petits gîtes larvaires artificiels créés par l’homme qui se plaint de cette prolifération.

Dans ce contexte, quelles sont les principales questions posées par les maladies à transmission vectorielle ?

Avant l’audition publique, certaines évidences semblaient s’imposer comme :

- la prolifération du moustique tigre dans le Sud de la France provenait du réchauffement lié aux changements climatiques ;

- le déplacement des zones d’habitat était surtout spectaculaire pour le moustique tigre ;

- des démoustications par des biocides moins offensifs que l’ancien DDT étaient possibles ;

- des dérogations favorables aux épandages de biocides étaient envisageables ;

- les liens de causalité entre la piqûre de moustique et des maladies étaient déjà scientifiquement établis ; le virus Zika transmettant la microcéphalie, le syndrome de Guillain-Barré ou encore des complications neurologiques ;

- il n’existait pas de transmission sexuelle des arboviroses.

À ces six principales questions, les intervenants de l’audition publique ont apportées des réponses conduisant à largement nuancer ces six certitudes :

- La prolifération du moustique tigre dans le Sud de la France ne provient pas du réchauffement lié aux changements climatiques mais constitue une retombée de la mondialisation des échanges de personnes et de biens. Par exemple, les importations de pneus usés, le recours massif au transport par containers, les passagers du transport aérien… Tout cela entraîne des cas d’arbovirus importés.

De plus, les moustiques vivent très bien en pays tempéré voire en pays tempéré froid ; en réalité, plus que les changements climatiques, c’est la destruction des forêts qui peut avoir un impact sur l’extension de la présence de moustiques ; de même, plutôt que les changements climatiques, les retours de vacances lointaines voire l’organisation de Jeux olympiques, ici ou là, constituent des accélérateurs de la prolifération des vecteurs de maladies.

- La modification des zones d’habitat ne concerne pas seulement le moustique tigre mais tous les moustiques et aussi les tiques – de plus en plus présentes dans l’Est de la France.

- L’extension de la résistance des moustiques aux insecticides et les effets de ces biocides sur la santé humaine et l’environnement doivent être pris en compte de manière prioritaire avant de pouvoir envisager des campagnes massives de démoustication. Une forte résistance des moustiques aux insecticides existe en particulier dans les départements français d’Amérique.

Parallèlement, la gamme des insecticides utilisables se restreint grandement et il s’agit moins de dérogation juridique à obtenir que de problèmes pratiques de santé publique à surmonter.

- Les liens de causalité entre un vecteur et une affection particulière ne sont pas établis de manière aussi certaine que le relatent les médias.

- Contrairement à ce qui a été longtemps admis, certaines arboviroses semblent se transmettre par voie sexuelle. La transmission sexuelle du virus Zika est maintenant fortement suspectée.

En complément de ces éclaircissements, certaines questions moins médiatisées n’avaient pas été entrevues avant l’organisation de l’audition publique et, de plus, d’autres problématiques émergent.

À noter tout d’abord à nouveau, l’expansion mondiale actuelle des arbovirus et celle des tiques.

Arrivé en 2004 dans les Alpes-Maritimes, le moustique tigre est maintenant présent dans trente départements dont ceux de l’Alsace et du Val-de-Marne. De petites épidémies d’arboviroses ont eu lieu dans le Sud de la France.

L’augmentation des cervidés conjuguée à la baisse des populations de lynx et de loups a entraîné l’augmentation des tiques qui se sont déplacées vers l’Est de la France.

Si la forêt tropicale a toujours regorgé de nombreux virus, désormais, en raison de la déforestation, l’émergence de nouveaux virus peut être redoutée.

La recherche en matière de produits biocides n’est pas aussi dynamique que souhaitable car, pour ces produits, le marché est restreint et donc peu rentable. D’autant que les entreprises qui s’y intéressent ne sont pas susceptibles de recevoir l’aide octroyée aux investissements d’avenir.

Au fil des ans, une seule substance biocide a fini par être considérée comme utilisable, à savoir la deltaméthrine, ce qui restreint l’efficacité de la lutte contre les vecteurs qui développent une accoutumance.

Par ailleurs, la lourdeur et la lenteur du système de financement de la recherche ne sont pas adaptées aux délais très courts de réaction nécessaire en matière de crise sanitaire.

Très peu de médicaments existent contre les arboviroses et aucun vaccin sauf celui contre la fièvre jaune.

Un des moyens de lutte contre la prolifération des anophèles a été la production d’enzymes de détoxication mais cela a favorisé l’adaptation de ces vecteurs au milieu urbain.

Les moustiques adaptent leurs comportements pour déjouer les protections offertes aux personnes par les moustiquaires imprégnées d’insecticides.

Face à ces divers problèmes, quelques solutions réalistes sont recherchées.

Au cours de cette audition publique de bonnes nouvelles ont aussi été enregistrées comme celle de la possibilité de l’élimination du paludisme qui serait envisageable à l’horizon de vingt à trente ans.

De même, il existe de nombreuses méthodes, à utiliser seules ou de manière combinées, tendant à la réduction des populations de vecteurs : la lutte mécanique (barrière de pièges), la lutte insecticide (par la démoustication, l’usage de moustiquaires imprégnées d’insecticides, l’étalement de répulsifs sur la peau), la lutte biologique (incluant la diminution de la durée de vie des vecteurs, leur modification génétique, le recours à des antibiotiques, à des larvicides, à des adulticides).

En outre, d’autres pistes résulteraient de :

- l’existence dans la durée et dans l’ensemble du monde de compétences d’entomologistes ;

- l’accentuation des efforts de veille face aux virus émergents ;

- l’inscription des crises sanitaires parmi les autres crises : selon la voie tracée par la plate-forme REACting (alliance Aviesan) ;

- l’indispensable augmentation du nombre de lits de soins intensifs puisque, par exemple, un mois d’hospitalisation est nécessaire en cas de syndrome de Guillain-Barré ;

- l’intensification des recherches en sciences humaines et sociales ;

- la cartographie des zones à risques ;

- l’information du grand public sur le risque acariologique ;

- la modification des comportements humains grâce à la mobilisation du plus grand nombre ; les petits gestes du quotidiens ;

- l’auto-dissémination par les vecteurs eux-mêmes ;

- la limitation de la résistance des vecteurs à la deltaméthrine ;

- la découverte d’une alternative au Bti ;

- le suivi des femmes enceintes ;

- la surveillance épidémiologique renforcée des cas suspects ;

- la vaccination ;

- la multiplication des contacts entre les élus et des spécialistes des maladies à transmission vectorielle.

Compte tenu des observations précédentes, j’ai l’honneur de proposer à l’Office l’adoption du compte rendu et des conclusions de l’audition publique de l’Office relative aux maladies à transmission vectorielle et l’autorisation de sa publication.

M. Jean-Yves Le Déaut, député, président de l’OPECST. – Merci. Y a-t-il des questions ou des commentaires ?

Mme Catherine Procaccia, sénateur, vice-présidente de l’OPECST. – Une précision déjà sur la demande de publication qui vient d’être formulée : s’agit-il de la publication de l’ensemble du dossier ou seulement de celle de la synthèse, très intéressante, qui vient d’être présentée à l’instant ?

M. François Commeinhes. – La publication comprendra l’ensemble dont le compte rendu intégral de l’audition publique.

Mme Catherine Procaccia. – Parce que, à mes yeux, l’audition elle-même, à laquelle j’ai tenté d’assister un peu, était trop dense, avec trop d’intervenants ; elle a été trop longue alors que la synthèse qui vient d’être faite est intéressante ; il est possible d’en tirer quelque chose.

Je voudrais également poser une question sur la dégradation de la situation. Est-ce qu’il y a vraiment, en France, maintenant, autant de moustiques que dans les années 1950 ?

M. François Commeinhes. – Il y a cinquante ans, la mission Racine s’est développée pour réaliser des stations balnéaires sur la côte méditerranéenne dans des zones infréquentables infestées de moustiques. À l’époque, il y a eu démoustication par le DDT et les moustiques ont disparu ; les stations balnéaires se sont créées. Aujourd’hui, cinquante ans après, les stations balnéaires sont là, les touristes aussi mais ils sont sur le point de repartir parce que cela devient invivable et infréquentable, le soir, à partir de dix-huit heures.

De plus, des produits autorisés à l’époque ne le sont plus de nos jours et il n’y a plus d’insecticides vraiment efficaces puisque les moustiques sont capables de muter en vingt-cinq jours pour s’adapter à ces produits ; c’est une course permanente. Si on rate une phase d’un traitement pouvant avoir un effet sur les larves, après on est dévoré par les moustiques tout l’été.

Mme Catherine Procaccia. – Ma seconde question porte sur la vaccination contre la fièvre jaune qu’il fallait renouveler tous les cinq ans. Maintenant, ce serait seulement tous les dix ou quinze ans. Cela signifie-t-il que ce vaccin est devenu plus efficace ?

M. François Commeinhes. – À ma connaissance, le vaccin est toujours le même mais une seule vaccination apparaît désormais suffisante. A une époque j’allais régulièrement effectuer des remplacements de médecins généralistes sur les pétroliers pour procéder à la vaccination des navigateurs contre la fièvre jaune et autres maladies, il s’agissait de protéger des personnes risquant des contaminations fréquentes.

M. Jean-Louis Touraine, député, membre de l’OPECST. – Le vaccin est toujours le même dans ses grandes lignes, même s’il a été légèrement perfectionné, mais les études ont montré la présence d’une immunité plus durable que ce qui avait été anticipé. C’est une bonne immunité mais insuffisante pour les personnes qui auraient un déficit immunitaire au départ. En revanche, pour les personnes d’âge moyen et d’une immunité normale, la durée d’efficacité du vaccin est plus longue que prévu.

On espère qu’il en sera de même pour la dengue, d’autant plus qu’il paraît possible de coupler les deux vaccinations contre la dengue et le virus Zika puisque, maintenant, on sait qu’un même mécanisme immunitaire peut protéger contre les deux, qui appartiennent à la même famille de virus. Donc, là aussi, une seule vaccination protégerait contre les deux et on espère que ce serait de manière suffisamment durable pour ne pas refaire des campagnes de vaccination trop fréquentes dans les pays infestés.

Pour la France, où les cas de dengue ou de Zika en métropole se comptent encore sur les doigts d’une main, une question se pose : à partir de quel seuil faudra-t-il envisager une vaccination de masse ? Une des préoccupations des scientifiques présents à l’audition était de savoir s’il pouvait y avoir transmission sexuelle de ces virus et donc un risque dans nos régions sans même attendre que ce moustique prenne l’avion.

M. Bruno Sido, sénateur, vice-président de l’OPECST. – Nous sommes amenés, les uns et les autres, à voter des lois sur la protection de l’environnement et sur l’interdiction de certains produits. Cela faisait longtemps qu’on avait interdit le DDT lorsqu’on a trouvé du DDT dans la graisse des phoques. On nous dit aujourd’hui qu’il faut manger du thon mais pas plus de deux fois par an puisqu’il est en bout de la chaîne alimentaire et qu’il accumule dans sa chair tous les métaux.

Dans le cadre de la loi du Grenelle de l’environnement, dont j’avais l’honneur d’être rapporteur, j’avais fait accepter que la loi dise que tous les traitements aériens étaient interdits à l’exception, par exemple, du traitement contre la chenille processionnaire du pin car, si vous ne prenez pas un hélicoptère ou un avion pour traiter, tous les pins meurent. Il est donc utile de prévoir des exceptions dans la loi.

On s’aperçoit, avec tes conclusions sur l’audition publique qui sont très bonnes et dont je te remercie –  je t’avais déjà écouté avec beaucoup d’intérêt quand tu étais venu me voir pour me suggérer cette audition – que, dans d’autres domaines, par exemple, on utilise des matières actives interdites de plus en plus en agriculture comme, par exemple, le glyphosate. Dans le même temps, il est recommandé de ne pas labourer pour diverses raisons.

Avec la conjonction de ces divers éléments, on arrive maintenant à des impossibilités et je me pose la question de savoir s’il ne faudrait pas que l’Office, un jour, soit saisi pour se pencher sur ces questions afin de parvenir à analyser le rapport entre les services rendus et les problèmes réels liés à l’interdiction d’un certain nombre de produits. Il ne faudrait pas arriver, à un moment donné, à un certain déséquilibre où les hommes mourront tandis que la nature se portera mieux. Cela recoupe d’ailleurs ce que tu m’avais dit ou suggéré.

Il est anormal que, dans le midi de la France hier, maintenant en Alsace et demain à Paris, dès six heures du soir, il faille rentrer chez soi s’enfermer pour éviter les piqûres de moustiques.

Ne pourrait-on réfléchir à cette question très en amont par rapport au problème ? Ceux qui ont été piqués par le moustique tigre souffrent. En exagérant mon propos, ne sera-t-on pas obligé de revenir au DDT ?

M. Roland Courteau, sénateur, vice-président de l’OPECST. – Pour confirmer les propos de M. François Commeinhes, il y a cinquante ou soixante ans, dans des régions comme la nôtre, le Languedoc-Roussillon, c’était l’enfer. Les rares touristes fuyaient les moustiques et les vendangeurs avaient toutes les peines du monde à effectuer leurs travaux. J’ai même connu des périodes où les viticulteurs payaient journée double pour recruter des vendangeurs car on n’en trouvait pas, tellement c’était infernal.

Puis l’entente interdépartementale pour la démoustication a dû traiter pour faire reculer ce véritable fléau ; les moustiques ont reculé et les touristes sont revenus.

Aujourd’hui, effectivement, on assiste à un retour de la prolifération des moustiques et les touristes en sont très affectés ; des menaces pèsent sur le tourisme dans nos régions mais les habitants eux-mêmes sont obligés de se doter de moustiquaires dans toutes les habitations alors que ces accessoires avaient disparu durant des décennies.

Sur tous ces points, je rejoins les sénateurs Bruno Sido et François Commeinhes, un vrai problème existe.

Je voudrais faire une remarque également sur le virus Zika car j’ai lu dans une revue que des chercheurs européens avaient découvert de puissants anticorps susceptibles de le neutraliser et pensaient aboutir à la fabrication d’un vaccin. Ce qui m’a étonné, c’est que ces mêmes anticorps seraient capables de neutraliser également le virus de la dengue. Il y a là de grands espoirs d’éviter que le virus Zika ne provoque des lésions cérébrales, notamment chez le fœtus.

Mme Delphine Bataille, sénatrice, membre de l’OPECST. – L’impact du réchauffement climatique a-t-il été établi sur la prolifération de certaines espèces porteuses de virus ? Par exemple, celle du moustique tigre dans le Sud de la France proviendrait-elle plutôt du brassage des populations que du réchauffement climatique ?

M. François Commeinhes. – D’après les scientifiques, le réchauffement climatique n’y est pour rien. En revanche, les flux de population, les flux de marchandises peuvent induire le transport de petites quantités d'eau dans lesquelles il peut se trouver des larves de moustiques provenant de Thaïlande, du Brésil ou d’ailleurs.

M. Bruno Sido. – Sur ce point très précis, il faut interroger les botanistes et les entomologistes qui constatent que le même insecte ou la même plante remontent vers le nord de la France – et ce phénomène s’observe dans le monde entier – depuis la zone méditerranéenne, de dix ou vingt kilomètres par an, ce qui est énorme ; donc, effectivement, on aura les problèmes des maladies transmises par ces vecteurs, demain, à Paris et, après-demain, à Lille.

M. François Commeinhes. – Je vais vous donner l’exemple d’un impact du réchauffement climatique : dans notre région, on commence à voir des perroquets ou des espèces de grosses perruches comme il s’en trouve dans les arbres des ramblas à Barcelone. Ces bestioles-là peuvent être transporteuses de tiques, de moustiques ou de parasites.

M. Patrick Abate, sénateur, membre de l’OPECST. – Je ne veux pas apparaître trop pessimiste mais on fait référence à la démoustication et aux opérations effectuées, il y a une cinquantaine ou une soixantaine d’années, à des endroits bien précis pour développer le tourisme puisqu’il était absolument impossible d’imaginer ce développement sans démoustiquer. Mais si l’on se démunit de toute possibilité d’intervention, à un moment donné, c’est nous qui allons mourir.

Mais, en même temps, on est bien conscient, si j’ai bien compris, que l’on n’est plus du tout face au même phénomène consistant à combattre les moustiques, qui seraient les dominants dans un endroit donné, pour que l’homme puisse s’y installer. Aujourd’hui, les choses ont changé et, du fait de la mondialisation des échanges et des hommes, nous sommes dans une situation où les moustiques viennent ici. Dans ces conditions, il faudrait épandre des insecticides à chaque vol d’avion, à chaque transport de marchandises par bateau. Il faudra sûrement avoir l’intelligence collective d’aborder ce problème autrement qu’avec les méthodes et les outils que l’on a connus dans le passé. Le parallèle ne peut pas tout à fait être établi entre la démoustication d’il y a cinquante ans et la situation d’aujourd’hui.

M. François Commeinhes. – La différence avec la situation d’il y a cinquante ans c’est que, à l’époque, il n’y avait pas de transmission, pas de problèmes sanitaires. Il y avait des moustiques qui piquaient, un point c’est tout. Il n’y avait pas de cas de dengue, de chikungunya, de syndrome de Guillain-Barré, de Zika alors que, actuellement, ce sont des pathologies que l’on voit chez nous régulièrement, qui ont été transmises localement et non contractées dans des pays d’outre-mer. Il s’agit d’un problème sanitaire. Et l’on commence à être confronté, dans les services hospitaliers universitaires, à des hospitalisations de plus en plus fréquentes. Il faut donc revoir l’approche du problème : avant, il s’agissait d’une question de confort et, maintenant, il s’agit d’une question sanitaire. Il importe de mesurer les avantages et les risques pour chaque département.

Mme Dominique Gillot, sénatrice, membre de l’OPECST. – Pourquoi, il y a cinquante ans, les moustiques n’étaient-ils perçus que comme désagréables et non comme vecteurs de maladie ? N’est-ce pas parce que, à cette époque, l’épidémiologie ne permettait pas de dépister les maladies dont ils étaient les vecteurs ? De nos jours, avec la mobilité des populations et celle des animaux, des moustiques nouveaux sont arrivés et vous disiez que, avec la déforestation, il y a aussi d’autres vecteurs qui peuvent intervenir.

Je voudrais vous citer les travaux qui ont été menés au Sénat dans le cadre de la délégation à la prospective sur les maladies infectieuses émergentes liées justement, dans les pays du Sud, à la déforestation. Les conclusions des scientifiques à cet égard étaient très inquiétantes. Non seulement les virus ne sont plus cantonnés dans les forêts mais ils entrent en contact avec les populations locales ; ces populations se déplaçant, des vecteurs peuvent amener ces virus chez nous. Il y a donc une stratégie de prévention, d’information et de traitement des maladies liées à ces bactéries ou ces virus qui est à l’étude aujourd’hui ; c’est vraiment quelque chose de très sérieux.

M. Bruno Sido. – Je l’ai lu mais ne l’ai pas vérifié, pardonnez-moi. Mais en 1939-1940, il y a eu une épidémie de malaria à Paris. Pourquoi ? Déjà, tout simplement parce qu’il avait peut-être fait plutôt chaud mais, surtout, du fait d’un brassage de populations et de soldats impaludés qui étaient arrivés à Paris. Le problème est que, avec le brassage actuel des populations, les maladies vont partout, et singulièrement dans le Sud de la France.

M. Gilbert Barbier, sénateur, membre de l’OPECST. – Au-delà de la gêne que le fait d’être piqué par les moustiques peut représenter, notamment pour les touristes, connaît-on le nombre de cas de maladies recensés dans le Sud de la France ? Existe-t-il un recensement dans l’étude qui nous est présentée du nombre de cas de syndrome de Guillain-Barré, de dengue ou autre dans les hôpitaux ?

M. François Commeinhes. – Les services hospitaliers disent qu’il y a une recrudescence du syndrome de Guillain-Barré. Pour les cas de dengue, je crois que, au CHU de Montpellier, par exemple, il y a une soixantaine de cas par an alors que, avant, il n’y en avait jamais.

M. Jean-Yves Le Déaut. – Merci à tous pour ces réflexions, je voudrais juste ajouter deux mots. Premièrement, le nombre d’interventions montre bien que ce sujet intéresse car presque tous les collègues présents ont pris la parole.

Deuxièmement, la mondialisation des échanges et des hommes entraîne une mondialisation des moustiques. Des espèces, qui n’étaient pas présentes à un moment donné, peuvent s’implanter en venant d’autres parties du monde. C’était le cas, sans doute, pendant la guerre, quand il y avait un brassage des populations, et c’est encore plus le cas aujourd’hui. De plus, comme les températures sont un petit peu plus élevées, moins de moustiques, moins de larves meurent en hiver et, donc, ces larves se maintiennent sur le territoire en des lieux où ces moustiques ne proliféraient pas antérieurement.

En cet instant, j’ai envie d’émettre une proposition, une sorte de testament, dans la mesure où notre collègue François Commeinhes n’a pas envisagé de conduire une étude au-delà de l’audition publique du 7 avril 2016. Cette audition a été très intéressante ; elle a permis de faire le point sur la situation mais a montré que beaucoup de questions restent pendantes. Ainsi que le préconisait tout à l’heure notre premier vice-président, Bruno Sido, je pense qu’il serait intéressant d’approfondir ces questions.

Comme une étude dure au moins une année, l’année prochaine ce ne seront plus les mêmes membres de l’Office qui seront autour de cette table. Mon testament consisterait à dire que ce sujet mérite quand même une étude plus poussée sur plusieurs points, dont ceux-ci : de quels moyens de lutte disposons-nous contre les maladies transmises par les moustiques ? Il existe déjà nombre de moyens de lutte mécanique mis en place avec le drainage, l’assainissement, le curage des rivières, des mares ou le recours à des moustiquaires.

Mais on a vu que les moustiques s’adaptent, aujourd’hui, aux produits qui imprègnent les moustiquaires et piquent plus tôt dans la journée. Ce qui veut dire que le moustique, au lieu de commencer à piquer vers vingt-et-une heure, pique maintenant dès dix-sept heures, lorsque vous n’êtes pas sous la moustiquaire. Par ailleurs, il faudrait être capable de mesurer les résistances aux moyens insecticides.

Les autres stratégies sont des moyens de lutte biologique, soit avec des agents pathogènes et des bactéries, et notamment celles du groupe des Wolbachia qui vont attaquer les moustiques.

En outre, il existe tous les moyens des biotechnologies. Avec Mme Catherine Procaccia, nous sommes allés aux États-Unis, à San Diego, dans un laboratoire qui travaille sur ce sujet (Gendrive) et qui a été capable d’introduire un gène de stérilité chez un moustique ou encore un autre gène qui peut, par exemple, empêcher, à un moment donné, un antibiotique d’agir ou, au contraire, le rendre efficace. Toutes sortes de gènes sont utiles dans cette lutte. Grâce au forçage de gène, pour le mettre sur les deux éléments de la paire de chromosomes d’un moustique initial, de façon qu’il soit transmis à la génération suivante, il devient possible que le gène d’intérêt aille automatiquement, par un système de copie, se mettre sur l’autre chromosome. Ce qui signifie que les moustiques vont transmettre une information donnée, qui peut être une information de stérilité, ou une information qui permet de lutter contre certaines maladies.

C’est déjà mis au point et cela pose beaucoup de problèmes. En effet, peut-on se permettre d’éteindre complètement des espèces au nom de la santé humaine ? Sans pouvoir répondre, aujourd’hui, à ce type de questions évoquées par le Président Sido, je pense qu’il serait possible de proposer, en félicitant d’abord les sénateurs Roland Courteau et François Commeinhes qui ont animé les tables-rondes de l’audition publique, qu’une étude plus complète de toutes ces questions puisse constituer un futur sujet d’étude de l’Office après le renouvellement de ses membres l’an prochain.

Je mets donc aux voix les conclusions de l’audition publique du 7 avril 2016. Elles sont adoptées à l’unanimité.

– Examen du projet d’étude de faisabilité relatif à la saisine sur l’intelligence artificielle, présenté par M. Claude de Ganay, député, et Mme Dominique Gillot, sénatrice

Mme Dominique Gillot, co-rapporteur. –  L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a été saisi, le 29 février 2016, par la commission des affaires économiques du Sénat, d’une étude sur l’intelligence artificielle. Lors de la réunion de l’Office tenue le 18 mai 2016, M. Claude de Ganay, député, et moi-même avons été désignés comme rapporteurs de cette étude. Dans ce contexte marqué par des délais contraints, nous avons réalisé l’étude de faisabilité qui vous a été distribuée. Je remercie l’administrateur qui nous a assisté, tant pour son investissement que pour sa diligence.

J’ai été sensibilisée aux enjeux de ce sujet par le colloque annuel de la conférence des présidents d’université (CPU) organisé l’année dernière autour du thème « Université 3.0 ». Deux lettres d’avertissement parues respectivement en janvier et en juillet 2015 ont également retenu mon attention. La première, signée par sept cents scientifiques et chefs d’entreprise, rejoints par plus de cinq mille signataires en un an, portait sur les dangers potentiels de l’intelligence artificielle. La seconde, signée par plus de mille personnalités, demandait l’interdiction des robots tueurs, à savoir les armes autonomes qui sélectionnent et combattent des cibles sans intervention humaine, arguant du fait que l’intelligence artificielle pourrait, à terme, être plus dangereuse que des ogives nucléaires.

Ces deux avertissements ont cherché à alerter l’opinion publique et à témoigner de l’urgence d’une définition de règles éthiques et d’une charte déontologique pour cadrer la recherche scientifique, qu’elle soit publique ou privée. En effet, les progrès en intelligence artificielle se font à une vitesse exponentielle et reposent de plus en plus sur un financement privé aux moyens considérables et poursuivant des objectifs parfois non avoués.

Lors de sa leçon inaugurale au Collège de France, le 4 février 2016, le Pr Yann LeCun, directeur du laboratoire d’intelligence artificielle de Facebook et professeur d’informatique et de neurosciences à l’université de New York, faisait valoir que « Comme toute technologie puissante, l’intelligence artificielle peut être utilisée pour le bénéfice de l’humanité entière ou pour le bénéfice d’un petit nombre aux dépens du plus grand nombre ». M. Stephen Hawking, professeur de mathématiques connu pour ses contributions dans les domaines de la cosmologie et la gravité quantique, a déclaré, l’année dernière, dans un entretien à la BBC que « Les formes d’intelligences que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ». En 2015, Bill Gates, le fondateur de Microsoft, s’est aussi inquiété des progrès de la super-intelligence : « Dans quelques décennies, l’intelligence sera suffisamment puissante pour poser des problèmes ».

En effet, l’actualité nous rappelle les résultats de plus en plus significatifs obtenus en intelligence artificielle mais aussi les risques liés à celle-ci :

- le premier accident responsable de la voiture autonome de Google, la « Google Car », a eu lieu le 14 février 2016 ;

- « Tay », un avatar algorithmique créé par Microsoft dans le but de conduire des conversations sur Twitter, est devenu raciste en miroir de ses interlocuteurs quelques heures après son activation, le 23 mars 2016 ;

- le 15 mars 2016, le système d’intelligence artificielle AlphaGo a battu le champion de Go, M. Lee Sedol. Cette victoire, médiatisée à juste titre, marque l’histoire des progrès en intelligence artificielle et contredit la thèse de ceux qui estimaient une telle victoire impossible, tant le jeu de Go exige une subtilité et une complexité propres à l’intelligence humaine.

Le sujet de l’intelligence artificielle alimente donc, de manière grandissante, des espoirs, des utopies, des fantasmes et des peurs, comme le montre une enquête d’opinion récente de l’IFOP présentée dans l’introduction de la présente étude de faisabilité.

L’Institut du futur de la vie ou Future of Life Institute (FLI), qui est à l’origine, en janvier 2015, de la lettre d’avertissement sur les dangers potentiels de l’intelligence artificielle, affirmait que, étant donné le grand potentiel de l’intelligence artificielle, « Il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges ».

La peur ne doit pas paralyser : nous ne voulons pas tomber dans la solution de facilité qui serait de faire un usage extensif du principe de précaution et donc de limiter, a priori, la recherche en intelligence artificielle. Une telle démarche serait contraire à l’esprit scientifique et serait également préjudiciable à l’intérêt national : sans rivaliser directement avec les États-Unis d’Amérique ou le Japon, la France dispose d’atouts considérables en matière de recherche en intelligence artificielle et ne doit pas perdre cet avantage comparatif, au risque de se placer hors-jeu dans la compétition internationale engagée.

L’OPECST ayant pour vocation d’anticiper les questions complexes d’ordre scientifique et technologique qui pourraient se poser au législateur, il lui revient de fournir des explications circonstanciées sur des enjeux dont les risques et les opportunités auraient été difficiles à identifier sans notre travail ou, alors, seraient restés dépourvus d’objectivité.

Or l’Office n’a jamais travaillé directement sur l’intelligence artificielle, ce qui plaide pour la poursuite de notre travail. Certains enjeux de l’intelligence artificielle, tels que son impact sur la santé, la protection des données ou les moyens de transport, ont pu être abordés et entrevus à l’occasion de certaines de nos études mais il semble nécessaire d’approfondir cette connaissance au moyen d’une étude plus poussée, surtout qu’aucun travail analogue n’a été conduit en dehors de l’OPECST.

Ainsi, d’après nos recherches, aucun rapport public ne fait le point sur les technologies d’intelligence artificielle ainsi que sur les opportunités et les risques qu’elles représentent. Différents travaux récents sur l’intelligence artificielle sont récapitulés dans notre étude mais ils ne sont pas de nature à dispenser l’OPECST d’engager une réflexion plus approfondie sur ce thème.

Comme le prévoit l’article 19 du règlement intérieur de l’OPECST, nous avons bénéficié du concours du Conseil scientifique de l’Office en prenant l’attache d’un de ses membres, M. Laurent Gouzènes, spécialiste en intelligence artificielle.

L’objectif de notre rapport sera donc d’aller au-delà des apparences et de regarder la réalité scientifique derrière les inquiétudes et angoisses s’exprimant face au développement de l’intelligence artificielle. Le débat public ne peut pas s’engager sereinement dans l’ignorance des technologies mises en œuvre, de la méthode scientifique et des principes de l’intelligence artificielle. Lors de la victoire d’Alphago, une fièvre médiatique a, par exemple, conduit à dire tout et n’importe quoi. C’est pourquoi nous voulons mettre en lumière ces technologies en constante évolution.

Nous nous demandons aussi comment développer une culture de la responsabilité et une prise en compte des questions éthiques au sein de la communauté des chercheurs en intelligence artificielle et en robotique et même au-delà. La question de l’éthique en robotique a, d’ailleurs, fait l’objet du premier rapport de la commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) de l’alliance des sciences et technologies du numérique (Allistene). Il ne faut jamais oublier que « science sans conscience n’est que ruine de l’âme », ainsi que l’affirmait Rabelais.

Vous trouverez, dans notre étude, un point sur les technologies existantes d’intelligence artificielle. Il faut en retenir que les techniques utilisées sont très diverses, ce qui traduit la variété des formes d’intelligence en général. Elles vont de formes explicites à des formes plus implicites. Ainsi, du côté des formes explicites, nous rappelons les cas des systèmes experts et des raisonnements formels, qui correspondent à diverses logiques ou grammaires. Les formes plus implicites partent de la difficulté liée aux algorithmes classiques de gérer la complexité : l’explosion combinatoire des comportements possibles justifie de confier à des programmes le soin d’ajuster un modèle adaptatif permettant de simplifier cette complexité et de l’utiliser de manière opérationnelle en prenant en compte l’évolution de la base des informations pour lesquelles les comportements en réponse ont été validés.

On parle d’apprentissage automatique, ou machine learning, lorsque les ordinateurs peuvent apprendre et améliorer le système d’analyse ou de réponse. Cet apprentissage est dit supervisé lorsque le réseau est forcé à converger vers un état final précis. À l’inverse, lors d’un apprentissage non-supervisé, le réseau est laissé libre de converger vers n’importe quel état final. Entre ces deux extrêmes, l’apprentissage peut-être semi-supervisé ou partiellement supervisé. L’apprentissage automatique peut aussi reposer sur deux autres systèmes : l’apprentissage par renforcement et l’apprentissage par transfert.

Les algorithmes génétiques et les réseaux de neurones prennent en compte l’apprentissage de manière encore plus implicite.

Les algorithmes génétiques appliquent ainsi les mécanismes fondamentaux de l’évolution et de la sélection naturelle à des problèmes d’optimisation. On code les caractéristiques des objets manipulés et on définit une fonction qui évalue la valeur attribuée à chaque objet. On fait évoluer une population initiale en créant de nouveaux objets à partir des anciens et en permettant diverses mutations. La sélection permet alors d’éliminer les objets les moins efficaces.

Un réseau de neurones artificiels est constitué d’un ensemble d’éléments interconnectés, chacun ayant des entrées et des sorties numériques. Le comportement d’un neurone dépend de la somme pondérée de ses valeurs d’entrée. Si cette somme dépasse un certain seuil, la sortie prend une valeur positive ; sinon, elle reste nulle. Un réseau peut comporter une couche d’entrée (les données), une de sortie (les résultats) et une ou plusieurs couches intermédiaires, avec ou sans boucles. Les réseaux de neurones artificiels peuvent être à apprentissage supervisé ou non – ils sont le plus souvent supervisés, comme dans le cas du Perceptron conçu en 1957 par Frank Rosenblatt – avec ou sans rétro-propagation.

L’apprentissage profond, ou deep learning, regroupe des méthodes plus récentes d’apprentissage automatique, ou machine learning. Les réseaux de neurones profonds et les réseaux de neurones convolutifs sont des exemples d’architectures d’apprentissage profond.

Trois autres outils d’intelligence artificielle peuvent, enfin, être rappelés ici. La programmation par contraintes, qui se rapproche plus d’un raisonnement humain, les raisonnements à base de cas, qui se fondent sur la notion d’analogie et, enfin, les systèmes multi-agents, qui représentent une forme d’intelligence plus sociale.

Comme vous pouvez le voir aux pages 35 et 36 de l’étude, les outils d’intelligence artificielle sont de plus en plus systématiquement utilisés conjointement en combinant plusieurs techniques.

Ces outils se sont développés, ces dernières années, avec l’explosion du traitement des données massives, ou big data, et l’augmentation des vitesses de calcul, ainsi qu’en témoigne la loi de Moore, qui exprime une croissance exponentielle illustrée par un graphique dans notre étude.

La recherche française en intelligence artificielle est reconnue. Dans les années 1980, Claude-François Picard animait le « GR 22 ». MM. Jacques Pitrat, Jean-Louis Laurière, Jean-François Perrot et Jean-Charles Pomerol y ont, par exemple, travaillé. En  1987, il a pris le nom de LAboratoire FORmes et Intelligence Artificielle (LAFORIA) puis a rejoint l’Institut Blaise Pascal (IBP) en  1989, qui a lui-même donné naissance, en 1997, au Laboratoire d’Informatique de l’université Paris 6 dit « LIP6 ». La reconnaissance internationale de nos travaux doit beaucoup à nos universités, au CNRS, à nos grandes écoles, telles que les centres de recherche de l’Institut Mines-Télécom mais aussi, plus spécifiquement, à deux organismes : le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et l’Institut national de recherche en informatique et en automatique (INRIA). Les principaux laboratoires du CNRS en intelligence artificielle sont rappelés dans notre étude.

Pour conclure et avant de laisser la parole à notre collègue, le député Claude de Ganay, je retiens de notre tableau de la recherche en intelligence artificielle qu’il conviendra de tirer toutes les conséquences du caractère pluridisciplinaire croissant de la recherche en intelligence artificielle et répondre au défi de la prise en compte des enjeux de long terme. À propos de l’interdisciplinarité, je relève que l’intelligence artificielle, issue des mathématiques, de la logique et de l’informatique, fait, depuis des décennies, de plus en plus appel à la psychologie, à la linguistique, à la neurobiologie, à la neuropsychologie et au design. Dans la période plus récente, elle s’ancre encore davantage dans les sciences cognitives et mobilise les outils de la génétique et de la sociologie. D’ailleurs, c’est au croisement de ces différentes disciplines que nous avons été amenés à entendre parler des enjeux de l’intelligence artificielle.

M. Claude de Ganay, co-rapporteur. – Je remercie notre collègue sénateur, Mme Dominique Gillot, pour cette présentation déjà bien complète. Je vais, pour ma part, vous parler de la suite de l’étude de faisabilité, qui traite de façon prospective des nouveaux développements en matière d’intelligence artificielle et de leurs limites, de la délimitation du champ de nos futures investigations et, enfin, du cadre de travail envisagé, c’est-à-dire des méthodes d’investigation retenues et des moyens à mobiliser pour l’étude.

S’agissant tout d’abord des nouveaux développements, nous avons relevé que, en apprentissage profond, ou deep learning, deux technologies, imaginées à la fin des années 1980 et au début des années 1990, font l’objet d’investigations particulièrement poussées depuis trois ans : les réseaux neuronaux à convolution et les réseaux neuronaux récurrents. Et, au-delà de ces deux techniques et d’autres futures découvertes qui profiteront aux neurosciences et rétroagiront très probablement avec la recherche en intelligence artificielle dans un cercle vertueux, le défi scientifique auquel les chercheurs doivent s’atteler, c’est, pour le Pr Yann LeCun, celui de l’apprentissage non supervisé alors que l’apprentissage machine reste le plus souvent supervisé : on apprend aux ordinateurs à reconnaître l’image d’une voiture en leur montrant des milliers d’images et en les corrigeant quand ils font des erreurs. Or les humains découvrent le monde de façon non supervisée. En gros, tant que le problème de l’apprentissage non-supervisé ne sera pas résolu, nous n’aurons pas de machines vraiment intelligentes.

Comprendre l’intelligence reste une des grandes questions scientifiques de notre temps, au-delà même des progrès et des limites de l’intelligence artificielle, et la conception de machines intelligente nécessitera la collaboration ouverte de la communauté de la recherche toute entière. Les machines du futur seront très vraisemblablement dotées, selon le Pr Yann LeCun, de sentiments, de plaisirs, de peurs et de valeurs morales. Cette perspective mérite qu’on s’y attarde car, comme l’indiquent MM. Rodolphe Gélin et Olivier Guilhem, respectivement directeur scientifique et directeur juridique d’Aldebaran puis de Softbank robotics, « La modélisation des émotions est une tâche presque plus facile que l’ensemble des problèmes que les roboticiens ont eu à régler (…), le robot qui utilisera (les techniques de perception des émotions) pourra quasiment lire à livre ouvert les émotions de son interlocuteur ». La perception et l’expression d’émotions devraient bientôt devenir des réalités, or les robots sauront jouer sur les émotions, ce qui pourra se rapprocher d’une forme de manipulation. En plus de pouvoir nous tromper, les systèmes d’intelligence artificielle risquent d’encourager la création de liens affectifs disproportionnés entre l’homme et la machine.

L’autre rupture qui reste possible est celle de la « singularité technologique », appelée aussi simplement singularité, nom que des écrivains et des chercheurs en intelligence artificielle ont donné au passage de l’intelligence artificielle faible à l’intelligence artificielle forte, qui serait un tournant hypothétique supérieur dans l’évolution technologique. Les progrès en matière d’intelligence artificielle, en particulier avec l’apprentissage profond, sont réels mais ne permettent pas de garantir la capacité à créer, au cours des prochaines décennies, une super-intelligence dépassant l’ensemble des capacités humaines.

Nier la possibilité d’une intelligence artificielle forte n’a pas de sens ; toutefois, se prononcer sur son imminence ou sur le calendrier précis de son avènement semble tout aussi peu raisonnable. Par exemple, en s’appuyant sur la loi de Moore, Ray Kurzweil prédit que les machines rivalisant avec l’intelligence humaine existeront avant l’année 2030. Il faut avoir en tête que cela peut arriver tôt ou tard mais sans doute pas dans un délai aussi court. Quoiqu’il en soit, des différences notables ne manqueront pas de demeurer entre cette future et hypothétique intelligence artificielle forte et l’intelligence humaine.

M. Jean-Claude Heudin, directeur de l’Institut de l’Internet et du multimédia, a effectué une comparaison entre le cerveau humain et l’état actuel des connaissances en matière de réseaux neuro-mimétiques. Il montre que les écarts sont encore vraiment considérables, comme vous pouvez le voir dans notre étude. L’intelligence artificielle forte, qui agira sur la base de ce qu’elle sait, devra relever le défi d’agir sans savoir puisque, comme l’affirmait le biologiste, psychologue et épistémologue Jean Piaget : « L’intelligence, ça n’est pas ce que l’on sait, mais ce que l’on fait quand on ne sait pas ».

Après cet essai de prospective scientifique, je voudrais faire un peu de prospective sociologique pour aborder la question de l’acceptabilité sociale de l’intelligence artificielle et celui de sa régulation. L’enjeu de la cohabitation quotidienne avec des intelligences artificielles, de leur acceptation et de leur régulation devra être appréhendé. Les géants de l’Internet s’apprêtent à diffuser de nombreux produits connectés recourant à l’intelligence artificielle, faisant ainsi, peut-être, advenir un monde inédit qui n’aura pas été anticipé, délibéré et choisi. Cependant il ne faut pas tomber dans l’illusion du « jamais vu », ce qui invite à relativiser la nouveauté de l’aide apportée par l’intelligence artificielle, la découverte d’autres outils complexes ayant jalonné l’histoire des civilisations humaines. M. Michel Volle rappelle ainsi que « Des machines remplacent nos jambes (bateau, bicyclette, automobile, avion), des prothèses assistent nos sens (lunettes, appareils acoustiques, téléphones, télévision). L’élevage et l’agriculture pratiquent la manipulation génétique, depuis le néolithique, par la sélection des espèces. La bionique, l’intelligence artificielle ne font que s’ajouter aujourd’hui au catalogue des prothèses qui assistent nos activités physiques ou mentales ».

Toutefois, quand bien même l’illusion du « jamais vu » doit être dénoncée, il convient d’éviter aussi l’écueil du « toujours ainsi ». L’intelligence artificielle entre dystopie technologique et utopie transhumaniste représente un outil à l’autonomie croissante et qui pose de nouvelles questions. Quelles règles éthiques et juridiques définir ? La Corée du Sud s’est ainsi inspirée des lois d’Asimov pour rédiger un projet de charte sur l’éthique des robots, dans le but « d’éviter les problèmes de société qui pourraient découler de mesures sociales et juridiques inadéquates prises pour encadrer l’existence de robots dans la société ».

En France, l’avocat Alain Bensoussan milite en faveur de l’adoption d’un droit des robots au sein de l’association pour le droit des robots qu’il préside – nous n’avons pas encore forgé notre opinion sur ces propositions. Il a ainsi rédigé un projet de charte des droits des robots qui fait de ces derniers des êtres artificiels dotés d’une personnalité juridique particulière et d’un droit à la dignité. Il réfléchit également aux implications en matière de responsabilité et d’assurance. En outre, il demande à ce que tout robot dispose de systèmes de sécurité permettant un arrêt d’urgence. Cette dernière proposition retient tout particulièrement notre attention car il semble nécessaire de toujours pouvoir arrêter une intelligence artificielle, qu’il s’agisse d’un système informatique ou de son incorporation dans un robot. La réversibilité du fonctionnement d’une intelligence artificielle est essentielle. En 2016, Google a également posé la question du manque de contrôle potentiel d’agents apprenants qui pourraient apprendre à empêcher leur interruption dans une tâche. C’est dans ce sens que la firme développe un « bouton rouge » permettant la désactivation des intelligences artificielles.

Pour la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA), la question du débrayage de certaines fonctions autonomes, voire de la mise hors service du robot par l’utilisateur, est centrale. Elle se demande ainsi : « Quand et comment l’utilisateur peut-il éteindre des fonctions du robot, voire le robot lui-même ? Le robot peut-il ou doit-il empêcher ces extinctions, dans quelles circonstances et sur quelles bases objectives ? ».

Je relève que certains veulent aller plus loin que pouvoir désactiver une intelligence artificielle, ils veulent débrancher toute intelligence de ce type. Une association française contre l’intelligence artificielle (AFCIA) a même été fondée le 18 juillet 2015. Elle juge « illégitime et dangereuse la recherche scientifique visant à créer des organismes à IA suprahumaine » et considère que le seul moyen « d’éviter un avenir funeste pour l’humanité est d’obtenir l’interdiction légale de la recherche en IA à l’échelle mondiale ».

Pour ce qui concerne la délimitation du champ de nos futures investigations, je rappelle que nous allons devoir conduire notre travail dans la perspective d’une année électorale 2017 particulièrement chargée, au cours de laquelle chacun des deux rapporteurs est renouvelable : nos investigations devront, en effet, s’inscrire dans une période qui précède une année d’élections présidentielles, législatives et sénatoriales.

Si l’on met de côté les deux mois d’été, la période utile est d’environ six mois, au lieu d’un an minimum habituellement pour les rapports de l’OPECST. Un tel contexte rend difficile l’élaboration d’un rapport faisant un point complet sur l’ensemble des questions posées par l’intelligence artificielle.

Nous ne voulons donc aucunement prétendre épuiser le sujet et nous souhaitons faire de ce rapport un travail exploratoire sur un thème aux enjeux très diversifiés, tout autant scientifiques et technologiques que politiques, éthiques, juridiques, médicaux, militaires ou économiques. Compte tenu de ces délais contraints, il est nécessaire de ne retenir que certaines problématiques du champ de l’intelligence artificielle dans la conduite de nos investigations, en ayant le souci d’optimiser la plus-value relative du futur rapport.

Comme vous pouvez le voir dans notre étude, nous avons distingué neuf domaines d’investigation parmi les différents thèmes pouvant être circonscrits et nous avons choisi de traiter de manière prioritaire la recherche publique et privée en intelligence artificielle ainsi que les enjeux philosophiques, politiques, juridiques et éducatifs de cette intelligence. Les aspects scientifiques et technologiques constituant le cœur de métier de l’OPECST et sa plus-value par rapport aux autres commissions et délégations, ils ne peuvent être écartés. La place considérable prise par la recherche privée pose la question des enjeux de pouvoir et de sécurité par rapport à la recherche publique. Elle touche même les problématiques de souveraineté et d’indépendance nationale, d’autant plus que la colonisation numérique américaine est une réalité incontestable.

De même, les enjeux philosophiques, éthiques, politiques, juridiques et éducatifs de l’intelligence artificielle soulèvent des questions essentielles. Les identifier permettra de dépasser les peurs et les inquiétudes pointées dans l’introduction de la présente étude de faisabilité en vue d’engager un débat public plus serein à ce sujet.

Nous choisissons donc de mettre de côté différents aspects en motivant nos choix dans l’étude. Ainsi, nous écartons les enjeux strictement économiques, industriels et financiers de l’intelligence artificielle, parce que ce domaine correspond assez peu à la mission et à la plus-value attendue de l’OPECST, que la commission des finances du Sénat a déjà travaillé sur le trading à haute fréquence (THF), ou « high frequency trading » (HFT), que le débat sur les aspects économiques du numérique ne sont pas propres à l’intelligence artificielle et sachant enfin que, en matière de moyens de transports, le Gouvernement s’est vu confier la tâche de déterminer le régime juridique applicable aux voitures autonomes et qu’il n’y a donc pas lieu, pour l’OPECST, d’interférer avec cette mission de l’exécutif.

Par ailleurs, nous sommes convaincus que l’intelligence artificielle sera très bénéfique aux technologies médicales mais cet aspect a déjà été traité à plusieurs reprises par l’OPECST. Notamment, l’année dernière, par un rapport de Mme Catherine Procaccia, sénateur, et M. Gérard Bapt, député, sur le « numérique au service de la santé »1.

Les usages de l’intelligence artificielle pour la défense et les technologies militaires peuvent être écartés pour deux raisons : d’une part, il s’agit d’un sujet qui relève assez largement du droit international et à propos duquel le Parlement est peu compétent et, d’autre part, l’accès à l’information sera rendu extrêmement difficile compte-tenu de la sensibilité du sujet.

En bref, l’angle d’entrée le plus fécond nous semble donc être de mettre l’accent sur les enjeux éthiques car ils permettent d’aborder, de manière transversale, les aspects retenus de manière prioritaire – à savoir la recherche publique et privée ainsi que les enjeux philosophiques, politiques, juridiques et éducatifs de l’intelligence artificielle. Derrière une focalisation sur l’éthique de l’intelligence artificielle, il sera, en effet, possible de poursuivre des investigations dans chacun de ces sous-domaines, en mettant en évidence les opportunités et les risques que représente l’intelligence artificielle. Cette réflexion éthique doit être conduite au sens large et englober, à la fois, l’éthique de la recherche en intelligence artificielle et l’éthique des robots intelligents.

En résumé, il est essentiel de savoir anticiper les problèmes potentiels posés par l’intelligence artificielle. La place de ces machines, notre dépendance à leur égard et la maîtrise que nous conservons de leur évolution sont des questions qui méritent d’être débattues dès aujourd’hui.

La réflexion sur les enjeux éthiques de l’intelligence artificielle doit clarifier le cadre dans lequel s’inscrit la recherche en intelligence artificielle ainsi que les limites éventuelles à fixer à l’intelligence artificielle. Pour l’académicien des sciences, M. Gérard  Sabah, l’éthique de l’intelligence artificielle doit se prononcer sur « les impacts de telles machines sur la vie privée, sociale, politique et économique, ainsi que les valeurs qui les sous-tendent et celles qu’elles impliquent. La société doit définir clairement les limites acceptables entre la science et la fiction, le progrès et les risques encourus, afin de préserver notre identité et notre liberté ».

Pour la CERNA, dans son rapport sur l’éthique de la recherche en robotique, le respect de la vie privée doit être une priorité, dans la mesure où les systèmes d’intelligence artificielle et les robots posent de nouvelles difficultés. La CERNA a ainsi formulé neuf préconisations générales, sept sur l’autonomie, cinq sur l’imitation du vivant et quatre sur l’homme augmenté ; elles sont rappelées dans notre étude.

S’agissant des aspects juridiques, nous pourrons faire de la prospective concernant l’autorisation de commercialisation ou le régime de responsabilité applicable. Mettre en place une responsabilité en cascade, instituer des systèmes d’assurance spécifique ou reconnaître une personnalité juridique des robots sont des pistes innovantes que nous n’avons pas encore explorées. Mais à qui faudra-t-il accorder la personnalité juridique : au robot dans son ensemble ou à son intelligence artificielle ? Dans la mesure où le système d’intelligence artificielle pourra migrer d’un corps robotique à un autre, la partie physique du robot ne serait qu’un contenant destiné à recevoir, pour un temps donné, un système. Il pourrait donc être opportun d’opérer une discrimination entre la partie physique et la partie informatique du robot en vue de les soumettre à des régimes juridiques différents, notamment en matière de responsabilité. Il faudrait alors pouvoir, tel l’historien Ernst Kantorowicz distinguant les deux corps du roi, discerner les deux corps du robot.

Dans le contexte que nous vous avons présenté, nous proposons à la fois de ne pas constituer de groupe de travail auprès de nous, de mener des auditions bilatérales, d’organiser deux auditions publiques d’une journée sous la forme de tables rondes, de recourir à un expert et de prévoir des déplacements en France, en Europe et aux États-Unis d’Amérique. Sous réserve d’approbation de la présente étude par les membres de l’OPECST, l’engagement de dépenses afférent sera soumis en juillet 2016 aux Questeurs de l’Assemblée nationale, puis aux Questeurs du Sénat.

M. Jean Yves Le Déaut, président. – Je voudrais vous féliciter car c’est presque déjà un rapport que vous nous avez présenté. Vous avez raison de centrer l’étude sur certains points. J’indique que deux rapports sont en cours de préparation sur des sujets voisins, l’un au Parlement européen sous la houlette de Mme Maddy Delvaux, l’autre à l’Assemblée parlementaire du Conseil de l’Europe dont je m’occupe personnellement. Nous aurons donc des démarches à coordonner.

Je vous propose de revenir à l’idée de constituer un groupe de travail pour ce rapport. Les rapporteurs craignaient, ai-je compris, d’avoir à le réunir constamment, or il n’en est rien. Il serait suffisant de le réunir une fois au début et une fois à la fin. Une telle démarche permettrait de conserver le rôle de passerelle de l’OPECST avec le monde scientifique et ses organismes. Je juge aussi utile que vous puissiez recourir à un ou plusieurs experts en plus de ce groupe de travail. Conformément à notre règlement intérieur, vous pouvez le proposer et j’en décide. La question du mode d’insertion du travail des experts dans le rapport se pose ensuite.

Mme Dominique Gillot, co-rapporteur. – Nous n’avions pas envisagé de faire appel à un groupe de travail. Les deux rapporteurs échangent déjà avec des chercheurs et avec des responsables de grands organismes de recherche. Le plus utile pour nous serait d’avoir l’aide d’un ou de deux experts et non pas de susciter des querelles d’experts au sein d’un groupe de travail. Nous pensons, de plus, qu’un tel groupe nous contraindrait alors que nous voulons mener notre étude comme des Béotiens. Nous ne sommes pas des scientifiques mais des curieux, des honnêtes hommes au sens du XVIIe siècle. Recourir à un ou deux experts nous sera utile mais nous reposer sur un groupe de travail nous fait courir le risque d’être trop guidés. Ce sera une contrainte au niveau du temps comme du point de vue intellectuel.

M. Claude de Ganay, co-rapporteur. – Nous nous étions, en effet, calés sur un schéma sans groupe de travail car notre calendrier est très contraint. Il faudrait réunir le groupe de travail, or ce sera compliqué. Nous sommes ouverts, nous consulterons, nous organiserons des tables rondes mais en restant libres, sans idées préconçues.

M. Jean Yves Le Déaut, président. – Je vais ré-insister. Je croyais que nous étions d’accord. À une ou deux exceptions près, nous avons une méthode de travail pour la préparation des rapports de l’Office. Mme Delphine Bataille vient encore de la suivre récemment avec M. Patrick Hetzel pour leur rapport sur les terres rares.

Mme Delphine Bataille. – Effectivement, vous choisissez quelques personnes, vous les réunissez et, ensuite, elles viennent ou ne viennent pas. Peu importe, au fond, elles apprécient en tant que scientifiques de se rencontrer et d’échanger, pas seulement avec vous mais entre elles.

M. Claude de Ganay, co-rapporteur. – Nous voulons être libres. C’est important d’avoir une caution mais il ne faudrait pas que les scientifiques nous brident.

M. Jean Yves Le Déaut, président. – L’avantage d’un groupe de travail, c’est que des spécialistes viennent mettre leurs noms sur le rapport, ça cautionne davantage. Et ce n’est pas exclusif de faire appel à un ou deux experts.

M. Claude de Ganay, co-rapporteur. – Je précise que le pré-rapport de Mme Maddy Delvaux a été rendu public le 31 mai 2016.

M. Jean Yves Le Déaut, président. – Je soumets au vote l’étude de faisabilité qui nous a été présentée. Elle est approuvée à l’unanimité.

– Nomination de rapporteurs sur « L’évaluation du Plan national de gestion des matières et des déchets radioactifs 2016-2018 » (PNGMDR)

M. Jean-Yves Le Déaut, président. – Je rappelle que l’évaluation triennale du Plan national de la gestion des matières et des déchets radioactifs 2016-2018 (PNGMDR) est prévue par l’article 6 de la loi du 28 juin 2006. Je propose la candidature des deux rapporteurs du précédent rapport d’évaluation en 2014 du PNGMDR 2013-2015, à savoir nos collègues, tous deux vice-présidents de l’Office, M. Christian Bataille, député, et M. Christian Namy, sénateur.

M. Bruno Sido sénateur, vice-président. – Je voudrais attirer l’attention sur la difficulté croissante de nommer des parlementaires compétents sur les sujets touchant à l’énergie nucléaire, nos collègues Christian Bataille et Christian Namy ayant, dans le cas considéré, une compétence incontestable. J’en veux pour preuve les critiques récentes formulées par la presse à l’encontre de la désignation de M. Christophe Bouillon, député mais aussi président de l’Agence nationale pour la gestion des déchets radioactifs (ANDRA), comme rapporteur de la proposition de loi relative au Centre industriel de stockage géologique (CIGEO), soulignant son lien direct avec l’opération industrielle en question alors qu’il n’y a là nulle matière à conflit d’intérêts. Le souci de l’indépendance ne doit pas faire oublier l’exigence de compétence.

M. Jean-Yves Le Déaut, président. – Je partage pleinement cette analyse. M. Christophe Bouillon doit sa compétence sur le sujet à un rapport qu’il a rendu au nom de la commission du développement durable avec son collègue Julien Aubert. Notre préférence pour la désignation du rapporteur allait à un autre collègue, membre de l’OPECST et auteur de plusieurs rapports sur le sujet mais telle n’est pas la solution qui a prévalu. La proposition de loi en question a été conçue au sein de l’OPECST et déposée parallèlement sous mon nom et celui de M. Christian Bataille à l’Assemblée nationale et sous ceux de MM. Gérard Longuet et Christian Namy, avec le soutien du président Bruno Sido, au Sénat. C’est ce dernier texte qui vient prochainement en discussion à l’Assemblée nationale, modifié par l’adoption de plusieurs excellents amendements, dont un de notre collègue sénateur, M. Patrick Abate. Les députés membres de l’OPECST vont soutenir son adoption conforme par l’Assemblée nationale, en rendant publiquement hommage à la qualité du travail effectué par leurs collègues sénateurs membres de l’OPECST.

– Nomination d’un rapporteur pour l’évaluation de la stratégie nationale de recherche en énergie

M. Jean-Yves Le Déaut, président. – La stratégie nationale de recherche en énergie est prévue par la loi sur la transition énergétique du 17 août 2015, en tant que volet sur l’énergie de la stratégie nationale de recherche – c’est l’objet du nouvel article L. 144-1 du code de l’énergie, sachant qu’une version provisoire de cette stratégie devrait être disponible en août 2016.

Comme c’était le cas dans le cadre de la loi du 13 juillet 2005, l’OPECST est donc amené à en réaliser une évaluation, au titre de la mission d’évaluation de la stratégie nationale de recherche qui lui est confiée par l’article 15 de la loi du 22 juillet 2013 sur l’enseignement supérieur et la recherche. Cette évaluation pourra intégrer l’apport constitué par l’audition publique du 26 mai sur « Les enjeux technologiques de l’intégration des énergies renouvelables au réseau électrique » qui en a anticipé plusieurs aspects. Notre collègue Mme Anne-Yvonne Le Dain, s’était portée candidate pour mener une étude sur les différents gisements d’économies d’énergie présents au sein du système de distribution d’énergie actuel. Si vous en êtes d’accord, elle pourrait conduire la partie de l’évaluation de la stratégie nationale de recherche relative à l’énergie, afin notamment de dresser un bilan des possibilités technologiques d’optimisation de l’utilisation de l’énergie disponible.

– Renouvellement de la Commission nationale d’évaluation des recherches et études relatives à la gestion des matières et déchets radioactifs (CNE2)

M. Jean-Yves Le Déaut, président. – L’article L. 542-3 du code de l’environnement prévoit que six personnalités qualifiées, dont au moins deux experts internationaux, désignés à parité par l’Assemblée nationale et le Sénat, siègent pour un mandat de six ans, renouvelable une fois au sein de la Commission nationale d’évaluation des recherches et études relatives à la gestion des matières et déchets radioactifs (CNE2). Cette commission a été créée par la loi de 1991, dite loi Bataille et reconduite sous une forme renouvelée par la loi sur les matières et déchets radioactifs de 2006.

Le président Claude Bartolone m’a informé que les mandats de deux de ces personnalités qualifiées, MM. Maurice Leroy, professeur émérite à l’université de Strasbourg, et Hubert Doubre, professeur émérite à l’université Paris XI, malheureusement décédé, arriveraient à expiration le 20 juillet prochain. Cela n’a pas constitué une surprise puisque j’avais moi-même relancé, au mois d’avril dernier, la ministre de l’écologie à ce sujet, pour éviter que ce renouvellement ne traîne en longueur, comme cela avait été le cas pour le HCTISN. Elle m’a d’ailleurs aussitôt indiqué qu’elle demandait à son administration d’engager les démarches nécessaires. M. Maurice Leroy en étant à son premier mandat et ayant donné toute satisfaction au sein de la commission dont il assure la vice-présidence, je propose de le reconduire. Pour remplacer M. Hubert Doubre, le président de la CNE2 m’a suggéré de nommer M. José Luis Martinez Pena, éminent physicien espagnol et directeur du centre ESS-Bilbao, qui assure le développement de plusieurs composants de la future source européenne de spallation (European Spallation Source, en anglais) qui sera construite à Lund, en Suède, à l’horizon 2025. Je pense que nous sommes tous d’accord pour ces désignations.

– Remplacement des démissionnaires dans les organismes extra-parlementaires

M. Jean-Yves Le Déaut, président. – À la suite des démissions de l’Office de M. Denis Baupin, député, et de Mme Marie-Christine Blandin, sénateur, certains postes prévus pour des membres de l’Office sont désormais occupés par deux parlementaires qui n’en sont plus membres.

Il s’agit notamment :

- du Comité d’orientation des recherches en sécurité nucléaire et en radioprotection de l’IRSN (M. Denis Baupin) ;

- du Groupe permanent d’experts pour les équipements sous pression nucléaires de l’ASN (M. Denis Baupin) ;

- du Comité d’orientation stratégique de la Fondation pour la recherche sur la biodiversité (Mme Marie-Christine Blandin).

Dans les trois cas, il s’agit d’instances auxquelles la procédure de nomination est infra-réglementaire et relève d’un simple échange de courriers avec les instances concernées.

Dans la mesure où nos anciens collègues y représentent le Parlement autant que l’Office et où ils ont manifesté un intérêt particulier pour les questions débattues, ce qui est un gage de présence dans les instances concernées, on pourrait décider de reporter leur remplacement dans ces instances à la fin de leur mandat, sauf si des membres actuels de l’Office montrent un intérêt particulier pour ces instances.

M. Bruno Sido, vice-président. – Mme Marie-Christine Blandin ayant été remplacée au Sénat par M. Hervé Poher, nous pourrions peut-être proposer à celui-ci de reprendre la place de sa prédécessrice au sein du comité d’orientation stratégique de la Fondation pour la recherche sur la biodiversité.

M. Jean-Yves Le Déaut, président. – C’est une excellente idée mais nous n’avons pas de solution équivalente à l’Assemblée nationale pour prendre la suite de M. Denis Baupin, puisque le groupe des écologistes y a disparu.

La séance est levée à 20h30

Membres présents ou excusés

Office parlementaire d'évaluation des choix scientifiques et technologiques

Réunion du mardi 28 juin 2016 à 18 h 30

Députés

Présents. - M. Christian Bataille, M. Claude de Ganay, M. Jean-Yves Le Déaut, M. Jean-Louis Touraine

Excusés. - M. Alain Claeys, M. Alain Marty, Mme Dominique Orliac, M. Jean-Sébastien Vialatte

Sénateurs

Présents. - M. Patrick Abate, M. Gilbert Barbier, Mme Delphine Bataille, M. François Commeinhes, M. Roland Courteau, Mme Dominique Gillot, M. Christian Namy, Mme Catherine Procaccia, M. Bruno Sido

Excusés. - M. Michel Berson, Mme Catherine Génisson, M. Alain Houpert, Mme Fabienne Keller, M. Gérard Longuet, M. Pierre Médevielle, M. Franck Montaugé

1 Rapport n° 465 (2014-2015) Sénat et n° 2801 Assemblée nationale (quatorzième législature).