Compte rendu

Commission d’enquête concernant l’organisation des élections en France

– Audition, ouverte à la presse, de M. Jean-Yves Dormagen, président de Cluster17 2

– Présences en réunion................................17

 


Mercredi
7 mai 2025

Séance de 18 heures 30

Compte rendu n° 38

session ordinaire de 2024-2025

Présidence de
Mme Éléonore Caroit,
Vice-Présidente de la commission

 


  1 

La séance est ouverte à dix-huit heures quarante-cinq.

 

Mme Eléonore Caroit, présidente. Après la table ronde du 26 mars dernier, M. le rapporteur a souhaité revoir en audition individuelle les représentants de plusieurs instituts de sondage. C’est à ce titre que nous vous accueillons, monsieur Dormagen.

Avant de laisser la parole au rapporteur, je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958, relative au fonctionnement des assemblées parlementaires, impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Jean-Yves Dormagen prête serment.)

M. Antoine Léaument, rapporteur. Ne voyez pas d’acharnement dans cette troisième convocation. Aujourd’hui, je souhaite vous interroger sur Cluster17, nouveau venu dans le monde des sondages. Vous avez choisi d’adopter une méthode différente de celle de vos concurrents, en construisant dix-sept clusters. Comment en êtes-vous venu à cette idée ? Que tentez-vous de corriger, par rapport aux autres méthodes ? Qu’est-ce que votre méthode particulière peut apporter d’intéressant ou de différent ? En l’occurrence, vos sondages ont été, dans l’ensemble, plus proches du résultat final des élections que ceux de nombre de vos concurrents.

M. Jean-Yves Dormagen, président de Cluster17. Je suis ravi d’échanger une troisième fois avec vous. Nous avons d’abord parlé de participation électorale et de dispositifs démocratiques, sujets sur lesquels j’ai travaillé durant plus de vingt ans. Les sondages sont une autre de mes passions, et constituent désormais le cœur de mon activité.

Avant de répondre à vos questions, je voudrais lever une ambiguïté. La clustérisation intervient assez peu dans la constitution des sondages et dans la méthode d’échantillonnage et de production des résultats. On surestime parfois le caractère innovant de notre approche, de ce point de vue. Or nous sondons de manière assez classique, selon la méthode des quotas, qui consiste à vérifier que l’échantillon présente un profil proche – dans l’idéal, un profil identique, mais c’est rarement le cas – de la population que l’on cherche à reconstituer. Avec cette méthode, on cherche à vérifier qu’il y a la même proportion d’hommes et de femmes, d’employés et de cadres, d’habitants de petites villes et d’habitants de grandes villes, etc.

La clustérisation, pour sa part, revient à réunir des individus à partir de leur système de valeurs et de leurs attitudes profondes. Pour repérer ces valeurs et ces attitudes profondes, nous avons élaboré un test reposant sur trente mesures clivantes. Celles-ci visent à reconstituer du mieux possible les grands enjeux qui traversent la société concernant un panel de sujets aussi divers que les questions économiques, le rapport aux institutions ou encore les questions de migration ou de diversité culturelle. À partir de ces trente mesures clivantes, nous réunissons les individus qui ont répondu la même chose ou presque. Ce faisant, je crois que nous captons leur sensibilité, leurs valeurs profondes et, au-delà, ce que la psychologie sociale appelle les attitudes, qui font le lien entre la personnalité d’un individu et ses choix ou ses orientations. De fait, le cluster auquel vous appartenez est assez prédictif de vos préférences politiques et électorales et, plus globalement, de vos choix dans tous les sujets qui engagent des valeurs et des attitudes. Tout n’est pas politique, mais tout ou presque est affaire de valeurs – la manière dont on vit et dont on se comporte, y compris ses choix de consommation, même s’ils sont fortement contraints par le pouvoir d’achat. Et pour cause, engager des dépenses plus ou moins importantes dans différents domaines est un enjeu de valeur, et pas seulement une question de pouvoir d’achat.

Cette segmentation en clusters, même si nous ne nous en servons pas comme des quotas, peut participer à produire des sondages de qualité. Je précise que ces clusters sont au nombre de seize et non dix-sept, quand bien même nous avons appelé notre outil Cluster17. Cette segmentation permet d’effectuer une sorte de contrôle qualité de nos échantillons, car nous savons qu’il ne peut pas y avoir d’évolution importante d’une semaine à l’autre, ni même d’un mois à l’autre : les groupes progressistes ne deviendront pas conservateurs du jour au lendemain, les groupes conservateurs ne deviendront pas progressistes, les citoyens affichant une position identitaire ne deviendront pas multiculturalistes, etc. C’est un élément supplémentaire, dans notre chaîne de production, de contrôle qualité de nos échantillons.

Nous nous distinguons aussi par nos panélistes. À l’époque de la présidentielle, nous ne les rémunérions pas. C’est une manière de sonder un peu différente des autres. Je n’ai pas de position ferme sur le sujet. Ce n’est pas une question de doctrine. Dans certaines études, il est logique de rémunérer les sondés, car on leur demande beaucoup de temps, ou de répondre à des questions parfois ennuyeuses. Mais, quand on interroge les citoyens sur des enjeux de société et sur des questions politiques, l’expérience montre qu’il n’est pas besoin de les rémunérer pour qu’ils répondent. Ils restent, comme par le passé dans les enquêtes téléphoniques ou en face-à-face, assez volontiers disposés à donner leur opinion sur la manière dont la société évolue, sur les grandes réformes ou sur les questions électorales.

En somme, Cluster17 ne rémunère pas ses panélistes, mais je ne m’interdis pas, un jour, de le faire. Encore une fois, ça n’est pas une question de doctrine, mais à ce stade, nous n’avons pas besoin de le faire. Nous faisons davantage appel à des motivations extrinsèques, liées au fait que beaucoup de citoyens sont satisfaits de participer à la production de l’opinion publique.

M. Antoine Léaument, rapporteur. Merci pour cette présentation. Je pensais, de façon erronée, que votre méthode de constitution des échantillons passait par les clusters.

Votre autre spécificité vient du fait que vous avez tendance à mieux reconstituer les échantillons politiques dans les élections. C’est en particulier le cas pour deux candidats pour lesquels on observe souvent des variations plutôt à la hausse – Marine Le Pen – ou à la baisse – Jean-Luc Mélenchon. Votre échantillon de base les représente politiquement de manière à peu près correcte. Nous avons fait le calcul de la moyenne de sous-représentation de Jean-Luc Mélenchon dans les sondages parus en 2022 : vous étiez à – 1,4 point, ce qui est très bon par rapport aux autres instituts.

En revanche, une question se pose concernant l’équilibre de vos échantillons sur le plan sociodémographique.

En saisissant la commission des sondages, nous avons eu accès à différents échanges – parfois tendus – que vous avez eus avec cette dernière. À la lecture des documents, nous avons eu le sentiment que votre position particulière de nouvel entrant dans le monde des sondages posait à la commission des sondages de nombreuses questions, lesquelles se focalisaient sur l’échantillon sociodémographique et n’abordaient que très peu l’échantillon politique. Alors même que certains de vos concurrents avaient de mauvais échantillons politiques, ils n’étaient jamais interrogés sur le sujet. Quant à vous, alors que vous aviez de bons échantillons politiques, la commission n’a pas valorisé cette partie mais vous a posé de nombreuses questions sur le volet sociodémographique. Comment avez-vous vécu ces interrogations ? Les avez-vous trouvées légitimes ? Avez-vous eu le sentiment que la commission des sondages vous avait posé plus de questions qu’aux autres ?

M. Jean-Yves Dormagen. Vous me ramenez plus de trois ans en arrière, dans une période un peu compliquée, car nous avons senti une grande suspicion. J’ignore si cette analyse est la bonne, mais peut-être que le fait d’être un nouvel arrivant, constitué par un professeur d’université et avec des moyens modestes, y a contribué. Nous avons eu le sentiment d’une grande méfiance, laquelle n’était pas nécessairement fondée sur des éléments factuels et vérifiables. Les échanges étaient donc compliqués, puisqu’on nous affirmait qu’on ne nous faisait pas confiance au motif que nous n’avions pas un access panel. Après cette mise au point, nous avons eu le sentiment d’approcher une situation problématique, dans laquelle on imposerait une méthode unique de sonder – ce qui n’existe nulle part – et on disqualifierait ou décrédibiliserait toute méthode alternative. On voit bien le danger que cela représente : c’est un immense danger en matière d’innovation méthodologique et de progrès. On aurait pu figer les sondages à l’époque du face-à-face, et considérer qu’il n’était pas possible de recourir au téléphone pour sonder. On aurait aussi pu les figer à l’époque du téléphone, et interdire les sondages en ligne.

Les sondages en ligne peuvent être effectués de manière diverse. Aux États-Unis, ceux qui ont produit les meilleurs résultats lors des élections présidentielles de 2020 et de 2024 ont été effectués suivant la méthode du reverse sampling, avec du recrutement sur les réseaux sociaux. Dans ce pays, il existe encore de nombreuses manières de sonder, par téléphone, par tablette, par access panel ou par reverse sampling. En tant qu’universitaire et sondeur, j’y suis doublement favorable. Il est important de favoriser le pluralisme méthodologique et de comparer les méthodes. Comment savoir quelle est la meilleure si une seule méthode est autorisée et si toutes les autres sont disqualifiées ?

En tant qu’universitaire et en tant que sondeur, puisque j’avais monté Cluster17, j’ai été troublé par le fait qu’on puisse faire une mise au point dans laquelle on nous reprochait principalement une méthode et où il était explicitement indiqué que nous avions des moyens trop réduits – pourquoi ? – et que nous n’utilisions pas un panel. Certes, mais pourquoi pas ? On peut tout à fait sonder sans panel, avec du reverse sampling ou, comme nous le faisions, avec du recrutement en ligne à chaque sondage. Aujourd’hui, nous utilisons un panel. Mais, à l’époque, nous sondions en recrutant et en reconstituant des échantillons différents lors de chaque vague de sondage, par une invitation via adresse e-mail à répondre à nos sondages. Cela fonctionnait bien. Vous l’avez mentionné, nos sondages étaient cohérents, nous avons bien lu l’élection et les dynamiques. Nous étions l’un des rares instituts à montrer que le premier tour de l’élection présidentielle serait serré et que les écarts n’étaient pas considérables entre les candidats, en particulier entre la deuxième et le troisième. Cela montre que notre méthode permettait de bien lire l’élection et de donner aux électeurs de l’information assez fiable, dont nous n’avons pas à rougir.

Depuis, Cluster17 a été très bon aux élections européennes de 2024 et aux dernières élections législatives. Nous avions déjà été bons aux élections législatives de 2022. En Espagne, nous avons été les meilleurs, avec la même méthode. Nous avons été les seuls, ou quasiment, à anticiper le fait que les droites n’auraient pas de majorité en 2023, alors qu’elles étaient annoncées comme devant gagner de manière assez facile et large par la quasi-totalité des sondeurs. Nous avons établi, à l’unité près, le nombre d’élus du parti populaire espagnol. C’était la même chose, en Allemagne, lors des dernières élections législatives. Nous avons prouvé que nous savons sonder.

J’ai enseigné durant vingt ans les sondages à l’université et j’ai créé un master qui forme des sondeurs. Nombre de mes étudiants sont devenus sondeurs dans les instituts les plus importants et les plus reconnus. J’ai donc été troublé par cette discussion avec la commission des sondages. J’ai eu le sentiment qu’on ne me considérait pas capable d’estimer ce qu’est un sondage, ou la valeur de mes propres méthodes. J’ai surtout été étonné qu’on puisse nous reprocher de promouvoir une méthode alternative, qui donnait des résultats assez cohérents. Nos résultats n’avaient rien de fantaisiste – ou alors, qu’on m’explique en quoi ils étaient surprenants. Si nous étions arrivés avec des résultats étranges, avec des candidats présentant des écarts étranges et surprenants avec le reste de la production sondagière, j’aurais pu comprendre que notre méthode suscite une forme de perplexité. Mais ils n’étaient, au fond, pas si divergents que cela des autres, et plutôt divergents dans la bonne direction. C’est donc un souvenir particulier.

Il faut faire attention. Autant j’estime que l’existence d’une commission des sondages, qui vérifie qu’une production est un sondage sur la base d’une notice et qu’elle respecte les règles, peut se défendre et a une légitimité. Autant il faut faire attention à ne pas dériver vers une doctrine d’État en matière de sondages – ce qui n’est pas le sens de la loi de 1977. Il ne faut pas considérer qu’il existe une méthode officielle et que les autres doivent être discréditées a priori. Il faut encourager, au contraire, la recherche et l’innovation. Les sondages n’ont cessé de se modifier et d’évoluer, c’est une bonne chose. Le pluralisme des méthodes en est également une.

M. Antoine Léaument, rapporteur. Je vous remercie de la manière dont vous présentez les choses, y compris de rappeler que vous êtes un universitaire. La question centrale, dans la science, est la possibilité de produire et de reproduire une expérience à partir de données identiques – la « falsifiabilité » ou la « réfutabilité » des données – et de tester des méthodes, en étant jugé par les pairs. C’est la première question que j’ai posée à l’Ifop, une fois évacuée celle du sondage Hexagone qui a fait couler beaucoup d’encre. Dans la pratique sondagière, une forme d’opacité existe concernant les données. Or je suis favorable à ce que ces données soient transparentes et vérifiables, notamment pour que les chercheurs puissent travailler à partir d’elles. En tant qu’universitaire et sondeur, quelle est votre approche ?

Il n’est pas possible de vérifier la façon dont travaillent les uns et les autres, pour identifier le caractère scientifique des démarches sondagières. Comment vous positionnez-vous en la matière ? Avez-vous le sentiment que les données envoyées à la commission des sondages, telles qu’exigées par la loi de 1977, suffisent pour évaluer le sérieux d’un sondage ?

Je partage votre avis : il n’y a pas de raison qu’il n’y ait pas différentes méthodes de sonder, si elles sont falsifiables ou réfutables par les données brutes. Encore faut-il que ces données soient accessibles.

M. Jean-Yves Dormagen. En tant qu’universitaire, ma culture est celle de la transparence et de la preuve. Un énoncé scientifique doit pouvoir être contrôlé, vérifié, réfuté et discuté. Tout ce qui va dans le sens de la transparence me semble souhaitable. J’irai même plus loin. Au risque de paraître iconoclaste, je pense qu’il faut désacraliser le sujet et avoir de la modestie. Les sondages sont une science empirique. Lorsqu’un médecin est sérieux, il est prudent dans son diagnostic, d’autant qu’il n’est pas toujours certain de la façon dont les choses évolueront. Il dira donc « vous avez probablement cela », ou « normalement, avec ce type de traitement, on devait obtenir ce type de résultat ». Il sait qu’il est dans une logique probabiliste, car il a affaire à des phénomènes multifactoriels et complexes. Chaque individu ne réagit pas de la même manière.

De la même façon, les sondages sont un art simple et complexe à la fois. Vous essayez de reconstituer des échantillons aussi représentatifs que possible – il existe plusieurs manières de l’imaginer et de le faire –, vous espérez que les individus répondent correctement aux questions que vous leur posez, mais vous savez que vos échantillons ne sont jamais complètement représentatifs ou parfaits. Ils ne peuvent pas l’être. C’est évident.

Si on y réfléchit un tant soit peu, on se rapproche de la représentativité. Ainsi que je vous l’ai dit, me semble-t-il, lors d’une précédente audition, je ne connais pas de meilleure méthode, aujourd’hui, pour connaître les opinions, les attentes et les intentions de vote des individus. Pour paraphraser une phrase célèbre, le sondage est la plus mauvaise des méthodes à l’exception de toutes les autres. Il n’est pas de meilleure manière de savoir quels sont les rapports de force politiques que d’essayer d’interroger un groupe représentatif de citoyens, de lui poser les questions de la manière la moins biaisée qui soit et d’interpréter le plus honnêtement possible les résultats obtenus. Mais on sait qu’il existe une marge d’erreur. La loi impose d’ailleurs de le dire. On pourrait en discuter, car on ne sait pas sur quoi est fondée cette table, mais c’est un autre débat scientifique.

Il est important de dire qu’il existe une marge d’erreur, et de se montrer prudent et modeste. Pour autant, les résultats ne sont pas souvent présentés de cette manière et il existe parfois une tendance à la pensée magique, qui n’est une bonne chose ni pour les sondages ni pour les sondeurs. Les sondeurs n’ont pas grand-chose à cacher. Je pense, en tout cas, qu’ils ne devraient pas avoir grand-chose à cacher. Chez Cluster17, nous n’avons rien à cacher, et je pense que la quasi-totalité de mes collègues non plus.

Vous m’avez posé une question précise sur les notices de la commission des sondages. Elles sont assez détaillées. Dans les notices qu’on publie, on donne nos résultats bruts et l’on explique quelle était la structure de l’échantillon avant et après redressement. Dans notre cas particulier, nous publions nos résultats avec la décimale, ce qui n’est pas la tradition française – on pourrait d’ailleurs s’interroger sur ce point. Nous le faisons, non pas parce que la décimale est précise, car je n’ai pas l’ambition de prévoir des phénomènes à 0,2 ou 0,3 point près sur un échantillon de 1 000 ou 1 500 personnes. Ce serait même, statistiquement, assez naïf. Mais l’avantage de publier des chiffres avec la décimale est de montrer comment ont été effectués les arrondis. Cela ne me dérange pas qu’on voie comment nous pratiquons en la matière.

La transparence me semble assez saine, tout comme le fait de normaliser les sondages et de ne pas en faire une sorte d’objet sacré et indiscutable. Ils sont une technique, une méthode, une science empirique.

M. Antoine Léaument, rapporteur. Je partage vos propos. Si les sondages posent question, c’est en grande partie parce qu’une forme d’opacité existe dès lors que les données brutes et les résultats bruts ne peuvent pas être travaillés par des chercheurs.

La commission des sondages dispose de données plus détaillées que le grand public ou les chercheurs, mais nous n’y avons rien trouvé d’exceptionnel. Nous avons essayé d’identifier les spécificités des différents sondeurs, en agrégeant les données et en les analysant dans la durée. C’est la raison pour laquelle nous vous avons à nouveau convoqués, vous et certains de vos collègues. Des questions peuvent être posées sur les redressements politiques, car ils sont, presque par essence, difficiles à mesurer.

J’ai souhaité vous revoir compte tenu de la grande différence que j’ai rappelée. Nous avons analysé le redressement politique d’un sondage pour l’élection présidentielle de 2022 et, globalement, vos échantillons politiques sont assez proches de la réalité. Pour JeanLuc Mélenchon, par exemple, vous obtenez 19,6 % en brut et 19,7 % en redressé. Pour Marine Le Pen, vos résultats sont de 21,4 % en brut et de 21,9 % en redressé. Il existe des différences pour Emmanuel Macron et François Fillon, en électorat reconstitué, mais elles ne vous démarquent pas des autres sondeurs.

En revanche, vos écarts dans la sociologie de base et les redressements sociodémographiques sont parfois plus importants que pour vos collègues.

Je n’ai pas d’avis sur la question. Compte tenu des résultats que vous obtenez, j’ai tendance à penser qu’il vaut peut-être mieux avoir des échantillons politiques plus proches de la réalité, puisque cela semble produire de meilleurs résultats. Coller autant que possible à l’échantillon politique, peut-être au détriment de l’échantillon sociologique, est-il un choix de votre part ? Ou est-ce le hasard des données que vous avez obtenues, qui fait que votre méthode de constitution est meilleure que d’autres pour représenter l’échantillon politique et un peu moins bonne pour représenter l’échantillon sociodémographique ? Je dis « un peu moins bonne », mais certains sondeurs pouvaient obtenir les mêmes écarts, sans pour autant apporter les mêmes commentaires que vous.

M. Jean-Yves Dormagen. Notre objectif, quand nous faisons un sondage, est de reconstituer au plus près toutes les dimensions – en premier lieu les dimensions sociodémographiques, puisque les quotas sont fondés sur elles. Mais nous sommes aussi attentifs à la qualité de reconstitution du vote et à la qualité politique de l’échantillon.

Lesquels ont le plus d’influence ? J’émets l’hypothèse, qui mériterait d’être contrôlée, que le vote influence davantage. Par exemple, si vous me dites que quelqu’un est cadre, je ne sais pas pour qui il vote. En effet, les cadres votent pour Jean-Luc Mélenchon, pour Emmanuel Macron, pour les écologistes, mais aussi pour Marine Le Pen. En revanche, si vous me dites que quelqu’un a voté pour Jean-Luc Mélenchon ou pour Marine Le Pen lors des dernières élections présidentielles, j’ai une petite idée de son espace électoral. Il peut changer d’avis. Certes, il y a beaucoup plus de mouvement qu’on ne l’imagine, d’une élection à l’autre. Mais, quand même, les probabilités qu’une personne qui a voté pour Jean-Luc Mélenchon vote à gauche sont élevées, de même que les probabilités qu’une personne qui a voté pour Marine Le Pen vote dans l’espace des droites, même élargi – a fortiori dans cette période où les camps sont assez figés.

Si vous avez de trop grands écarts avec le vote, vous êtes obligé de donner des poids très importants. C’est le principe du redressement. Si un vote est mal représenté à 30 %, 40 % ou même 50 %, il faut donner des poids de 1,5. À l’inverse, il faut significativement en réduire d’autres, pour l’une des variables les plus discriminantes et les plus puissantes en matière de comportement politique et électoral. Il faut être attentif à avoir une assez bonne reconstitution des votes, car c’est la variable la plus forte. On voit bien, dans les tableaux croisés des fiches techniques, que les électorats se reportent à environ 70 % ou 80 % d’une élection à l’autre. Quand il se reporte en dessous de 60 % ou 70 %, c’est en général qu’une candidature ou un parti est en chute libre. Pour un parti en ascension, l’électorat a plutôt tendance à se reporter à 80 % voire 90 %. Cela n’existe pas avec les variables sociodémographiques. Il n’y a jamais de relation aussi forte.

On dit que les ouvriers votent pour le Rassemblement national. Mais ceux qui votent le font à 50 ou 55 % pour le Rassemblement national, tout au plus à 60 % dans certains sondages. En outre, c’est l’une des seules catégories sociales qui soit aussi prédictive. Les autres se dispersent beaucoup. C’est pour cela qu’il est très important de bien reconstituer les votes.

M. Antoine Léaument, rapporteur. C’est particulièrement le cas dans une période où les catégories sociodémographiques définies par l’Insee et utilisées par les instituts de sondage pour reconstituer les échantillons sont plus éclatées qu’auparavant. Je pense, en particulier, à l’ubérisation de la société et au fait que des personnes peuvent être qualifiées de chefs d’entreprise, alors que leur statut est plus proche du salariat, et d’un salariat très précarisé, plus proche de celui d’un ouvrier que d’un chef d’entreprise au sens des catégories de l’Insee. Cet élément est-il pris en compte dans vos données ? Peut-il l’être ?

M. Jean-Yves Dormagen. Nous observons une complexification des catégories sociales, mais nos quotas sont assez classiques. Pour diverses raisons, nous reprenons les catégories de l’Insee et leur distribution dans la société : l’âge, la catégorie socioprofessionnelle (CSP), la taille de la ville de résidence, le genre, ou encore la région d’appartenance lorsque le sondage est national, pour bien représenter l’ensemble du territoire, y compris les outre-mer, et les Français de l’étranger.

Nous pourrions avoir une longue discussion sur les classes sociales, c’est un sujet passionnant. Comme souvent, nous raisonnons avec les catégories de l’époque précédente.

Pour reprendre notre segmentation en clusters, nos groupes urbains les plus à gauche – les multiculturalistes et les solidaires – gagnent aux deux tiers moins de 2 000 euros par mois. À quelle classe sociale appartiennent-ils ? Ils sont diplômés, et désignés dans le débat public comme des bobos. Mais, par leur revenu de 2 000 euros ou moins par mois, ils appartiennent plutôt aux petites classes moyennes et même, pour une partie non négligeable, à des catégories populaires.

Inversement, les tris croisés sur le vote par le revenu montrent que l’électorat du Rassemblement national est très transversal. Exception faite des plus hautes tranches de revenu, il obtient un score proche de sa moyenne dans quasiment toutes les catégories de revenu. Pourtant, on observe une surreprésentation ouvrière. De fait, vous pouvez être un ouvrier spécialisé et gagner plus qu’un diplômé en sociologie qui travaille dans une association.

La catégorie sociale se définit-elle par le diplôme, par le revenu, par le métier ? La situation est la même aux États-Unis. On qualifie le vote Trump d’ouvrier, mais il est plutôt celui de classes moyennes salariées, y compris avec des métiers ouvriers. Dans ce pays, un ouvrier spécialisé peut très bien gagner sa vie, tandis qu’on peut très mal la gagner en exerçant une profession intellectuelle précarisée en milieu urbain. Vous avez mentionné l’ubérisation. En l’occurrence, vous pouvez être un chef d’entreprise au smic.

C’est la raison pour laquelle, lorsqu’on regarde les tableaux des tris croisés par catégorie socioprofessionnelle, on ne comprend pas grand-chose. Cette segmentation ne fonctionne pas bien. Elle fonctionne même très mal, à mon avis.

M. Antoine Léaument, rapporteur. C’est pour cela qu’il me semblait intéressant de vous faire venir. Vous avez fait un choix très différent de celui de vos concurrents, et cet échange permet d’éclaircir des points qui permettent de comprendre pourquoi vos résultats s’approchaient davantage du résultat final.

Vous êtes-vous autocensuré, dans la campagne présidentielle de 2022 ? Nous avons analysé plusieurs données, pour comprendre ce qui s’est passé dans les différents instituts de sondage. Nous avons regardé les résultats bruts et les redressements. Nous avons essayé de faire des agrégations de redressements, notamment politiques, avec les autres instituts de sondage – puisque nous ne savons pas ce qu’ils font, n’ayant pas accès aux données détaillées. Il en ressort, vous concernant, une grande finesse dans la perception de l’élection dans vos résultats bruts. Durant une période, on retrouve l’idée du « mouchoir de poche », que vous avez évoquée pour certains candidats, tant dans les résultats bruts que dans les résultats publiés, puis une période dans laquelle plusieurs paquets se dessinent, avec un Emmanuel Macron très au-dessus des autres, un paquet Le Pen-Mélenchon assez proche de la réalité, même si vous êtes un peu en dessous concernant le score, mais assez proche du rapport de force, et un paquet Éric Zemmour-Valérie Pécresse, avec un étiage assez proche.

Je vous pose la question d’une éventuelle autocensure dans vos résultats, car à certains moments, les résultats étaient très serrés et les deuxièmes tours s’inversaient, entre Emmanuel Macron, Marine Le Pen et Jean-Luc Mélenchon. Il y a eu un moment très bref, après la désignation de Valérie Pécresse, où vos résultats l’indiquaient présente au deuxième tour – à l’instar de tous les instituts de sondage.

Compte tenu de vos résultats et des redressements effectués par d’autres sur le plan politique, vos échantillons politiques sont à peu près bons et donnent l’impression que des résultats différents de ceux de vos concurrents auraient pu être publiés dès le mois de janvier. Vous êtes-vous autocensuré ? Nombre de vos concurrents nous ont indiqué qu’une forme d’autocontrôle était exercée par la présence des autres, et qu’un institut dont les résultats seraient trop différents des autres pourrait estimer qu’il s’éloigne de la réalité.

Vous aviez des résultats assez proches y compris de certains résultats bruts que j’ai pu trouver chez d’autres, mais ils n’ont pas été publiés, car les redressements politiques appliqués par les autres conduisaient à d’importantes variations entre les candidats. On a l’impression, compte tenu de vos résultats bruts, que vous auriez presque pu donner d’autres résultats politiques, mais que vous avez appliqué un redressement qui maintenait les rapports de force que l’on pouvait retrouver dans d’autres instituts de sondage. Vous êtes-vous aligné avec ces derniers, ou vous êtes-vous rapproché d’eux par des redressements, pour éviter d’être trop innovant ou en décalage ?

Mme Eléonore Caroit, présidente. Il nous intéresse de savoir quelle est l’influence des autres instituts de sondage, dans les résultats que vous publiez. On comprend qu’il existe un redressement mécanique, par l’application de données objectives ou objectivables. Subissez-vous une pression, consciente ou inconsciente, de la part de vos pairs ?

M. Jean-Yves Dormagen. Si nous nous étions autocensurés, nous n’aurions pas publié ce que nous avons publié tout au long de la campagne. Nous avons été un peu divergents – ce n’était pas voulu, nous publions ce que nous trouvons.

La difficulté vient du fait que ceux pour qui les sondages sont bons ont tendance à les défendre et à y croire, tandis que ceux pour qui ils ne sont pas bons les remettent en cause, affirmant que les sondages se trompent toujours, qu’ils n’y croient pas et qu’ils ne les lisent pas.

Il est compliqué d’être divergent. Imaginez Cluster17. Vous êtes universitaire, vous fondez un institut de sondage quelques mois avant une élection présidentielle et vous publiez des résultats qui ne sont pas tout à fait les mêmes que ceux des autres instituts. Vous imaginez la façon dont ils sont reçus ! Ce n’est pas facile. Malgré tout, nous avons publié des résultats divergents. C’est la raison pour laquelle je suis étonné par votre question. Nous avions confiance dans nos méthodes et dans la cohérence de nos échantillons et de nos résultats, parce qu’ils étaient logiques.

Dans une étude, vous voyez si les résultats sont logiques et si l’échantillon est cohérent. J’ai beaucoup travaillé avec des bases de données, tout au long de ma carrière. Je vois très vite quand les résultats d’une enquête semblent bizarres, quand je ne comprends pas la cohérence des réponses, ou, au contraire, quand un échantillon obéit à une logique, est sain, cohérent et fiable. En l’occurrence, je voyais bien que ce que nous faisions était cohérent et logique.

Dans nos résultats, par exemple, Yannick Jadot était plus bas que dans ceux de nos concurrents. Cela nous a été reproché. On se moquait de Cluster17, en pointant son manque d’argent et en évoquant un manque de sérieux. De nombreuses personnes me l’ont dit. Mais, lorsque j’analysais l’échantillon du sondage, je voyais que l’électorat susceptible de voter pour Yannick Jadot l’identifiait mal. De mémoire, dans des groupes demandeurs d’écologie, son niveau de notoriété était de 3 sur 10. Je ne voyais donc pas comment un candidat avec une notoriété de 3 sur 10 dans son électorat pouvoir avoir 9 à 10 % d’intentions de vote. Ce n'était pas plausible. J’étais rassuré par ce type de vérification.

Un sondage d’intention de vote ne reflète pas seulement l’intention de vote elle-même, mais la logique qui la sous-tend, à commencer par la connaissance du candidat. Nous posons d’ailleurs une batterie de questions, qui font que nous avons confiance dans nos résultats ou que nous les trouvons bizarres. Il existe de nombreux moyens de vérification, comme les reports de voix que j’évoquais – les électeurs ne changent pas complètement d’orientation politique d’une élection à l’autre –, la logique des clusters ou le niveau de notoriété des candidats. Je ne croyais pas à Yannick Jadot à 9 ou 10 % avec un niveau de notoriété de 3 sur 10 au sein des groupes les plus sensibles aux enjeux écologiques. Si ces groupes le connaissaient mal, on imagine ce qu’il en était dans le reste de l’électorat. Cela voulait aussi dire que sa campagne n’était pas visible par les électeurs, sans doute parce qu’elle n’était pas assez clivante.

J’avais confiance dans mes résultats, que Cluster17 a publiés, mais qui nous ont exposés à de nombreuses critiques tout au long de la campagne. C’est une forme de prise de risque scientifique et intellectuelle.

Je rappelle qu’à la fin de l’élection, l’écart moyen entre Jean-Luc Mélenchon et Marine Le Pen est d’environ 6,5 points. Chez nous, il est de 3 et même un peu moins avec la décimale que nous publions dans nos résultats redressés. L’écart était encore plus réduit à la fin, mais on était presque dans la marge d’erreur et il y a eu des dynamiques, puisqu’un sondage publié le vendredi est effectué le jeudi et le vendredi matin, donc deux jours avant l’élection.

Quoi qu’il en soit, notre lecture de l’élection était que l’accès au second tour serait serré. C’était risqué de l’affirmer, alors que nous étions les seuls à publier ce type de résultat. Nous ne nous sommes pas autocensurés, au contraire. Nous avons pris le risque d’être un peu divergents, alors que nous étions suspectés d’incompétence et de manque de sérieux. C’était dangereux, mais nous étions confiants, parce que nous savions que ce que nous faisions était solide et nous connaissions l’art de sonder. Je l’ai étudié pendant vingt ans. Je sais ce qu’est un sondage. Je savais que mes sondages étaient bien des sondages, et que mes échantillons étaient propres, cohérents et logiques.

M. Antoine Léaument, rapporteur. On ne peut juger les sondages qu’à la fin des élections. C’est d’ailleurs problématique. Souvent, les sondeurs indiquent qu’ils présentent une photographie des rapports de force à un instant donné, mais ces rapports de force sont faussés compte tenu du fait que cet instant n’est pas celui de l’élection. Quand on se rapproche de l’élection, les intentions peuvent s’affiner par l’effet de la campagne et de la mobilisation.

Je reviens à la question des redressements. Au mois de mars, vos résultats bruts présentent Jean-Luc Mélenchon devant Marine Le Pen. Néanmoins, Marine Le Pen reste devant Jean-Luc Mélenchon dans vos résultats publiés. En outre, un écart s’observe dans les redressements politiques effectués entre ces deux candidats à cette même période : lorsque Marine Le Pen passe un peu en dessous, vous procédez à un surredressement, tandis que vous sous-redressez Jean-Luc Mélenchon lorsqu’il passe un peu au-dessus. Pourquoi cet écart dans les redressements se produit-il en fin de campagne, alors que les étiages sont les mêmes dans les intentions de vote, qu’il y a peu de reports de voix et que la qualité des échantillons politiques est la même ? Avez-vous appliqué des redressements sociodémographiques ? Vos clusters permettent-ils de ressentir les effets directs de la campagne et son influence sur les choix des électeurs ?

L’augmentation des reports pour Mélenchon et la baisse des reports pour Marine Le Pen peut laisser comprendre qu’il y a eu une volonté de compenser certains effets. Néanmoins, il semble y avoir un surredressement ou une aggravation de redressement. Compte tenu de l’ambiance particulière autour de Cluster17, nouvel arrivant sur le terrain des sondages, et des questions régulières que vous posait la commission des sondages, avez-vous hésité à publier des résultats qui auraient mis Mélenchon et Le Pen à « touche-touche », conformément à ce que vous obteniez dans vos résultats bruts ?

M. Jean-Yves Dormagen. Je ne suis pas capable de répondre à cette question. Il faudrait aller voir chacune des enquêtes que vous avez analysées.

Par ailleurs, je précise qu’on ne redresse pas les candidats, mais l’ensemble de l’échantillon, ce qui produit des effets sur les candidats. On ne redresse pas candidat par candidat, avec un coefficient qui serait calculé pour chacun. Le redressement s’effectue par rapport aux quotas sociodémographiques et aux votes antérieurs. On affecte un poids, négatif pour les profils surreprésentés ou positif pour les profils sous-représentés, lesquels poids impactent les résultats globaux de l’étude.

Avec les redressements, nous respectons parfaitement les quotas, avec la bonne proportion d’hommes, de femmes, de jeunes, de séniors, etc. Cela bouge un peu les votes, et c’est le tableau redressé que l’on publie.

Votre question sur la variation des redressements ne m’apparaît pas très claire.

M. Antoine Léaument, rapporteur. Nous avons observé la pondération de vos échantillons sur le plan politique, alors même qu’ils étaient les plus corrects.

M. Jean-Yves Dormagen. Cherchez-vous à évaluer dans quel sens le redressement a fait évoluer le vote Le Pen ?

M. Antoine Léaument, rapporteur. Voilà. L’une des missions de la commission d’enquête est d’évaluer ce que nous avons appelé les facteurs d’erreur des sondages.

Nos graphiques montrent que les redressements politiques, qui sont plutôt moindres chez vous dans la mesure où vos échantillons sont plus corrects que les autres sur ce plan, interviennent à un moment où une forme de dynamique peut s’exprimer pour un candidat. Chez Ipsos, nous avons eu le sentiment qu’une dynamique avait été lissée.

Mme Eléonore Caroit, présidente. Je précise que les graphiques dont il est question, et leurs intitulés, ont été élaborés par M. le rapporteur.

Si je comprends bien, des résultats bruts sont produits, puis vous appliquez des redressements – pas par candidat, mais par échantillon – et vous obtenez des écarts dans les intentions de vote pour chaque candidat.

Monsieur le rapporteur, à partir du moment où l’on ignore ce que donnera le redressement mais où on l’applique de manière globale à tous les candidats, votre question présuppose qu’il y aurait une autocensure et une volonté de modifier les résultats, comme pour influencer le correctif appliqué. Or je comprends de votre réponse, monsieur Dormagen, que ce n’est pas le cas. Pouvez-vous clarifier le débat ?

M. Jean-Yves Dormagen. Le redressement est une opération mathématique. Dans notre méthode, un algorithme ramène l’ensemble des poids à 1. Dans ce poids global, certains individus sont à 0,84 ou à 0,79, et d’autres à 0,22 ou 1,16. Ainsi, si un individu qui est à 1,16 vote pour Emmanuel Macron, cela fait 1,16 vote pour ce candidat. S’ils sont dix, cela fait 11,6 votes. Inversement, si une grande partie des électeurs votant pour Jean-Luc Mélenchon est autour de 0,89, il faut onze électeurs pour faire 10 votes.

Par ailleurs, imaginez – c’est un raisonnement fictif – que l’électorat de Jean-Luc Mélenchon soit composé de plus de jeunes et qu’il y ait un peu trop de jeunes dans l’échantillon. Nous respectons les quotas, mais il est presque impossible d’arriver au quota parfait, pour lequel il faudrait à la fin de l’enquête un jeune, sans diplôme et qui gagnerait plus de 5 000 euros par mois. Cela devient une figure improbable. À la fin de l’enquête, il y a toujours plus ou moins de déséquilibre dans les catégories. En tout état de cause, vos graphiques montrent que le redressement de Jean-Luc Mélenchon sur une longue période, de novembre à avril, est systématiquement à la baisse. Vous pourriez y voir une volonté de notre part de systématiquement baisser le score de Jean-Luc Mélenchon. En réalité, cela manifeste que l’électorat de ce candidat, dans nos sondages, était sans doute un peu surreprésenté dans certaines catégories sociales. Nous avions sans doute un peu trop d’électeurs de Jean-Luc Mélenchon, et le redressement faisait diminuer son score par rapport aux résultats bruts.

La situation est pratiquement la même avec Marine Le Pen, exception faite d’un moment où elle est redressée à la hausse, en mars.

Pour tous les candidats, hormis Emmanuel Macron dont le score est globalement resté assez stable, il y a eu beaucoup de mouvements durant cette campagne. À un moment donné, dans nos sondages, Éric Zemmour était assez nettement devant Marine Le Pen. Puis les courbes se sont inversées, en particulier durant la période où cette dernière a fait l’objet d’un redressement à la hausse. Je pense que c’est lié à la mutation de son électorat – puisque les électorats Zemmour et Le Pen n’avaient pas tout à fait les mêmes profils sociologiques et culturels. Marine Le Pen les a un peu unifiés, dans une logique de vote utile, un peu comme Jean-Luc Mélenchon avec une partie de la gauche. Cette séquence d’unification, où de l’électorat Zemmour bascule vers de l’électorat Le Pen, modifie peut-être la composition sociale de ce dernier, avec par exemple plus de personnes âgées – ce serait à vérifier. Or si une catégorie est surreprésentée, cela peut expliquer un moment de changement.

Je ne pensais pas que nous aurions une telle discussion. On se croirait à un congrès de sciences sociales. C’est positif ! Nous avons un débat presque scientifique. Vous posez de nombreuses questions. Améliore-t-on, ou non, en redressant ?

Mme Eléonore Caroit, présidente. Redresse-t-on volontairement ?

M. Jean-Yves Dormagen. Le redressement est une opération particulièrement compliquée.

Le fait qu’on ait un peu surestimé Éric Zemmour et Valérie Pécresse, par exemple, était en partie lié à des opérations de redressement, car le vote Fillon était difficile à reconstituer en 2022. Nous avions probablement des électeurs Fillon dans les échantillons qui croyaient avoir voté Emmanuel Macron en 2017 parce qu’ils avaient commencé à voter pour les listes du centre dès les élections européennes de 2019. Dans leur souvenir, ils étaient donc macronistes. Je pense qu’il y a eu des choses comme cela. C’est compliqué. Ces opérations ne sont pas techniquement complexes. La complexité vient du poids donné au vote antérieur dans un redressement.

Si vous manquiez d’un tiers de vote Fillon, comme cela a dû être le cas dans certains sondages, vous boostiez les électeurs Éric Zemmour et Valérie Pécresse, qui comptaient alors plus que les autres. Disons que leur poids passait à 1,3 – même si c’est plus compliqué que cela. Or si ces électeurs votaient beaucoup Valérie Pécresse et Éric Zemmour, vous risquiez de doper les intentions de vote en faveur de ces deux candidats, alors qu’en réalité, le fait de mal reconstituer François Fillon indiquait plutôt un abandon d’une partie de cet électorat de l’espace des droites traditionnelles. Mais vous ne pouvez pas le savoir. Ce qu’il faut comprendre, c’est que c’est facile à dire après coup, mais que vous ne pouvez pas le savoir au moment où vous faites vos opérations de redressement. C’est en cela que les sondages sont une science empirique, qui requiert de la modestie.

Dans l’idéal, il faudrait ne pas avoir à redresser. Mais ce n’est pas possible, parce que si vous faites les choses de manière sérieuse, vous n’arriverez jamais à reconstituer un échantillon qui serait sociologiquement parfait, qui aurait voté exactement comme avaient voté les Français deux ou cinq ans plus tôt. Cela n’existe pas. Je serais très inquiet, si l’on me montrait un tel échantillon. J’aurais de fortes suspicions et je penserais plus à ChatGPT qu’à la réalité.

M. Antoine Léaument, rapporteur. Je vous remercie, car vous m’apportez une réponse. J’ai posé la même question à plusieurs sondeurs. C’est assez logique. La partie que vous avez à redresser, compte tenu du fait que vos échantillons politiques sont plutôt corrects, et même collent à la réalité, est politique, tandis que les autres essaient de faire de la sociodémographie pure. Il est vrai que notre audition fait penser à un congrès de sciences sociales, mais il est intéressant d’entrer dans cette technicité, qui permet d’éclairer de potentiels facteurs d’erreur.

Je vous remercie d’avoir expliqué comment il peut y avoir des redressements par des évolutions dans la sociologie de l’électorat au cours de la campagne – ce qui n’est pas explicable pour les autres sondeurs, puisqu’ils tentent de faire l’échantillon sociologique parfait alors que leur échantillon politique est mauvais. Les redressements politiques peuvent donc jouer à plein. Quand, dans l’audition de l’Ifop, on nous dit « j’assume de travailler personnellement les redressements », je m’interroge sur la manière dont ceux-ci peuvent être ajustés au dernier moment.

L’origine de mon questionnement est l’évolution du redressement de Jean-Luc Mélenchon, car il y a eu une spécificité concernant ce candidat dans la campagne présidentielle de 2022. En effet, il a été assez mal perçu par les instituts, exception faite du vôtre. On observe une période à partir de laquelle le redressement sociodémographique a tendance à abaisser une dynamique que vous retrouvez en brut. Compte tenu de vos explications, est-ce à dire qu’un changement sociologique profond est intervenu, au cours de cette période, dans le vote pour Jean-Luc Mélenchon ?

Nous avons fait la moyenne entre les deux. À l’exception de fin décembre 2021, où votre redressement était de l’équivalent de 2 points en données agrégées, votre moyenne était globalement en dessous de 1 point, avant de passer à une moyenne de redressement de 2 points, qui va faire baisser Jean-Luc Mélenchon de manière assez importante. Grâce à vos clusters qui permettent une analyse plus fine, avez-vous perçu une évolution des données sociales de l’électorat Mélenchon – étant entendu que le souvenir de vote et l’échantillon politique ne varient pas trop et que les redressements s’appuient sur la sociodémographie ?

M. Jean-Yves Dormagen. C’est probable. Vous me soumettez une question de méthode, passionnante, pour expliquer l’évolution des redressements, laquelle n’est pas linéaire. C’est assez logique, puisque les échantillons varient d’une vague à l’autre. Les catégories sous-représentées changent, et nous avons parfois plus de mal à reconstituer les ouvriers ou les jeunes. C’est normal. C’est empirique, pour reprendre ma comparaison avec la médecine. Vous ne contrôlez pas parfaitement les mécanismes d’agrégation qui vont donner naissance à un échantillon.

Je suis prudent, car les moyennes varient d’une vague à l’autre. Dans la séquence où nous sommes à – 2,1 en moyenne, nous sommes à – 1 ou – 1,1 dans plusieurs sondages. Nous sommes même à – 1,6 le 1er avril, alors que Jean-Luc Mélenchon a fortement progressé dans nos enquêtes, ce qui rappelle le – 1 de novembre. Si l’on traçait une droite de régression, on obtiendrait un écart à la droite. Pour le dire autrement, on n’aurait pas un R2 génial. On voit que c’est quand même assez dispersé. Mais il est vrai qu’il y aurait une droite. L’écart augmente tendanciellement, en dépit de multiples irrégularités.

L’hypothèse la plus plausible, à vérifier, est que l’élargissement de l’électorat de Jean-Luc Mélenchon, c’est-à-dire des sondés qui répondent pour lui, conduit à faire entrer des groupes ou des catégories en surnombre dans l’échantillon. Ce n’est pas impossible. L’élargissement de l’électorat de Jean-Luc Mélenchon, comme celui de la plupart des électorats, se fait de deux manières : en partie par des changements de préférence, mais aussi par l’entrée de nouveaux électeurs qui, jusque-là, pouvaient être abstentionnistes ou déclarer qu’ils n’iraient pas voter. Ce qui fait varier les rapports de force n’est pas un jeu à somme nulle. Ce ne sont pas des électeurs Pécresse qui se mettent à voter Mélenchon. Ce sont aussi des électeurs qui n’avaient pas prévu de voter ou étaient très incertains quant à leur vote et qui, au fil de la campagne, décident d’aller voter.

Tout cela fait muter le profil des électorats et peut se refléter dans des évolutions de ce type. C’est plausible, même si c’est à vérifier. Vous nous invitez à réexplorer nos données.

M. Antoine Léaument, rapporteur. Vous abordez les choses de façon intéressante, à la manière d’un chercheur. Je voulais vous interroger compte tenu des spécificités dans votre travail. D’abord, vous choisissez de faire des échantillons politiques, bien constitués, plutôt que démographiques. Je comprends l’explication que vous donnez. Nous en discutions avec Mme la présidente et nous reconnaissons que cette manière de faire est assez logique. Ensuite, je vous présente les données agrégées qui sont celles que j’ai pu obtenir à la commission des sondages, dont vous expliquez les variations.

J’ai posé des questions similaires à d’autres sondeurs, pour comprendre pourquoi à certains moments, dans une forme d’accélération de la campagne et de la dynamique d’un candidat en particulier, en l’occurrence Jean-Luc Mélenchon, des redressements ont été opérés à la baisse.

Mme Eléonore Caroit, présidente. La commission parle beaucoup de Jean-Luc Mélenchon.

M. Antoine Léaument, rapporteur. Il a été mon candidat, et le seul à avoir été à ce point sous-évalué, dans un étiage final qui aurait changé le résultat de l’élection présidentielle.

Mme Eléonore Caroit, présidente. C’est votre thèse, qui n’est pas partagée par tous.

M. Antoine Léaument, rapporteur. C’est précisément pourquoi la question se pose. En l’occurrence, vous apportez une réponse rationnelle et sociologique.

M. Jean-Yves Dormagen. Pouvoir dessiner une droite de régression, même si elle n’est pas parfaite, est rassurant.

Mme Eléonore Caroit, présidente. Cela montre qu’il n’y a pas eu de volonté d’influer.

M. Jean-Yves Dormagen. Le monde ne change pas radicalement d’une semaine à l’autre, même si l’on observe une accélération en fin de campagne. Cet effet s’est encore vu récemment en Allemagne, où Die Linke a doublé en quelques jours dans nos sondages. Il peut aussi y avoir des effets de contexte. La primaire des Républicains, par exemple, avait mis Valérie Pécresse relativement haut dans les sondages, par un effet de couverture médiatique et de focalisation. Mais, normalement, d’une semaine à l’autre, les choses ne changent pas radicalement.

M. Antoine Léaument, rapporteur. La sociologie politique est mon domaine de formation, et j’ai eu le même réflexe que vous : j’ai tracé une régression linéaire des données chez Ifop, où les redressements ont été essentiellement politiques, pour des raisons d’échantillonnage. Je ne vous demanderai pas de commenter la situation de vos concurrents, mais j’ai constaté chez eux une tendance à des écarts assez forts dans les redressements politiques.

En résumé, je constate que vous avez répondu qu’il faudrait faire une régression linéaire. C’est ce que j’ai fait pour interroger les autres sondeurs, lesquels ont considéré que cela n’avait pas de sens. Il existe donc des méthodes différentes de travail entre sondeurs, mais je ne vous demanderai pas de commenter les données des autres.

J’ai obtenu plus de réponses dans cette audition que dans les trois précédentes. Je vous remercie d’avoir eu l’honnêteté d’entrer dans le détail de la technique.

Mme Eléonore Caroit, présidente. Monsieur Dormagen, souhaitez-vous ajouter des commentaires finaux ? Cette audition étant la troisième, elle sera peut-être la dernière dans le cadre de cette commission d’enquête, même si nous serons ravis de vous entendre dans d’autres circonstances.

M. Jean-Yves Dormagen. Si je suis le dernier sondeur à parler, cela me place dans une position particulière.

Je redirai que la meilleure garantie est le pluralisme. C’est ma conviction profonde. Il est important qu’il y ait une pluralité de sondeurs. Je regrette, à cet égard, que les universités ne fassent pas de sondages, contrairement à ce qui se passe dans de nombreux pays. C’est dommage. J’ai contribué, avec mes collègues de Montpellier que vous avez auditionnés, à créer un master qui forme des étudiants en sondage. Il est bon que des acteurs différents sondent et qu’il y ait un pluralisme des méthodes. C’est à encourager, pour comparer nos résultats et améliorer nos résultats. Il est bon qu’il y ait de la transparence, également. J’y suis favorable.

Je tiens aussi à dire que les sondages français sont plutôt bons. Je sonde dans d’autres pays – en Espagne, en Allemagne, en Belgique – et je suis de près les sondages à l’étranger. Nous avons plutôt de bons sondages. Nos sondeurs sont sérieux. Il faut en avoir conscience et ne pas entretenir une sorte de défiance généralisée, dans une époque de défiance généralisée. Il faut s’en méfier.

Voyez les dernières législatives, les dernières européennes et même la présidentielle. Je parle des sondages, pas des estimations. Je comprends vos questions et vos remarques, mais les sondeurs français sont globalement sérieux. Étant le dernier sondeur à parler, je le dis.

Mme Eléonore Caroit, présidente. Je vous remercie de vous être prêté à cet exercice devant notre commission d’enquête.

 

La séance s’achève à vingt heures.


Membres présents ou excusés

Présents. – Mme Eléonore Caroit, M. Antoine Léaument

Excusé. – M. Thomas Cazenave