Compte rendu
Commission d’enquête concernant l’organisation des élections en France
– Table ronde, ouverte à la presse, réunissant les dirigeants des instituts de sondage implantés en France, produisant des études d’opinion sur des sujets liés au débat électoral 2
– Présences en réunion................................30
Mercredi
26 mars 2025
Séance de 17 heures
Compte rendu n° 25
session ordinaire de 2024-2025
Présidence de
M. Thomas Cazenave,
Président de la commission
— 1 —
La séance est ouverte à dix-sept heures.
La commission entend lors de sa table ronde réunissant les dirigeants des instituts de sondage implantés en France, produisant des études d’opinion sur des sujets liés au débat électoral :
– M. Frédéric Dabi, directeur général Opinion, et M. François Kraus, directeur des études « Actualité et politique », Ifop ;
– Mme Laure Salvaing, directrice générale France, Verian ;
– Mme Adelaïde Zulfikarpasic, directrice générale, et Mme Christelle Craplet, directrice de l’activité Opinion, BVA Xsight ;
– M. Brice Teinturier, directeur général délégué, et M. Jean-François Doridot, directeur général Public Affairs France, Ipsos ;
– M. Yves Del Frate, président directeur général, M. Arnaud Schmite, administrateur et représentant d’Havas au CA, et Mme Julie Gaillot, directrice du pôle society, CSA ;
– M. Jean-Daniel Lévy, directeur délégué, et M. Pierre-Hadrien Bartoli, directeur des études politiques et d’opinion, Toluna Harris Interactive France ;
– M. Bruno Jeanbart, vice-président, et M. Frédéric Micheau, directeur général adjoint et directeur du pôle opinion, OpinionWay ;
– M. François Miquet-Marty, président, Viavoice ;
– M. Gaël Sliman, président, et M. Emile Leclerc, directeur d’études en charge des sondages politiques, Odoxa ;
– M. Bernard Sananès, président, et M. Vincent Thibault, directeur-conseil Opinion en charge des Études Politiques, Elabe ;
– M. Jean-Yves Dormagen, président, et M. Stéphane Fournier, directeur des études, Cluster 17.
M. le président Thomas Cazenave. Les travaux de notre commission d’enquête visent à examiner l’organisation des élections en France. Nous menons diverses auditions couvrant l’ensemble du processus électoral, de l’inscription sur les listes jusqu’à à la tenue des opérations de vote, en incluant la question des sondages. Ce dernier point a déjà été abordé lors de précédentes auditions, notamment avec des experts qui ont émis certaines critiques sur le rôle et la méthodologie des sondages. Nous avons également entendu la Commission des sondages, qui joue un rôle crucial pour garantir le respect des exigences en matière de publication et de qualité des sondages. Il est important que vous puissiez expliquer plus en détail votre méthodologie.
Avant de commencer, je dois vous rappeler que nous sommes en commission d’enquête. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées de prêter serment de dire la vérité, toute la vérité, rien que la vérité.
M. Frédéric Dabi, M. François Kraus,Mme Laure Salvaing, Mme Adelaïde Zulfikarpasic, Mme Christelle Craplet, M. Brice Teinturier, M. Jean-François Doridot, M. Yves Del Frate, M. Arnaud Schmite, Mme Julie Gaillot, M. Jean-Daniel Lévy, M. Pierre-Hadrien Bartoli, M. Bruno Jeanbart, M. Frédéric Micheau, M. François Miquet-Marty, M. Gaël Sliman, M. Emile Leclerc, M. Bernard Sananès, M. Vincent Thibault, M. Jean-Yves Dormagen et M. Stéphane Fournier prêtent serment.
M. Antoine Léaument, rapporteur. L’article 1er de la loi de 1977 sur les sondages définit ceux-ci comme des enquêtes statistiques visant à donner une indication quantitative des opinions, souhaits, attitudes ou comportements d’une population à une date déterminée, par l’interrogation d’un échantillon représentatif. Que considérez-vous, dans chacun de vos instituts, comme un échantillon représentatif ?
Toujours selon son article 1er, cette loi s’applique aux sondages sur les sujets liés de manière directe ou indirecte au débat électoral. Comment interprétez-vous cette définition ? On pourrait penser que cela englobe les sondages sur le débat politique en général, mais il semble que ce soit souvent restreint aux sondages strictement électoraux, c’est-à-dire d’intentions de vote.
L’article 2 mentionne la publication des marges d’erreur. Considérez-vous que la définition actuelle de celles-ci est satisfaisante ? Sachant qu’elles sont fondées sur des méthodes quantitatives alors que la plupart des instituts utilisent la méthode des quotas qui nécessite des redressements, pensez-vous que ces marges d’erreur s’appliquent correctement à vos sondages ?
L’article 2 mentionne également le droit de toute personne à consulter la notice technique prévue à l’article 3. Estimez-vous que ce droit à l’information est correctement respecté par vos instituts ?
L’article 3 définit une série de données à envoyer à la Commission des sondages, notamment sur les conditions d’interrogation. Pensez-vous que le niveau de détail fourni est suffisant ? Concernant la proportion de non-réponses, la nature et la valeur des gratifications éventuelles, et les critères de redressement des résultats bruts, estimez-vous respecter pleinement la loi sur ces points ?
J’illustrerai mes autres questions par des exemples concrets de sondages, sans viser d’institut en particulier, car ils me semblent représentatifs de certains écueils potentiels, en commençant par la constitution des échantillons.
Un sondage Ifop réalisé du 6 au 9 décembre 2024 concernait les intentions de vote pour une élection présidentielle fictive qui aurait pu avoir lieu le dimanche suivant. L’enquête a été menée auprès d’un échantillon de 1 101 personnes inscrites sur les listes électorales. Une première question portait sur l’intention d’aller voter, permettant d’obtenir un sous-ensemble. Sur ce dernier, on a ensuite demandé le degré de certitude quant à la participation au vote. C’est sur cet ensemble que les résultats finaux étaient obtenus.
Sur les 1 101 personnes interrogées inscrites sur les listes électorales, 814 ont exprimé une intention de vote. Parmi celles certaines d’aller voter, 628 ont exprimé une intention de vote. On parle donc d’un échantillon initial de 1 100 personnes, avec des marges d’erreur calculées sur cette base, mais le résultat final ne concerne que 628 répondants. Considérez-vous cet échantillon comme représentatif ? Estimez-vous que les marges d’erreur ne sont pas trop importantes pour obtenir des résultats fiables ?
Concernant la constitution des échantillons, avez-vous recours à des sous-traitants ? Dans le questionnaire que vous avez rempli, des noms de prestataires comme Dynata, Bilendi ou Toluna sont mentionnés. Vous sont-ils familiers et y avez-vous recours ?
Par ailleurs, des biais ne sont-ils pas inhérents à la constitution d’échantillons sur Internet, notamment concernant l’âge, sachant que les personnes plus âgées ont un accès moindre à Internet ? De même, le niveau de diplôme des répondants en ligne tend à être plus élevé que la moyenne. Comment gérez-vous ces biais potentiels ? Comment évaluez-vous la fiabilité du souvenir de vote utilisé pour les redressements ? Enfin, comment vérifiez-vous la fiabilité des réponses données en ligne concernant l’âge, le sexe ou la catégorie socioprofessionnelle des répondants, sachant que vous n’avez pas de contact direct avec eux ?
M. Fédéric Dabi, directeur général opinion de l’Ifop. Vous faites référence à une enquête barométrique que nous réalisons régulièrement depuis 2023 pour Le Figaro et Sud Radio. Elle mesure les intentions de vote pour l’élection présidentielle de 2027 à trois, deux et un an de l’échéance, avec bien sûr de nombreuses configurations électorales et des inconnues sur l’offre politique.
Ces enquêtes suivent toujours le même protocole méthodologique. Il s’agit d’une enquête grand public classique, utilisant la méthode des quotas. Nous n’utilisons pas de fournisseurs d’adresses mail comme Toluna, mais nous nous fondons sur les données de l’Insee, qui dépend du ministère de l’économie et des finances. Ces données sont fiables à l’échelle du pays, d’une région, d’un département, d’une commune, d’une circonscription, d’un canton ou d’un quartier. Tous les sondages publiés par l’Ifop sont disponibles sur notre site. Les citoyens peuvent y consulter la méthodologie, la période de réalisation, les questions précises posées et la constitution de l’échantillon. Depuis mars 2011, nous indiquons également un tableau des marges d’erreur, ce qui permet de corriger certains biais médiatiques où l’on cite rapidement un sondage sans mentionner la question ou les conditions méthodologiques.
À partir de cet échantillon représentatif de plus de 1 000 personnes, nous avons identifié la part des Français inscrits sur les listes électorales. Dans cette enquête, nous avions quatre à six hypothèses de configuration du premier tour, sans second tour à ce stade.
Je voudrais déconstruire une idée reçue sur la manière d’établir ces intentions de vote. J’ai déjà eu cet échange avec M. Manuel Bompard en septembre 2021. Effectivement, nous demandons l’intention d’aller voter en avril 2027, si l’élection a lieu, la certitude d’aller voter et l’intention de vote en fonction de l’offre électorale proposée. Lorsque nous travaillons sur ces données, nous mettons en avant par ordre de priorité les personnes certaines d’aller voter. Cependant, nous utilisons également les résultats des personnes moins certaines, à travers des indicateurs tels que la certitude du vote, l’éventuelle sûreté du choix et ce que nous appelons les matrices de transfert. Ces dernières nous permettent d’observer l’évolution des électorats, par exemple comment se comporte la part des électeurs d’Emmanuel Macron, de Jean-Luc Mélenchon et de Marine Le Pen entre 2022 et les élections européennes de 2024.
Un redressement est effectué en collaboration avec la Commission des sondages depuis environ 2015-2016. Nos confrères pourront préciser, mais on nous demande de choisir une colonne de référence, qui est « certain d’aller voter », et nous utilisons le scrutin de référence pour l’élection présidentielle. Il est inexact de dire que nous utilisons uniquement un échantillon de 628 personnes. Nous examinons l’ensemble de l’échantillon, y compris les personnes qui ne se prononcent pas sur leurs intentions de vote. Bien entendu, nous n’utilisons pas les réponses des personnes qui ne sont pas certaines d’aller voter. Cela nous donne un sous-échantillon solide entre 600 et 800 personnes, ce qui n’entraîne pas de variation décisive de la marge d’erreur.
Concernant les souvenirs de vote, j’ai observé une rupture significative entre les enquêtes réalisées par téléphone et celles qui sont effectuées par Internet. Pour certaines forces politiques, notamment le Front national, à l’époque, les souvenirs de vote étaient extrêmement faibles lors des enquêtes téléphoniques. Cela pouvait s’expliquer par une réticence à avouer avoir voté FN au téléphone. Quelques jours après le 21 avril 2002, lors d’une enquête pour le second tour Chirac-Le Pen pour Libération, le souvenir de vote pour Jean-Marie Le Pen ne sortait qu’à 6-7 %. Le téléphone n’a généralement pas été un bon outil pour les souvenirs de vote présidentiels et d’autres scrutins. À l’échelle locale, nous constations souvent un « sur‑souvenir » de vote pour le maire sortant.
Lorsque nous sommes passés aux enquêtes en ligne vers 2010-2011, nous avons noté une amélioration spectaculaire de la qualité des souvenirs de vote. Ils se sont révélés presque parfaits pour la présidentielle de 2017, qui a été celle où les sondages ont été les plus précis dans leur dernière mesure. Récemment, nous observons une légère détérioration, mais sans commune mesure avec l’époque des enquêtes téléphoniques. Nous constatons parfois une sous-estimation du vote Macron, une surestimation du vote Marine Le Pen et une sous-estimation du vote Mélenchon. En moyenne, les souvenirs de vote pour Mélenchon se situent entre 14 et 16 %, loin des 21,5 % obtenus, mais ces distorsions sont bien moindres qu’auparavant.
M. François Kraus, directeur des études actualité et politique de l’Ifop. Cette méthode est en effet très classique. Historiquement, nous travaillions sur des échantillons de 1 000 personnes, mais la fiche méthodologique que vous avez montrée indique 1 200 personnes. Nous avons pris en compte l’augmentation de l’abstention, qui réduit la base de personnes en situation de se prononcer sur un vote.
L’Ifop, comme plusieurs de ses confrères, travaille avec des partenaires d’access panels reconnus, notamment Dynata et Bilendi. Ceux-ci effectuent des contrôles lors du recrutement de leurs panélistes et de l’envoi des invitations par mail. Pendant l’enquête, nous utilisons des questions pièges et différents moyens de contrôle pour identifier les répondants qui donneraient des réponses aberrantes. Lors du redressement et du cumul de l’échantillon, nous effectuons encore des contrôles pour éliminer les réponses les plus incohérentes.
Bien sûr, aucun système n’est parfait. Même dans les enquêtes téléphoniques ou en face-à-face, il arrive que des personnes donnent des réponses erronées. Cependant, nous faisons tout notre possible pour limiter ce type de biais. Nous contrôlons les résultats statistiques en appliquant une pondération à l’échantillon pour le rendre représentatif en termes de données sociodémographiques, géographiques et de niveau de diplôme. C’est particulièrement important, car toutes les enquêtes tendent à sur-représenter les niveaux de diplôme élevés et à sous-représenter les niveaux socioculturels les plus bas et les personnes d’origine étrangère maîtrisant mal la langue.
En plus de ce retraitement, nous ajustons les résultats en fonction des données du ministère de l’intérieur sur la participation et le vote au scrutin le plus récent, généralement la présidentielle. Pour des élections spécifiques comme les européennes, nous prenons en compte le dernier scrutin du même type.
L’outil n’est certes pas parfait, mais les dernières élections, notamment les européennes et les législatives, ont montré que la méthode en ligne était plutôt fiable pour les intentions de vote au niveau national.
M. Fédéric Dabi. À l’approche de l’élection présidentielle, comme en 2012, 2017 et 2022, nous mettrons en place un rolling, c’est-à-dire une enquête continue. Pour chaque publication quotidienne de nos intentions de vote, nous pourrons ainsi nous appuyer sur un échantillon d’au moins 3 000 personnes, dont 2 600 électeurs, ce qui réduira considérablement les marges d’erreur.
M. le président Thomas Cazenave. Comment fonctionne la sous-traitance sur les échantillons et comment la qualité de l’échantillonnage est-elle contrôlée ?
Mme Adelaïde Zulfikarpasic, directrice générale de BVA Xsight. Cet échange ouvert nous semble utile et sain en démocratie. Certains propos figurant dans la proposition de résolution et motivant la création de cette commission nous semblent toutefois empreints de préjugés que nous espérons pouvoir dissiper aujourd’hui en démontrant notre professionnalisme et la technologie qui guide notre profession.
En France, aucun mode de recueil n’est parfait. Nous rencontrons d’ailleurs des difficultés croissantes avec le mode de recueil téléphonique, qui sont exacerbées par certaines dispositions législatives, notamment la loi contre le démarchage téléphonique, qui compliquent notre tâche. Il y a plus de vingt ans, il fallait environ dix appels pour joindre un Français au téléphone. Aujourd’hui, les taux de décrochés, y compris pour des enquêtes nationales, peuvent atteindre 1 pour 40, voire 1 pour 50 ou plus, ce qui rend le processus extrêmement complexe.
Le recueil en face-à-face est également compliqué et coûteux. Dans ce contexte, Internet est aujourd’hui le mode de recueil qui nous permet d’obtenir la meilleure représentativité et de toucher le plus large éventail de catégories de population. Avec la pénétration croissante d’Internet, nous touchons désormais quasiment l’ensemble de la population. Concernant la fiabilité, ce mode de recueil favorise davantage la sincérité des réponses en réduisant le biais de désirabilité sociale qui peut exister face à un enquêteur.
Nous réalisons aujourd’hui la plupart de nos enquêtes, notamment politiques ou pré-électorales, par Internet. Chez BVA, nous n’avons pas de panel propriétaire, car nous considérons que la gestion d’un panel est un métier à part entière. Nous faisons appel à différents prestataires, tels que Bilendi et Dynata, pour sous-traiter la réalisation de nos enquêtes.
Nous ne sous-traitons pas la définition de la structure d’échantillon souhaitée. Nous fournissons aux prestataires des consignes strictes sur la taille de l’échantillon et les quotas à appliquer, avec des objectifs précis pour chaque quota. C’est un travail collaboratif entre le prestataire et l’institut. Le prestataire applique les quotas demandés et effectue un suivi de terrain permanent. Nos équipes contrôlent et suivent le processus quotidiennement, ajustant si nécessaire pour atteindre la structure souhaitée, basée sur les données de l’Insee.
Le prestataire effectue un contrôle précis, vérifiant notamment les répondants trop rapides. De notre côté, nous effectuons un contrôle supplémentaire pour assurer la qualité des données, utilisant des outils d’intelligence artificielle pour analyser les verbatims, détecter les duplications de données et prévenir tout risque d’intrusion dans le système.
M. Bernard Sananès, président d’Elabe. Nous sommes disposés à expliquer notre méthodologie aux parlementaires ou à un public plus large, même si beaucoup de données sont déjà publiques, soit dans nos déclarations à la Commission des sondages, soit sur des sites Internet. Il est important de noter que les questions posées sont souvent plus longues et détaillées que ce qui peut apparaître dans la restitution médiatique. Les médias ne reprennent parfois qu’un titre, ce qui est le propre du métier de journaliste et ne constitue pas une critique. Nous sommes très attentifs à ce que l’on appelle les mises à niveau, c’est-à-dire l’explication de la problématique de la manière la plus neutre possible, ce qui prend souvent quatre lignes et ne se retrouve pas toujours dans une dépêche ou un reportage.
Dans ce débat, nous pensons qu’il ne doit pas y avoir d’a priori. Aucun d’entre nous ne prétend être infaillible. Nous exerçons un métier de précision et d’expertise, avec une recherche constante de fiabilité, par honnêteté envers nos clients, mais aussi par intérêt, car la fiabilité est un critère essentiel pour les institutions, entreprises ou médias qui choisissent de travailler avec nous.
Bien qu’un sondage ne soit pas une prédiction, nous ne sommes pas satisfaits lorsque notre dernière intention de vote s’éloigne du résultat final. Nous revendiquons une forme de droit à l’erreur, l’essentiel étant de progresser. Après 2002, même si Elabe n’existait pas encore, de nombreuses modifications, évolutions et améliorations sont intervenues dans les processus. Les contrôles sur les panels sont nécessaires, et nous avons d’ailleurs été auditionnés récemment par la Commission des sondages à ce sujet.
Nous collaborons systématiquement avec le même panéliste pour nos sondages, ce qui permet d’établir des méthodes de travail cohérentes et des échantillons comparables. Des processus de contrôle ont été mis en place pour éviter les problèmes évoqués dans l’enquête du Monde. Concernant la rémunération, les répondants ne sont pas salariés, mais dédommagés pour leur temps. Par exemple, un questionnaire de dix minutes rapporte environ 70 à 75 points, soit l’équivalent de 1,10 euro en points cadeaux. Il est donc très difficile de vivre de cette activité. Nous considérons ces incitations comme un moyen de garantir la représentativité, car sans elles, seules les personnes intéressées par le sujet répondraient probablement.
M. François Miquet-Marty, président de Viavoice. L’incitation des répondants sur des sujets politiques permet d’assurer une plus grande fidélité et d’élargir considérablement l’échantillon au-delà des personnes naturellement intéressées par la chose publique. En examinant les écarts entre les sondages pré-électoraux et les résultats réels des scrutins, on constate une nette amélioration des méthodes depuis les années 1990. Les écarts se sont considérablement réduits. J’ai récemment calculé l’écart moyen entre les dernières intentions de vote pour les quatre derniers scrutins et les résultats réels : il n’est que de 0,88 point par candidat ou liste. Cette démarche empirique que nous adoptons plaide en faveur d’un débat continu et d’un enrichissement de nos méthodes. Le soin que nous apportons à cette approche est indispensable pour garantir la qualité de nos résultats.
M. Bernard Sananès. La reconstitution du vote est un sujet crucial. Elle est généralement plus aisée pour les scrutins déterminants, notamment l’élection présidentielle. Cependant, nous avons rencontré des difficultés après l’élection présidentielle de 2017 pour trouver suffisamment de personnes reconstituant le vote pour le candidat de droite, devenu un vote « caché ». Il a fallu deux à trois ans pour le retrouver dans nos échantillons. Nous sommes également attentifs au fait que le vote des dernières élections municipales s’est déroulé pendant la période du Covid, avec une abstention très forte. La reconstitution de ce vote pourrait s’avérer plus complexe que d’habitude.
M. Antoine Léaument, rapporteur. Comment vérifiez-vous que les gens ne vous mentent pas ? Par exemple, si je déclare être une femme de 45 ans ayant voté pour Emmanuel Macron à la dernière élection présidentielle alors que ce n’est pas le cas, comment vous en assurez-vous ? Comment vérifiez-vous la véracité des réponses d’une personne interrogée par Internet, que vous ne pouvez pas voir ? Vérifiez-vous la cohérence des réponses individuelles ? Faites-vous confiance aux répondants ? Avez-vous des moyens de vérification ? Et comment les panélistes, auxquels la plupart d’entre vous font appel, s’assurent-ils que les gens ne mentent pas ?
M. Jean-Daniel Lévy, directeur délégué Harris Interactive France. En général, nous n’avons pas la possibilité de vérifier le genre, l’âge, la catégorie sociale ou le vote de chaque membre de l’échantillon. Cependant, nous abordons cette problématique sous deux angles. Premièrement, nous nous demandons si beaucoup de personnes sont réellement disposées à consacrer du temps pour répondre à une enquête en mentant délibérément. Bien que cela arrive, nous parvenons à les identifier assez facilement. Ces répondants ont tendance à donner des réponses stéréotypées, comme répondre systématiquement oui ou non à toutes les questions. Ils peuvent aussi avoir des temps de réponse anormalement courts ou longs par rapport à la moyenne. Dans les questions ouvertes, certains fournissent des réponses incohérentes. Nous intégrons également des questions de contrôle dans nos questionnaires pour détecter les incohérences. Ces méthodes nous permettent de valider au maximum l’ensemble des réponses qui nous sont données. Deuxièmement, dans le cas d’enquêtes barométriques où nous interrogeons régulièrement des personnes aux profils similaires, nous pouvons non seulement analyser les résultats pour l’ensemble de la population, mais aussi par sous-catégories démographiques, sociales, politiques, etc. Cette approche nous permet de vérifier la cohérence des résultats dans le temps et entre les différents groupes.
En comparant les résultats par sous-catégorie de population d’une vague à l’autre, nous observons des évolutions relativement faibles. Cela nous indique que, bien qu’il y ait probablement des répondants peu sérieux, leur impact statistique sur le résultat global est négligeable, particulièrement lorsque nous travaillons avec des échantillons conséquents. Il est important de souligner que nous engageons collectivement notre responsabilité en publiant ces enquêtes. Pour la plupart d’entre nous, les sondages publiés ne représentent qu’une part marginale de notre activité et de notre chiffre d’affaires. La plupart de nos clients sont des acteurs privés, notamment dans le domaine du marketing, qui utilisent nos enquêtes pour leurs stratégies. Ces clients emploient des protocoles similaires à ceux que nous avons évoqués, fondés sur des échantillons de panélistes, qu’ils soient sous-traitants ou intégrés comme à l’institut Harris Interactive. Ces enquêtes les aident à prendre des décisions stratégiques concernant, par exemple, la tarification ou le packaging. Notre responsabilité s’étend donc à l’ensemble de notre activité, qui se doit d’être irréprochable, non seulement publiquement, mais aussi et surtout pour nos clients qui nous observent et évaluent la pertinence de nos méthodes pour leurs propres besoins confidentiels.
M. le président Thomas Cazenave. Si les échantillons présentaient des biais importants ou des problèmes, y compris des comportements stratégiques des répondants, j’imagine que cela se refléterait dans vos résultats finaux, notamment dans les écarts entre les sondages et les résultats réels. Vous avez mentionné que ces écarts vous semblaient relativement faibles. Une question importante se pose : ces écarts ont-ils tendance à diminuer au fil du temps ? En d’autres termes, la qualité des sondages s’est-elle améliorée ces dernières années, notamment avec l’utilisation de nouvelles méthodes d’enquête par Internet ? Pouvez-vous mesurer cette évolution au sein de la profession et ainsi garantir un contrôle qualité final, en comparant vos résultats au vote effectif ?
M. François Miquet-Marty. Bien que je n’aie pas analysé toutes les élections depuis 1981, je peux vous donner des chiffres récents concernant l’écart moyen entre les derniers sondages et les résultats réels, candidat par candidat ou liste par liste. Pour l’élection présidentielle de 2022, cet écart était de 1,28. Pour les législatives de 2022, il était de 0,98. Les européennes de 2024 ont vu un écart de 0,41 et les législatives de 2024 de 0,86. Ces chiffres contrastent nettement avec ceux de la présidentielle de 1995, où les écarts pour les principaux candidats pouvaient atteindre 3 points. C’était une époque différente, avec des méthodes de sondage différentes. Nous partageons le sentiment de responsabilité évoqué par Jean-Daniel Lévy et la volonté d’amélioration constante. Les méthodologies en ligne actuelles sont plus pertinentes et efficaces que les enquêtes en face-à-face d’autrefois. À l’époque, pour interroger 1 000 personnes, nous mobilisions au moins une trentaine d’enquêteurs répartis sur le territoire métropolitain, chacun ne couvrant qu’une zone limitée. Aujourd’hui, le digital permet une dispersion bien meilleure, avec des outils de suivi plus performants. Ces évolutions constituent des garanties supplémentaires. Nous ne prétendons pas que tout est parfait, mais nous nous efforçons constamment d’améliorer nos méthodes. Il est clair que la situation ne s’est pas dégradée, bien au contraire.
M. Frédéric Micheau, directeur général adjoint et directeur du pôle opinion OpinionWay. Une étude américaine publiée en 2016 sur la base de 26 000 sondages portant sur plus de 300 élections dans 45 pays entre 1942 et 2016 montre un accroissement très net de la précision et de la fiabilité des sondages portant sur les intentions de vote. D’autres études scientifiques prouvent aussi que plus ces sondages sont réalisés à proximité du scrutin, plus ils gagnent en précision et en fiabilité.
M. Antoine Léaument, rapporteur. Vous mentionnez un écart moyen de 1,28 % pour la dernière élection présidentielle, mais pour certains candidats, notamment Jean-Luc Mélenchon, les écarts sont nettement plus importants, allant de 4 à 6 points selon les instituts de sondage, ce qui dépasse largement les marges d’erreur habituelles. L’écart entre Jean-Luc Mélenchon et Marine Le Pen, qui étaient en lice pour la deuxième position, variait de 2 à 7 points. Ces écarts assez importants soulèvent des questions sur les impacts de vos méthodes.
En me fondant sur le dernier sondage public disponible sur le site de la Commission des sondages concernant les intentions de vote pour l’élection présidentielle, je constate que, pour Jean-Luc Mélenchon, l’échantillon brut de personnes se souvenant avoir voté pour lui était de 14,7 %, redressé à 21,5 %, ce qui reste inférieur à son score réel d’au moins 22 %. Le redressement est donc d’environ 7 points. Cependant, lorsqu’on examine la question sur le souhait de voir Jean-Luc Mélenchon candidat à la prochaine élection présidentielle, on passe de 15,2 % en brut à seulement 16 % après redressement. Je m’interroge sur les écarts observés entre les échantillons bruts et les résultats redressés pour certains candidats. Comment expliquez-vous que, pour certains, les échantillons bruts soient proches de la réalité, alors que pour d’autres, les redressements politiques semblent plus conséquents ? Je note en particulier un écart important pour un candidat spécifique, dont le résultat brut est déjà supérieur à l’échantillon initial. Pouvez-vous détailler la méthode de redressement politique ?
Vous avez mentionné précédemment que les déclarations de vote aux élections présidentielles antérieures sont de plus en plus précises grâce à Internet. Certains électorats ne sont-ils pas structurellement sous-représentés dans vos échantillons ? J’ai l’impression, en examinant plusieurs enquêtes, que l’électorat de Jean-Luc Mélenchon ou plus largement de la gauche est systématiquement sous-représenté. Cela pourrait-il être lié à la structure des échantillons que vous êtes en mesure de fournir ?
M. le président Thomas Cazenave. La question centrale semble être : Jean-Luc Mélenchon a-t-il été sous-estimé ? Cette interrogation revient régulièrement dans les interventions du rapporteur et il est important que nous y apportions une réponse claire.
M. Antoine Léaument, rapporteur. Je vais me concentrer sur les intentions de vote pour l’élection présidentielle de février 2022, soit deux mois avant le scrutin. Nous constatons une sous-estimation de Jean-Luc Mélenchon, une surestimation de Valérie Pécresse et d’Éric Zemmour, ainsi qu’une sous-estimation de Marine Le Pen par rapport à leur résultat final. En analysant les données sur une période prolongée, nous observons une relative stabilité suivie de variations importantes vers la fin, notamment pour Marine Le Pen, Jean-Luc Mélenchon, Éric Zemmour et Valérie Pécresse. Les intentions de vote pour Marine Le Pen et Jean-Luc Mélenchon augmentent fortement, tandis que celles pour Éric Zemmour et Valérie Pécresse chutent drastiquement. Comment expliquer des variations aussi importantes sur la fin de la campagne ? Estimez-vous que la publication de ces sondages peut influencer l’élection ? Cette question est cruciale pour nous, d’autant plus que des enquêtes sur les seconds choix potentiels des électeurs ont été menées pendant la campagne présidentielle.
Un sondage réalisé le 8 avril 2022, à quelques jours du scrutin, présentait des seconds choix et des potentiels hauts et bas si les électeurs changeaient de vote. Ces données montrent des écarts qui, s’ils étaient correctement estimés, pourraient modifier significativement les résultats. Les trois candidats en tête se retrouvent dans un mouchoir de poche. Cela ne pourrait-il pas dissuader certains électeurs de se rendre aux urnes ou les inciter à changer leur vote au dernier moment ? Si ces estimations étaient différentes, ne pourrait-on pas observer des changements de choix électoraux dans cette dernière ligne droite ?
M. Fédéric Dabi. Je suis très touché par la passion du rapporteur pour les sondages de l’Ifop. L’enquête que vous avez mentionnée n’est pas une enquête d’intentions de vote, mais une étude que nous menons régulièrement sur les souhaits et les pronostics pour les futurs candidats à la présidentielle de 2027. Cette élection sera marquée par un renouvellement, avec probablement pléthore de nouveaux candidats dans tous les blocs politiques. Il est donc intéressant de suivre les souhaits et les pronostics des électeurs.
Je rejoins les propos de François Miquet-Marty concernant le vote Fillon en 2017. Nous avons observé une sous-déclaration de ce dernier encore plus prononcée que celle du vote pour Jean-Luc Mélenchon, avec des résultats parfois à 10, 11 ou 12 %, pour des raisons que l’on peut imaginer. Quant à Marine Le Pen qui, dans cette enquête est légèrement sur-déclarée, de 2 points, et à Emmanuel Macron, qui est un peu sous-déclaré, cela reflète la perception des Français au moment de l’enquête concernant les candidats passés. Il faut noter que Jean-Luc Mélenchon, sans polémique, est l’homme politique le plus impopulaire dans nos baromètres avec Éric Zemmour. Sur les réseaux sociaux, notamment X, on a l’impression qu’Éric Zemmour et Jean‑Luc Mélenchon sont les plus populaires, alors que dans les enquêtes de popularité, ils sont plutôt en difficulté. Il est important de faire la distinction entre popularité et souhait de candidature. Par exemple, dans nos deux dernières enquêtes, Dominique de Villepin est l’homme politique le plus populaire, mais en termes de souhait de candidature, il est plutôt en retrait.
Concernant le score de Jean-Luc Mélenchon, il est important de noter que nos enquêtes se concentrent sur la France métropolitaine, excluant les territoires d’outre-mer et la Corse. Cette limitation géographique peut expliquer en partie la sous-estimation du score de Jean-Luc Mélenchon dans nos sondages. En effet, alors que nous l’estimions à environ 14,5 %, il a finalement obtenu 21 % des voix au niveau national et 22,2 % en incluant l’ensemble du territoire français. Cette sous-estimation récurrente dans les enquêtes pourrait refléter une difficulté à capter l’opinion publique concernant Jean-Luc Mélenchon. Dans notre dernière enquête, le souhait de sa candidature est passé de 15 % en données brutes à 16 % après redressement fondé sur le vote présidentiel. Il est intéressant de noter qu’une partie non négligeable des électeurs déclarés de Mélenchon en 2022 ne souhaite pas sa candidature pour la prochaine élection, probablement entre 30 et 40 %.
Concernant l’historique des estimations pour Jean-Luc Mélenchon, nos instituts ont généralement sous-estimé ses scores lors des trois dernières élections présidentielles. En 2012, nos dernières estimations étaient de 12,5 % à 13 %, alors qu’il a obtenu 11 %. En 2017, nos dernières mesures étaient plus précises, avec 18,5 % à 19 % pour un résultat final de 19,58 %. En 2022, nous l’avons effectivement estimé entre 17,5 % et 18 %, alors qu’il a finalement obtenu 21,95 % (21,5 % en France métropolitaine). Lors de la dernière élection, nous avons observé une forte poussée de Mélenchon dans les derniers jours que nous n’avons pas pu complètement intégrer dans nos estimations. Environ 15 à 18 % des électeurs se sont décidés dans la dernière journée, en partie du fait du « vote utile ». Pour les élections européennes, nos dernières estimations pour la liste conduite par Manon Aubry étaient de 9 % le vendredi et de 9,5 % le samedi, pour un résultat final de 9,8 %, ce qui montre une bonne précision.
M. Antoine Léaument, rapporteur. Ma préoccupation principale porte sur votre capacité à obtenir un échantillon brut représentatif de la réalité. Vous avez mentionné précédemment que certaines catégories sociales sont plus difficiles à inclure dans vos panels initiaux. Or il me semble que ce sont ces catégories qui sont susceptibles de voter davantage pour des candidats situés à gauche de l’échiquier politique, pas nécessairement le seul Jean-Luc Mélenchon.
Concernant le dernier sondage et la question du « vote utile », on constate que l’augmentation du vote Mélenchon à la fin ne semble pas se faire au détriment des autres candidats. Il s’agirait plutôt d’une mobilisation accrue d’un électorat qui n’avait pas été anticipée. Cela soulève également la question de l’estimation de la participation. Nous notons généralement une sous-estimation de la participation lorsque les sondages sont réalisés bien en amont de l’élection, ce qui est compréhensible. Les personnes sont moins enclines à affirmer leur intention de voter plusieurs mois avant l’échéance. Il semble que le niveau de participation estimé soit systématiquement plus faible que la réalité, et cette estimation ne fait pas l’objet d’un redressement. Or nous observons précisément un sursaut de participation qui se dirige particulièrement vers certaines options politiques.
M. le président Thomas Cazenave. Ce que nous observons sur le graphique présenté par le rapporteur résulte-t-il d’un rattrapage d’écarts mal perçus initialement ou bien s’agit-il d’une réelle évolution de l’opinion publique au cours des dernières semaines ou des derniers mois ?
M. Gaël Sliman, président d’Odoxa. Ce graphique est un outil similaire à l’agrégateur du Monde, qui calcule la moyenne des scores observés dans les intentions de vote par les différents instituts de sondage. Il existe un vrai malentendu concernant la précision des sondages. Nous constatons souvent un dialogue de sourds entre les sondeurs qui affirment une grande précision et la perception extérieure. Il faut noter que, ces dernières années, nous avons assisté à des échecs importants des sondages dans de grandes démocraties voisines, notamment aux États-Unis et en Grande-Bretagne pour le Brexit. Cela contraste avec notre situation en France, où nous publions des sondages avec des écarts de 0,8 point sur les dernières intentions de vote, des scores précis pour les différents candidats et des prédictions correctes sur l’ordre d’arrivée et le vainqueur.
Il est donc crucial de comprendre ce que nous considérons comme une erreur. Vous avez présenté un sondage de notre confrère Harris Interactive datant de février, je crois. Vous vous demandez comment expliquer qu’un candidat estimé à 12 % finisse par obtenir 21,5 %. La réponse est simple : un sondage n’est pas un pronostic, mais une mesure à un instant « t » du rapport de force politique. Il y a une dynamique de campagne qui évolue au fil du temps.
Le graphique – et l’agrégateur du Monde est encore plus clair – dégage une tendance qui s’accélère vers la fin. Cependant, il apparaît qu’il n’y a vraisemblablement pas eu de problème dans l’évaluation du score de Jean-Luc Mélenchon par les instituts de sondage à un instant « t ». Si tel était le cas, ce phénomène s’observerait systématiquement lors de tous les scrutins, et on ne pourrait pas se réfugier derrière les courbes. De plus, ce ne serait pas uniquement l’électorat de La France insoumise, de la gauche radicale ou de Jean-Luc Mélenchon qui pâtirait de cette sous-estimation. Dans ce graphique, on observe également le phénomène inverse avec une dynamique négative pour Éric Zemmour et Valérie Pécresse. Si l’on s’arrête au dernier sondage publié, on constate que Valérie Pécresse et Éric Zemmour sont surestimés par rapport à leur résultat final, mais tous deux sont en baisse et cette tendance s’accentuera.
La question pertinente que vous soulevez est de savoir si cette évolution s’explique par un phénomène de dynamique. La réponse est oui, et vous avez raison de souligner que la captation des autres électorats de gauche n’explique qu’en partie la progression de Jean-Luc Mélenchon. Une autre explication réside dans la mobilisation d’électeurs initialement peu intéressés par le vote, mais qui, à l’approche de l’échéance et face à la perception d’une bonne campagne menée par Jean-Luc Mélenchon, décident finalement de participer au scrutin.
Cela nous amène à la question de l’influence des sondages sur la vie politique et le vote. Nous sommes souvent confrontés à des critiques contradictoires : d’une part, on nous reproche de nous tromper constamment, et d’autre part, on nous accuse d’annoncer à l’avance les résultats et donc de façonner l’opinion. Il est difficile de faire les deux simultanément, mais nous subissons ces deux reproches. De nombreuses études ont été menées sur les effets bandwagon ou underdog pour expliquer comment le candidat en tête dans les sondages est avantagé, tandis que celui qui est donné perdant est désavantagé. J’ai commencé ma carrière dans les sondages il y a très longtemps, notamment avec François Miquet-Marty. Nous avons travaillé ensemble à BVA lors de la présidentielle de 2002 et nous avons vécu en France un crash des sondages avec Jean-Marie Le Pen estimé au plus haut à 14 % au dernier moment. Depuis, dans l’évolution des pratiques de sondage, nous avons plutôt progressé que régressé, comme l’ont souligné mes collègues.
M. Brice Teinturier, directeur délégué d’Ipsos. L’accord observé entre les évolutions mesurées à partir d’un sondage réalisé un mois avant le scrutin et le résultat final est une excellente nouvelle pour la démocratie et pour vous, responsables politiques. Cela démontre qu’une campagne produit des effets et qu’il serait étonnant de simplement comparer un résultat d’un mois avant l’élection avec le résultat final pour conclure à un problème. Il est crucial de reconnaître que la campagne influence les comportements, ce qui est positif car cela prouve que les Français sont attentifs aux débats et peuvent modifier leur opinion en conséquence.
Chez Ipsos, nous avons mis en place depuis 2017 un panel au sens technique, c’est-à-dire un large échantillon initial d’électeurs que nous suivons dans le temps. Cette méthode présente l’avantage considérable de pouvoir mesurer précisément qui change d’avis et pourquoi, permettant ainsi de mieux comprendre les dynamiques de campagne. Nos outils visent à comprendre ce que pensent les Français et leurs motivations, au-delà de la simple prédiction. Ce panel, réalisé en collaboration avec le Cevipof et divers partenaires pour Le Monde, met en évidence l’extraordinaire fluidité de l’opinion publique durant une campagne, ce qui est une bonne nouvelle pour la démocratie, même si cela complique notre tâche. Les comportements électoraux ne se limitent pas aux changements de candidat. Certains électeurs peuvent passer de la certitude d’aller voter à l’hésitation, tandis que d’autres, initialement peu mobilisés, peuvent finalement décider de participer au scrutin.
Un résultat d’intention de vote est donc une combinaison de flux différents d’électeurs : certains se mobilisent alors que ce n’était pas le cas auparavant et d’autres changent de candidat. C’est ce solde qui constitue le chiffre que nous publions en termes d’intention de vote. Nous avons cherché à illustrer cette alchimie de mobilisation différentielle et de changement de candidat à travers le tableau que vous avez mentionné, montrant les potentiels de mobilité électorale. Fondé sur une hypothèse selon laquelle la moitié des électeurs déclarant pouvoir changer d’avis voteraient pour leur second choix, il vise à attirer l’attention sur la fluidité de l’électorat et à ne pas se focaliser uniquement sur le résultat électoral. Notre objectif est de fournir des clés de compréhension de la dynamique de campagne plutôt que de figer les résultats.
Concernant Jean-Luc Mélenchon, il est incontestable que, lors de cette élection présidentielle, les instituts ont sous-estimé son résultat final. Cependant, il faut noter que ce n’est pas le cas pour toutes les élections, les européennes ou les législatives ayant été plutôt bien prédites. Nous avions parfaitement identifié la tendance à l’augmentation continue de Jean‑Luc Mélenchon, comme vous l’aviez d’ailleurs noté dans certains de vos tweets, monsieur le rapporteur. Nous étions cependant en dessous du niveau final. Il faut prendre en compte la cristallisation de plus en plus tardive du vote. Dans de nombreux sondages, en France et dans le monde, entre 15 et 20 % des électeurs déclarent prendre leur décision le jour même du scrutin. Bien que l’on puisse penser que cela se distribuerait aléatoirement, ces décisions de dernière minute peuvent s’inscrire dans une dynamique de vote particulière, ce qui peut expliquer un écart entre les prévisions et le résultat final.
Notre métier consiste à essayer de fournir des clés de compréhension. Certes, nous cherchons à nous rapprocher du résultat final, mais notre objectif principal est d’éclairer le débat et d’objectiver certaines notions. La question de la fluidité des intentions de vote est centrale. C’est pourquoi nous utilisons ce panel, entre autres outils. Je pense que c’est utile dans une démocratie et pour les électeurs. Chacun peut ensuite faire le point, notamment sur l’influence supposée des sondages sur le comportement électoral, qui n’a jamais été démontrée mais qui reste un objet de croyance ou d’interprétation pas toujours fondé, mais chaque électeur peut décider de prendre en compte ou non ce que les enquêtes d’opinion et les sondages électoraux indiquent.
M. Jean-Daniel Lévy. Vous avez présenté un sondage de mon institut réalisé à trois mois de l’élection. Il est important de souligner que la vie politique n’est pas figée à deux mois d’une élection, quelle qu’elle soit. De nombreux éléments entrent en jeu. Cette enquête spécifique, si je ne me trompe pas, a été réalisée du 18 au 21 février, soit trois jours avant l’invasion de l’Ukraine par la Russie. Or cet événement a eu des effets indéniables sur la campagne, que nous avons relevés dans toutes nos enquêtes ultérieures. Ces effets n’étaient pas nécessairement ceux attendus. Pour résumer, deux candidats présentés comme n’étant pas personnellement les plus critiques à l’égard de Vladimir Poutine ont progressé, à savoir Jean‑Luc Mélenchon et Marine Le Pen. En revanche, Éric Zemmour, perçu comme plutôt favorable à Poutine, a entamé une baisse notable. Il était mesuré à cette époque à 15 % et il a ensuite baissé de manière structurelle. Les dynamiques globales ont été correctement identifiées.
Le jour du scrutin, chez Harris Interactive, nous interrogeons 6 000 personnes inscrites sur les listes électorales. Cela nous permet non seulement de connaître leur comportement électoral mais aussi leurs motivations de vote et d’obtenir une sociologie électorale claire. Nous leur posons des questions supplémentaires, notamment sur le moment où elles ont arrêté leur choix, que ce soit pour aller voter ou pour choisir un candidat.
Le jour du premier tour de l’élection présidentielle de 2022, 20 % des électeurs nous ont déclaré avoir décidé au cours des derniers jours de se déplacer pour aller voter. Ce chiffre monte à 24 % pour l’électorat de Jean-Luc Mélenchon. Concernant le choix du candidat, 30 % des électeurs déclarent avoir arrêté leur décision dans les derniers jours, un pourcentage qui atteint 42 % pour l’électorat de Jean-Luc Mélenchon. Ces dynamiques et accélérations de dernière minute expliquent en partie les écarts entre les dernières mesures effectuées et le résultat réel, ainsi que les différences observées entre la mesure du vendredi et le résultat du dimanche.
M. Antoine Léaument, rapporteur. L’estimation des candidats de gauche, à part pour Jean-Luc Mélenchon, correspond à peu près au résultat final. Christiane Taubira n’était plus en lice à la fin, mais globalement, on est proche du résultat final. Yannick Jadot est donné à 5 %, mais finit à 4,63 %. Anne Hidalgo est donnée à 2 % et termine à 1,75 %. Fabien Roussel est peut-être un peu surévalué, car il est donné à 4 % pour un résultat final de 2,28 %. Nathalie Arthaud et Philippe Poutou sont à peu près à leur niveau final. Vous mesurez quasiment le bon résultat, sauf pour le candidat Mélenchon. J’ai l’impression qu’il s’agit d’une surmobilisation d’un électorat qui ne se sentait pas représenté ou pas dans le jeu. Par ailleurs, concernant l’intention d’aller voter au premier tour, on voit qu’elle est assez fortement sous-estimée pendant une longue période. Il est logique qu’en octobre 2021, nous soyons très en dessous du résultat final quand nous interrogeons des personnes sur leur intention de voter à l’élection présidentielle.
Essayez-vous de corriger cet écart de participation ? Plutôt que de laisser de côté ces résultats, ne pourriez-vous pas tenter de corriger les écarts de participation en sachant que la participation sera plus élevée à la fin ? J’ai l’impression que vous pouvez faire des redressements sur plusieurs aspects, mais que vous vous interdisez de toucher à la participation, alors que c’est précisément le facteur qui peut avoir le plus d’effets. Pourquoi ne pas redresser ces écarts de participation ? Quand on envisage une participation de personnes certaines d’aller voter à 59 % en octobre 2021, on sait pertinemment qu’une élection présidentielle avec 59 % de participation effective serait très inquiétante pour notre démocratie. Comment expliquez-vous que c’est peut-être l’élément sur lequel vous avez le plus de difficultés à mesurer ou à redresser ?
M. le président Thomas Cazenave. Pourquoi, dans un tel cas, ne procédez-vous pas à ce redressement, au risque d’avoir des résultats qui sont en écart avec ce que nous observons ici ?
M. Jean-Daniel Lévy. Nous nous efforçons collectivement de démontrer que la méthodologie générale de réalisation des enquêtes, quel que soit l’institut, repose sur des protocoles stricts. L’intervention humaine visant à modifier la nature des mesures en fonction d’hypothèses préconçues est quasiment inexistante, hormis dans le choix de la méthode de redressement. Il serait théoriquement possible de partir d’une hypothèse de participation électorale de 50-60 % pour une élection donnée et d’imaginer les conséquences d’une participation finale de 70-75 %, mais cela ne relève pas de notre pratique professionnelle actuelle. Nous ne pouvons pas préjuger à l’avance du taux de participation électorale ni des catégories spécifiques de population qui se déplaceront pour voter.
Une campagne électorale a généralement pour effet d’amener les personnes les moins politisées à s’intéresser au scrutin, à décider d’aller voter et finalement à choisir un candidat. L’évolution de la participation peut être mesurée, comme l’illustre l’exemple de la campagne référendaire sur le traité constitutionnel européen (TCE) en 2004-2005. Au début du débat, environ 60 % des Français étaient favorables au TCE et 40 % opposés, avec une anticipation de participation élevée. En mars 2005, le débat sur la directive Bolkestein a fondamentalement modifié la perception des enjeux du scrutin par les Français. En quelques semaines, nous avons observé une évolution considérable des intentions de vote, avec un gain de 14 points pour le vote « non ». Ce changement n’était pas tant dû à des Français ayant changé d’avis du jour au lendemain, mais plutôt à la mobilisation de catégories de population qui considéraient initialement qu’il n’y avait pas d’enjeu à se déplacer pour un scrutin apparemment institutionnel. Le débat est devenu politique, entraînant une augmentation de la participation électorale que personne n’aurait pu prévoir quelques semaines auparavant.
L’histoire électorale nous a réservé d’autres surprises. Au second tour de l’élection présidentielle, en 2017 et en 2022, nous avons constaté une baisse de la participation, phénomène inédit depuis 1969, ainsi qu’un nombre record de votes blancs et nuls. Ces processus électoraux ne s’étaient jamais produits auparavant.
Il est possible de construire des hypothèses, mais cela nous éloignerait de notre approche reposant sur des protocoles d’enquête empiriques. Notre méthodologie vise à appliquer des protocoles sans chercher à extrapoler les résultats, ce qui nous permet de rester dans le cadre de notre activité professionnelle.
M. Gaël Sliman. Nous avons observé des dynamiques de campagne qui peuvent se créer en faveur de l’un ou l’autre candidat. L’exemple de Jean-Luc Mélenchon lors de la dernière élection présidentielle illustre le cas d’un candidat bénéficiant d’un vote utile à gauche et d’une mobilisation accrue de certaines catégories de population. Les sondages ont potentiellement contribué à cette dynamique en montrant sa progression, alors que d’autres candidats de gauche stagnaient ou reculaient. Cependant, ce phénomène n’est pas systématique. En 1995, par exemple, la dynamique a été plutôt inverse : Édouard Balladur, donné favori, a vu Jacques Chirac se remobiliser. Cela nous ramène à la critique récurrente qui nous est faite concernant les erreurs des sondages réalisés longtemps avant les scrutins. Il est vrai que, jusqu’à récemment, le favori des sondages à neuf mois ou un an d’une élection finissait souvent par ne pas être élu, comme ce fut le cas pour Lionel Jospin ou Alain Juppé.
Ce qui importe dans les dynamiques de campagne, c’est que nous ne faisons pas de pronostics. Nous mesurons le rapport de force à un moment donné. Si l’élection présidentielle avait lieu le dimanche suivant, la participation serait probablement différente de celle d’une élection présidentielle classique, pour laquelle les gens ont eu le temps de se préparer, de lire les programmes et d’entendre les candidats en campagne. Notre rôle est de prendre des instantanés précis de la situation politique.
Mme Adelaïde Zulfikarpasic. Il est probable que les sondages, comme toute information diffusée dans le débat public, ont une influence sur le comportement électoral. Cependant, il n’existe pas de moyen de la mesurer précisément. Des chercheurs du Cevipof ont évoqué la nécessité d’expérimentations complexes, impliquant la mise à l’écart totale de certains citoyens des sondages et des médias, ce qui est difficilement réalisable. On peut émettre l’hypothèse que les sondages, comme toute information publique, peuvent influencer le scrutin en fonction de la manière dont les électeurs les interprètent, tout comme ils peuvent être influencés par leurs proches, les médias, les réseaux sociaux ou les discours politiques.
Les sondages présentent l’intérêt, selon la définition donnée par la Commission des sondages, d’objectiver les phénomènes et d’apporter un éclairage précis sur certaines questions, par opposition aux rumeurs ou aux supputations. Dans un contexte politique de campagne souvent polarisé, voire hystérisé, le sondage permet d’objectiver la réalité, notamment concernant les attentes des Français. C’est là un enjeu crucial des sondages : non seulement dépeindre les logiques politiques et électorales, mais aussi comprendre l’état d’esprit des Français, leurs attentes et leurs préoccupations.
L’enquête en elle-même est essentielle et participe au débat politique en apportant de l’objectivité. Cependant, ce qui peut être problématique, c’est l’utilisation qui en est faite par ceux qui commandent, commentent ou exploitent ces enquêtes, qu’il s’agisse de journalistes ou de politiques. Il est important de distinguer l’outil du sondage, réalisé selon des méthodes précises, de l’usage et du commentaire qui en sont faits, lesquels peuvent avoir sur le scrutin une influence potentiellement plus importante encore que l’enquête elle-même.
Mme Laure Salvaing, directrice générale France, Verian. On parle souvent de redressement des résultats ou des intentions de vote, mais il faut être vigilant : il s’agit d’un métier très technique, avec des protocoles extrêmement rigoureux. En réalité, nous redressons des échantillons et non des résultats. Il n’y a donc pas d’intervention humaine sur les résultats eux-mêmes. De la même manière que nous effectuons des redressements socio‑démographiques pour refléter la composition réelle de la population en termes de sexe, d’âge, etc., nous procédons à des redressements sur l’échantillon en fonction des votes passés et de ce qu’ils nous apprennent aujourd’hui. Cette précision est cruciale car elle permet d’éviter les fantasmes d’intervention humaine sur les données.
M. Manuel Bompard (LFI-NFP). L’objectif de cette commission d’enquête est d’examiner l’organisation des élections en France et notre échange avec vous vise à comprendre les éventuels impacts des sondages sur le processus électoral dans son ensemble. Ces impacts peuvent se manifester à différents niveaux, depuis la constitution des listes de candidats jusqu’au résultat du scrutin lui-même.
Concernant la participation, je n’ai pas été convaincu par la réponse donnée précédemment. Lorsqu’on observe l’évolution des estimations de participation sur une longue période, de 12 à 18 mois, on constate une sous-estimation significative à long terme par rapport aux derniers sondages. Or vous avez indiqué que ces estimations de participation sont prises en compte dans le calcul des intentions de vote. Vous pondérez les résultats en fonction de la probabilité déclarée d’aller voter, ce qui signifie que ce chiffre influence nécessairement le résultat d’intentions de vote présenté. Vous affirmez que ce n’est pas votre rôle de donner des estimations de participation, mais c’est pourtant ce que vous faites en utilisant un algorithme qui pondère les intentions de vote. Dans ce contexte, pourquoi ne proposez-vous pas différentes estimations de participation avec les résultats correspondants ? Cela permettrait une interprétation plus nuancée des données.
M. François Kraus. Concernant la participation, notre travail est très complexe. Aux élections régionales de 2021, le taux de participation au premier tour était de 33,3 % et nos estimations variaient entre 31,5 % et 33,5 %. Pour la présidentielle de 2022, au premier tour, le taux réel était de 76,2 % et nos estimations allaient de 73,5 % à 76 %. Au second tour, le taux était de 72 % et nous étions tous proches de ce chiffre. Aux européennes de 2024, le taux réel était de 51,5 % et nos estimations tournaient autour de 52-53 %. Enfin, aux législatives de 2024, le taux était de 66,7 % et nos estimations variaient entre 67,5 % et 69 %. Malgré la difficulté d’estimer la participation, nous nous efforçons tous d’être au plus près de la réalité.
M. Bruno Jeanbart, vice-président d’OpinionWay. Attend-on de nous que nous fassions des pronostics ? À cet effet, il existe d’autres outils comme les marchés prédictifs. Ou bien nous demande-t-on de réaliser des sondages ? Il faut rappeler que le sondage est un instantané au moment où il est réalisé. Les estimations de participation évoquées ici correspondent au moment de leur réalisation. La participation estimée en novembre n’est pas celle du jour du scrutin, et de même les intentions de vote évoluent. Nous ne pouvons pas corriger l’estimation de la participation au moment où nous la réalisons pour une raison simple : ces estimations déterminent les profils des personnes qui vont voter. Si nous décidions arbitrairement d’une participation différente, nous n’aurions pas le profil correspondant à cette nouvelle estimation. Notre métier n’est pas de faire des prévisions, mais de mesurer l’opinion au moment où nous réalisons l’enquête.
M. Bernard Sananès. Ce débat est légitime et nous y sommes souvent confrontés, y compris dans notre entourage. Lorsque vous voulez savoir si un film est bon, vous interrogez les personnes qui sortent de la salle, pas celles qui font la queue ou qui passent simplement devant le cinéma. De la même manière, nous interrogeons les personnes décidées à voter. Nous ne pouvons pas extrapoler à partir d’un taux de participation hypothétique élevé. Par exemple, lors des élections européennes de 2019, la participation a augmenté de façon inattendue dans les derniers jours, ce qui n’avait pas été correctement identifié. Il nous serait impossible d’affecter une prévision électorale à ces nouveaux électeurs. C’est pourquoi nous choisissons d’interroger les personnes décidées à voter, qu’elles en soient certaines, quasi certaines ou qu’elles pensent simplement aller voter.
M. Brice Teinturier. Monsieur Bompard, je comprends votre point : un an avant le scrutin, la mobilisation déclarée est inférieure à ce qu’elle sera. Cela pose-t-il un problème ? Pas plus que pour les intentions de vote mesurées un an avant, qui ne seront évidemment pas au niveau du scrutin final. Si nous voulions établir un système d’hypothèses pour extrapoler les résultats, par exemple en passant d’une participation mesurée de 55 % à une hypothèse de 70 %, nous serions dans des schémas d’extrapolation extrêmement difficiles à gérer sans créer encore plus d’imprécision ou de confusion. Cela reviendrait à attribuer des intentions à des électeurs qui nous disent aujourd’hui ne pas avoir l’intention de voter. Ce n’est pas notre métier. Nous travaillons sur des échantillons représentatifs avec ce que les gens déclarent.
À partir de quand peut-on considérer que ce que les personnes nous disent reflète réellement le corps électoral qui va voter ? Personne ne peut définir précisément ce moment. Nous sommes donc obligés de travailler avec un modèle qui estime ce que donnerait une participation au moment du sondage et ses effets sur les résultats. Nous redressons l’échantillon, pas la participation ou les candidats, mais cela a des effets sur les niveaux. Ensuite, nous suivons l’évolution jusqu’au dernier moment autorisé par la loi, le vendredi à minuit.
M. Manuel Bompard (LFI-Nupes). Je ne suggérais pas de prendre en compte les intentions de vote des personnes qui répondent 1 ou 2 sur 10 concernant leur certitude d’aller voter. Cependant, je constate que les méthodes varient selon les instituts. Certains ne prennent pas en compte les réponses de ceux qui indiquent 9 sur 10 pour leur certitude de voter. En faisant cela, vous faites une hypothèse sur la participation. Je sais que certains instituts prennent en compte les réponses 9 et 10 sur 10 et accordent plus de poids à ces réponses et moins aux autres. Mais le fait que certains instituts excluent les réponses 8 ou 9 sur 10 pose problème à mon sens, tant du point de vue de la fiabilité des intentions de vote calculées que de l’information donnée aux citoyens. En effet, si vous publiez une notice mentionnant un échantillon de 1 100 ou 1 200 personnes, mais que vous en retirez 40 % parce qu’elles ne sont pas certaines d’aller voter, vos intentions de vote sont en réalité calculées sur un échantillon de 600 ou 700 personnes. Les marges d’erreur présentées dans vos notices ne sont alors plus exactes, car elles correspondent à un échantillon de 1 200 personnes et non de 600 ou 700. Il faudrait vérifier si cette méthode ne déforme pas l’application de la loi encadrant les sondages.
Enfin, j’ai entendu deux choses qui me semblent contradictoires. Monsieur Lévy a affirmé qu’il n’y a aucune intervention manuelle, à l’exception du choix parmi différentes colonnes de redressement. Or Madame Salvaing, vous avez dit qu’il n’y a pas du tout d’interventions manuelles. Je voudrais savoir s’il y a ou non des interventions manuelles. S’il y en a pour choisir entre différentes colonnes de redressement, comment sont-elles constituées ? Sur quels paramètres ? Et comment sont-elles choisies ?
M. Gaël Sliman. Chaque institut communique à la Commission des sondages sa méthodologie et ses choix. Tous n’utilisent pas la même méthode pour évaluer les intentions de vote. Chez Odoxa, nous prenons en compte toutes les raisons, notamment l’antériorité par rapport au scrutin. Lorsqu’une personne déclare, plusieurs mois avant le scrutin, qu’elle ira « certainement » ou « probablement » voter, nous l’intégrons dans nos calculs. Si l’on examine l’ensemble des sondages publiés et les scores d’intentions de vote, on constate qu’il n’y a pas de différence significative entre les instituts, qu’ils utilisent une échelle de 9 sur 10, de 10 sur 10 ou qu’ils se fondent sur les réponses « certainement ». Nous avons expliqué à la Commission des sondages qu’à l’approche du scrutin, nous ne retenons que les personnes les plus susceptibles d’aller voter. Cependant, plusieurs mois avant l’élection, nous incluons un échantillon plus large. Il est important de noter que les écarts observés entre les instituts de sondage, notamment concernant Jean-Luc Mélenchon ou La France insoumise, ne s’expliquent pas par ces différences méthodologiques. Ces variations sont davantage liées à la dynamique des campagnes.
Le redressement des données est un processus mécanique et non une « bidouille ». Lorsque nous interrogeons un échantillon représentatif, nous veillons à respecter certains critères démographiques. Si, à la fin de l’enquête, nous constatons une sous-représentation d’un groupe, par exemple les femmes, nous appliquons un coefficient de redressement pour corriger ce biais. Le même principe s’applique pour les électeurs de Jean-Luc Mélenchon dans l’exemple du sondage Harris Interactive que vous avez mentionné. Si nous constatons une sous-représentation des électeurs mélenchonistes dans notre échantillon, nous appliquons un coefficient de redressement à chaque individu ayant déclaré avoir voté pour Mélenchon. Il s’appliquera ensuite à leurs intentions de vote futures, quel que soit le candidat choisi.
Il est crucial de comprendre que nous n’augmentons pas arbitrairement le score d’un candidat pour compenser une sous-estimation passée. Le processus est purement mathématique, sans intervention humaine subjective. Chaque institut de sondage peut en revanche choisir sa méthode de redressement, en combinant par exemple les résultats du second tour de la dernière élection présidentielle, la reconstitution du vote au premier tour, et éventuellement la dernière élection de référence. La Commission des sondages exige depuis quelques années une transparence totale sur ces méthodes et nous impose de maintenir la même approche tout au long d’une campagne électorale. La seule flexibilité qui nous est accordée concerne l’échantillon des votants probables : nous pouvons nous concentrer sur les électeurs les plus certains d’aller voter à l’approche du scrutin, alors que nous incluons un échantillon plus large plusieurs mois avant l’élection.
M. Brice Teinturier. Nous n’avons pas répondu à votre question sur les effets supposés ou réels des enquêtes publiées auprès des électeurs et leur mesure. Je ne sais pas si cela fait partie du cadre de notre discussion.
M. le président Thomas Cazenave. Tout d’abord, je veux rappeler que cette commission d’enquête porte sur l’organisation des élections et non sur une éventuelle sous‑estimation de Jean-Luc Mélenchon dans les sondages électoraux ! Cependant, il est important que nos travaux abordent cette question : soit les sondages se trompent, soit ils ont un effet sur l’électorat. Il est difficile de soutenir ces deux positions simultanément.
Concernant les interrogations sur d’éventuelles interventions manuelles ou une sous-estimation de la participation, avec quelle intentionnalité ces actions seraient-elles menées ? La question fondamentale est de savoir si le métier de sondeur consiste à projeter l’image la plus fidèle possible de l’opinion publique à un instant « t » ou s’il y aurait un objectif caché. Je ne suis pas sondeur, mais je suppose que la qualité d’un institut de sondage se mesure à sa capacité à ne pas se tromper significativement par rapport au résultat final. C’est ce point qu’il faut éclaircir. Quelle serait l’intentionnalité d’un mauvais redressement, d’une mauvaise prise en compte de la participation, voire d’une manipulation manuelle derrière un redressement ?
M. Antoine Léaument, rapporteur. Mon intention n’est pas de remettre en question votre travail, qui suit une certaine logique. Mon intérêt porte sur un problème potentiel lié à la photographie que vous prenez à un instant « t ». Nous savons tous que cette image ne correspond pas nécessairement à la situation finale. Pour le législateur, les effets induits par cette photographie sont multiples et préoccupants.
En effet, elle établit des rapports de force qui ne sont pas définitifs, donnant une certaine perception des dynamiques électorales. Plus important encore, les commentaires médiatiques fondés sur vos sondages soulèvent des questions, qui feront partie de notre mission d’enquête. Présenter une image qui ne reflète pas la réalité finale peut avoir des conséquences concrètes, notamment sur le temps de parole accordé aux candidats à la télévision et sur le financement des campagnes électorales. Un candidat donné à un niveau plus faible que son résultat final pourrait, par exemple, rencontrer des difficultés pour obtenir des prêts bancaires.
Ces effets ont un impact réel sur la vie démocratique de notre pays. C’est pourquoi il est crucial pour nous de comprendre si les écarts entre vos projections et les résultats finaux peuvent poser des problèmes dans l’organisation des élections. Tel est l’objet de notre commission d’enquête et la raison pour laquelle nous vous auditionnons.
Vous avez mentionné qu’auparavant, vous aviez plus de latitude, mais que désormais la Commission des sondages vous impose d’avoir une colonne de redressement. Je me réfère aux propos de Pierre Weill, fondateur de l’institut Sofres, qui évoquait en 2011 dans Le Monde une « dose de pifomètre ». Je comprends la difficulté de constituer des échantillons représentatifs, particulièrement pour le suivi politique, en raison des sous-déclarations potentielles. Envoyez-vous à la Commission des sondages des notices expertes plus détaillées que celles rendues publiques sur le site de cette dernière ? Si oui, ces informations supplémentaires ne pourraient-elles pas être utiles aux médias pour une analyse plus approfondie des sondages, plutôt que de rester confidentielles ?
M. Jean-Daniel Lévy. La France dispose d’une Commission des sondages, ce qui n’est pas le cas dans tous les pays, qui a pour mission d’expertiser et de valider la fiabilité des méthodologies employées. Elle peut émettre des commentaires, privés ou publics, pouvant entraîner une notification obligatoire dans le média ayant commandé le sondage. Nous lui envoyons effectivement une notice spécifique experte qui n’a pas vocation à être rendue publique. Cette dernière détaille notamment le choix du protocole d’enquête et de la colonne de redressement, qui varie selon les instituts. Le cadre de cette colonne de redressement est aujourd’hui plus strict qu’auparavant, suivant les instructions de la Commission des sondages. Désormais, nous devons en choisir une dès le début et nous ne pouvons plus la modifier au cours de la campagne. Nous devons expliquer les raisons de notre choix à la Commission, mais nous n’avons plus la possibilité de l’ajuster par la suite.
Nous disposons généralement de données brutes recueillies sur le terrain, de données redressées selon des critères socio-démographiques de l’Insee et d’une ou plusieurs échéances électorales passées. Nous prenons également en compte des facteurs tels que la certitude de vote et celle du choix des répondants. Toutes ces données sont transmises à la Commission des sondages avant publication. Elle valide ou invalide ensuite le protocole d’enquête. Ce contrôle a priori, avec un pouvoir de sanction, est une spécificité française parmi les pays occidentaux où les enquêtes d’opinion sont autorisées.
M. Fédéric Dabi. Le temps de parole n’est pas uniquement indexé sur les sondages, mais prend également en compte le nombre d’élus et les résultats des élections précédentes. Le poids des élections passées est peut-être plus important, notamment dans les médias non contrôlés où de nombreux partis politiques peuvent s’exprimer.
J’ai entendu à plusieurs reprises dire que le gagnant est toujours perdant un ou deux ans avant le vote. Cette incertitude est inhérente à toutes les élections présidentielles. Pour autant, François Mitterrand a été donné perdant dans un seul sondage entre 1986 et 1988, et Nicolas Sarkozy était à égalité au second tour dans un sondage au cours des années 2006 et 2007. Il est donc prématuré de décréter de manière péremptoire l’issue de l’élection de 2027. Nous sommes davantage dans une situation d’incertitude que face à des prédictions définitives.
M. Jean-Yves Dormagen, président de Cluster 17. Les sondages, en interrogeant des échantillons représentatifs de citoyens, jouent un rôle crucial dans la mesure du soutien aux candidats et dans l’évaluation de leurs chances de gagner une élection. Sans eux, qui déciderait de l’importance d’un candidat, de sa présence dans les médias ou de son accès aux financements ? En tant que démocrate, je considère que c’est un progrès. On observe d’ailleurs ce phénomène dans toutes les démocraties. Les sondages permettent de déterminer les attentes, les demandes et les opinions des citoyens sur divers sujets. Prenons l’exemple de la réforme des retraites : tous les sondages publiés montraient une opposition majoritaire des citoyens, constituant ainsi une contribution fondamentale au débat démocratique.
Les sondages sont aujourd’hui un acteur majeur et décisif du débat démocratique et de la connaissance de la volonté populaire. Historiquement, certains acteurs, notamment les journalistes et les faiseurs d’opinion, se sont opposés au développement des sondages, car ils se considéraient comme les porte-paroles de l’opinion publique. En tant que démocrate, je préfère que ce soient des échantillons représentatifs qui s’expriment.
La pluralité des instituts de sondage et la transparence de leurs méthodes sont à cet égard essentielles. En France, les notices sont publiées, la Commission des sondages joue son rôle et les données brutes et redressées sont accessibles. Les questions posées et l’ordre dans lequel elles sont posées sont systématiquement publiés. Tout cela constitue un progrès pour la démocratie. Vous-même, monsieur le rapporteur, pourriez bénéficier de ce système. Imaginez que votre parti ou vos candidats ne soient pas sondés : vous n’auriez peut-être pas le même accès aux médias, à la parole publique ou aux financements. En tant que membre de l’Association mondiale des sondeurs, j’ai pu constater qu’il existe une corrélation évidente entre la liberté de sonder et la démocratie. Dans les pays où les sondages sont interdits ou contrôlés, on observe généralement des déficits démocratiques. La liberté de sonder est comparable à la liberté de la presse : c’est un élément absolument capital d’une société démocratique qui fonctionne. Vous ne devriez donc pas regretter le rôle et l’apport des sondages dans le processus démocratique.
M. Antoine Léaument, rapporteur. Je ne regrette pas le rôle des sondages. Ce qui m’intéresse, c’est la précision et la transparence. Contrairement à ce que vous affirmez, je ne considère pas qu’il y ait une réelle transparence de la part des instituts de sondage. Certes, il peut y en avoir une auprès de la Commission des sondages, mais pour le grand public, la population française et même les médias qui commandent parfois ces sondages, elle fait défaut. Un point majeur de détermination reste opaque : le critère de redressement. De plus, la question se pose sur la création d’artefacts lorsqu’on interroge sur une élection présidentielle deux ou trois ans à l’avance, avec les réalités médiatiques et politiques que cela peut engendrer. C’est ce qui nous intéresse en tant que législateurs.
Dans le sondage que j’ai mentionné précédemment, ce qui m’interpellait, c’était la taille des échantillons : sur un échantillon initial de 1 200 personnes, on finissait avec seulement 600, soit une division par deux, ce qui pose question quant aux marges d’erreur. On y observe aussi une survalorisation de Marine Le Pen et une sous-valorisation de Jean-Luc Mélenchon. Cela produit des effets politiques non négligeables. On en vient à dire que Marine Le Pen va gagner l’élection présidentielle avec une quasi-certitude, tandis que Jean-Luc Mélenchon va la perdre. Ces représentations politiques peuvent avoir un impact majeur sur le débat public. C’est ce qui nous intéresse en tant que législateurs. Militant politique, je suis personnellement concerné puisque c’est mon candidat à l’élection présidentielle qui est sous-évalué, mais au-delà de cet aspect, une question majeure se pose pour nos concitoyens, et c’est ce point que je souhaite approfondir.
La place prépondérante des sondages dans les commentaires médiatiques peut occulter d’autres sujets importants. Ce n’est pas la faute des instituts de sondage, mais plutôt celle des médias qui commandent ces enquêtes. Cette focalisation sur les sondages tend à réduire le débat politique à une « course de petits chevaux », au détriment de questions programmatiques essentielles telles que le changement climatique, la sûreté, le pouvoir d’achat ou les retraites. Or les conséquences de cette approche peuvent être considérables pour la vie démocratique de notre pays. Par exemple, les tensions actuelles autour de l’âge de départ à la retraite sont en partie dues au fait que ce sujet n’a pas été suffisamment débattu lors de l’élection présidentielle. Il est crucial de réfléchir à ces enjeux : le fait que les résultats des sondages diffèrent significativement de la réalité finale peut avoir des impacts politiques majeurs.
M. le président Thomas Cazenave. Pour avancer dans notre réflexion sur la transparence, il est important de préciser qu’il n’est pas question d’interdire les sondages, mais plutôt de les rendre parfaitement transparents. Actuellement, vous transmettez certaines informations à la Commission des sondages, mais il semble y avoir des différences de pratiques entre les instituts quant au niveau d’information fourni. La question est de savoir si nous pouvons aller plus loin dans la transparence de l’information rendue publique dans le débat politique. Par exemple, serait-il envisageable de publier davantage d’éléments sur le site de la Commission des sondages, notamment les informations transmises pour le volet expert ? Y a‑t‑il parmi vous des instituts qui verraient des difficultés à accroître la transparence de ces informations ?
Mme Adelaïde Zulfikarpasic. Il est important de distinguer transparence et pédagogie. Le véritable enjeu n’est pas tant la transparence que la pédagogie qui accompagne les enquêtes. Nous pourrions parfaitement mettre à disposition du grand public toutes les informations transmises à la Commission des sondages, y compris les notices expertes qui sont très complètes. Nous répondons déjà tous à ces obligations de mise à disposition, que ce soit pour le questionnaire classique, le questionnaire des commanditaires, les pondérations ou pour les lignes de redressement. Cependant, la difficulté réside dans la compréhension de ces éléments par le grand public. Par exemple, il est crucial de comprendre que nous ne redressons pas les résultats ou les individus, mais les candidats. Il faut donc trouver un espace pour expliquer clairement le fonctionnement des sondages à chacun. En tant qu’enseignante, mon objectif est de former des citoyens éclairés. Bien que nos méthodes soient scientifiques, rigoureuses et précises, elles nécessitent du temps pour être expliquées. Nous sommes favorables à un partage avec le grand public, peut-être dans le cadre d’une éducation civique, mais il faut veiller à ne pas confondre transparence et pédagogie.
M. Bruno Jeanbart. Il est erroné de penser que les sondages réalisés deux ans avant une élection devraient correspondre aux résultats du jour du scrutin. Ce que nous mesurons deux ans avant une élection reflète la situation à ce moment-là et pas ce qui se passera deux ans plus tard. C’est précisément parce que nous vivons dans un pays démocratique que les choses évoluent au cours du temps. Le processus démocratique, notamment à travers la campagne électorale, entraîne des changements. Dans les pays autoritaires, en revanche, les sondages réalisés longtemps à l’avance correspondent souvent aux résultats finaux, ce qui n’est pas le cas dans les démocraties.
Je tiens à préciser qu’OpinionWay publie l’intégralité de sa notice, qui est accessible sur le site de la Commission des sondages. C’est une position personnelle de notre institut et nous ne voyons pas d’inconvénient à cette pratique. Nous comprenons les arguments de ceux qui considèrent que c’est un document complexe, difficile à comprendre sans explication ou pédagogie. Cependant, tout comme nous sommes divers dans nos méthodes de travail sur l’opinion publique, il peut y avoir des positions variées sur cette question de la transparence. Chaque position est légitime, mais nous estimons que la transparence totale est bénéfique.
Mme Laure Salvaing. Chez Verian, nous adoptons également une politique de transparence totale en publiant l’ensemble de nos données. Le public peut avoir accès à tout.
M. le président Thomas Cazenave. Qui parmi vous ne publie pas tout et pour qui tout publier poserait un problème ?
M. Brice Teinturier. Nous ne publions pas tout, mais nous remettons à la Commission des sondages absolument tout ce qu’elle exige et demande. La question se pose de savoir si, au nom de la transparence, nous ne risquons pas de créer une confusion supplémentaire. Cependant, nous sommes ouverts à une évolution sur ces questions de transparence.
Je me rappelle avoir réalisé avec Le Monde, en 2011, un grand article où nous avons montré et expliqué en détail ce qu’était un redressement. Nous avons tout ouvert et tout expliqué. Je pense que ce type de démarche doit être accompagné d’explications. Malgré nos efforts depuis trente ans pour expliquer que nous redressons l’échantillon, il semble persister des malentendus sur la rigueur de nos méthodes. Cela montre que la matière est assez technique et qu’il ne suffit peut-être pas de la diffuser telle quelle au nom de la transparence. Il faut l’accompagner d’explications. L’exemple de cette publication avec Le Monde est intéressant, mais force est de constater que cela n’a pas fondamentalement changé la perception du public.
M. Jean-François Doridot, directeur général public affairs France d’Ipsos. La première fois qu’OpinionWay a publié l’ensemble de ses redressements, j’étais plutôt réticent. Il faut comprendre que le brut est toujours moins bon que le redressé. Ce débat n’a pas évolué depuis trente ans, car on continue de parler de redressement comme s’il s’agissait d’une intervention un peu magique, voire douteuse. En réalité, un sondage doit être redressé. Si l’un de nos confrères envoyait un sondage électoral non redressé à la Commission des sondages, cela provoquerait une mise au point médiatique considérable. Ce débat autour du redressement est un peu étrange. Nous pouvons effectivement publier l’ensemble de nos redressements pour le grand public, ce qui n’a pas changé sa perception depuis un certain temps. Cela permettrait à certains médias ou politiques d’interpréter les résultats d’un sondage en disant : « Si on avait pris cette colonne, cela aurait fait un point de plus ou deux points de plus. » Cela a au moins le mérite de démystifier l’idée que ces redressements, qui sont absolument nécessaires, changent les résultats d’une intention de vote de trois ou quatre points. En réalité, cela ne modifie les résultats que d’un ou deux points au maximum.
M. Brice Teinturier. Pour poursuivre dans ce sens, lorsque l’Insee ou la statistique publique travaille, elle effectue des redressements. On ne demande heureusement pas à l’Insee de publier les résultats de ses enquêtes en brut et en redressé. Les résultats redressés sont simplement plus fiables et meilleurs. Je comprends qu’on nous demande de publier aussi des résultats que nous estimons moins bons et qui sont objectivement moins bons, mais je ne suis pas convaincu que cela serve le débat public. L’exemple d’OpinionWay a montré que cela ne desservait pas et que, contrairement à certaines craintes, cela ne nuisait pas non plus à notre métier.
Je voudrais prendre un exemple d’une intention louable de législateur qui aboutit parfois à des effets inverses : les marges d’erreur. Nous avons beaucoup travaillé avec de très gros échantillons, comme vous le savez, par exemple de 12 000 personnes. Si j’applique la marge d’erreur et si je publie, ce que nous faisons, puisque c’est une obligation légale, on pourrait dire que le résultat est fiable à 0,5 %. Mais je ne vais pas le dire dans les médias ou au public, car d’autres biais peuvent intervenir. On nous demande d’indiquer une marge d’erreur, ce qui est bien si l’intention est de faire de la pédagogie et de montrer aux gens qu’il faut prendre un peu de distance avec les résultats, mais si on applique strictement cette consigne pour de gros échantillons, cela pourrait avoir l’effet inverse, en sur-scientifisant le résultat d’une intention de vote par rapport à ce qu’elle est capable de dire. Il faut adopter une approche plus raisonnable sur ce qu’il faut interdire ou autoriser, et dans quelles conditions. Mais nous faisons confiance au législateur.
M. Jean-Daniel Lévy. Si nous avons une commission des sondages et qu’elle a une raison d’exister, elle a un rôle à jouer. Nous sommes dans un cadre où nous nous soumettons à la législation, nous respectons la loi, nous l’appliquons et nous nous en remettons à ce collège d’experts pour juger de l’application et de la recevabilité.
M. Stéphane Rambaud (RN). Je m’intéresse aux sondages depuis 1988, notamment par le biais des prévisions électorales, ayant été directeur départemental des Renseignements généraux pendant vingt-quatre ans, service qui n’existe plus. Je peux vous dire que vos sondages sont désormais notre base de travail, y compris pour les partis politiques et le gouvernement, puisqu’il n’y a plus de prévisions électorales des Renseignements généraux. Ce que vous faites est technique et nous fournit un outil. C’est ensuite à nous, politiques, de mener notre campagne en nous fondant sur ces outils. Les données que vous nous fournissez à deux ans ne sont évidemment pas les mêmes que celles fournies à deux mois d’une échéance, et c’est heureux car nous sommes en démocratie. C’est à nous d’adapter notre campagne électorale selon les prévisions et les sondages que vous nous donnez. Vos sondages des dernières années sont beaucoup plus précis que ceux des années 1990. Vous nous fournissez de bons outils, et c’est à nous de les utiliser.
M. Manuel Bompard (LFI-NFP). Il n’est pas pertinent de comparer un sondage réalisé dix-huit mois ou deux ans avant une élection à un sondage effectué juste avant le vote. Par définition, c’est impossible. En fait, rien ne nous permet de savoir si votre photographie à dix-huit mois ou à deux ans est juste ou non. On ne peut ni le confirmer ni l’infirmer. Toutes les études de comparaison que vous présentez ne peuvent comparer que des sondages réalisés juste avant le jour du scrutin avec le résultat réel. C’est pourquoi nous nous interrogeons sur l’impact que peut avoir quelque chose qui n’est ni vérifiable ni quantifiable.
Avez-vous envisagé de faire évoluer les indicateurs ou les informations sociologiques utilisés dans les méthodes de redressement ? Pour être plus clair, la société évolue. Les catégories sociales, parfois avec une grille utilisée aujourd’hui par l’Insee (employés, ouvriers, etc.), décrivent de moins en moins les comportements politiques. La littérature scientifique sur ce sujet est très précise. Or, par votre méthode de redressement, vous considérez par principe que, par exemple, un candidat qui aurait parmi son électorat une partie d’ouvriers et une partie de cadres. Lors de la constitution du panel, vous aurez probablement une surreprésentation des cadres par rapport aux ouvriers. Vous allez alors supposer que les cadres ayant voté pour un candidat spécifique conserveront le même comportement électoral, ce qui nécessitera un redressement. La même logique s’applique aux autres catégories. Je m’interroge sur la pertinence actuelle des catégories socio-professionnelles pour analyser les comportements politiques. Ne faudrait-il pas les faire évoluer pour obtenir des redressements plus précis ?
Par ailleurs, si votre échantillon ne capture que 60 % des électeurs d’un candidat au lieu de 100 %, vous effectuerez un redressement pour compenser cette sous-représentation. Cependant, si cette fraction de l’électorat n’est pas représentative de l’ensemble des électeurs de ce candidat au moment de l’élection, votre redressement risque d’amplifier l’erreur au lieu de la corriger. C’est pourquoi je vous demande si vous avez réfléchi à l’évolution de vos méthodes de redressement.
M. Gaël Sliman. Il existe une preuve que notre méthodologie est adaptée un an avant l’élection. En effet, c’est exactement le même outil qui fournit des résultats précis à deux jours du scrutin. Il n’y a aucune raison de penser que l’instrument qui donne une image fidèle à deux jours de l’élection ne serait pas fiable un an avant, en utilisant la même méthodologie. C’est le principe même qui a permis le développement des sondages, d’abord aux États-Unis, puis en France. Notre profession a cela de particulier qu’elle est soumise à une vérification immédiate : nous faisons des prédictions qui sont rapidement confrontées à la réalité électorale. C’est une forme de validation de notre métier.
Pour répondre à votre question, la preuve que notre outil n’est pas de la charlatanerie réside dans sa capacité à prédire correctement les résultats électoraux. Nous intégrons non seulement les scores de chaque candidat, mais aussi les dynamiques observées qui peuvent expliquer pourquoi un candidat a pu être sous-estimé tout en étant sur la bonne trajectoire.
Votre interrogation sur l’évolution des critères de représentativité est tout à fait pertinente. C’est une question que nous nous posons constamment, car ces critères ne sont pas immuables. Nous avons connu des erreurs significatives, comme en 2002 avec Jean-Marie Le Pen : les sondages n’avaient pas correctement estimé son niveau. Cela a suscité un choc important pour l’industrie des sondages en France.
Depuis, nous avons bénéficié du développement des études en ligne, qui permettent d’obtenir des réponses plus sincères. Par exemple, la réticence à avouer un vote pour Le Pen à un enquêteur est désormais largement atténuée dans les sondages en ligne. Nous avons également travaillé sur de nouvelles notions, comme l’importance croissante du territoire dans le comportement électoral, un facteur qui était moins pris en compte dans les années 1990.
Concernant la transparence, nous sommes favorables à ce que la Commission des sondages vérifie notre travail et que nous publiions toutes les informations requises. Cependant, nous estimons qu’une transparence totale sur tous les critères utilisés pourrait saturer l’information et créer de la confusion. De plus, pour des raisons commerciales, si nous découvrons un critère particulièrement pertinent, nous préférons le garder confidentiel. Parmi les critères clés, l’âge reste important, mais nous affinons notre analyse. Par exemple, au-delà de 65 ans, nous distinguons désormais des sous-catégories car les orientations politiques peuvent varier significativement entre 67 et 82 ans.
Chez Odoxa, nous publions toutes les informations légales, notamment sur les marges d’erreur statistique. Nous ne sommes pas partisans d’une transparence totale imposée à tous, car cela pourrait conduire chaque parti politique à contester les résultats en fonction de critères spécifiques, créant ainsi de la confusion.
M. Jean-Yves Dormagen. Le vote reste évidemment la seule certitude ; c’est pourquoi il est si crucial pour nous tous. Nos études sont publiées et largement commentées. Nous savons que notre crédibilité repose en grande partie sur ces sondages. Comme il a été mentionné, ils sont généralement précis, voire plus fiables que dans la plupart des autres démocraties. La France a une longue tradition en matière de sondages.
La meilleure garantie de fiabilité réside dans le pluralisme. J’ai été surpris d’entendre certains, lors des auditions, affirmer qu’il y aurait trop de sondages. Au contraire, la multiplicité des sondages permet justement de vérifier la validité des résultats produits. Lorsque plusieurs sondages sur la réforme des retraites, par exemple, donnent des résultats convergents, cela renforce la confiance dans ces données. Plus il y a d’instituts, plus ils sont divers, y compris dans leurs méthodes, plus la fiabilité est assurée. Je suis donc réticent à l’idée d’une réglementation trop rigide des méthodes. Je crois au contraire au pluralisme méthodologique, bien qu’il soit moins présent en France que dans d’autres pays. Il est important de permettre l’expérimentation et la recherche dans ce domaine qui reste avant tout scientifique.
Concernant la taille des échantillons, il faut comprendre qu’un agrégateur multiplie de fait la taille des échantillons. Lorsque dix instituts produisent dix études sur un sujet similaire, avec des échantillons de 1 000 à 1 500 personnes chacun, cela équivaut à interroger 20 000 individus. La convergence des résultats dans ce cas est un fort indicateur de fiabilité. Je suis convaincu, en tant qu’universitaire et en tant que sondeur, que le pluralisme et la multiplication des sondages constituent la meilleure protection contre d’éventuelles manipulations en matière d’études d’opinion. J’encourage d’ailleurs les universitaires à s’engager davantage dans la réalisation de sondages, comme c’est le cas dans d’autres pays. Plus il y aura de sondeurs et de recherches dans ce domaine, moins les manipulations seront possibles, bien que je pense qu’elles sont inexistantes en France.
M. Antoine Léaument, rapporteur. Je ne me suis pas positionné sur la question du nombre de sondages. J’ai simplement interrogé des chercheurs sur les effets potentiels d’une interdiction totale des sondages électoraux, sujet abordé lors de précédentes auditions. Ce qui m’intéresse, c’est l’impact sur le débat public. D’ailleurs, vos remarques sur les logiques territoriales et d’âge sont intéressantes. Quel critère est réellement pertinent entre le territoire et l’âge ? C’est une question à explorer.
J’ai également retenu votre observation sur la transparence accrue. Vous suggérez qu’elle pourrait amener les politiques à comparer les résultats selon différents critères de redressement. Je trouve cela positif pour le débat public. Savoir qu’avec d’autres critères de redressement on pourrait être plus haut ou plus bas m’intéresse. Vous avez mentionné qu’en fonction de la colonne de redressement, on peut obtenir un ou deux points de plus ou de moins, ce qui peut avoir un impact significatif sur les résultats.
L’article 2 de la loi de 1977, en particulier son deuxième alinéa, dispose qu’il faut mentionner le nom et la qualité du commanditaire du sondage, ainsi que ceux de l’acheteur s’il est différent. Le législateur cherchait probablement à assurer la transparence, pour éviter toute suspicion d’influence de la part du commanditaire. De manière très crue, est-il déjà arrivé que des médias commandant des sondages tentent d’orienter les résultats, par exemple en demandant un croisement spécifique des courbes entre certains candidats, comme Zemmour et Le Pen par exemple ?
M. Brice Teinturier. Je pratique ce métier depuis environ trente-cinq ans et je n’ai jamais été confronté à une telle situation de la part d’un média. Nous avons une éthique et une déontologie. Même si nous recevions ce type de demande ou des tentatives d’intimidation, nous n’y céderions pas, c’est certain. Un institut qui, pour satisfaire un média, manipulerait artificiellement les résultats serait immédiatement repéré comme divergent de ses confrères. Cela jetterait le doute sur la crédibilité de cet institut. A défaut de croire en notre déontologie, croyez en notre rationalité !
M. Antoine Léaument, rapporteur. Les résultats des sondages réalisés longtemps avant l’élection ne sont pas censés refléter l’issue finale. Dans ce cas, il est difficile de vérifier leur exactitude. Par exemple, si on observe la courbe, on constate que certains sondages ont montré un croisement entre deux candidats, évoquant une dynamique en faveur d’Éric Zemmour et un recul de Marine Le Pen. Il serait pertinent que les citoyens aient accès aux critères de redressement utilisés. J’ai délibérément formulé cette question de manière provocante, car si le législateur a exigé la transparence sur le commanditaire et le financeur du sondage, c’est en raison de soupçons potentiels. En octobre 2021, l’élection est encore lointaine. Le choix d’un critère particulier à ce moment-là, potentiellement plus intéressant d’un point de vue médiatique, pourrait soulever des questions quant à la sincérité du débat politique. Cela ne remet pas en cause vos outils, que vous décrivez comme scientifiquement établis, mais plutôt l’impact que cela peut avoir sur le débat public. C’est pourquoi cette question me semble importante.
M. Bruno Jeanbart. En trente ans de carrière dans ce métier, je n’ai comme Brice Teinturier jamais été confronté à une telle situation. De plus, je ne vois pas comment ces personnes pourraient procéder, car elles ne connaissent pas les aspects techniques de notre travail. Les médias nous commandent des sondages, discutent avec nous du sujet des enquêtes et peuvent éventuellement aborder les questions mais, pour le reste, la plupart ne savent pas comment un sondage est réellement élaboré.
Avec dix instituts travaillant sur des courbes très proches, il est statistiquement normal que certains instituts obtiennent un croisement entre elles. C’est inhérent au principe de la statistique, qui comporte une marge d’erreur et une incertitude. Vous aurez donc inévitablement des instituts qui placeront un candidat devant l’autre, et vice versa. La réponse réside dans le pluralisme. Si un seul institut présente un croisement de courbes alors que tous les autres montrent un écart important, ce sera immédiatement visible. Je peux vous assurer que les conséquences pour cet institut seraient extrêmement sévères.
M. Antoine Léaument, rapporteur. Les médias qui commentent les sondages soulèvent un point intéressant, notamment concernant un institut de sondage, je pense en particulier à CSA, qui présente une spécificité : une forme d’intégration au sein d’un même groupe. On peut y trouver à la fois le journal qui commande le sondage, l’institut qui dépend du même groupe et les chaînes du même groupe qui commentent ensuite les résultats. Cela peut soulever des questions d’indépendance, puisque tout est réalisé au sein d’un même groupe. Une problématique similaire peut se poser pour Le Parisien et Les Échos, je crois, mais je ne suis pas sûr de l’institut concerné. La question porte sur cette forte intégration entre l’entité médiatique qui commentera le sondage, le sondeur lui-même et le commentaire médiatique produit in fine. Dans le cas de CSA et du groupe Bolloré, on sait que le président du groupe a des opinions politiques assez tranchées, pour le dire de manière euphémistique.
M. Yves Del Frate, président directeur général de CSA. CSA est une filiale à 100 % du groupe Havas. CSA ne réalise pas, c’est important de le préciser, de sondages électoraux, mais des études politiques, c’est-à-dire tout sondage publié, diffusé ou rendu public sur le territoire national portant sur des sujets liés de manière directe ou indirecte au débat électoral. Chez CSA, le politique dans cette définition représente 0,3 % du chiffre d’affaires et 3 % de celui du pôle Society. Nous ne faisons donc pas de sondages électoraux et nous appartenons au groupe Havas, qui n’est pas le groupe Bolloré dont vous parlez.
M. Arnaud Schmite, administrateur et représentant d’Havas. Le groupe Havas, est un groupe de communication. Son président-directeur général est Yannick Bolloré. Le groupe Havas est une société cotée en bourse. La question que vous posez est celle de l’indépendance des questions que nos clients diffusent dans leurs médias. Le processus d’élaboration des questions est assez simple : chaque semaine, nous proposons des questions aux médias et ce sont eux qui choisissent et déterminent la question finale. Si un média souhaite que nous modifiions la question ou introduisions un biais dans la question, c’est toujours l’institut CSA qui décide de la question à poser. Nous formulons nos questions de sorte qu’elles soient les plus simples et les plus compréhensibles possible pour les sondés.
M. Yves Del Frate. La seule pression exercée chez Havas concerne le résultat économique de l’entreprise CSA. Nous sommes en effet dans un groupe coté en bourse. Or, en bourse, c’est la performance économique qui prime. Notre mission est d’avoir une société rentable, de veiller au bien-être des salariés et au respect de la déontologie de notre métier d’études.
Mme Julie Gaillot, directrice du pôle Society de CSA. Nous collaborons avec nos partenaires médias comme avec n’importe quel client, en utilisant des échantillons représentatifs fondés sur la méthode des quotas. Le CSA dispose de son propre panel, ce qui nous permet un contrôle rigoureux des panélistes. Chaque semaine, nous recevons entre 100 et 200 demandes de nouveaux panélistes. Nous examinons attentivement leur profil et en éliminons environ 30, en nous appuyant sur des critères stricts pour éviter les inscriptions frauduleuses ou robotisées. Par exemple, nous supprimons les inscriptions massives à une heure précise, les adresses mail similaires ou les inscriptions provenant de la même adresse IP. Malgré ces précautions, nous ne pouvons pas totalement exclure les tentatives malveillantes. En moyenne, nous acceptons 150 nouveaux panélistes par semaine, soit environ 7 800 par an, ce qui représente 6 % de notre panel. Ainsi, ce dernier se renouvelle entièrement sur une période de quinze ans. Cette méthode nous permet de garantir la meilleure qualité possible pour nos clients médias, même si nous ne sommes pas infaillibles. Nous appliquons les mêmes protocoles d’enquête pour tous nos clients, en utilisant des échantillons représentatifs tirés de nos panels.
M. Frédéric Micheau. OpinionWay travaillait déjà avec Les Échos, avant qu’il devienne membre du groupe Les Échos-Le Parisien. Ce groupe a aussi d’autres prestataires : Le Parisien travaille notamment avec Ipsos et Les Échos avec Elabe. De plus, OpinionWay travaille avec d’autres médias, et pas seulement avec ceux de ce groupe. La déontologie est évidemment strictement respectée. Il est procédé à un audit de certification récurrent. Nous avons signé un code anti-corruption, conformément à une obligation légale. Nous respectons le pluralisme, la concurrence et la multiplicité des expressions, et nous sommes contrôlés par la Commission des sondages.
M. Antoine Léaument, rapporteur. Concernant les sondages de sortie des urnes et les estimations à 20 heures, nous avons constaté en 2022 un écart entre le résultat initial et le résultat final, notamment dans la présentation du groupe TF1. France 2, quant à elle, a présenté un second tour qui s’est avéré correct, bien qu’il y ait eu un écart entre Marine Le Pen et Jean‑Luc Mélenchon. Ma préoccupation porte sur les effets potentiels de ces écarts. L’un des principaux risques identifiés par notre commission d’enquête concerne la confiance des Français dans la sincérité et la fiabilité du scrutin, notamment face aux menaces d’ingérence étrangère. Je m’interroge sur le risque que ces sondages, qui ne sont pas totalement fiables, puissent créer des difficultés en cas de second tour très serré. Si vous annonciez à la télévision un résultat quasiment certain à 90 % mais que celui-ci s’avérait différent, je crains que cela ne sème le doute chez les électeurs qui auraient vu ces résultats le soir même. En réalité, c’est vous, plus que le ministère de l’intérieur, qui annoncez le résultat de l’élection.
M. Bernard Sananès. Tout d’abord, à 20 heures, nous donnons des estimations s’appuyant sur les bulletins dépouillés. Les informations sont transmises directement, excluant toute possibilité de manipulation. Aucun d’entre nous ne prendrait le risque d’annoncer un résultat sans être certain de l’ordre d’arrivée. Lorsque nous avons communiqué ce résultat, nous étions convaincus que l’ordre ne pouvait plus être modifié. Ces estimations sont fiables et elles l’ont été pour chacun des scrutins que nous avons couverts ensemble.
M. Bruno Jeanbart. Si les législateurs s’inquiètent de ces questions, ils devraient éviter de mettre des bâtons dans les roues des instituts de sondage. La décision prise en 2016 de fermer les bureaux de vote à 19 heures pour l’élection présidentielle rend les résultats de 20 heures plus fragiles et évolutifs par rapport au résultat final. Ce sont des estimations. Si nous prenons le risque de les afficher en désignant les deux qualifiés pour le second tour, c’est que nous estimons l’écart statistique suffisant. Jusqu’à présent, il n’y a jamais eu de cas où les deux candidats annoncés comme qualifiés à 20 heures ne l’étaient finalement pas. Même lors d’élections très serrées, comme le référendum sur le traité de Maastricht, le résultat annoncé à 20 heures indiquait correctement la victoire du « oui ». Il n’y a donc jamais eu d’erreur. Les législateurs devraient aussi s’interroger sur les dispositions qu’ils prennent et qui fragilisent les estimations de 20 heures.
La séance s’achève à dix-neuf heures cinquante-six.
———
Membres présents ou excusés
Présents. – M. Thomas Cazenave, Mme Nicole Dubré-Chirat, M. Antoine Léaument, M. Stéphane Rambaud
Assistait également à la réunion. – M. Manuel Bompard