http://weban/abecedaire/images/LOGOGRIS-22mm.jpg

 2491

_____________

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

Enregistré à la Présidence de l’Assemblée nationale le 9 décembre 2019

RAPPORT D’INFORMATION

 

FAIT

 

en application de l’article 29 du Règlement

 

au nom des délégués de l’Assemblée nationale

à l’Assemblée parlementaire du Conseil de l’Europe (1)

sur le colloque du 14 novembre 2019 concernant

« Les droits de l’Homme et la démocratie à l’ère numérique : quelles garanties pour les données personnelles et quelles réponses aux discours de haine et à la désinformation sur Internet ? »

 

par Mme Nicole TRISSE

 

ET PRÉSENTÉ À LA COMMISSION DES AFFAIRES ÉTRANGÈRES

 

___________________________________________________________________________ 

(1) La composition de cette délégation figure au verso de la présente page.


 

 

 

La Délégation de l’Assemblée nationale à l’Assemblée parlementaire du Conseil de l’Europe était composée, le 14 novembre 2019, de : MM. Damien Abad, Olivier Becht et Bertrand Bouyx, Mmes Marie-Christine Dalloz et Jennifer De Temmerman, MM. Fabien Gouttefarde et Jérôme Lambert, Mme Alexandra Louis, M. Jacques Maire, Mmes Isabelle Rauch et Nicole Trisse, ainsi que M. Sylvain Waserman, en tant que membres titulaires, et Mmes Sophie Auconie et Yolaine de Courson, MM. Bruno Fuchs et Dimitri Houbron, Mmes Catherine Kamowski, Marietta Karamanli et Martine Leguille-Balloy, M. Frédéric Reiss, ainsi que Mmes Liliana Tanguy, Laurence Trastour-Isnart, MarieChristine Verdier-Jouclas et Martine Wonner, en tant que membres suppléants.

 

 


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


SOMMAIRE

___

Pages

 

Avant-propos

Programme

OUVERTURE DU COLLOQUE

1. Discours d’ouverture de M. Gérard Larcher, Président du Sénat

2. Intervention de Mme Gabriella Battaini-Dragoni, Secrétaire générale adjointe du Conseil de l’Europe

3. Message vidéo de Mme Liliane Maury Pasquier, Présidente de l’Assemblée parlementaire du Conseil de l’Europe

4. Allocution de Mme Nicole Trisse, députée, présidente de la délégation française à l’APCE

5. Allocution de Mme Nicole Duranton, sénatrice de l’Eure, première vice-présidente de la délégation française à l’APCE

premiÈre table ronde :  « Droits numÉriques des citoyens, nouvelle frontiÈre des droits de l’Homme et de l’action du Conseil de l’Europe ? »

A. introduction du dÉbat par les intervenants

1. Intervention de M. André Gattolin, sénateur des Hauts-de-Seine, vice-président de la commission des Affaires européennes du Sénat

2. Intervention de M. Jean-Philippe Walter, commissaire à la protection des données du Conseil de l’Europe

3. Intervention de Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL)

4. Intervention de M. André Potocki, juge français à la Cour européenne des droits de l’Homme

B. Échanges avec la salle

deuxiÈme table ronde :  « Les dÉmocraties europÉennes face aux fake news : quelles rÉponses du Conseil de l’Europe et de ses États membres À ce nouveau dÉfi ? »

A. introduction du dÉbat par les intervenants

1. Intervention de M. Patrick Chaize, Sénateur de l’Ain, président du groupe d’études Numérique du Sénat

2. Intervention de M. Thomas Schneider, président du comité directeur sur les médias et la société d’information (CDMSI) au Conseil de l’Europe

3. Intervention de M. Camille Grenier, chargé de mission « information et démocratie » à Reporters sans frontières

4. Intervention de Mme Divina Frau-Meigs, professeure et sociologue des médias à l’Université Sorbonne nouvelle, experte auprès de l’UNESCO, de la Commission européenne et du Conseil de l’Europe

B. Échanges avec la salle

TroisiÈme table ronde :  « La lutte sur le Web contre les discours de haine, la cybercriminalitÉ et le cyber-terrorisme »

A. introduction du dÉbat par les intervenants

1. Intervention de M. Olivier Becht, député du Haut-Rhin, vice-président de la délégation française et rapporteur général sur l’évaluation de l’impact de la science et de la technologie à la commission de la culture, de la science, de l'éducation et des médias de l’Assemblée parlementaire du Conseil de l’Europe

2. Intervention de M. Jan Kleijssen, directeur, Société de l’information  Lutte contre la criminalité, Conseil de l’Europe

3. Intervention de M. Jean-Paul Lehners, président de la commission européenne contre le racisme et l’intolérance

4. Intervention de Mme Béatrice Oeuvrard, Manager chargée des affaires publiques de Facebook France

5. M. Andrea Cairola, spécialiste du programme « section pour la liberté d’expression » au sein du secteur de la communication et de l’information de l’UNESCO

B. Échanges avec la salle

Conclusion Par Mme Nicole Duranton, sÉnatrice de l’Eure, premiÈre vice-prÉsidente de la dÉlÉgation française À L’APCE


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   Avant-propos

 

 

Dans le prolongement du célèbre discours de Winston Churchill, prononcé le 19 septembre 1946, à l’université de Zürich, qui appelait à la création des « États-Unis d’Europe », puis du Congrès de La Haye de 1948 en faveur de l’unification européenne, le Conseil de l’Europe a été officiellement créé et installé à Strasbourg le 5 mai 1949. Il s’agissait alors de la première organisation européenne ayant pour objectif officiel, selon son Statut, « de réaliser une union plus étroite entre ses membres ».

En cette année 2019, synonyme de 70ème anniversaire de l’Organisation, la France, qui en est par ailleurs le pays hôte, a eu le privilège d’assumer la présidence semestrielle du Comité des Ministres, du 17 mai au 27 novembre. Cette coïncidence, fruit du hasard mais hautement symbolique, a légitimement conduit les autorités nationales à avoir des objectifs ambitieux pour leurs responsabilités à la tête de l’organe exécutif du Conseil de l’Europe.

Le Parlement français, par l’intermédiaire de sa délégation à l’Assemblée parlementaire du Conseil de l’Europe (APCE), se devait de ne pas rester à l’écart de ce rendez-vous important pour notre pays. Il s’est donc associé aux initiatives de la présidence française du Comité des Ministres, de multiples manières : en recevant à l’Assemblée nationale, tout d’abord, le Bureau et la Commission permanente de l’APCE, en ouverture de la présidence française, les 23 et 24 mai derniers ; en s’impliquant activement, ensuite, dans le déroulé des parties de session de juin et d’octobre de l’APCE, où pas moins de sept rapports de parlementaires français sur des sujets divers ont été débattus ; en organisant, enfin, des événements divers, telle la conférence du 14 novembre 2019 qui s’est tenue au Sénat sur cette question ô combien d’actualité : « Les droits de l’Homme et la démocratie à l’ère numérique : quelles garanties pour les données personnelles et quelles réponses aux discours de haine et à la désinformation sur Internet ? »

Après avoir organisé précédemment des colloques sur l’avenir du Conseil de l’Europe, en décembre 2011 et en septembre 2016, puis plus récemment sur l’exécution des arrêts de la Cour européenne des droits de l’Homme, véritable bras armé de l’Organisation, en mars 2019, la délégation française a souhaité nourrir le débat sur la légitimité et l’utilité du Conseil de l’Europe, 70 ans après sa création. Pour autant, la délégation française a retenu cette fois-ci un angle d’approche bien particulier : celui de la contribution concrète de l’Organisation à la protection des droits des quelque 840 millions de ressortissants de la Grande Europe face aux risques induits par le développement accéléré des nouvelles technologies de l’information et de la communication, ainsi que de l’intelligence artificielle.

De fait, si les nouveaux outils de communication et d’information nés des formidables progrès d’Internet ont contribué à l’avènement de sociétés nouvelles, ouvertes et transparentes, force est également de constater qu’ils ont aussi engendré des dangers inédits dans leur impact et dans leur étendue, plus que dans leur finalité.

La révélation par Edward Snowden, à partir du 5 juin 2013, de l’existence de dispositifs gouvernementaux de surveillance généralisée a mis clairement en évidence que la technique, aujourd’hui, facilite considérablement les intrusions dans la vie privée et dans les données personnelles, à l’insu des citoyens. De légitimes questions se posent, plus que jamais, sur l’accès des services de renseignement gouvernementaux et des géants d’Internet – Google, Apple, Facebook, Amazon et Microsoft (GAFAM) et leurs équivalents – aux données personnelles et, surtout, à l’usage qu’ils en font. Cette question, d’une prégnance indéniable, n’est pas sans rappeler le combat des défenseurs de la vie privée à l’encontre des régimes totalitaires.

De la même manière, la désinformation qui gangrène les médias et les réseaux sociaux n’est pas sans similitudes avec les ressorts traditionnels de la propagande. Ce phénomène de fake news est parfois même instrumentalisé par des États désireux de s’immiscer dans des processus électoraux démocratiques afin d’en biaiser les résultats, ainsi que l’ont illustré les élections présidentielles américaines de 2016, celles en France de 2017 ou plus récemment les élections européennes de 2019. Or, à la différence de l’« agit’prop » de naguère, les effets se trouvent désormais démultipliés par l’instantanéité et la massification des connexions sur les réseaux sociaux.

Enfin, comme l’ont tragiquement rappelé les tueries de Christchurch, en Nouvelle-Zélande le 15 mars 2019, et de Halle, en République fédérale d’Allemagne, le 9 octobre dernier, les auteurs d’actes racistes et antisémites n’hésitent plus à recourir aux supports de communication numériques pour véhiculer leur haine et leur rejet des droits humains les plus élémentaires. Le discours xénophobe et radical ne se dissimule plus nécessairement derrière l’anonymat des réseaux sociaux ; il s’affiche ouvertement pour porter délibérément atteinte aux libertés et aux droits les plus fondamentaux, pourtant érigés en valeurs sacrées de l’Humanité au lendemain de la Seconde Guerre mondiale.

Devant ces évolutions inquiétantes, la délégation française à l’APCE a souhaité remettre l’action du Conseil de l’Europe en perspective.

Le colloque qui s’est tenu au Sénat, le 14 novembre 2019, sous le haut patronage du Président du Sénat, a ainsi donné lieu à une réflexion collective sur trois problématiques cruciales pour la défense des droits de l’Homme à l’avènement du numérique :

– en premier lieu, les droits numériques des citoyens sont-ils la « nouvelle frontière » – au sens de John Fitzgerald Kennedy lors de sa campagne de 1960 – des droits de l’Homme, c’est-à-dire la nouvelle ambition que le Conseil de l’Europe doit porter au XXIème siècle auprès de ses États membres ?

– en deuxième lieu, quelles réponses le Conseil de l’Europe et ses États membres peuvent-ils apporter, à leurs niveaux, face à l’expansion et à la banalisation des fake news dans les démocraties européennes ?

– enfin, l’impératif d’une action multilatérale, dans le cadre du Conseil de l’Europe, mais aussi au-delà, pour lutter sur le Web contre les discours de haine, la cybercriminalité et le cyberterrorisme est-il suffisamment pris en compte par les États, seuls tenants de l’autorité légitime pour prévenir et réprimer ces fléaux ?

Chacun de ces sujets a donné lieu à la confrontation des analyses de plusieurs intervenants aux compétences, aux responsabilités ou aux rapports officiels reconnus. À chaque fois, au moins un représentant du Conseil de l’Europe a été amené à en présenter l’action, tandis que d’autres intervenants d’organisations internationales, d’administrations nationales ou experts de la société civile et universitaires ont apporté l’éclairage de leurs expériences respectives au débat.

Grâce à une certaine interactivité avec l’assistance, les échanges, passionnants en dépit parfois de leur grande technicité, ont permis de démontrer que la fatalité ne doit pas avoir cours. En effet, le Conseil de l’Europe, comme d’autres organisations internationales, ne reste pas passif devant les enjeux et les défis du monde d’aujourd’hui.

À bien des égards, néanmoins, les travaux et les actions de l’Organisation restent encore trop méconnus, de sorte qu’il est utile et important de les valoriser, mais aussi de les vulgariser, à travers des initiatives comme celle de ce colloque du 14 novembre 2019 sur les droits de l’Homme et la démocratie à l’ère numérique.

Le présent rapport, qui synthétise les échanges de cette journée de réflexion, s’inscrit dans le même dessein. À travers cette publication, la délégation française à l’APCE souhaite apporter sa pierre à un édifice indispensable au quotidien de nombreux citoyens. Le Conseil de l’Europe, en dépit de ses 70 ans, est une organisation internationale en phase avec l’air du temps ; il importe donc de la faire connaître davantage, et notamment ses réalisations concrètes, pour mieux asseoir sa visibilité et mettre en avant ses résultats au bénéfice du plus grand nombre sur le continent européen.


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   Programme

 

9 heures : ouverture

9 h 30 – 11 h 00 : table ronde n° 1

« Droits numériques des citoyens, nouvelle frontière des droits de l’Homme et de l'action du Conseil de l'Europe ? »

Débats et échanges avec la salle

 

11 h 15 – 12 h 45 : table ronde n° 2

« Les démocraties européennes face aux fake news : quelles réponses du Conseil de l’Europe et de ses États membres à ce nouveau défi ? »

Débats et échanges avec la salle

 

14 h 30 – 16 h 00 : table ronde n° 3

« La lutte sur le Web contre les discours de haine, la cybercriminalité et le cyberterrorisme »

Débats et échanges avec la salle

16 heures : conclusion

 


   OUVERTURE DU COLLOQUE

1.   Discours d’ouverture de M. Gérard Larcher, Président du Sénat

Madame la Présidente de la délégation française à l’Assemblée parlementaire du Conseil de l’Europe, Chère collègue Nicole Trisse, Madame la Secrétaire générale adjointe du Conseil de l’Europe, Madame la Première Vice-Présidente de la délégation française, Chère Nicole Duranton, mes chers collègues sénateurs et députés ici présents, Madame la Présidente de la CNIL, Monsieur le Juge à la Cour européenne des droits de l’Homme, et un certain nombre de référents représentant ici le Conseil de l’Europe ou représentants des organismes intéressés par les questions que vous allez partager au cours de cette journée, je suis heureux de vous accueillir, ce matin, au Sénat pour ce colloque organisé par la délégation française à l’Assemblée parlementaire du Conseil de l’Europe dans le contexte de la présidence du Comité des Ministres du Conseil de l’Europe, présidence exercée par la France pour six mois.

C’est d’ailleurs au titre de cette même présidence française du Conseil de l’Europe, qu’avec le Président Ferrand nous avons eu le plaisir de coprésider, avec Madame la Présidente Maury Pasquier, la Conférence européenne des Présidentes et Présidents de Parlements des États membres du Conseil de l’Europe, qui fut un moment d’échange intéressant, que ce soit au cours des séances plénières ou des bilatérales, qui sont souvent des occasions de rencontre et de partage.

Il y a plus de quarante ans, en 1978, était promulguée la loi relative à l’informatique, aux fichiers et aux libertés, texte qui visait à appréhender sur le plan juridique les conséquences des évolutions technologiques. On percevait déjà que leur application pouvait mettre en jeu la protection de la vie privée et des libertés individuelles. Depuis lors, le Sénat qui a, par tradition et par actualité, une fonction de protection des libertés individuelles et collectives, n’a cessé de traiter ces sujets. Ainsi, de nombreux travaux de contrôle, d’information et de préparation de lois ont été conduits ces dernières années sur les enjeux de souveraineté numérique, de gouvernance d’Internet, de protection des données personnelles, sans parler de la création, l’an dernier, d’un groupe d’études transversal sur le numérique, qui implique l’ensemble des commissions du Sénat.

Évidemment, le numérique, et singulièrement Internet, est une chance. Aujourd’hui, nous approchons progressivement du fait que la moitié de l’humanité serait connectée et aurait accès à une source infinie d’informations et de savoir. Au sein de cet espace collectif, le numérique contribue bien évidemment, et c’est aussi un sujet majeur pour le Sénat en termes d’aménagement et d’équilibre du territoire, à désenclaver nos territoires, et à produire de l’inclusion dans nos sociétés, ce qui requiert d’être attentif à l’exclusion engendrée en direction de ceux qui ne maîtrisent pas l’accès au numérique.

Le numérique et Internet s’imposent à tous, même à ceux qui n’en ont pas la maîtrise. Mais depuis quelques années, Internet devient aussi, à pas feutrés, une menace pour les individus et nos sociétés, écornant chaque jour un peu plus les droits de l’Homme et notre démocratie.

Internet est une menace si on ne l’aide pas à mieux se réguler. On se rend compte, par exemple, qu’il est de moins en moins acceptable que la haine soit répandue par des auteurs anonymes. Nous ne pouvons pas laisser Internet devenir ce qu’Alain Finkielkraut a appelé « le vide-ordures planétaire », ou bien encore laisser les géants du Net se saisir de nos données personnelles et de notre navigation pour orienter insidieusement nos choix, mettant ainsi en cause le principe fondamental de neutralité qui doit être attaché à Internet. À l’inverse, certains acteurs, qui ne partagent pas nos valeurs universelles, propagent sur Internet leurs idées néfastes, dévoyant ainsi la liberté d’expression et essayant d’influer sur un certain nombre de décisions politiques des pays : j’échangeais avant-hier avec la Présidente d’un des États baltes et qui me faisait part de son inquiétude à ce sujet, y compris par rapport à des voisins.

En réponse à ces difficultés, il nous faut, me semble-t-il, renouer avec les idéaux de liberté, d’ouverture et d’échange portés initialement par le monde numérique, pour créer un Internet de la sociabilité – je préfère cela à « vide-ordures planétaires » –, dans lequel nos concitoyens auraient confiance : confiance dans le traitement des données de leur vie privée, et confiance dans la qualité des contenus et dans la légalité des échanges. Il nous faut donc trouver une troisième voie, entre le modèle que je qualifierai de « californien », ouvert, libertaire et sans contrôle, et le modèle « chinois » du contrôle absolu. Il nous faut inventer un modèle européen fort de régulations coopératives, qui associerait les États, les organisations non gouvernementales et les entreprises numériques. L’Europe me semble là avoir à la fois une carte à jouer et une responsabilité. Que ce soit au niveau de l’Union européenne ou du Conseil de l’Europe, l’Europe a déjà porté des avancées concrètes ; on pense bien sûr au règlement général sur la protection des données personnelles (RGPD), qui est en passe de devenir une norme mondiale. Il a d’ailleurs amené la semaine dernière le Sénat à prendre la décision d’anonymiser un rapport public évoquant une personne mise en cause qui a depuis été totalement blanchie par une décision de justice. C’était une première.

Notre défi global est donc bien de protéger nos concitoyens, en les rendant demain propriétaires de leurs données personnelles qu’exploitent à bon compte un certain nombre de géants du Net, mais aussi par la régulation des contenus, tant les contenus manifestement illégaux, comme ceux liés au terrorisme, que les contenus haineux ou diffamatoires pour lesquels la seule appréciation des plateformes d’hébergement ne peut suffire. Il faut aussi protéger nos démocraties en garantissant une information fiable car les nouvelles technologies de l’information – devrais-je dire de la désinformation ? – peuvent être pernicieuses. Un mal se diffuse, celui de la défiance grandissante à l’égard de l’information, des médias et des journalistes.

Je l’évoquais à la tribune de Strasbourg, il y a trois semaines : la préférence irait à la rumeur, à l’intox, à ce que l’on appelle en vieux français la fake news, voire désormais, en très très vieux français, les deep fakes qui ébranlent les individus et les institutions. C’est pourquoi nous avons pris l’initiative de lancer un site de fact checking, ici au Sénat, sur notre propre institution. Nous entrons dans le quatrième mois de son fonctionnement et il s’avère vraiment utile. Mais, au-delà, il nous faut réfléchir, de façon globale, aux moyens de lutter contre ces phénomènes qui discréditent les acteurs publics et qui, en les discréditant, fragilisent au fond la démocratie.

Enfin, il va falloir réfléchir au défi que pose l’intelligence artificielle. Une éthique de l’intelligence artificielle me paraît à construire. C’est la position de la France à l’international, comme je l’évoquais devant l’ensemble des ambassadeurs de l’UNESCO, il y a deux semaines, mais aussi du Conseil de l’Europe où les actions et contributions sont déjà nombreuses.

Dans ce monde transformé par le numérique, il nous faut élever les digues qui permettent, dans le respect de nos principes, de protéger les individus, les institutions et les droits de l’Homme. N’oublions pas le principe énoncé dans l’article premier de la loi de 1978 : « L’informatique doit être au service de chaque citoyen, et non l’inverse ».

2.   Intervention de Mme Gabriella Battaini-Dragoni, Secrétaire générale adjointe du Conseil de l’Europe

Monsieur le Président du Sénat, Mesdames et Messieurs les sénateurs et députés, Messieurs et Mesdames les ambassadeurs, Mesdames et Messieurs, permettez-moi avant tout de remercier la délégation française de l’Assemblée parlementaire du Conseil de l’Europe d’avoir organisé ce colloque, et vous remercier, Monsieur le Président du Sénat, de nous accueillir aujourd’hui.

La France préside actuellement, de façon particulièrement ambitieuse et féconde, le Comité des Ministres du Conseil de l’Europe. Cette présidence intervient au moment où notre institution célèbre son 70ème anniversaire ; 70 ans au cours desquels nous avons relevé ensemble, avec nos 47 États membres, de nombreux défis, avec pour mandat de renforcer les droits de l’Homme, la démocratie et l’État de droit.

Parmi ces défis, le développement du numérique n’est pas des moindres. Les questions identifiées pour examen au cours de ce colloque en font évidemment partie et je suis dès lors particulièrement heureuse que le Conseil de l’Europe y soit associé car nous sommes des partenaires naturels.

La protection de la vie privée et des données personnelles est un droit fondamental, consacré par l’article 8 de la convention européenne des droits de l’Homme, mais aussi par la convention 108 du Conseil de l’Europe, seul instrument international contraignant en la matière, que nous avons modernisé l’année passée. Le respect du droit à la protection des données personnelles est plus important que jamais, à l’heure où nos vies se digitalisent de plus en plus et que la production des données à caractère personnel est exponentielle.

Internet et la digitalisation permettent une mondialisation sans précédent des services, des transferts et des interactions, mais entraînent la disparition totale des frontières nationales, ce qui cause des difficultés réelles aux États : comment assurer une protection appropriée aux individus si leurs données sont ailleurs ? Monsieur Jean-Philippe Walter, Commissaire à la protection des données du Conseil de l’Europe, participe à ce colloque et présentera plus avant la protection offerte par la convention 108 modernisée.

La diffusion des discours de haine, fruits des préjugés et de l’intolérance, amplifiés par les médias sociaux, devient une menace pour l’intégrité personnelle, les droits de l’Homme, la dignité humaine, ainsi que pour la cohésion de nos sociétés et la solidité de nos institutions démocratiques. Son éradication nécessite de la détermination, de l’exemplarité et une prise de responsabilité politique. La France l’a parfaitement compris et fait figure de précurseur en la matière, comme vous venez de l’évoquer, Monsieur le Président.

Le projet de loi sur l’obligation renforcée de retrait des contenus haineux en ligne est un pas important dans la bonne direction. Il cherche à trouver un équilibre entre la protection de la liberté d’expression et la restriction des formes d’expression qui visent à inciter à la violence, à l’hostilité et à la discrimination. Bien sûr, l’impact de cette future loi devra être évalué régulièrement et soigneusement.

Dans ce domaine également, le premier point de référence pour nos États est la convention européenne des droits de l’Homme et la jurisprudence de la Cour européenne des droits de l’Homme, et je salue la présence parmi nous du juge élu au titre de la France, Monsieur André Potocki. La Cour bénéficie d’ailleurs d’un soutien sans faille de la France, et notamment du Président de la République, ce dont nous sommes très reconnaissants.

Sur cette base, le Conseil de l’Europe a développé, ces dernières années, des normes et une expertise considérable en matière de lutte contre les discours de haine, dont je vous invite à faire plein usage. Le Conseil de l’Europe est votre institution, prête à fournir un soutien et des avis formels concernant l’application des standards. Il travaille d’ailleurs actuellement, avec ses États membres, à l’élaboration d’une stratégie cohérente de lutte contre les discours de haine, conjuguant les efforts des législateurs, de la justice, des forces de l’ordre, des organisations de défense des droits et des institutions d’éducation formelle et non formelle, suivant les principes définis par la Commission européenne contre le racisme et l’intolérance (ECRI), dont nous venons de fêter le 25ème anniversaire.

Pour aider les États à mettre en place de telles stratégies globales, le Comité des Ministres est en train d’examiner la création d’un comité intergouvernemental qui guiderait les travaux non gouvernementaux sur la non-discrimination, la diversité et l’inclusion.

S’agissant enfin de la désinformation, phénomène complexe et préoccupant, auquel nous sommes très attentifs, les plateformes technologiques sur lesquelles elles prospèrent ne sont pas des vecteurs de communication neutres et elles ne peuvent pas l’être, car elles sont animées par des milliards d’humains. Aussi le phénomène de la désinformation doit-il être appréhendé dans le cadre d’un nouvel écosystème des médias.

Nous l’observons : les médias deviennent de plus en plus partisans et cherchent l’audience au travers de flux dérivés d’algorithmes auprès du public, qui, pour gérer les flux d’informations qui se présentent à lui, se contentent de survoler les gros titres. Cette réalité nous préoccupe et nous étudions la pertinence d’une approche réglementaire, tout en étant conscients de la complexité d’une telle démarche. Au-delà de la régulation, c’est l’éducation qui est la plus forte contre la désinformation. C’est pour cette raison que nous aidons les États membres à concevoir des programmes d’initiation à l’information dans le cadre des programmes scolaires.

Mesdames et Messieurs, je voudrais, avant de conclure, dire encore quelques mots sur une matière qui impacte toutes les problématiques dont vous débattrez aujourd’hui : je veux parler de l’intelligence artificielle. Pour le Conseil de l’Europe comme pour nos États et d’autres organisations, il s’agit d’un thème brûlant, compte tenu de son impact sur nos sociétés. La France est à l’initiative du lancement d’un global partnership on artificial intelligence et soutient également fortement nos travaux dans ce domaine. Sous sa présidence, le Conseil de l’Europe vient de créer un comité sur l’intelligence artificielle chargé d’examiner la faisabilité et les éléments potentiels d’un cadre juridique pour le développement, la conception et l’application de l’intelligence artificielle dans le respect des normes du Conseil de l’Europe en matière de droits de l’Homme, de démocratie et d’État de droit. Ce comité débutera ses travaux lundi prochain. Je ne peux que vous inviter à les suivre de près. Ses travaux seront menés dans une approche multipartite, avec d’autres organisations internationales, la société civile, les entreprises et le secteur académique. Le soutien des élus que vous êtes nous sera indispensable dans cette démarche, ainsi que dans tous nos efforts constants pour faire en sorte que l’ère numérique soit au service des droits humains et de la démocratie, et non pas un facteur de leur déclin.

Je vous remercie de votre attention et de votre soutien et vous souhaite un excellent colloque.

3.   Message vidéo de Mme Liliane Maury Pasquier, Présidente de l’Assemblée parlementaire du Conseil de l’Europe

Mesdames et Messieurs, mes chères et chers collègues, permettez-moi de saluer l’excellente initiative du Sénat d’organiser, dans le cadre de la Présidence française du Comité des Ministres du Conseil de l’Europe, un colloque dédié aux questions des droits humains et de la démocratie à l’ère numérique.

La digitalisation croissante et certains aspects de l’intelligence artificielle touchent au cœur même du fonctionnement démocratique, de l’État de droit et des droits humains au sein de nos sociétés.

Le rôle des parlementaires est absolument central pour maîtriser les règles du jeu à l’ère numérique : nous devons nous assurer que l’acquis démocratique, les normes de protection des droits humains et les principes de l’État de droit soient pleinement intégrés dans la législation et la réglementation qui vont régir l’utilisation des nouvelles technologies. En effet, il est impératif de développer un cadre juridique uniforme, sachant que le Conseil de l’Europe dispose déjà d’outils juridiques mondialement reconnus, comme la convention du Conseil de l’Europe révisée sur la protection des données. De plus, nous nous sommes engagés à étudier la possibilité de développer un cadre juridique complet pour le développement, la conception et l’application de l’intelligence artificielle.

Internet et les médias sociaux offrent sans doute de nouvelles opportunités, en tant que vecteurs de liberté d’expression et de promotion de l’égalité entre les femmes et les hommes. En revanche, ils permettent malheureusement aux auteurs de violences d’exprimer et de disséminer des opinions injurieuses et de justifier leurs comportements violents. Alors que le discours de haine raciste est reconnu comme contraire aux normes européennes et internationales en matière de droits humains, on ne peut toujours pas en dire autant du discours de haine sexiste, misogyne ou homophobe. Force est de reconnaître que les politiques et législations actuelles, à tous les niveaux, ne sont pas encore parvenues à répondre convenablement à ce problème.

En tant que femmes et hommes politiques, notre responsabilité est de veiller à ce que les règles – et les sanctions pénales – qui s’appliquent au discours de haine sexiste ou homophobe soient les mêmes que celles développées contre le discours de haine raciste. La campagne #PasDansMonParlement, destinée à lutter de façon ciblée contre le sexisme, le harcèlement et la violence à l’égard des femmes dans les Parlements, représente un des outils à notre disposition. Elle pourrait être appliquée en réponse à d’autres types de discriminations et dans d’autres milieux, pour être déclinée à l’infini comme, par exemple, #PasDansMaVille, #PasDansMonBureau, #PasDansMonMinistère

Mes chères et chers collègues, nous sommes toutes et tous conscients qu’à l’heure actuelle, nous ne connaissons sûrement pas encore toutes les conséquences et toutes les implications que l’utilisation des nouvelles technologies pourra avoir sur les droits humains, la démocratie et l’État de droit. Nous avons donc besoin de mener un débat éclairé et inclusif avec tous les milieux concernés afin d’identifier les opportunités et les risques, ainsi que la meilleure façon de les maîtriser.

Les Parlements – et particulièrement les assemblées interparlementaires – sont par excellence des lieux d’échange, de dialogue et de débat, y compris sur les questions les plus controversées. C’est sur la base de ces échanges que nous pouvons identifier des lignes politiques pour notre futur. Cette conférence représente une excellente plateforme d’échanges et de débats sur une question aussi importante que les enjeux des nouvelles technologies pour la démocratie et les droits humains.

Dans ce contexte et pour alimenter les débats, j’aimerais d’ores et déjà vous informer que l’Assemblée parlementaire est en train d’élaborer pas moins de cinq rapports sur la nécessité d’assurer une gouvernance démocratique et sur les effets de l’intelligence artificielle sur les droits humains, dans des domaines aussi divers que la justice, le marché du travail, la santé ou la prévention des discriminations. Monsieur Olivier Becht, qui travaille sur ces sujets au sein de la commission des affaires juridiques et des droits de l’Homme de l’APCE, partagera avec vous les principaux éléments de nos travaux.

Je suis sûre que les débats au sein de ce colloque apporteront une contribution importante aux travaux que le Conseil de l’Europe et notre Assemblée mènent à l’échelle paneuropéenne. C’est par conséquent avec beaucoup d’intérêt que nous étudierons le compte rendu de ce colloque.

Je vous souhaite à toutes et à tous d’excellents et enrichissants débats et beaucoup d’idées innovantes !

4.   Allocution de Mme Nicole Trisse, députée, présidente de la délégation française à l’APCE

Monsieur le Président du Sénat, Madame la Secrétaire générale adjointe du Conseil de l’Europe, Monsieur le Juge à la Cour européenne des droits de l’Homme, Madame la Présidente de la CNIL, Monsieur le Commissaire à la protection des données du Conseil de l’Europe, Mesdames et Messieurs les présidents de délégation, Mesdames et Messieurs les Ambassadrices et Ambassadeurs, chers collègues parlementaires, Mesdames et Messieurs, avant toute chose, je tiens à remercier le Président Gérard Larcher et nos collègues sénateurs de nous faire l’honneur et le plaisir de nous recevoir au Palais du Luxembourg pour ce colloque important.

Notre délégation à l’APCE est constituée de membres appartenant aux deux assemblées du Parlement français et nous nous attachons à respecter, dans notre fonctionnement au quotidien, cette composition bicamérale. La tenue de ce colloque dans l’enceinte du Sénat relevait donc de l’évidence pour clore le volet parlementaire de la présidence française du Comité des Ministres du Conseil de l’Europe, après la tenue des réunions du Bureau et de la Commission permanente du mois de mai, à l’Assemblée nationale.

Comme vous le savez très certainement, la France, à l’occasion de son semestre de présidence du Comité des Ministres, a érigé au rang de ses priorités la réflexion sur les adaptations à apporter au Conseil de l’Europe pour lui permettre de faire face aux nouveaux défis qui sont posés aux droits de l’Homme et à l’État de droit. Or, l’un des principaux défis en question est la prise en considération des enjeux numériques et de l’intelligence artificielle.

La délégation française à l’APCE a estimé qu’il était de sa responsabilité d’apporter une contribution à cette réflexion, en organisant un colloque sur les droits de l’Homme et la démocratie à l’ère numérique. Je crois que les enjeux des débats qui vont nous réunir tout au long de cette journée sont assez bien résumés dans l’intitulé même de l’événement, auquel je remercie tous les intervenants et l’assistance d’avoir accepté de participer.

Quelles garanties pour les données personnelles et quelles réponses aux discours de haine et à la désinformation sur Internet ? Assurément, ces questions ne sont pas l’apanage des législateurs nationaux. Elles font écho à des inquiétudes légitimes de nos concitoyens et mobilisent de nombreuses organisations internationales, au premier rang desquelles le Conseil de l’Europe, mais aussi l’Union européenne et l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), pour ne citer que celles‑ci.

Internet, les outils numériques ainsi que les réseaux sociaux se jouent des frontières et il est nécessaire et urgent de trouver des réponses communes si l’on veut être efficace.

En matière de protection des données, le règlement du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, plus connu sous l’acronyme RGPD, a démontré qu’une harmonisation des normes et des exigences à l’échelle de l’Union européenne pouvait avoir des effets bénéfiques au niveau mondial. Je ne doute pas que la Présidente de la Commission nationale de l’informatique et des libertés (CNIL), ainsi que les intervenants de la première table ronde de nos débats, auront l’occasion de s’attarder sur ce point.

N’oublions pas, néanmoins, qu’auparavant le Conseil de l’Europe s’était lui-même penché sur la question en adoptant la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, dite « convention 108 ». Entrée en vigueur le 1er octobre 1985, elle fut le premier instrument international contraignant ayant pour objet de protéger les personnes contre l’usage abusif du traitement automatisé des données à caractère personnel et réglementant les flux transfrontaliers des données.

Mais, en la matière, le progrès technique va très vite et le détournement des normes posées à l’échelle internationale ou au plan national est tout aussi rapide. C’est pourquoi il convient sans cesse de s’interroger sur la pertinence du cadre existant, comme nous le ferons aujourd’hui.

Pour ce qui concerne la cybercriminalité, le Conseil de l’Europe a adopté une convention sur le sujet, plus connue sous le nom de « convention de Budapest ». Signé le 23 novembre 2001, ce texte est le seul instrument international contraignant qui traite de toutes sortes de crimes sur le Web, y compris la pornographie infantile, les atteintes au droit d’auteur et les discours de haine. Il pose des lignes directrices et sert aussi de cadre pour une coopération internationale entre les États. Un Protocole relatif à l’incrimination d’actes de nature raciste et xénophobe commis par le biais de systèmes informatiques l’a complété le 28 janvier 2003.

Ce cadre, aussi utile soit-il, n’en demeure pas moins insuffisant face à la recrudescence des actes et propos malveillants sur Internet. Or, les États désireux d’aller plus loin sur ces questions semblent avancer en ordre dispersé, avec des nouvelles législations nationales parfois dissonantes.

L’enjeu, aujourd’hui, est de préserver la cohérence des règles communes et de combler leurs lacunes de manière efficiente et concertée. Aussi, je fonde beaucoup d’espoirs sur les échanges qui nourriront la troisième table ronde de ce colloque, plus particulièrement consacrée au caractère fondamentalement multilatéral de la lutte sur le Web contre les discours de haine, la cybercriminalité et le cyberterrorisme.

Finalement, le domaine dans lequel l’arsenal de nos démocraties semble actuellement le moins développé et, il faut bien l’admettre, le moins efficace est celui du désordre informationnel. La littérature sur le sujet abonde. On ne compte plus les rapports et ouvrages consacrés à cette menace d’un genre nouveau. Quelques États, dont la France, ont cherché à poser un cadre juridique pour endiguer le phénomène. L’avenir nous éclairera sans doute sur le succès de ces initiatives, mais il est d’ores et déjà acquis que seule une réaction collective et concertée aura un réel impact.

À cet égard, je suis convaincue que la deuxième table ronde de nos débats, qui aura la difficile tâche d’esquisser ce que peuvent être les réponses du Conseil de l’Europe et des États pour prémunir nos démocraties des fake news, ne manquera pas de susciter pour vous un vif intérêt.

Vous l’aurez compris, ce colloque vise autant à susciter les débats et la confrontation des points de vue, aussi argumentés soient-ils, qu’à explorer des solutions possibles ou envisageables à l’échelle multilatérale.

Alors que nous venons de fêter le 70ème anniversaire du Conseil de l’Europe, cette organisation régionale destinée à bâtir et promouvoir une communauté de valeurs humanistes sur notre continent, fondée sur la démocratie et l’État de droit, rien ne serait pire que de considérer ces valeurs comme définitivement acquises. Les menaces subsistent et elles sont d’autant plus prégnantes que les nouvelles technologies de l’information et de la communication décuplent leur pouvoir de nuisance.

Face au populisme et à l’illibéralisme en vogue en Europe et ailleurs, nous devons plus que jamais veiller à ce que l’architecture juridique protégeant les droits et les libertés de tous les citoyens de notre continent reste adaptée et pertinente. Le Conseil de l’Europe, comme d’autres organisations internationales reposant sur le multilatéralisme, est une enceinte appropriée à cet effet.

Les débats d’aujourd’hui n’épuiseront pas, tant s’en faut, tous les sujets. Nous espérons néanmoins qu’ils contribueront à jeter les bases d’un travail approfondi, à Strasbourg comme ailleurs, en vue peut-être de nouvelles conventions ou de protocoles additionnels aux conventions existantes.

Madame la Secrétaire générale adjointe, je suis certaine que vous aurez à cœur de relayer le fruit de cette journée d’échanges au sein des comités et instances du Conseil de l’Europe. Plus que jamais, la vigilance et l’action restent de mise sur des sujets aussi essentiels pour l’avenir des droits humains, de la démocratie et de l’État de droit.

Je vous remercie pour votre attention et vous souhaite un colloque particulièrement instructif. Pour ma part, je ne doute pas que les propos des intervenants et les échanges avec l’assistance se révéleront passionnants.

5.   Allocution de Mme Nicole Duranton, sénatrice de l’Eure, première vice-présidente de la délégation française à l’APCE

Monsieur le Président du Sénat, Madame la Secrétaire générale adjointe du Conseil de l’Europe, Madame la Présidente de la délégation française à l’Assemblée parlementaire du Conseil de l’Europe, chère Nicole, Mesdames les Présidentes et Messieurs les Présidents de délégations, Mesdames les Ambassadrices et Messieurs les Ambassadeurs, mes chers collègues, Mesdames et Messieurs, notre colloque d’aujourd’hui s’inscrit dans les priorités de la Présidence française du Comité des Ministres du Conseil de l’Europe, qui s’achèvera à la fin de ce mois. Ce choix est d’autant plus pertinent que nous sommes confrontés à un défi à l’acuité grandissante : comment mettre en œuvre et protéger les valeurs de la démocratie, des droits de l’Homme et de l’État de droit dans un contexte de profond et rapide bouleversement technologique ?

Le Conseil de l’Europe, de par son périmètre géographique et son mandat, est bien placé pour contribuer à apporter des réponses opérationnelles à ces questions. Il s’y intéresse d’ailleurs de près ; la dernière session du Forum mondial de la démocratie, à Strasbourg, du 6 au 8 novembre derniers, portait ainsi sur le sujet « Information : la démocratie en péril ? ».

Ce vaste chantier doit, selon moi, être entrepris en coopération avec l’Union européenne qui s’y investit également beaucoup – je pense, par exemple, aux récentes initiatives de la Commission européenne relatives au plan d’action sur la désinformation et aux contenus terroristes en ligne. Sur ces questions, comme sur d’autres, Strasbourg et Bruxelles ont intérêt à travailler en étroite relation. Pour autant, je n’ignore pas que le Conseil de l’Europe et les juges de Strasbourg ont donné des bases juridiques solides au traitement des informations par les médias, grâce en particulier à l’article 10 de la convention européenne des droits de l’Homme, relatif à la liberté d’expression, ou à la protection des données personnelles, avec la convention 108.

Le modèle originel du Web a vu le jour il y a trente ans. La Toile avait été appréhendée comme un espace universel où n’importe qui en n’importe quel lieu peut obtenir librement et gratuitement des ressources et partager des savoirs. De fait, le potentiel du Web est immense, et les perspectives ouvertes quasi infinies. Nos façons de vivre et d’échanger ont été profondément modifiées par le progrès technologique, en peu de temps. L’intelligence artificielle promet encore bien des évolutions.

Néanmoins, ces potentialités immenses sont aussi porteuses de risques.

Le Web fonctionne sur un modèle économique reposant sur l’extraction et l’exploitation de nos données personnelles à des fins commerciales : c’est l’économie du big data et des algorithmes, propice à une surveillance de masse de nos habitudes et modes de vie. Nos collègues britanniques l’ont rappelé, en février dernier, dans un rapport détaillé sur l’affaire Cambridge Analytica. Le numérique a aussi facilité et suscité l’émergence de nouvelles formes de criminalité ; on parle désormais de cybercriminalité et de cyberattaques.

Par ailleurs, les nouvelles technologies interrogent le bon fonctionnement de nos démocraties. Alors que celui-ci requiert une information crédible, les fake news et les faits alternatifs proposent des types de discours ne correspondant pas à des faits avérés.

Dans le monde de post-vérité qui serait le nôtre, Internet propagerait toutes sortes de rumeurs, et l’esprit critique, attaqué de toutes parts par les infox et autres fake news, aurait disparu. La propagation de fausses nouvelles n’a pourtant rien de nouveau, en particulier en période de crises politiques et sociales. Les rumeurs ne traduisent-elles pas les craintes, les haines, les préjugés des hommes ? Ce qui, en revanche, est surprenant, c’est la persistance de la désinformation : ni les progrès de l’éducation ni le fact checking ne la font reculer, au contraire. À notre époque de liberté de la presse et d’informations surabondantes, nous nous rendons compte que, finalement, ce n’est pas la censure qui favorise la rumeur...

La menace de l’influence des messages politiques véhiculés par les médias n’est pas nouvelle non plus – pensons au cinéma. La nouveauté tient à la disparition d’un monde où l’information était centralisée, contrôlée par les médias traditionnels. Internet et l’utilisation massive des réseaux sociaux ont réduit l’avantage structurel que les élites ont sur leurs compatriotes : celui du contrôle de ce qui est important et de ce qu’il faut discuter. Les réseaux sociaux retirent aux élites le monopole des opinions. La majorité des gens aujourd’hui ne se tiennent plus au courant de l’actualité dans le monde en regardant les journaux télévisés. Les réseaux sociaux ont « démocratisé » les fake news.

L’information peut être manipulée de façon presque indétectable, alors que les conséquences sont potentiellement chaotiques, comme l’a mis en évidence, l’année dernière, un rapport du Centre d’analyse, de prévision et de stratégie du ministère des Affaires étrangères. Ce risque va faciliter la multiplication de campagnes de désinformation, conduites par des acteurs étatiques ou non étatiques, qui peuvent déstabiliser le débat démocratique. Ainsi des campagnes massives de diffusion de fausses informations sont-elles destinées à modifier le cours normal du processus électoral.

Par ailleurs, la capacité à mobiliser rapidement la colère populaire menace la démocratie représentative. Nous avons vu récemment, en France, combien il était difficile de gérer une mobilisation horizontale dépourvue de leaders bien identifiés.

Autre phénomène inquiétant, le fonctionnement des plateformes privilégie la diffusion de contenus émotionnels, qu’ils fassent rire, émeuvent ou choquent. La presse à scandale et les tabloïds fonctionnaient déjà sur les mêmes ressorts, mais Internet en démultiplie les conséquences auprès de milliards d’utilisateurs potentiels. Si bien qu’aujourd’hui, l’opinion prime sur les faits.

Alors que la démocratie est en principe canalisée par le débat, qui permet de rationaliser les désaccords, les réseaux sociaux, au contraire, contribuent à hystériser et brutaliser la vie politique. On le voit, par exemple, avec la pratique de la dénonciation publique dite du name and shame. Celle-ci rejoint certes de vieilles habitudes chères aux formations politiques extrémistes, mais avec un effet aujourd’hui décuplé dans un contexte de défiance envers les élus. Le climat démocratique s’en ressent nécessairement.

Désormais, un chef d’État peut faire des annonces, plus ou moins importantes, plus ou moins vraies, sur son compte Twitter… Au fond, les infox deviennent une stratégie politique. Rappelons-nous que d’aucuns ont cherché à faire croire que le traité d’Aix-la-Chapelle permettrait de vendre l’Alsace à l’Allemagne !...

Jusqu’ici, j’ai évoqué différents risques. Malheureusement, il n’y a pas que des risques ; il y a aussi des passages à l’acte, et parfois des morts. Que l’on songe au cyber-harcèlement, à la radicalisation solitaire et expresse en ligne et aux appels à commettre des attentats terroristes. Le tueur de Christchurch, en Nouvelle-Zélande, a pu diffuser le meurtre en direct de cinquante et une personnes dans deux mosquées, pendant 17 minutes, sans être empêché. Les contenus haineux, racistes ou antisémites sont parfois dupliqués uniquement pour faire de l’audience ; le « succès » est alors garanti ! Même si les plateformes ont fait d’indéniables progrès pour renforcer leurs équipes de modération.

Dans ce paysage numérique largement nouveau, et porteur de risques multiples, il est important de ne pas abandonner le Web aux extrémistes. Des actions sont également indispensables pour responsabiliser davantage les plateformes, instituer des sessions de formation en direction à la fois des adultes et des enfants ou encore développer la vérification des faits.

Il y a un an, la France dévoilait l’Appel de Paris pour la confiance et la sécurité dans le cyberespace, à l’occasion d’une réunion du Forum sur la gouvernance d’Internet, dans le giron de l’ONU, et auquel le Conseil de l’Europe a participé. Tant des États que des grandes entreprises ont souscrit à ce texte qui vise à relancer les négociations internationales sur le cyberespace – en 2017, près d’un milliard de personnes ont été victimes de cyberattaques.

La question requiert davantage de régulation à l’avenir, une régulation coopérative avec les acteurs privés, et propre à l’Europe. Il s’agit d’atteindre un équilibre entre une configuration où seules des sociétés privées géantes ont tout pouvoir, et une autre où seul l’État définit ce qui est licite ou pas sur Internet, au mépris de la liberté d’expression.

Je forme le vœu que nos échanges d’aujourd’hui feront avancer ces questions, nombreuses et délicates.

Je suis particulièrement heureuse de la présence des personnalités qui ont bien voulu intervenir aujourd’hui dans notre colloque afin d’en nourrir les débats.

Avec Nicole Trisse, nous avons souhaité que ce colloque fasse une large place à l’interactivité. C’est pourquoi, après les interventions, n’hésitez surtout pas à prendre la parole pour commenter ou poser des questions.

Nous allons pouvoir ouvrir notre première table ronde, qui sera animée par mon collègue André Gattolin, sénateur des Hauts-de-Seine, membre de la délégation française à l’APCE, et passionné par ces sujets.


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   premiÈre table ronde :
« Droits numÉriques des citoyens, nouvelle frontiÈre des droits de l’Homme et de l’action du Conseil de l’Europe ? »

Les intervenants à cette table ronde étaient :

– M. André Potocki, juge élu au titre de la France à la Cour européenne des droits de l’Homme ;

– M. Jean-Philippe Walter, commissaire à la protection des données du Conseil de l’Europe ;

– Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL) ;

– M. André Gattolin, sénateur des Hauts-de-Seine, vice-président de la commission des Affaires européennes du Sénat.

La table ronde a été animée par M. André Gattolin.

A.   introduction du dÉbat par les intervenants

1.   Intervention de M. André Gattolin, sénateur des Hauts-de-Seine, vice-président de la commission des Affaires européennes du Sénat

Je suis heureux d’ouvrir cette première table ronde sur les droits numériques des citoyens, nouvelle frontière des droits de l’Homme et de l’action du Conseil de l’Europe.

Je veux d’abord saluer M. André Potocki, juge français à la Cour européenne des droits de l’Homme, qui terminera bientôt son mandat. L’Assemblée parlementaire du Conseil de l’Europe sera en effet amenée à élire le juge français lors de la prochaine partie de session, en janvier 2020. C’est donc avec une vision d’expérience et du recul sur la jurisprudence de la Cour qu’André Potocki s’exprimera ce matin.

Je salue également M. Jean-Philippe Walter, commissaire à la protection des données du Conseil de l’Europe, qui est en particulier chargé de veiller au respect du règlement sur la protection des données pour toutes les données à caractère personnel collectées et traitées par le Conseil de l’Europe.

Je salue enfin Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL), autorité administrative indépendante issue de la loi fondatrice du 6 janvier 1978. Chargée notamment de la protection des données personnelles dans l’univers numérique, la CNIL a fait de la mise en œuvre du règlement européen relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, le fameux « RGPD », le fil directeur de son action sur la période 2019-2021. Ce sujet sera certainement évoqué !

Pour ma part, je ne m’exprimerai pas comme un juriste ou un technicien des données personnelles, mais en tant que parlementaire qui travaille sur les questions numériques, à la fois au Sénat et à l’Assemblée parlementaire du Conseil de l’Europe.

Il y a 70 ans, quand le Conseil de l’Europe a été créé, les enjeux numériques n’existaient pas. La convention européenne des droits de l’Homme du 4 novembre 1950 ne contient de fait aucune mention spécifique relative à la protection des données à caractère personnel à l’ère numérique, à la différence de la Charte des droits fondamentaux de l’Union européenne, qui a été adoptée en 2000.

Cela n’a nullement empêché la Cour européenne des droits de l’Homme de se prononcer sur la protection des données à caractère personnel, sur le fondement de l’article 8 de la convention, selon lequel « toute personne a droit au respect de sa vie privée et familiale, de son domicile et de sa correspondance ».

Dans son arrêt S. et Marper c. Royaume-Uni du 4 décembre 2008, la Cour a ainsi jugé que « le simple fait de mémoriser des données relatives à la vie privée d’un individu constitue une ingérence au sens de l’article 8 » [de la convention]. (…) Peu importe que les informations mémorisées soient ou non utilisées par la suite ».

Pour déterminer si cette ingérence est nécessaire dans une société démocratique et si un juste équilibre a été ménagé entre les différents intérêts en présence, la Cour examine alors si cette ingérence était prévue par la loi, si elle poursuivait un ou des but(s) légitime(s) et si elle était proportionnée à ce ou ces but(s).

Je veux souligner ici l’importance des arrêts de la Cour européenne des droits de l’Homme, auxquels les États membres doivent se conformer. Le Conseil de l’Europe a également joué un rôle majeur au travers de la convention du 28 janvier 1981 pour la protection des personnes à l’égard du traitement des données à caractère personnel, dite convention 108, qui fut le premier instrument juridique international contraignant dans le domaine de la protection des données. Ce texte est important aussi parce qu’il a la particularité d’être une convention ouverte à la ratification d’États non membres du Conseil de l’Europe et qu’il est déjà partagé par plusieurs États d’autres continents.

Cette convention a été modernisée en 2018 pour répondre aux nouveaux défis du numérique et améliorer sa mise en œuvre. Elle est un texte fondateur qui a influencé les textes élaborés par l’Union européenne, notamment la directive du 24 octobre 1995 et le RGPD.

Au total, comme le relevait en 2014 le Conseil d’État dans son étude annuelle sur Le numérique et les droits fondamentaux, on observe une convergence du droit européen, qu’il émane du Conseil de l’Europe ou de l’Union européenne, autour de quelques grands principes :

– une collecte de données loyale, répondant à des finalités déterminées et proportionnée à ces finalités ;

– l’exigence d’un consentement de la personne ou d’un autre principe prévu par la loi ;

– des droits d’information, d’accès, de rectification et d’opposition de la personne ;

– l’existence d’une autorité indépendante de contrôle.

Ce corpus diffère de manière très substantielle du droit des États-Unis, dans lequel il n’existe pas de cadre général du traitement des données personnelles et qui retient une approche subjective, centrée sur la réparation du préjudice subi.

Le Conseil de l’Europe a donc été précurseur et en pointe sur la protection des données personnelles à l’ère numérique. Soulignons qu’il l’a aussi été grâce aux autorités administratives indépendantes, comme la CNIL, qui ont su jouer un rôle d’aiguillon pour préserver les droits fondamentaux de nos concitoyens.

Je n’évoquerai qu’un seul exemple récent d’action de la CNIL, mais qui pourra donner lieu à des échanges car l’arrêt rendu par la Cour de justice de l’Union européenne va moins loin que ce qu’elle souhaitait : celui du droit au déréférencement sur Internet, souvent appelé « droit à l’oubli ». Sans davantage développer ce point, parce que la présidente de la CNIL aura peut-être l’occasion d’y revenir dans son propos, on voit bien que le débat juridique sur le droit applicable dans le cadre européen est intense.

Je voudrais, à ce stade, souligner trois défis qui se posent aujourd’hui et qui sont de nature, à mon sens, plus politique que strictement juridique.

Le premier défi que l’on doit aborder de front est directement lié au sujet que je viens d’évoquer : c’est celui de la souveraineté numérique et de la gouvernance d’Internet, deux thèmes chers au Sénat français.

Le rapport de la récente commission d’enquête sur la souveraineté numérique relève que « nos sociétés sont confrontées à une mise en cause sourde de leurs valeurs : l’homme est moins un citoyen et un sujet de droit, mais de plus en plus une somme de données à exploiter. Ce n’est pas notre conception de la personne humaine, ce n’est pas non plus le modèle de société que nous portons et dans lequel s’incarnent nos valeurs de respect de tous et de chacun. La souveraineté numérique est donc la condition nécessaire et indispensable à la préservation de ces valeurs ».

C’est évidemment une question très vaste, éminemment politique, mais fondamentale compte tenu du poids des plateformes Internet les plus importantes, qui ne sont pas européennes, mais américaines ou chinoises.

Le Comité des Ministres du Conseil de l’Europe a adopté l’an dernier une recommandation sur les rôles et les responsabilités des intermédiaires d’Internet. C’est là assurément une nouvelle frontière pour l’Union européenne et pour le Conseil de l’Europe !

Le deuxième défi concerne l’intelligence artificielle (IA) qui ne sera pas acceptée par la société si elle n’inspire pas confiance. Et pour qu’elle inspire confiance, elle doit être bâtie sur des principes éthiques clairs et reconnus par tous. Beaucoup de choses dans l’intelligence artificielle sont non intentionnelles et dues à un manque de maîtrise technologique.

L’IA pose d’autres questions, comme celle de la responsabilité. Il ne peut y avoir de responsabilité des machines ou des robots. Une intelligence artificielle est d’abord une machine qui a des concepteurs et des fabricants. Ce sont eux qui doivent être responsables en cas de difficulté. Il y a donc ici un enjeu de traçabilité.

L’IA est aussi, assurément, une nouvelle frontière du Conseil de l’Europe, tant elle a aujourd’hui d’importance pour la vie quotidienne de nos concitoyens qui ne peuvent être les sujets d’algorithmes opaques.

Ce débat est fondamental et le Conseil de l’Europe s’en saisit pleinement, y compris au niveau de l’Assemblée parlementaire, dans le cadre de la nouvelle sous-commission créée pour approfondir ces sujets, au sein de sa commission des questions juridiques et des droits de l’Homme.

Le dernier point que je souhaite évoquer en introduction de cette table ronde, c’est la conscience qu’a le citoyen de ses droits numériques.

Dans une conférence de l’UNESCO en 2015, Jean-Philippe Walter évoquait déjà la nécessité de « développer des politiques d’éducation de formation et de sensibilisation au numérique qui soient respectueuses des droits et libertés fondamentales ».

Le Conseil de l’Europe a développé, en 2016, un cadre de référence des compétences nécessaires à une culture de la démocratie, qui inclut la dimension numérique.

Pour assurer et défendre dans la durée les droits fondamentaux des citoyens à l’ère numérique, nous devons donc mettre en place des politiques éducatives adaptées.

2.   Intervention de M. Jean-Philippe Walter, commissaire à la protection des données du Conseil de l’Europe

La numérisation de la société suscite de grands espoirs et des attentes pour améliorer nos conditions de vie et notre bien-être. Elle est souvent présentée comme la solution à tous nos problèmes individuels, sociaux ou environnementaux. S’il est incontestable que le développement des technologies de l’information et des communications est un facteur de progrès et d’amélioration dans de nombreux secteurs d’activité, qu’ils soient privés ou publics, force est aussi de constater que la numérisation comporte également de nombreux risques et peut s’avérer un formidable support à la surveillance et à l’instrumentalisation des citoyens et citoyennes du monde entier. C’est un défi considérable pour le respect des droits de l’Homme et des libertés fondamentales, notamment le droit à la vie privée. Il est dès lors impérieux de veiller à ce que la numérisation de la société se fasse au bénéfice de l’Humanité, respecte la dignité, le droit à l’autodétermination informationnelle pour chaque être humain, et s’inscrive dans un cadre démocratique.

Le Conseil de l’Europe s’efforce de mettre en place les cadres juridiques permettant de garantir l’État de droit, les droits humains et la démocratie également dans le monde numérique, concrétisant l’article 8 de la convention européenne des droits de l’Homme qui consacre le droit au respect de la vie privée. Quant à la convention 108, qui a été ouverte à la signature le 28 janvier 1981, elle est encore aujourd’hui le seul instrument international juridiquement contraignant. Elle renferme les principes de base de la protection des données, qui sont aujourd’hui universellement reconnus. Elle s’applique à tout traitement de données à caractère personnel du secteur privé et du secteur public, y compris les traitements des services de renseignement. Elle a un caractère ouvert : non seulement les États membres du Conseil de l’Europe peuvent la ratifier, mais les États non européens ayant une législation de protection des données conforme aux exigences de la convention peuvent y adhérer. Aujourd’hui, la convention a été ratifiée par les 47 États membres du Conseil de l’Europe, et 8 pays d’Afrique et d’Amérique latine y ont adhéré.

Comme vous l’avez entendu, la convention a été modernisée. Un protocole d’amendement a été ouvert à la signature des parties le 10 octobre 2018. À ce jour 34 États parties l’ont signé et nous venons d’apprendre que la Lituanie a adopté sa loi de ratification. La convention 108  « + » répond vraiment au défi du numérique, notamment à l’objectif de renforcer la protection des personnes en garantissant l’autonomie personnelle fondée sur le droit de la personne à contrôler ses propres données à caractère personnel et le traitement qui en est fait, en garantissant la dignité humaine, ce qui est fondamental au regard des développements de l’intelligence artificielle et au recours croissant aux décisions individuelles automatisées algorithmiques. L’être humain ne doit pas être soumis à la machine et laisser celle-ci maîtresse des décisions. Il doit pouvoir garder le contrôle et ne pas être traité comme un simple objet.

L’article 1er de la convention 108  « + » vise à protéger toute personne physique, quelle que soit sa nationalité ou sa résidence, à l’égard du traitement de données à caractère personnel, contribuant ainsi au respect de ses droits humains et de ses libertés fondamentales, dont notamment le droit à la vie privée. Il fait du droit à la protection des données, non pas un droit supérieur aux autres droits de l’Homme, mais bien un droit de l’Homme au service de l’exercice d’autres droits et libertés fondamentales, et notamment le droit au respect de la vie privée.

La convention 108  « + » vise à renforcer les mécanismes de mise en œuvre et à développer la fertilité du droit à la protection des données. Elle veut également promouvoir les valeurs fondamentales du respect de la vie privée et de la protection des données à caractère personnel à l’échelle mondiale, favorisant ainsi la libre circulation de l’information entre les peuples. De par son caractère général, simple, flexible, ouvert et non orienté sur l’une ou l’autre des technologies, elle assure la cohérence et la convergence avec d’autres cadres juridiques pertinents, renforçant ainsi sa vocation universelle.

Parmi les dispositions pertinentes en relation avec les défis du numérique et des droits des citoyens et citoyennes, mentionnons l’ancrage du principe de proportionnalité pour tout traitement de données : tout traitement de données doit être proportionnel à la finalité légitime poursuivie et refléter un juste équilibre entre tous les intérêts en présence, qu’ils soient publics ou privés, ainsi que les droits et libertés en jeu. Une base de légitimité, notamment un consentement, ne suffit pas à elle seule à justifier le traitement qui fonde le respect du principe de la proportionnalité.

En lien avec ce principe, la convention 108  « + »  prévoit l’obligation de mise en conformité et de démonstration de la conformité du traitement, l’obligation d’examen de l’impact potentiel du traitement envisagé sur les droits et libertés fondamentales, l’obligation à concevoir le traitement de manière à prévenir et minimiser les risques d’atteinte à ces droits et libertés fondamentales. Elle prévoit qu’un traitement de données à caractère personnel ne peut en outre intervenir que s’il repose sur une base de légitimité : consentement ou autre fondement légitime prévu par la loi. Elle interdit le traitement de données sensibles sans que les garanties appropriées supplémentaires prévues par le droit interne soient mises en place pour prévenir les risques pour les intérêts, droits et libertés fondamentales de la personne, notamment les risques de discrimination.

La convention 108  « + »  renforce également les obligations de transparence et les droits des personnes concernées, en inscrivant, au côté des droits d’accès et de rectification :

– l’obligation d’informer les personnes concernées ;

– le droit de toute personne de ne pas être soumise à des décisions l’affectant de manière significative qui seraient prises uniquement sur le fondement d’un traitement automatisé où données, sanctions ou points de vue sont pris en compte ;

– le droit de toute personne d’obtenir connaissance du raisonnement qui sous-tend le traitement de données lorsque les résultats de ce traitement lui sont appliqués ;

– le droit d’opposition au traitement ;

– le droit de disposer d’un retour effectif.

Le Conseil de l’Europe, et plus particulièrement le comité de la convention 108, a complété la convention par l’adoption de textes non contraignants sous la forme d’avis, de lignes directrices et de recommandations sectorielles ou thématiques visant à préciser certaines dispositions de la convention, voire à poser les bases d’un développement législatif dépassant le strict cadre de la convention.

Ainsi le comité de la convention a-t-il adopté, le 23 janvier 2017, les lignes directrices sur la protection des personnes à l’égard du traitement des données à caractère personnel à l’ère des mégadonnées. Le 25 janvier 2019, il a adopté une ligne directrice sur l’IA et la protection des données dont l’objectif est d’assurer, dans le développement et l’utilisation de l’IA, le respect de la dignité, le droit à la vie privée et la protection des données à caractère personnel. Ce sont de premières orientations en la matière, de nature générale, mais aussi ciblées à l’intention des développeurs, des fabricants et des prestataires de services, ainsi qu’à l’intention des législateurs et des décideurs.

Actuellement, le comité travaille à la révision de la recommandation 2013 sur la protection des personnes à l’égard du traitement automatisé de données à caractère personnel dans le cadre du profilage. Il prépare également un document relatif à la reconnaissance faciale, ainsi que des lignes directrices sur la protection des données personnelles des enfants dans les systèmes éducatifs.

En conclusion, le respect des droits des personnes dans le monde numérique passe par un cadre juridique international universel. La convention 108  « + »  offre un niveau élevé de protection des données, similaire à celui du RGPD dont il est important de rappeler qu’il découle de la convention 108 et permet d’apporter une réponse universelle aux défis actuels, en offrant un socle commun de règles et de principes ayant une portée mondiale, sur lesquels il est possible de construire pour répondre à la numérisation de la société. Je tiens enfin à souligner combien il est important que les États se saisissent et fassent leurs les outils normatifs, tels que la convention 108  « + » , qui permettent de créer des passerelles avec d’autres régions du monde.

3.   Intervention de Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL)

Je remercie à mon tour la délégation française à l’Assemblée parlementaire du Conseil de l’Europe pour son invitation, et tout particulièrement sa présidente, Madame Nicole Trisse. Je suis honorée de pouvoir intervenir dans cette table ronde qui nous invite à prendre le temps, ô combien nécessaire, de la réflexion, alors que l’innovation technologique est foisonnante et envahit à grande vitesse tous les espaces de la vie, que ce soit au travail dans les entreprises, dans le service public et bien entendu dans la vie privée.

Le droit au respect de la vie privée, que la convention européenne des droits de l’Homme consacre dans son article 8, est très fortement mis en tension par les technologies numériques. Nous sommes bien placés, à la CNIL, pour observer ce phénomène : les activités numériques ne connaissent pas de frontières et doivent s’articuler avec le système démocratique qui a été conçu patiemment par les Pères fondateurs de l’Europe dans le cadre du Conseil de l’Europe, dont nous fêtons cette année le 70ème anniversaire, mais aussi dans le cadre de l’Union européenne.

Je ne parlerai pas aujourd’hui spécifiquement du RGPD qui est la réponse apportée par l’Union européenne au défi de la protection des données, parce que le titre de la présente table ronde évoque très justement la nouvelle frontière des droits de l’Homme.

Le Conseil de l’Europe a toujours été pionnier dans le domaine des droits numériques des citoyens. Il a été le premier à s’intéresser à la question des données personnelles en adoptant la convention dite 108 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, entrée en vigueur en 1985. C’est aussi sous l’égide du Conseil de l’Europe qu’a été conclu le premier traité international de lutte contre la cybercriminalité, entré en vigueur en 2015.

Je tiens à souligner l’importance de consolider ces acquis, avec la modernisation de la convention 108, puisque la convention 108  « + » présente l’intérêt, comme le RGPD, de placer les individus au centre de la régulation numérique, en renforçant le droit fondamental à la vie privée et le contrôle que les individus ont sur leurs données. Très concrètement, ce texte prévoit notamment :

– des exigences renforcées de transparence ;

– le droit d’accès ;

– le droit de ne pas être soumis à une décision exclusivement automatisée (ce droit est par exemple mis en cause pour l’affectation automatisée des lycéens à la sortie du bac dans 13 000 formations en France).

Ces garanties modernes permettent, à l’heure de l’IA, d’éviter au citoyen qu’il subisse des décisions automatiques, en particulier lorsqu’elles sont susceptibles d’avoir des effets défavorables sur lui. Elles sont d’autant plus importantes qu’il s’agit d’un standard partagé au plan international, la convention étant l’unique texte contraignant relatif à la protection des données, de portée mondiale, qui est ouvert à tout État, membre ou non du Conseil de l’Europe. Cela permet, et je m’en rends compte dans les déplacements que je fais à l’étranger, une grammaire commune entre les différentes zones géographiques, ce qui favorise la convergence des politiques publiques en matière de protection des données face à des défis globaux : la digitalisation croissante, la massification, l’accélération des traitements, les thématiques de surveillances, dans un contexte de progrès technologiques globaux.

Les travaux en cours au Conseil de l’Europe ont déjà été largement décrits. J’insisterai sur l’élaboration d’un protocole additionnel à la convention sur la cybercriminalité, dite convention de Budapest, car il concerne l’accès transfrontalier par les autorités compétentes aux preuves électroniques détenues par les entreprises en cas d’activités cybercriminelles et qui soulèvent des questions sur les garanties qui devraient être prévues pour les individus dont les données font l’objet d’un tel accès. Il apparaîtrait naturel que la convention 108  « + » , en tant qu’autre outil du Conseil de l’Europe, soit prise en compte comme socle de référence à cet égard.

Enfin, la convention 108  « + »  constitue un forum d’action et de coopération particulièrement utile pour effectuer la protection effective des droits des citoyens sur leurs données. C’est un facilitateur qui renforce la coopération entre autorités de protection des données. Il est plus que nécessaire que ce nouveau cadre puisse désormais entrer en vigueur. Une ratification prochaine de ce texte par la France, qui a d’ailleurs fait partie des tout premiers États à signer, dès son adoption, le protocole d’amendement instaurant la convention modernisée, apparaît tout aussi essentielle – je me permets de le dire dans cette enceinte parlementaire – pour permettre une application de ce nouveau cadre dans les meilleurs délais.

S’agissant de l’articulation entre les progrès technologiques et les droits fondamentaux, le Conseil de l’Europe a déjà lancé une réflexion très forte sur l’IA. Celle-ci s’appuie sur un changement d’échelle majeur selon trois axes :

– les progrès de la puissance de calcul disponible ;

– les masses de données disponibles du fait du numérique ;

– les progrès de l’algorithmique et particulièrement du machine learning, ou des machines auto-apprenantes dont la logique sous-jacente est opaque, au point d’échapper parfois à ses concepteurs.

Face à ces défis, la CNIL a produit en décembre 2017, après avoir organisé une soixantaine de débats en région, conformément à la mission qui lui a été confiée depuis 2016 d’animer le débat sur la République numérique, un rapport sur l’IA dont le titre était : Comment permettre à l’homme de garder la main ? Cette étude met en évidence deux principes : la nécessaire loyauté des procédés mis en œuvre par l’IA et un principe de vigilance. S’y ajoutent un certain nombre de recommandations opérationnelles qui sont accessibles sur le site de la CNIL. Il s’agit d’une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

S’agissant des nouveaux usages de la vidéo, et plus particulièrement des dispositifs de reconnaissance faciale, il est évident que les données biométriques sont des données sensibles – elles sont d’ailleurs considérées juridiquement comme telles par le RGPD qui interdit leur utilisation, avec certes des exceptions, dont l’encadrement est lui-même problématique. Une donnée est encore plus sensible que les autres : le visage, qui peut être capté à votre insu, sur la base d’une simple photographie. Si la reconnaissance faciale est légitime pour certains usages de sécurité publique, pour fluidifier les foules ou retrouver un individu, voire éventuellement pour des usages privés (déblocage de téléphone portable), elle implique des risques qui peuvent porter atteinte à la liberté d’aller et de venir anonymement. De plus, les systèmes de reconnaissance faciale sont faillibles : des études menées dans les pays où ils sont les plus utilisés ont montré que les personnes qui ont une couleur sombre et les femmes sont le plus souvent l’objet de faux positifs. En outre, ces systèmes, qui sont multiples, ont un coût financier et environnemental. Là encore, la problématique de la proportionnalité du traitement par rapport à sa finalité se pose, ainsi que celle de la durée de conservation des données.

La CNIL est heureuse de constater que le débat sur ces sujets, auquel elle a participé, commence à cristalliser, y compris dans les pouvoirs publics et au Parlement. Elle sera amenée dans les tout prochains jours à apporter une contribution de méthode pour en délimiter les enjeux et exposer sa façon d’envisager l’encadrement d’éventuelles expérimentations. Elle le fera en restant à sa place car les décisions dans ce domaine, qui implique des choix de société, appartiennent aux responsables politiques.

En tout état de cause, nous avons la chance de participer, par le biais du Conseil de l’Europe, à l’élaboration d’un modèle de développement européen en matière de droits et de liberté des personnes.

M. André Gattolin. – J’ajoute que la Ministre en charge des questions du numérique vous a confié, le 16 octobre dernier, la constitution d’une commission mixte, composée de représentants de la CNIL et d’experts extérieurs pour travailler sur le sujet de la reconnaissance faciale. Nous serons heureux de prendre connaissance du produit de vos travaux.

4.   Intervention de M. André Potocki, juge français à la Cour européenne des droits de l’Homme

Mes remerciements vont d’abord à la délégation française qui a eu la délicatesse d’associer la Cour européenne des droits de l’Homme à un débat sur un sujet qui est évidemment extrêmement important à nos yeux. Je saisis cette occasion pour dire combien, vu de la Cour, la présidence française du Comité des Ministres a été dynamique, productive et d’une grande richesse.

Pour la Cour, l’irruption des technologies de l’information et de la communication comporte deux défis : le premier est de l’ordre de la vigilance, dans la mesure où surgissent une multitude de menaces à l’égard des droits fondamentaux, alors que le second est un défi d’adaptation. En effet, notre texte de base est une convention datant de 1950, dont la modification est quasiment impossible puisqu’elle requiert l’unanimité. Nous connaissons déjà cette difficulté d’adaptation dans le domaine de la bioéthique et, depuis le début, la Cour ne cesse d’affirmer que « la convention est un instrument vivant à interpréter à la lumière des conditions de vie actuelle ».

Par nature, les textes qui énoncent des droits fondamentaux sont toujours ouverts – certains diraient assez vagues –, car ils offrent une assez grande latitude de flexibilité. Par ailleurs, parce que nous avons une technique de contrôle tout à fait adaptée et qui figure déjà dans le texte de la convention de 1950, qui nous demande de veiller à deux choses. En premier lieu, éviter l’arbitraire. Pour cela nous avons deux exigences : que les mesures qui sont contestées devant nous soient bien prévues par la loi de l’État ou le droit qui est en cause ; qu’existe un but légitime. En second lieu, l’exigence de proportionnalité, qui consiste à montrer qu’une mesure est pertinente et nécessaire pour atteindre son but, ainsi qu’à démontrer qu’il aurait été impossible d’atteindre ce but avec une mesure portant moins atteinte au droit qui est protégé.

Il faut souligner qu’une cour de justice n’intervient pas comme un législateur, un régulateur ou un rédacteur de convention, mais uniquement lorsqu’elle est saisie, et spécifiquement sur les questions qui lui sont soumises à titre contentieux. En conséquence, notre intervention est nécessairement moins cohérente, moins complète et très souvent moins à la page des dernières menaces, puisqu’il faut attendre tout le temps du cheminement dans les modes de contrôle interne pour qu’une mesure arrive devant nous. Néanmoins, cela donne à la Cour une sorte de distance, une sorte de perspective qui lui permet parfois d’apporter des messages importants pour tout le travail que vous faites, les uns et les autres. Comme cela a été mentionné, nous travaillons essentiellement sur deux articles de la convention : l’article 10 qui protège le droit à la liberté d’expression et la liberté d’information ; l’article 8 qui protège la vie privée.

S’agissant de l’article 10, dès 2009 dans un arrêt « Times Newspaper c. Royaume-Uni », la Cour a indiqué, ce qui n’était pas évident, que les principes en matière de liberté d’expression s’appliquent à Internet. Dans son arrêt « Ahmet Yildirim c. Turquie », la Cour a souligné l’apport démocratique d’Internet : « Internet est aujourd’hui devenu l’un des principaux moyens d’exercice par les individus de leur droit à la liberté d’expression et d’information. On y trouve des outils essentiels de participation aux activités et débats relatifs aux questions politiques ou d’intérêt public ». La Cour en a tiré une conséquence extrêmement importante en « conventionnalisant » le droit d’accès à Internet. En effet, elle en a déduit que l’on ne pouvait être privé de l’accès à Internet de façon arbitraire et sans contrôle et sans recours juridictionnel. Par ailleurs, elle a rappelé qu’il est indiqué dans le texte de l’article 10 que celui‑ci s’applique « sans considération de frontière », ce qui, dans le champ que nous examinons, est d’une importance considérable.

Par ailleurs, dans l’affaire « Delfi AS c. Estonie » datant de 2015, la Cour a considéré que, sous certaines conditions, la responsabilité des sites Internet pouvait être engagée pour les commentaires qui y sont déposés.

L’article 8, qui protège la vie privée, est immédiatement évoqué au sujet des menaces qui surgissent des myriades de traces numériques que chacun de nos gestes laisse maintenant à la portée de tous ceux qui veulent les capter. L’un des sujets les plus sensibles dans ce domaine est la compatibilité avec la convention des systèmes d’interception des masses de données par les services de renseignement. Nous avons rendu sur ce point, en 2015, les arrêts « Romanov » et « Zackarov c. Russie », où la Cour a écrit que les dispositions du droit russe régissant l’interception de communication ne comportent pas de garanties adéquates et effectives contre l’arbitraire et le risque d’abus inhérent à tout système de surveillance secrète, risque qui est particulièrement élevé dans un système où les services secrets et la police jouissent, grâce à des moyens techniques, d’un accès direct à l’ensemble des communications de téléphone mobile. Ce débat est actuellement porté devant la grande chambre pour deux affaires qui font l’objet de délibérations complexes : l’affaire « Big Brother Watch c. Royaume-Uni » et l’affaire « Centrum för râttvisa c. Suède ». La Cour attend les arrêts qu’elle aura rendus dans ces deux domaines pour juger deux groupes de requêtes concernant la loi française de 2015 relative au renseignement. C’est dire si les enjeux sont importants.

Ces questions d’interception des données sont également au cœur de l’action de la police lorsqu’elle cherche à capter des informations qui concernent des personnes suspectes de crimes. Nous avons été amenés, dans l’affaire « Ben Feiza c. France », en 2018, à dire que la France avait violé l’article 8 parce que la police avait placé des balises dans la voiture du suspect, parce que l’autorisation du placement des balises avait été donnée par un juge sur la base d’un texte du code de procédure pénale tellement général qu’il ne permettait absolument pas d’être considéré comme une base légale suffisante. Le code de procédure pénale français a immédiatement été modifié en conséquence.

La Cour a également toute une jurisprudence sur l’élaboration et le contrôle des fichiers, qui sont notamment au cœur de l’action de la CNIL. Dans l’affaire « Aycaguer c. France » de 2017, le requérant est un syndicaliste agricole qui, au cours d’une manifestation un peu houleuse, a, dans un geste tout à fait critiquable, donné un coup de parapluie sur la tête d’un gendarme qui n’a d’ailleurs pas été blessé. Il a été condamné non seulement pour ce geste, mais une seconde fois parce qu’il avait refusé un prélèvement d’empreinte génétique destiné à être enregistré dans le Fichier national des empreintes génétiques. La Cour a considéré que, ce faisant, la France avait violé l’article 8 en termes de proportionnalité. Elle a en effet estimé qu’au regard de la gravité de l’infraction, le fait de conserver des données aussi personnelles pendant une durée de 40 ans, qui ne pouvaient pas être modifiées, et sans aucune possibilité d’effacement, contrevenait au principe de proportionnalité qui aurait dû être respecté. Ce n’est donc pas le prélèvement qui posait problème, mais son encadrement et ses modalités.

Par ailleurs, la Cour a statué, en 2018, dans une affaire se rattachant au droit à l’oubli. Deux personnes avaient été condamnées en Allemagne pour le meurtre d’un acteur célèbre. Dix ans après leur condamnation, alors qu’ils sortaient de prison, leur peine effectuée, une grande chaîne de radio et un journal très connu ont placé sur leur site Internet toute une série d’éléments nominatifs les concernant. Elles ont immédiatement demandé aux autorités allemandes l’anonymisation de ces informations. La Cour fédérale de justice allemande a mis en balance la protection de la vie privée de ces personnes et l’intérêt du public à être informé sur ce type d’affaires et a rejeté la demande d’anonymisation. La Cour, qui a été saisie, a suivi le raisonnement de la Cour fédérale de justice allemande et a considéré, dans cette affaire, au regard de ses spécificités, que l’intérêt du public à être informé prenait le pas sur la demande d’anonymisation.

En conclusion, il me semble que la Cour a réussi à relever le défi d’adaptation, mais son action n’est profitable que dans la mesure où elle se conjugue à la vôtre, législateurs, régulateurs ou responsables de conventions internationales. Je pense que c’est dans la complémentarité et la cohérence de tous ces acteurs que nous réussirons à élaborer des droits numériques dont les citoyens demandent légitimement l’élaboration et le respect.

M. André Gattolin. – Le fait que, de plus en plus, nos cours suprêmes nationales aient la possibilité de demander avis auprès de la Cour européenne des droits de l’Homme permet d’anticiper sur certaines dérives que peut rencontrer la production nationale du droit.

M. André Potocki. – Plus que toute autre, une cour internationale est suspectée de porter atteinte à la souveraineté nationale et à la séparation des pouvoirs. Pour se protéger contre cela, nous nous conformons au principe de subsidiarité qui consiste à n’intervenir que dans la seule hypothèse où les juridictions nationales n’auraient pas efficacement protégé les droits dont nous avons la responsabilité. Nous devons donc attendre l’épuisement des voies de recours internes pour pouvoir intervenir. Cela peut donner l’impression, en matière de nouvelles technologies, que nous poursuivons un TGV avec une carriole. C’est pour cela que le protocole 16 à la convention européenne des droits de l’Homme permet aux juridictions nationales, si elles le veulent – elles n’y sont jamais contraintes, contrairement aux questions préjudicielles du droit de l’Union – et à titre purement consultatif, de nous demander notre avis immédiatement sur des questions complexes, et cela sans aucune atteinte au principe de séparation des pouvoirs.

Je dois dire que la France a joué un rôle doublement essentiel dans cette mutation profonde. D’abord, parce que le Président de la République a décidé que la France ratifierait le protocole 16, alors qu’il s’agissait de la dixième ratification et que celle-ci a déclenché sa mise en œuvre. Ensuite parce que c’est la Cour de cassation française qui nous a saisis pour la première fois sur le sujet sensible de la gestation pour autrui. Cela nous remet dans la course.

B.   Échanges avec la salle

M. Bastien Le Querrec, doctorant en droit public à Grenoble. – La CNIL a émis plusieurs avis très forts en matière de protection des libertés, notamment à l’égard du projet de reconnaissance faciale ALICEM, une application des pouvoirs publics permettant aux usagers d’accéder à des services publics en ligne importants (aide sociale, allocations familiales…) et utilisant la reconnaissance faciale à des fins d’authentification de leur identité, ou des projets de reconnaissance faciale vidéo de la Ville de Nice ou de lycées dans la Région Sud. Or j’ai le sentiment que le rôle historique de la CNIL, qui consistait à s’opposer à l’État et aux pouvoirs publics plutôt qu’à les aider, n’existe plus. En effet, dans le cas du projet de Nice, un décret d’installation du dispositif a été pris malgré l’avis de la CNIL, alors que l’on a assisté à une levée de boucliers dans la région PACA.

Mme Marie-Laure Denis. – Le rôle de la CNIL n’est pas de s’opposer à l’État, mais d’être la garante de l’application de textes. Pour ce faire, elle a, d’une part, un rôle d’accompagnement des pouvoirs publics, des entreprises et des professionnels, ce qui a donné lieu à 120 avis sur des projets de textes ou de lois en 2018, ainsi qu’à 30 auditions par le Parlement, et, d’autre part, un rôle de contrôle. L’avis rendu sur ALICEM a porté sur un texte, alors que l’avis sur les dispositifs de reconnaissance faciale de deux lycées, à Marseille et Nice, ou de la Ville de Nice porte sur des dispositifs – aucune autorisation n’est plus donnée par la CNIL depuis l’entrée en vigueur du RGPD –, l’autorité de régulation étant sollicitée au titre de son rôle d’accompagnement par les collectivités territoriales concernées.

L’avis rendu sur ALICEM n’a pas été négatif, étant entendu qu’il repose sur un dispositif hautement sécurisé et qu’il s’intègre dans un processus européen. La CNIL a seulement imposé le recueil du consentement libre et éclairé de l’utilisateur au principe de la reconnaissance faciale, ce qui suppose l’existence d’une alternative à celle-ci pour accéder à l’application. La réaction des pouvoirs publics à cet avis semble indiquer qu’ils vont tenir compte de cette réserve.

Quant au projet de reconnaissance faciale des deux lycées, la CNIL a fortement déconseillé l’expérimentation envisagée parce qu’elle ne répondait pas au principe de proportionnalité qu’a exposé le Juge Potocki, et celle-ci n’a pas été mise en œuvre. L’utilisation de badges ou le recours à des surveillants ont en effet été jugés suffisants pour assurer la sécurité à l’entrée d’un établissement scolaire. De plus, on ne peut pas banaliser l’utilisation de la reconnaissance faciale à l’égard d’une population de mineurs considérés comme vulnérables dans le cadre du RGPD.

Enfin, il est faux de laisser entendre que les avis de la CNIL seraient de moins en moins suivis, comme l’illustre le fait que l’article 57 du projet de loi de finances sur la lutte contre la fraude fiscale prévoyant une traque systématique des fraudeurs sur les réseaux sociaux est actuellement réétudié dans le cadre du débat parlementaire, en raison également du non-respect du principe de proportionnalité. La Commission rend ainsi couramment des avis au gouvernement, au législateur ou au Conseil d’État, en amont de l’adoption de textes de droit. C’est un travail interactif qui se déroule en général dans un climat serein, mais qui peut évidemment susciter des réactions hostiles au cas par cas.

M. André Gattolin. – Le surgissement des questions liées au numérique, dont le RGPD, a-t-il impacté le niveau d’activité de la CNIL ?

Mme Marie-Laure Denis. – Le RGPD a entraîné un regain d’activité dont on aurait pu penser qu’il serait conjoncturel, mais s’avère devenir une tendance lourde. Entre mai 2018, date de son application, et mai 2019, nous avons enregistré un bond de 42 % des plaintes en un an, pour atteindre un total de 12 000. On enregistre par ailleurs 8 millions de connexions sur notre site Internet, soit une hausse de 60 %, et le nombre d’appels téléphoniques connaît une évolution du même ordre. Si la loi « informatique et libertés » avait déjà instauré en France beaucoup des droits qui ont été repris par le RGPD, celui-ci a eu un effet de projecteur qui a amené les individus à prendre conscience de ces droits. Quant aux entreprises, elles se sont inquiétées d’encourir des amendes allant jusqu’à 4 % de leur chiffre d’affaires mondial. Le domaine de la diplomatie de la donnée et le traitement des plaintes transfrontalières conduisent également à une sollicitation plus fréquente de la CNIL et de ses homologues européens. Enfin, nous sommes présents tous les mois à Bruxelles pour préparer, de manière concertée, la « deuxième brique » du travail des autorités de régulation, qui consiste à mettre en cohérence leurs doctrines.

M. Gilbert Flam, responsable des affaires européennes et internationales de la LICRA. – Quelle est la position de la CNIL en matière de croisement des fichiers, sachant que la justice utilise désormais la reconnaissance faciale, dont la fiabilité est loin d’être totale, comme moyen de preuve ?

Mme Marie-Laure Denis. – Nous appliquons les textes avec une attention particulière à la question du croisement des fichiers, dont nous vérifions par ailleurs régulièrement le contenu. Je vous remercie d’appeler mon attention sur l’importance de la reconnaissance faciale à cet égard.

M. Franck Julien, président de la commission pour le développement du numérique au Conseil national de la Principauté de Monaco. – Pouvez-vous expliquer le fondement de la recommandation de la CNIL sur le projet de dispositif de signature sonore de la Ville de Saint-Étienne ?

Mme Marie-Laure Denis. – Ce projet, qui n’a pas été mis en œuvre, visait à coupler un système d’enregistrement sonore de bruits atypiques (klaxon, coups de feu…) avec un système de vidéosurveillance. La CNIL a estimé que, compte tenu du risque d’enregistrement de conversations privées, il nécessitait une disposition législative préalable. Le maire de Saint‑Étienne n’a pas contesté notre analyse juridique. En matière de dispositifs technologiques, il y a le possible et le souhaitable. Notre approche consiste à ce que l’on débatte démocratiquement d’abord de ce qui est souhaitable pour nos concitoyens. En l’occurrence, on analyse où peut conduire l’utilisation de moyens de surveillance généralisée par des États qui n’ont pas le même système que le nôtre. On pense notamment au fait qu’un système de notation sociale, appuyé sur la vidéosurveillance, a été mis en place en Chine, alors que cela semblait jusque-là relever de la science-fiction…

 

 


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   deuxiÈme table ronde :
« Les dÉmocraties europÉennes face aux fake news : quelles rÉponses du Conseil de l’Europe et de ses États membres À ce nouveau dÉfi ? »

Les intervenants à cette table ronde étaient :

– M. Thomas Schneider, président du comité directeur sur les médias et la société d’information (CDMSI) au Conseil de l’Europe ;

– M. Camille Grenier, chargé de mission « information et démocratie » chez Reporters sans frontières ;

– M. Patrick Chaize, sénateur de l’Ain, président du groupe d’études Numérique du Sénat ;

– Mme Divina Frau-Meigs, professeure et sociologue des médias à l’Université Sorbonne nouvelle, experte auprès de l’UNESCO, de la Commission européenne et du Conseil de l’Europe.

La table ronde a été animée par M. Patrick Chaize.

A.   introduction du dÉbat par les intervenants

1.   Intervention de M. Patrick Chaize, Sénateur de l’Ain, président du groupe d’études Numérique du Sénat

En tant que président du groupe d’études Numérique du Sénat, je suis heureux d’ouvrir cette deuxième table ronde sur « Les démocraties européennes face aux fake news : quelles réponses du Conseil de l’Europe et de ses États membres à ce nouveau défi ? ».

Je veux d’abord saluer Thomas Schneider, président du comité directeur sur les médias et la société d’information au Conseil de l’Europe. Ce comité dirige les travaux du Conseil de l’Europe dans les domaines de la liberté d’expression, des médias et de la gouvernance de l’Internet.

Je salue ensuite Camille Grenier, chargé de mission « information et démocratie » à Reporters sans frontières. Reporters sans Frontières participe à la Journalism Trust Initiative, un programme d’autorégulation des médias mis en place pour lutter contre les fausses nouvelles, en identifiant les médias qui suivent les critères d’intégrité ainsi que les règles déontologiques du journalisme.

Je salue enfin Divina Frau-Meigs, professeure et sociologue des médias à l’Université Sorbonne nouvelle, experte auprès de l’UNESCO, de la Commission européenne et du Conseil de l’Europe, qui a beaucoup travaillé sur ces enjeux.

Les fausses informations ou les faits alternatifs ne sont pas une nouveauté. Les rumeurs ne datent pas d’aujourd’hui et on peut penser à des faux célèbres, depuis la donation de Constantin au crâne de l’homme de Piltdown, en passant par les célèbres Protocoles des Sages de Sion.

En revanche, l’accélération de la circulation des informations à l’ère numérique, notamment du fait des réseaux sociaux, donne aux fausses informations et aux faits alternatifs une ampleur probablement inédite.

La convergence entre les médias traditionnels, Internet et les télécommunications mobiles, ainsi que l’apparition de nouveaux types de médias comme les plates-formes en ligne ont radicalement changé la donne. Le lecteur ou le spectateur contribue désormais activement à la chaîne d’information, non seulement en sélectionnant l’information, mais aussi, souvent, en la produisant sur les plateformes.

Cette évolution a également une influence sur le mode de financement des médias traditionnels qui se trouvent affaiblis. Alors qu’autrefois les abonnements représentaient pour eux une source stable de revenus, à l’heure de l’accès gratuit aux médias en ligne, les utilisateurs sont moins disposés à s’abonner, voire tout simplement à payer pour lire des articles. De même, on observe un transfert de revenus provenant de la publicité vers les fournisseurs de services Internet et de réseaux sociaux grâce à la publicité ciblée sur Internet qui exploite les profils établis à l’aide des données personnelles des internautes.

Les nouvelles technologies de l’information et de la communication apparaissent ainsi ambivalentes. D’un côté, elles peuvent contribuer à renforcer l’information de nos concitoyens et leur participation au processus démocratique. De l’autre, elles présentent des risques d’abus, de manipulation et d’affaiblissement des médias traditionnels. Et disons-le clairement : les fausses informations peuvent représenter un danger pour la démocratie.

Selon l’Eurobaromètre de février 2018, 83 % des personnes interrogées dans l’Union européenne considéraient que la circulation des fausses informations représente un danger pour la démocratie. Cette enquête mettait également en évidence un thème que nous développerons certainement ce matin : l’importance de la qualité des médias. Les participants à l’enquête de l’Eurobaromètre voyaient dans les médias traditionnels la source d’information la plus fiable (radio 70 %, télévision 66 %, presse écrite 63 %). Les sources d’information en ligne et les sites d’hébergement de vidéos étaient considérés comme les moins dignes de confiance, 26 % et 27 % des participants, respectivement, leur accordant du crédit.

La commission des lois du Sénat, dans son rapport pour avis sur la proposition de loi relative à la lutte contre les fausses informations, relevait que la plupart des fake news répondent en réalité à des finalités commerciales ou publicitaires. Les principaux producteurs et diffuseurs de fake news sont en effet des sites « appeaux à clics » qui visent à biaiser une information vraie afin d’attirer un maximum de vues sur leurs pages. Les contenus sensationnalistes, qui polarisent le débat, sont ainsi susceptibles d’attirer plus d’internautes.

Les sites Internet de certains courants politiques extrêmes peuvent également relayer des fake news, des points de vue « orientés » sur l’actualité ou plus généralement des actualités présentées avec un angle conspirationniste.

Enfin, on trouve les phénomènes de « triche » électorale, avec la diffusion de fausses informations par des bots, des communautés militantes, ou encore par des « fermes » de faux comptes. Cette diffusion peut également être facilitée par l’achat de faux likes sur des réseaux sociaux afin de créer l’impression artificielle qu’un message est largement approuvé.

Plusieurs élections nationales ont ainsi été récemment concernées par la diffusion massive de fausses informations. Je pense au référendum sur le Brexit au Royaume-Uni, à l’élection présidentielle américaine, mais aussi à l’élection présidentielle française avec la publication des Macron leaks, quelques heures avant le second tour de l’élection.

Des acteurs, principalement étrangers, semblent ainsi avoir pour objectif d’influencer certains processus électoraux et mobilisent pour cela tous les moyens à leur disposition, y compris la diffusion de fausses informations sur des plateformes numériques.

Ce bref panorama nous conduit à nous poser quelques questions, simples en apparence, complexes en réalité, notamment lorsqu’il s’agit d’adapter nos législations :

– comment identifier l’information authentique par rapport à l’information falsifiée ou présentée de manière trompeuse ?

– comment renforcer encore le professionnalisme et les normes éthiques des médias traditionnels, sous pression financière, et permettre aux lecteurs ou aux spectateurs de mieux évaluer l’intégrité de ces médias ?

– comment assurer la liberté de la presse et éviter notamment la tentation de certains pouvoirs de transformer les médias de service public en relais gouvernementaux, voire en instruments de propagande ?

– comment établir des garde-fous éthiques sur les réseaux sociaux et faire en sorte que les plateformes contribuent à la lutte contre la manipulation de l’information ?

La technologie mobilisée par les plateformes leur fait jouer un rôle dans la fabrique sociale de la rumeur, mais on observe que ces plateformes contribuent aussi à filtrer les rumeurs infondées en permettant, par les mêmes modes de diffusion, la propagation des messages de démenti ou d’infirmation. Par ailleurs, et cela rejoint en partie les débats qu’il y a eu tout à l’heure sur l’intelligence artificielle, les algorithmes de ces plateformes peuvent être adaptés pour contrer les phénomènes de « renfermement idéologique » ou de mise en valeur de faux contenus.

En 2015, la Cour européenne des droits de l’Homme, dans son arrêt « Delfi AS c. Estonie », a également contribué à préciser les devoirs et les responsabilités des portails d’actualités sur Internet qui fournissent, à des fins commerciales, une plateforme destinée à la publication de commentaires d’internautes sur des informations précédemment publiées.

Comment conjuguer la volonté de légiférer pour lutter contre la désinformation et la défense de la liberté d’expression, l’une de nos valeurs fondamentales, inscrite à l’article 10 de la convention européenne des droits de l’Homme ?

Comment former, éduquer nos concitoyens aux enjeux numériques ?

L’importance de ces sujets pour nos processus et nos valeurs démocratiques justifie pleinement que l’Assemblée parlementaire du Conseil de l’Europe ait conduit de nombreux travaux sur les fausses nouvelles, auxquels les membres de la délégation française ont largement pris part.

Depuis 2014, plusieurs résolutions ont ainsi été adoptées par l’Assemblée, notamment :

– sur les effets des nouvelles technologies de l’information et de la communication sur la démocratie ;

– sur la protection de l’intégrité rédactionnelle ;

– sur les défis et les responsabilités des médias en ligne et du journalisme ;

– sur les médias sociaux, créateurs de liens sociaux ou menaces pour les droits humains?

– sur la liberté des médias en tant que condition pour des élections démocratiques et sur les médias de service public dans le contexte de la désinformation et de la propagande.

Les recommandations de l’APCE s’adressent certes aux États membres, pour qu’ils adaptent leur législation aux nouveaux enjeux, mais aussi à la Fédération européenne des journalistes et à l’Association des journalistes européens, à l’Association européenne des fournisseurs de services Internet ou encore à l’Alliance européenne pour la publicité numérique interactive, pour renforcer les démarches déontologiques et l’autorégulation.

Lorsque l’on passe aux travaux pratiques, on mesure la difficulté de ces sujets. En témoignent les débats que nous avons eus au Parlement français, à l’occasion de l’examen d’une proposition de loi de nos collègues députés relative à la lutte contre les fausses informations.

Le texte proposé et adopté par nos collègues députés, dans le cadre d’une procédure accélérée, comprenait en particulier une mesure marquante : la création d’un référé ad hoc, de manière à faire cesser, en période électorale, la diffusion « des fausses informations de nature à altérer la sincérité du scrutin à venir » lorsque celles-ci sont diffusées sur Internet « de manière délibérée, de manière artificielle ou automatisée et massive ».

Un débat juridique de fond s’est engagé et le Sénat, à deux reprises, a rejeté ce texte, considérant que la définition de la fausse information n’était pas suffisamment claire et protectrice. Il considérait également que les dispositions apparaissaient contraires aux évolutions des jurisprudences française et européenne qui, en matière politique et particulièrement électorale, accordent de plus en plus une large place à la liberté d'expression, fût-elle polémique. 

Les débats ont donc largement porté sur la proportionnalité de l’atteinte à la liberté de communication, mais aussi sur la portée effective de ces dispositions.

Le texte a finalement été adopté, mais le Conseil constitutionnel a été amené à préciser que les allégations ou imputations mises en cause, tout comme le risque d’altération de la sincérité du scrutin, devaient avoir un caractère inexact ou trompeur manifeste.

Le texte attribuait également au Conseil supérieur de l’audiovisuel le pouvoir de suspendre la diffusion d’un service de radio ou de télévision ayant fait l’objet d’une convention conclue avec une personne morale contrôlée par un État étranger ou placée sous l’influence de cet État en cas de diffusion de façon délibérée, en période électorale, de fausses informations de nature à altérer la sincérité du scrutin.

Le Conseil constitutionnel a précisé, là encore, que la notion de fausse information devait s’entendre comme visant des allégations ou imputations inexactes ou trompeuses dont il est possible de démontrer la fausseté de manière objective, ce qui ne recouvre ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations. Il a affirmé, là aussi, que le caractère inexact ou trompeur des allégations et imputations mises en cause, ou le risque d’altération de la sincérité du scrutin, devait être manifeste.

On voit donc que les débats, notamment sur le plan juridique, sont plus complexes qu’il n’y paraît. La Secrétaire générale adjointe du Conseil de l’Europe l’a également souligné aujourd’hui. Le législateur est évidemment tenté d’intervenir, mais il doit le faire d’une main tremblante lorsque l’on touche aux droits fondamentaux.

Au-delà des protections juridiques, je crois que notre responsabilité commune de parlementaires, d’acteurs engagés et de citoyens, c’est de promouvoir l’éducation aux médias pour lutter contre la désinformation et de former nos concitoyens aux enjeux du monde numérique.

2.   Intervention de M. Thomas Schneider, président du comité directeur sur les médias et la société d’information (CDMSI) au Conseil de l’Europe

Les experts n’aiment pas trop les expressions « fausses informations » ou « fausses nouvelles » car elles sont trop souvent utilisées par des politiciens populistes pour dévaloriser tout fait ou toute interprétation des faits qui ne leur plaisent pas. En 2017, le Conseil de l’Europe a déjà publié un rapport portant le titre Désordres de l’information, qui fournit une systématique très utile pour comprendre et distinguer trois variantes principales de désordres de l’information :

– la fausse information, qui n’a pas l’intention de nuire ;

– la désinformation, qui est une information fausse et créée délibérément pour nuire à des individus, des États ou des organisations ;

– une information malveillante, qui est basée sur la réalité et utilisée pour infliger des dommages à des personnes, des organisations ou un pays.

Ce rapport formule des recommandations à l’intention des États, des ministères de l’éducation, des intermédiaires d’Internet, des médias et de la société civile.

Quand on parle aujourd’hui d’une prolifération de ce type de troubles de l’information, il faut savoir qu’il ne s’agit pas d’un phénomène nouveau car la manipulation de la population sur la base de fausses informations a toujours existé. On se rappelle peut-être que les accusations infondées d’empoisonnement de puits par les juifs ont été utilisées tour à tour par la noblesse et la bourgeoisie, dans plusieurs villes en Europe, notamment en Suisse et en France, par les forces politiques et économiques pour y capter le pouvoir. Au siècle passé, la propagande des nazis utilisait massivement la radio.

Chaque innovation en matière de communication produit des effets de rupture, pour le meilleur et pour le pire. Chaque nouveau média menace le pouvoir de pression des élites existantes sur l’opinion publique, tout en apportant un potentiel de démocratisation de la sphère publique. De nouvelles élites apparaissent, qui savent utiliser les nouveaux médias pour atteindre leurs objectifs politiques et économiques, ce qui donne souvent lieu à des actes de guerre et de violence. Cela s’est passé lors de l’invention de l’imprimerie qui a amené un transfert de pouvoir du clergé vers la bourgeoisie, ainsi que lors de l’introduction de la télévision. Il faut se souvenir, qu’un an après qu’en 1932 Berthold Brecht eut exprimé les espoirs qu’il fondait dans la radio pour libérer de la pensée dans son pays, celui-ci basculait dans la dictature. Tout cela nous rappelle les débats qui avaient cours il y a quelques années sur le potentiel que représentait Internet pour démocratiser l’information dans nos sociétés. De fait, les bons et les mauvais usages des nouvelles technologies de l’information se suivent de près.

Nous devons trouver les réponses aux questions suivantes :

– à qui puis-je faire confiance ?

– qui est à l’origine de l’information ?

– quels sont les buts et les objectifs de celui qui l’a produite ?

Après l’introduction de chaque nouvelle technologie de l’information, nos sociétés ont développé des systèmes de régulation portant sur la diversité, la qualité et la liberté, qui ont permis aux médias de jouer leur rôle dans notre société démocratique, et qui ont aidé nos concitoyens à décider à qui et à quelle information ils pouvaient faire confiance, et dans quelle mesure.

Aujourd’hui, la multiplication des médias sociaux et des plateformes présente une nouvelle rupture dans le système des médias, avec des effets positifs et négatifs. D’un côté, elle représente une opportunité de démocratisation des médias car chacun de nous peut devenir un producteur de contenu et peut diffuser celui-ci très facilement. D’un autre côté, les opérateurs des plateformes sont devenus des espèces de portiers (gatekeepers) qui ont une influence considérable sur ce que consomment les citoyens et ont gagné une influence économique, ainsi qu’une influence critique sur le financement des médias traditionnels. La surabondance d’informations accroît la lutte pour l’attention des consommateurs, et ceux-ci souffrent de plus en plus d’une réduction de leur durée d’attention.

Tout cela favorise les informations sensationnelles et extrémistes, au détriment des reportages sérieux, complexes et modérés. Finalement, l’utilisation des algorithmes et de l’intelligence artificielle pour la sélection et la présentation des informations favorise une fragmentation de la sphère publique et privée, avec des récits parallèles, ce qui aggrave encore plus la perte de confiance dans les institutions démocratiques et les médias. Il est devenu très facile de diffuser des informations fausses, intentionnellement ou non.

Pour soutenir un système de médias de qualité, le Conseil de l’Europe a développé et va continuer à développer des recommandations et d’autres formes de directives. Un élément clef pour un journalisme de qualité consiste à donner aux médias les moyens de produire des informations de qualité et de restaurer la confiance de leur public, ainsi que de répondre à la désinformation.

Après adoption d’une déclaration par le Comité des Ministres en février de cette année, qui rappelle l’importance d’une base financière saine des médias, le CDMSI est en train de finaliser une recommandation sur la promotion d’un environnement favorable à un journalisme de qualité. Elle se concentre sur trois aspects :

– un financement durable des médias de qualité va être obtenu par une combinaison de mesures réglementaires et fiscales favorables pour créer des conditions de marché équitables et transparentes, qui permettront aux organisations de médias de concurrencer plus équitablement les principales plateformes en ligne pour les revenus publicitaires ; on peut réfléchir à des aides d’État visant à soutenir les producteurs de contenus de qualité au niveau national ou européen, avec toutefois de fortes garanties ;

– la reconstruction de la confiance dans le journalisme par l’éthique et la qualité, par la vérification des faits et les bonnes pratiques en matière de transparence des processus éditoriaux, grâce à des mécanismes d’autorégulation des plaintes, l’utilisation d’outils de l’IA ;

– donner la priorité, en matière de distribution, à un contenu de qualité sur les plateformes, en particulier sur les plateformes de recherche et les médias sociaux, en introduisant une forme de contrôle ou de surveillance indépendante des pratiques de distribution de ces plateformes.

Le texte énonce en outre le principe d’un environnement médiatique à l’épreuve du temps et axé sur l’innovation et souligne qu’il importe de créer un contexte politique et social favorable à un journalisme de qualité.

En troisième lieu, le projet de recommandation propose des orientations sur une manière plus stratégique et collaborative de soutenir les initiatives d’éducation aux médias et à l’information. De même, les médias et les journalistes devraient avoir accès à l’amélioration des compétences et à la formation tout au long de la vie, ainsi qu’à des conditions de travail adéquates.

Au sujet de la propagation des systèmes automatisés utilisant les algorithmes et l’IA dans la production et la dissémination de l’information, le Conseil de l’Europe a adopté en début d’année une déclaration sur les capacités de manipulation des processus algorithmiques et il est en train de finaliser une recommandation sur les impacts des systèmes algorithmiques sur les plateformes, qui touche aussi, entre autres, le domaine des médias.

Une réglementation sur les responsabilités des plateformes en ligne pourrait être composée d’un mix de régulation, de co-régulation et d’autorégulation traditionnelle. Cependant, ces mesures législatives visant à lutter contre la désinformation doivent être adoptées avec prudence et être proportionnées. Tous ceux qui soutiennent une idée comme la création d’une agence étatique qui devrait déterminer quelles sont les informations vraies ou fausses, soit une forme de « ministère de la vérité », devraient se demander s’il s’agirait vraiment d’un bon outil pour augmenter la confiance des citoyens dans les médias et le système politique.

De mon point de vue, il ne faut pas simplement regarder la production et la dissémination de l’information du côté de l’offre, mais considérer en même temps le côté de la demande, c’est-à-dire de la manière dont les citoyens consomment, cherchent et utilisent l’information. Dans nos sociétés, où il existe un fossé croissant entre ceux qui se sentent bénéficiaires de la mondialisation et de la numérisation et ceux qui s’en sentent les perdants, ces derniers deviennent de plus en plus frustrés et ouverts à des positions extrêmes. Dans ce contexte, une approche élitiste ne serait guère utile pour combattre la désinformation diffusée par les milieux populistes.

Si nous voulons rester des sociétés libres, et ne pas aller dans la direction d’un pays comme la Chine, où l’État oblige les citoyens à adopter une certaine ligne de comportement, voire de pensée, il faut être conscient que dans une société numérique, l’État, les élites et les médias traditionnels perdent de plus en plus leur pouvoir de définition sur la sphère publique, alors que l’on ne peut plus astreindre les citoyens à consommer un canal de média particulier. Il est donc de plus en plus important de donner une perspective et des incitations à tous les citoyens pour qu’ils soient prêts à consommer et aussi à financer des informations plus complexes et de qualité.

Un élément favorable dans cette optique est la participation des citoyens dans les décisions politiques. Si les citoyens d’une même municipalité peuvent décider eux-mêmes s’ils veulent construire une nouvelle autoroute, ou plutôt une nouvelle école, ou investir plus ou moins dans la santé ou dans la protection de l’environnement, ils ont intérêt à s’informer pour connaître les conséquences et aussi tous les coûts de chaque décision.

L’année passée, les citoyens suisses ont pu voter sur un référendum qui visait à l’abolition de la redevance pour la radio et la télévision du service public. L’adoption de ce référendum aurait signifié que le financement de la Société Suisse de Radiodiffusion et télévision (SSR), service public, n’aurait plus été possible. Après plus d’une année d’un débat intense à tous les niveaux de la société sur la qualité, sur le fonctionnement, sur les coûts, mais aussi sur le futur des médias du service public, plus de 70 % des Suisses ont voté pour la continuité du financement par la redevance. La motivation de ce vote a moins résidé dans le fait que mes concitoyens étaient très contents des programmes de la SSR, que dans leur conscience du fait qu’une démocratie directe et une auto-détermination des peuples ne peuvent fonctionner que s’il existe des médias de qualité, ainsi qu’un système de débat public basé sur des informations fiables et sur la confrontation de différentes opinions. À présent que le financement du service public de radio-télévision suisse est assuré, il faut se battre pour que le service public ne soit pas un service sans public et que les citoyens s’intéressent vraiment à ses émissions, et consomment des médias de qualité.

M. Patrick Chaize. – Après cette illustration de la sagesse suisse, je passe la parole à Camille Grenier, non sans indiquer que Reporters sans Frontières participe à la Journalist Trust Initiative, un programme d’autorégulation des médias mis en place pour lutter contre les fausses nouvelles en identifiant les médias qui respectent les règles d’intégrité ainsi que les règles déontologiques du journalisme.

3.   Intervention de M. Camille Grenier, chargé de mission « information et démocratie » à Reporters sans frontières

Les solutions que promeuvent Reporter sans Frontières et ses partenaires visent à relever trois défis.

Le premier porte sur le financement. Reporter sans Frontières participe à la création, à l’initiative des Britanniques, du Fonds international pour les médias d’intérêt public. Il existe aussi une initiative lancée par la BBC, Local News Partnership, qui tente d’enrayer la disparition du journalisme local qui contribuait au lien de confiance entre les citoyens et les médias. Cela consiste à financer des journalistes pour qu’ils participent à des événements locaux, comme des conseils municipaux pour en rapporter des histoires et tenir comptables les dirigeants politiques.

Quant à l’action Journalism Trust Initiative, déjà évoquée par Patrick Chaize, elle vise à promouvoir les médias qui respectent certaines normes éthiques et professionnelles du journalisme. Nous l’avons lancée il y a un an et demi et elle rassemble aujourd’hui une centaine d’organisations, des médias comme l’AFP ou l’Associated Press, Gazeta Wyborcza en Pologne ou la BBC, mais aussi des plateformes comme Facebook et Google. Elle s’opère dans le cadre du Comité européen de normalisation, qui est le niveau européen des normes ISO. Son objectif est de définir des standards de la profession au travers d’un processus ouvert, inclusif et transparent, et d’intégrer le facteur de l’intégrité dans la curation algorithmique. Ainsi, les plateformes pourront favoriser sur cette base le référencement de certains producteurs de contenus (et non du contenu lui-même, dont l’évaluation est toujours problématique). Le dernier workshop de la Journalism Trust Initiative aura lieu dans huit jours à Bruxelles et sera l’occasion d’adopter la dernière version du standard, au terme d’une consultation qui a eu lieu au cours des deux derniers mois, avant une phase d’implémentation en lien avec les plateformes.

Le deuxième défi concerne la régulation et l’autorégulation. Nous avons lancé, il y a 14 mois, l’Initiative internationale sur l’information et la démocratie, qui a eu un écho la semaine dernière, lors du Forum mondial de la démocratie du Conseil de l’Europe, où nous étions invités. Son objectif est de partir du constat que les grands standards internationaux, comme l’article 19 de la Déclaration des droits de l’Homme ou l’article 10 de la convention 108, qui ont jusque-là été traduits par des normes ou des régulations adoptées au plan national, doivent désormais, avec l’éclosion des plateformes et la globalisation de l’espace de l’information et de la communication, relever de grands standards internationaux.

À cette fin, nous avons rassemblé une commission internationale sur l’information à la démocratie, qui rassemble des grands penseurs, des journalistes, des Prix Nobel d’économie et de la paix, des activistes des droits digitaux, des spécialistes des plateformes, etc., qui ont rédigé une déclaration internationale sur l’information et la démocratie en novembre 2018.

Cette déclaration définit l’espace global de l’information et de la communication comme un bien commun de l’Humanité, qui doit être gouverné selon des principes démocratiques. Elle rappelle les grands principes de liberté d’expression et de liberté d’opinion. Elle crée un droit à l’information. Elle appelle les entités structurantes de l’espace global, à savoir les plateformes, à plus de responsabilité et plus de transparence dans la façon dont elles structurent cet espace. Enfin, elle appelle à la création d’un nouveau cadre de réflexion et d’action pour trouver des solutions à la hauteur de ces enjeux.

Cette déclaration a été publiée il y a un an, à l’occasion du 1er Forum de Paris pour la Paix. Elle a reçu un soutien politique très fort puisque 12 chefs d’État et de gouvernement se sont engagés pour lancer un processus politique sur la base des précédents principes. Cela a débouché sur un partenariat négocié avec 20 démocraties libérales, le 12 juin 2019. Portée au G7 par le Président Macron, la déclaration a été signée en marge de l’Assemblée annuelle de l’UNESCO par 130 États qui ont appelé à la création de la nouvelle organisation. Celle-ci a été inaugurée il y a deux jours, à l’occasion du 2ème Forum de Paris pour la Paix et l’information, et s’appelle le Forum sur l’information et la démocratie. Nous l’avons créé avec dix autres organisations de la société civile, dont le Human Rights Center de Berkeley, la Digital Rights Foundation au Pakistan, l’Institut de la Paix d’Oslo ou Civicus, une ONG d’Afrique du Sud, ce qui confère à l’organisation une empreinte globale. La nouvelle organisation va travailler en groupes de travail pour proposer des recommandations très concrètes de régulation et d’autorégulation.

Enfin, le denier défi porte sur la définition de l’espace public à l’ère du numérique. À Reporters sans Frontières nous sommes convaincus que la gestion de l’espace public numérique ne doit pas être laissée entre les mains de Mark Zuckerberg et de quelques milliardaires de la baie de San Francisco, ni d’ailleurs entre celles de Xi Jiping qui s’efforce, comme l’a montré l’un de nos derniers rapports, d’exporter son modèle informationnel. Nous pensons qu’il incombe aux démocraties libérales et aux Parlements de se ressaisir de leur espace public, alors que celui-ci se déplace de plus en plus vers les plateformes de messageries privées. À ce propos, on peut s’interroger : une chaîne WhatsApp comportant 2 000 abonnés fait-elle toujours partie de l’espace privé ? Or, ce type d’espaces semi-privés, auxquels il est difficile d’accéder, sont aussi ceux où sévit le plus la désinformation et où circulent le plus de contenus haineux. Cette problématique a d’ailleurs obligé WhatsApp à prendre des mesures assez fortes pour lutter contre ces dérives lors des élections générales de mai dernier en Inde.

Nous comptons évidemment sur le Conseil de l’Europe pour continuer à faire vivre ces espaces de discussion et de recommandation, à l’image du Forum mondial sur la démocratie, qui s’est tenu la semaine dernière. Nous avons besoin de lui pour continuer à soutenir une presse indépendante, plurielle et fiable auprès de l’ensemble de ses États membres, qui peuvent rejoindre notre Forum sur l’information et la démocratie et renforcer les capacités de la société civile à apporter des initiatives et des solutions très concrètes, car Reporter sans Frontières est loin d’être seul à œuvrer dans ce domaine.

4.   Intervention de Mme Divina Frau-Meigs, professeure et sociologue des médias à l’Université Sorbonne nouvelle, experte auprès de l’UNESCO, de la Commission européenne et du Conseil de l’Europe

Je vais vous parler en exprimant plusieurs points de vue, dont celui de la recherche, mais aussi en tant que triple experte, puisque je suis membre du groupe d’experts européens sur l’éducation aux médias, ce qui m’a valu de devenir membre du groupe d’experts sur la désinformation, avec Claire Warden et Christophe Lemarchand. Je suis aussi à l’UNESCO, où j’ai contribué à faire revivre la thématique de l’éducation aux médias et à l’information en tant que donnée, mais aussi en tant que document, sous l’angle de la classification, du tri et de la curation dont s’occupent les bibliothèques. Dans ce contexte, nous nous posons des questions sur la radicalisation, le rapprochement entre les discours de haine et la désinformation, une problématique qu’englobe la notion plus générale de « désordre de l’information », en suivant Claire Warden sur le sujet. Je contribue également, depuis très longtemps, aux travaux du Conseil de l’Europe, notamment avec Thomas Schneider, puisque nous nous sommes posé très tôt la question de savoir comment on éduque à l’ère d’Internet.

Si je revendique le fait d’être impliquée dans ces trois entités internationales, c’est parce que la situation complexe dans laquelle nous nous trouvons se caractérise par la mondialisation et une problématique de coopération internationale. Elle implique que nous, les chercheurs, nous sortions de notre université pour irriguer d’autres sphères.

Si chacun reste dans son silo, nous risquons d’aller droit dans le mur. Or, droit dans le mur, nous y allons… Il nous faut nous informer les uns les autres, bousculer un peu et lancer des alertes lorsque des situations risquent de marginaliser la démocratie, ce qui est la situation actuelle : les démocraties étant minoritaires dans le monde, elles perdent dans les institutions où chacune n’a qu’une seule voix. La seule solution est de faire basculer les pays autoritaires dans les démocraties : cela s’appelle l’éducation.

Les droits de l’Homme universels sont tout récents : ils ont 70 ans, sont apparus à la même époque qu’Internet et ils sont encore très mal connus, alors que ceux qui les ont créés meurent, ce qui rend difficile leur transmission. Résultat : tous les jeunes qui arrivent dans le numérique laissent à la porte les droits de l’Homme, créés dans le monde analogique.

Comment éduque-t-on à aimer ces droits de l’Homme qui ont émergé – faut-il le rappeler ? – de deux suicides européens ? Quant à Internet, il a émergé d’une situation de guerre froide et nous sommes encore, sinon dans une situation de guerre froide, dans une situation de cyberguerre de la désinformation.

Nous sommes dans une situation préoccupante, au point que nous pouvons dire merci aux désordres de l’information et aux catastrophes démocratiques qu’ils ont produits car ils ont mis à jour deux processus importants : d’une part, le besoin d’une intégrité de l’information, pour prendre une décision citoyenne de qualité ; d’autre part, la nécessité d’une éducation aux médias, ce qui renvoie au journalisme, à la documentation, aux bibliothèques, aux enseignants, mais aussi aux hommes et aux femmes politiques dont vous êtes.

Jusqu’à présent, l’éducation aux médias est considérée, quand elle existe, comme la dernière roue du carrosse lorsqu’il s’agit de prévenir les dangers d’Internet, d’autant que l’éducation est considérée comme une prérogative relevant de la souveraineté de chaque pays. Nous nous battons d’ailleurs, au Conseil de l’Europe, pour créer une division Éducation et Culture, tout en sachant que ce type de structure ne prend généralement pas en charge l’éducation aux médias. À l’Union européenne, ce sujet relève de la DG Connect, à l’UNESCO de la DDC-SCI (Direction du développement de la Communication – Section Communication et Internet). Il existe donc un très grand malentendu sur ce que nécessite le partage d’une vision commune de la démocratie à l’ère du numérique.

Car, dans le numérique, les droits de l’Homme changent et les articles 10, qui nous sert habituellement de GPS, et 19, sur la liberté d’expression, ne peuvent plus être pris seuls, mais doivent être accompagnés d’autres principes relatifs à la dignité, la sécurité, la vie privée, qui est de plus en plus envahie, la participation, qui est permise par le numérique et en fait la richesse et l’enchantement, et l’éducation, qui est aussi mise en danger par le numérique quand les jeunes disent qu’ils récupèrent 70 % de leurs connaissances et de leur information sur YouTube. Or, en matière de numérique, les processus sont très rapides : Facebook, c’est déjà la décennie d’avant pour les jeunes.

Pour les jeunes, les articles relatifs à la vie privée ou la dignité relèvent de l’abstrait, pour ne pas dire du charabia : ils n’y comprennent rien, cela ne connecte pas. Dès que vous parlez de ces principes, vous n’êtes plus du côté des jeunes, mais vous vous adressez aux personnes éduquées, à l’élite et aux vieux. Pour recréer du lien avec les jeunes, il faut revenir à leurs usages et aller les chercher à partir de là. Nous les perdons définitivement avec un discours majoritaire. Le discours qui prévaut chez les libertaires de la Côte Ouest comme chez Xi Jinping est liberticide pour le collectif.

L’enjeu est d’autant plus élevé que les recherches sur la désinformation montrent que certaines populations sont plus exposées que d’autres : les jeunes, certes, mais les séniors aussi, qui sont le plus dangereux au niveau politique, quand ils répercutent certains messages dans leur entourage, ainsi que les migrants, qui seront de plus en plus nombreux, et enfin les exclus de l’accès, car nous en avons toujours en Europe, particulièrement dans l’Europe du Conseil de l’Europe.

Le Conseil de l’Europe a pris le taureau par les cornes dès 2016, en prenant certaines compétences et en créant un groupe de recherche sur l’éducation à la citoyenneté numérique, que j’ai piloté pendant deux ans. Nous développons une approche qui considère désormais l’éducation tout au long de la vie et tout au large de la vie, car l’éducation vous touche désormais non seulement dans le secteur éducatif, mais aussi dans le secteur de la vie politique, de la vie personnelle et de la vie professionnelle : si l’on n’est pas éduqué au numérique, on ne sera pas un bon employé, un bon citoyen ou un bon parent.

Après avoir procédé à un état des lieux de la recherche, nous avons écrit un manuel pour que les enseignants puissent s’emparer de la discipline, avec des formations attenantes. Nous avons élaboré aussi un code de conduite avec les plateformes en vue de leur application – ou pas – dans les écoles. En effet, le service public de l’éducation est aujourd’hui menacé par les plateformes qui prétendent faire de l’éducation, à l’image de Google qui a organisé en septembre 2019 un sommet mondial sur l’éducation aux médias. Par ailleurs, d’aucuns envisagent une loi pour interdire les téléphones portables à l’école. Nous pensons qu’il faut associer les plateformes à la réflexion sur ces enjeux afin qu’il existe quelque chose d’écrit, de régulé, de négocié et de renégociable, et pour éviter le type de traité que l’Éducation nationale française a signé avec Microsoft. Nous émettons aussi des recommandations, comme c’est l’usage au Conseil de l’Europe. Enfin, nous avons publié des ouvrages qui constituent autant de mises en perspective.

Partant du constat que l’éducation numérique n’existe pas de manière autonome, il faut faire exister un deuxième cursus, parallèle au cursus scolaire, qui est sans doute plus urgent et répond aux besoins et au ressenti des jeunes davantage que ce qui se passe à l’école en ce moment. Il est grave, aux yeux de la chercheuse que je suis, de constater que les écoles et les universités ne le font pas. Faut-il confier l’éducation aux médias aux journalistes ? Il est vrai qu’ils le font, en intervenant dans les classes. Est-ce que cela suffit ? Non. Est-ce que cette mission incombe aux bibliothécaires ? Peut-être, et certains d’eux en France le font, alors que des instances internationales comme l’IFLA (International Federation of Library Associations) s’interrogent à ce sujet, mais ces professionnels sont formés à l’information et non aux médias. D’où la nécessité de développer une approche extrêmement concertée entre ces différents types de professionnels. Le cadre de l’école est propice, mais le temps des enseignants et des élèves n’est pas extensible.

Il existe en outre ce que l’on appelle un « écart de compétences » : les compétences sont extrêmement mal réparties. Les jeunes pensent qu’ils sont compétents et experts, alors que, pourtant, ce sont des naïfs du numérique. Les enseignants ne se sentent pas compétents, alors qu’ils ont des compétences très utiles dans le numérique, comme celles de savoir s’organiser, savoir trier et savoir naviguer sur le Web. La recherche a pour rôle aussi de souligner les limites dans lesquelles chaque groupe s’enferme.

Nous avons remarqué que la plupart des avancées se font par adoption de bonnes pratiques, que notre groupe d’experts présente comme des « pratiques sensées », c’est-à-dire des pratiques qui font sens. Comme une pratique bonne pour les uns n’est pas toujours bonne pour les autres, il faut s’autoriser à les adapter à chaque culture. Il est à noter que les pratiques sensées constituent aussi un plafond de verre : combien de fois allez-vous recommander une pratique sensée ? Quand une pratique sensée va-t-elle être adoptée à une échelle nationale, voire transnationale ? Les politiques qui se bornent à préconiser des pratiques sensées sont des politiques du pauvre : n’ayant rien d’autre à dire ou à faire, elles veulent pouvoir dire « on a fait », cocher la case et passer à autre chose. L’adoption de pratiques sensées au plan national ou transnational requiert des politiques publiques, et les budgets qui vont avec. Car la recherche constate que les deux points faibles sont l’évaluation et les financements. Il y a là un enjeu éminemment politique, dont les enseignants ne sont que tributaires. Ils sont en aval du processus, et vous êtes en amont, sachant que les bénéfices d’une politique d’éducation ne s’observent que vingt ans plus tard. C’est peu motivant, mais c’est indispensable pour construire une société dont les citoyens sont capables de se motiver pour les droits, et mobiliser, par exemple, 5 millions de personnes dans les rues avec « Je suis Charlie », sans parler de la situation à Hong Kong et ailleurs.

Le désespoir de nos jeunes, en France, est récent, mais il est réel parce qu’ils se sentent en décrochage. Ils sentent bien que ce sont les compétences dans le numérique qui vont leur permettre de trouver de l’emploi, donc de la dignité, donc le pouvoir d’exercer les droits inhérents à la citoyenneté. Il ne faut plus distinguer la citoyenneté de l’employabilité. C’est le même combat. Une jeune femme éduquée en Tunisie me l’a d’ailleurs dit : « Cela ne sert à rien pour moi d’être éduquée et d’avoir des diplômes, parce ce que si je n’obtiens pas d’emploi, je devrai retourner au foyer ».

Les emplois de demain font appel à des compétences « douces », soit celles que ne pourront pas prendre les robots. On peut les envisager comme une opportunité d’être encore plus humains. Nous ne pouvons qu’y être favorables en tant que démocrates.

Parmi les compétences démocratiques de citoyenneté, nous mettons en avant celle de l’empathie, et cela bien que l’on ne voie pas le plus souvent l’expression du visage de nos interlocuteurs en ligne. Et les émoticônes sont loin de résoudre le problème. Être capable d’entrer en empathie va devenir une compétence fondamentale pour les ressources humaines. La question de l’émotion devient clé, bien qu’elle soit bannie du vocabulaire des enseignements de l’École française.

Afin que ces considérations ne restent pas abstraites, nous avons publié le Manuel d’éducation à la citoyenneté numérique. Il couvre trois grands domaines :

– être en ligne, ce qui implique :

▪ l’accès et l’inclusion, en réponse aux désordres de l’information et aux discours de haine ;

▪ la créativité, qui suppose l’acquisition de compétences douces et d’une capacité d’empathie ;

▪ l’éducation aux médias et à l’information.

– être bien en ligne (c’est loin d’être évident avec la désinformation, mais aussi face au spectacle de ses amis qui paraissent sur les réseaux sociaux toujours heureux et ne cessent de faire la fête), au travers de l’éthique, de la santé et de la présence, qui ne se résume pas à l’identité numérique, qui relève d’un buzz de marketing, mais se maîtrise, alors que le design des plateformes vous conduit à être toujours connecté dans le flux ;

– les droits en ligne, au travers de :

▪ la participation, sachant que celle qui consiste à liker est le degré moins que zéro de la participation celle-ci devant prendre la forme de la coopération et surtout la contribution au savoir et à la connaissance ;

▪ la connaissance des droits et devoirs en ligne et hors ligne : un jeune qui se fait « flammer » en ligne comprend tout de suite le respect et se trouve en mesure d’adopter des pratiques sensées relevant de la dignité, en lien avec l’article 1er de la Déclaration des droits de l’Homme ; c’est par la pratique que l’on peut transmettre les principes ;

▪ apprendre à consommer.

Nous avons aussi rédigé un code de conduite intitulé Guidelines to developing partnerships beetween the education institutions and private industry. En effet, le secteur privé porte beaucoup d’applications, de liens, de plateformes et de systèmes promouvant l’éducation et la connaissance, qui vont bien au-delà des tutoriels d’aide à l’utilisation de YouTube, à l’image de Wikipédia. Encore faut-il ne pas en laisser la gestion aux acteurs privés, notamment s’ils veulent entrer dans les écoles. Si les écoles souhaitent passer un contrat pour apprendre le structuralisme des moteurs de recherche, elles doivent pouvoir en sortir et faire appel à des intervenants comme Qwant, DuckDuckGo, Lilo ou Ecosia, et non par seulement à Google, comme c’est le cas actuellement, ce dont vous êtes responsables en faisant installer Google par défaut dans vos institutions. Cela montre que vous devez aussi être éduqués aux médias et à l’information. C’est pourquoi nous avons créé, en France, au ministère de la culture, le programme EMILE (Éducation aux Médias, à l’Information et à la Liberté d’Expression), pour former les cadres de la culture afin qu’ils puissent ensuite aller porter la bonne parole et ouvrir le champ des possibles.

J’ajoute que notre code de conduite a été négocié avec le secteur privé, dont Google et Facebook. Ces derniers ont peur de ce qui leur arrive : ils sont pointés du doigt par le journalisme à l’occasion des élections et sentent bien qu’ils vont devoir recréer de la confiance. Ces plateformes ont en outre signé une convention avec le Conseil de l’Europe. Pour mémoire, la directive de l’Union européenne sur les services et médias audiovisuels fait de l’éducation aux médias une obligation non seulement pour les États, mais aussi pour les plateformes.

Enfin, une recommandation vient d’être adoptée par le Comité des Ministres hier, portée par la présidence française, avant de faire partie des contributions à la conférence ministérielle sur la citoyenneté, organisée par le Conseil de l’Europe, à Paris, le 27 novembre, ce dont je ne suis pas peu fière.

B.   Échanges avec la salle

M. Frédéric Reiss, député du Bas-Rhin et président de la commission de la culture, de la science, de l’éducation et des médias de l’Assemblée parlementaire du Conseil de l’Europe. – Les rapports du Conseil de l’Europe s’inscrivent dans le cadre d’une société qui évolue à une vitesse vertigineuse. Nous souhaitons tous assurer une bonne éducation à nos jeunes, pour qu’ils puissent bien utiliser ces outils modernes de manière intelligente, ce qui n’a rien d’évident. Nous souhaitons évidemment que les grands principes démocratiques puissent être transposés dans le cadre de la démocratie numérique, à commencer par celui de la liberté d’expression, auquel le Conseil de l’Europe est particulièrement attaché.

S’agissant des trois expressions utilisées par Thomas Schneider, qui parlait des informations fausses, de la désinformation et des informations malveillantes, une proposition de loi du Parlement français a été adoptée et une autre est en cours de l’être, à savoir la proposition de loi Avia relative aux messages de haine sur Internet. Nous travaillons aussi sur ces sujets au Conseil de l’Europe, et je présenterai prochainement une proposition relative à la possibilité d’instituer un ombudsman, c’est-à-dire une forme de médiateur dans les différents pays, afin de donner à notre approche une dimension humaine, au-delà des algorithmes, et d’aider les plateformes à identifier les contenus illicites et préconiser certains déréférencements, et cela dans des délais beaucoup plus courts que ceux de la justice. Cela permettrait d’éviter des procès pénaux.

En tant qu’ancien professeur de mathématiques, je suis un peu frustré de constater que le mot « sciences » a été très peu utilisé dans vos exposés respectifs. On parle pourtant aujourd’hui couramment de fake science. De fait, les rendez-vous que constituent des émissions comme Envoyé spécial, qui aborde des sujets comme le glyphosate ou les OGM ne suffisent pas car elles jouent souvent sur l’émotion pour attirer le grand public et se basent sur des éléments qui ne sont absolument pas vérifiés. Or, une fois que la confiance de ce grand public dans les informations est perdue, il est très difficile de la restaurer. C’est pourquoi, à l’APCE, nous préparons une proposition de résolution sur la liberté et la pluralité des médias et sur le droit de savoir des citoyens.

Je retiens aussi le lien qui a été mis en évidence par Divina Frau‑Meigs entre employabilité et citoyenneté car il est neuf et pertinent dans notre société, où la préservation de la dignité est un enjeu qui s’élargit au monde numérique.

J’ai assisté, il y a une quinzaine de jours, à une conférence sur les relations entre les grandes plateformes et les médias, dont notamment la presse quotidienne régionale, et j’avoue avoir eu l’impression, pendant l’intervention des représentants de Google, qu’il s’agissait de philanthropes : ils mettaient leur outil à disposition de tous, gratuitement. Quand on sait ce qu’il y a derrière, on est loin du compte. Il reste que ces grandes plateformes sont aujourd’hui demandeuses de progresser avec les pouvoirs publics, ce à quoi nous contribuons au Conseil de l’Europe.

Mme Sylvie Bollini, représentante permanente de la République de Saint-Marin auprès du Conseil de l’Europe. – Je vous remercie pour l’organisation de ce colloque sur un thème on ne peut plus actuel, ainsi que d’y avoir invité les représentants du Comité des Ministres au Conseil de l’Europe. Aucun pays n’est exempt de la désinformation, et mon pays en est souvent victime. Il a organisé une conférence, le 10 mai 2019, sur ce thème, avec la participation de nombreux experts, y compris du Conseil de l’Europe et de l’Organisation pour la Sécurité et la Coopération en Europe (OSCE). Sa première partie a été consacrée à un état des lieux, au travers notamment d’une étude sur la mal-information et la désinformation sur les migrants, avant d’aborder le thème plus spécifique de la désinformation dans le domaine de la santé, sachant que celle qui a porté sur les vaccins a favorisé la propagation de maladies qui avaient pratiquement disparu. La conférence s’est conclue par une déclaration exprimant le souhait de créer un observatoire pour le fact checking.

Afin de mener une action préventive à la désinformation, nous avons créé au plan national un groupe interministériel, sous l’égide du ministère des Affaires étrangères, auquel ont participé les ministères de l’Éducation, de la Santé, l’autorité garante pour l’information, ainsi que la télévision et la radio nationales, le Comité des journalistes, les écoles, les universités et les ONG, dans le but de sensibiliser et d’unir les forces afin de créer une société résiliente, capable de discernement et d’empathie. Ce projet a été présenté la semaine dernière au Forum mondial pour la démocratie, à l’Hôtel de Ville de Strasbourg. Nous avons l’ambition d’organiser une conférence annuelle, qui devrait comporter l’année prochaine une partie spécifique sur l’éducation. Je vous y invite tous. N’hésitez pas à me solliciter ou à contacter ma représentation.

Mme Michèle Leridon, membre du Conseil supérieur de l’audiovisuel (CSA). – Je tiens à insister sur la nécessaire responsabilisation des plateformes. Vous avez rappelé, Monsieur le sénateur, l’existence de la loi sur la désinformation qui prévoit certes la possibilité pour le CSA de suspendre une chaîne de télévision, ce qui fait un peu figure « d’arme atomique » et doit être manié avec précaution, mais aussi le devoir de coopération des plateformes. Si celles-ci sont poussées à se réformer, après le scandale des élections américaines ou la fusillade de Christchurch, elles sont encore très jalouses de leurs secrets et de leurs prérogatives.

Le CSA a émis une recommandation dans le cadre de ce devoir de coopération, qui consiste à préconiser :

– la mise en place d’une procédure de signalement très accessible des contenus douteux ;

– le fait de pousser (faire remonter dans le référencement) les contenus de médias reconnus comme fiables, et notamment les contenus de fact checking ;

– la lutte contre les comptes payants et contre les comptes qui utilisent des fausses informations (Facebook vient d’en fermer des milliers) ;

– l’information des utilisateurs sur la façon dont sont référencés les contenus ;

– la transparence, dans la mesure du possible, la transparence sur les algorithmes (organisation, référencement, ordonnancement).

Il s’agit de droit « souple » puisqu’aucune sanction n’est prévue en cas de non-respect de ces préconisations. Si ce n’est pas le CSA qui définit ce qu’est une vraie ou une fausse information, et c’est très bien ainsi, il demande en revanche aux plateformes d’être responsables, ce à quoi elles sont parfois très rétives.

M. Thomas Schneider. – L’offre de contenus fiables est une chose, encore faut-il que les utilisateurs les consomment. Or, un sondage a montré que plus de 30 % de la population ne veut plus consommer des nouvelles parce qu’elles sont jugées trop négatives, tandis que 70 % des jeunes ne consomment pas les nouvelles produites par les médias classiques. Face à cela, il faut évoquer le journalisme constructif qui essaie de lutter contre le fait que les nouvelles les plus attractives sont généralement des nouvelles négatives ou sensationnelles. C’est une stratégie de long terme, alors que les annonceurs et les hommes politiques privilégient les messages ayant un impact à court terme.

M. Patrick Chaize. – Il y a donc un espoir que notre société puisse s’adapter de manière naturelle aux défis d’Internet.

M. Thomas Schneider. – L’élite et les parlementaires peuvent y concourir, mais ce sont surtout les citoyens qui doivent prendre conscience que leur vie et leurs libertés sont en cause et assumer leurs responsabilités individuelles.

M. Patrick Chaize. – Il ne s’agit en effet pas d’instaurer un ministère de la Vérité…

M. Batian Kitev, président de la délégation macédonienne à l’APCE. –J’ai été très heureux de participer à un débat aussi fructueux. Nous devons adopter, dans l’intérêt de nos concitoyens, une législation claire et efficace visant à lutter contre la diffusion de faux contenus et contre la désinformation. L’Assemblée parlementaire du Conseil de l’Europe est un excellent lieu pour partager nos opinions et nos expériences à cet égard, et promouvoir des bonnes pratiques. Comment pouvons-nous construire une politique des médias proactive et capable d’éviter l’exposition des utilisateurs à des contenus douteux ?

M. Camille Grenier. – Le Conseil de l’Europe peut effectivement jouer le rôle de plateforme d’échange de bonnes pratiques dans ce domaine. Au-delà de ce qui a déjà été dit, je pense qu’il nous faut renforcer les capacités de la recherche, notamment sur l’accès aux données, une problématique qui met en jeu la responsabilité des plateformes. Force est de constater à cet égard que Facebook refuse à ce jour de lutter vraiment contre la désinformation.

En matière d’éducation, Claire Warden a été plusieurs fois citée, mais il faut aussi se référer aux travaux de sa sœur, Jenny Sergeant, dont les idées sont brillantes. Elle explique notamment comment la responsabilité doit être placée non pas seulement sur ceux qui reçoivent l’information, mais aussi sur ceux qui la créent et aussi sur ceux qui la transmettent. Il faut donc travailler sur les causes structurelles de l’offre et sur les modalités de circulation de l’information à l’ère du numérique.

Mme Marine Gossa, chargée de mission au Conseil supérieur de l’audiovisuel. – La communication de la Commission européenne sur le premier bilan qui a été tiré de l’application du code de bonne conduite en matière d’information a mis en évidence les limites de la bonne volonté des différentes plateformes qui ont participé volontairement à l’élaboration de ce document. C’est pourquoi il est envisagé désormais de passer par la voie réglementaire, avec la mise en place éventuelle d’une régulation supervisée. Quel est votre avis à ce sujet ?

M. Thomas Schneider. – Les mesures les plus efficaces sont un mix de répression et d’incitation à la coopération des plateformes, en jouant sur la pression de l’opinion publique. L’équilibre dépend de la culture de chaque société.

Mme Divina Frau-Meigs. – Nous avons averti que nous allons surveiller l’application du code de bonne conduite. Si nous ne constatons pas la mise en œuvre sincère et loyale de nos recommandations par les plateformes au bout d’un an, nous préconiserons un recours à la régulation. Dans une optique démocratique, nous ne voulions pas délivrer le message que nous commencions par réguler et censurer. Il fallait donner une chance à l’autorégulation. Le progrès est à ce jour chaotique et nous envoyons aux plateformes des avertissements pour qu’elles modifient leurs comportements.

M. Patrick Chaize. – Je retiens de nos débats que la cohésion de nos sociétés est en jeu et que nous avons un rôle important à jouer en tant que législateurs, mais aussi en matière de contrôle et d’évaluation des politiques publiques, dans un contexte novateur et déstabilisant.

 


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   TroisiÈme table ronde :
« La lutte sur le Web contre les discours de haine, la cybercriminalitÉ et le cyber-terrorisme »

Les intervenants à cette table ronde étaient :

– M. Jan Kleijssen, directeur, Société de l’information – Lutte contre la criminalité, Conseil de l’Europe ;

– M. Jean-Paul Lehners, président de la commission européenne contre le racisme et l’intolérance (ECRI) ;

– Mme Béatrice Oeuvrard, manager chargée des affaires publiques de Facebook France ;

– M. Andrea Cairola, spécialiste du programme « section pour la liberté d’expression » au sein du secteur de la communication et de l’information de l’UNESCO ;

– M. Olivier Becht, député du Haut-Rhin, vice-président de la délégation française et rapporteur général sur l’évaluation de l’impact de la science et de la technologie à la commission de la culture, de la science, de l’éducation et des médias de l’APCE.

La table ronde a été animée par M. Olivier Becht.

A.   introduction du dÉbat par les intervenants

1.   Intervention de M. Olivier Becht, député du Haut-Rhin, vice-président de la délégation française et rapporteur général sur l’évaluation de l’impact de la science et de la technologie à la commission de la culture, de la science, de l'éducation et des médias de l’Assemblée parlementaire du Conseil de l’Europe

Bonjour à toutes et à tous. Au cours de cette table ronde, nous nous intéresserons à la manière dont le Conseil de l’Europe et, plus généralement, nos États et nos sociétés luttent contre les discours de haine, la cybercriminalité et le cyber-terrorisme.

En guise de propos liminaire, je voudrais rappeler le contexte dans lequel s’inscrit cette problématique. Notre époque vit quatre grandes révolutions technologiques : celle de l’informatique (Internet, l’ordinateur quantique, l’intelligence artificielle), les nanotechnologies, les biotechnologies et les neuro-technologies. Je pense que Facebook ne me contredira pas sur ce dernier point puisque cette société travaille à l’élaboration d’une technologie qui permettra peut-être demain de transférer directement ses pensées sur le réseau. Il est fascinant de constater que ces évolutions ne se caractérisent pas seulement par des ruptures technologiques majeures, mais aussi par leur vitesse de diffusion et leur capacité à se combiner entre elles. Je citerai la capacité de l’informatique à penser extrêmement rapidement grâce à la combinaison du numérique et des nanotechnologies. Sur la largeur d’un cheveu, nous sommes aujourd’hui capables de graver 10 000 transistors. Il y a un peu plus de 60 ans, un ordinateur réalisait une opération par seconde. Dorénavant, les ordinateurs les plus puissants effectuent 100 millions de milliards d’opérations par seconde. Vraisemblablement, cette capacité sera portée l’année prochaine à un milliard de milliards d’opérations par seconde.

La vitesse est telle que le droit court après la technologie. Ces révolutions ouvrent un formidable champ d’activité pour les humains, qu’elles soient positives ou négatives. Chaque fois que l’Homme a conquis un espace, il y a apporté le meilleur comme le pire. Il est donc normal que la conquête du cyberespace s’accompagne de l’exploitation de nouvelles menaces, à commencer par la diffusion de la haine. Ce qui constituait autrefois des propos de comptoir se diffuse en quelques secondes sur la Terre entière. Les mafias, autrefois locales, peuvent désormais se livrer à tous les trafics (armes, drogues, prostitution, traite des êtres urbains, trafic d’organes) à partir de territoires qui sont quelquefois des zones de non-droit. Enfin, les terroristes communiquent leurs messages de haine, recrutent et forment sur les réseaux. Bientôt, ils lanceront probablement des bombes technologiques dont les dégâts sur les systèmes bancaires ou les réseaux électroniques feront sans doute plus de morts que les attentats du 11 septembre 2001. Nous voyons bien le défi à la fois juridique et technique qui est le nôtre.

Dans ce contexte, le Conseil de l’Europe a été précurseur dans de nombreux domaines. En particulier, en matière de cybercriminalité, nous avons mis en place, à travers la convention de Budapest, des conférences Octopus, ainsi que divers mécanismes visant le cyber-terrorisme, la lutte contre la haine et contre le blanchiment d’argent. Monsieur Lehners nous en dira sans doute plus.

Je voudrais souligner l’un des défis qui sera le nôtre aujourd’hui : traiter la masse et la vitesse à laquelle se propagent un certain nombre de messages sur les réseaux. Face à l’utilisation criminelle ou délictuelle de la technique, il est du ressort du droit et de la technique de s’adapter pour préserver nos valeurs. De nombreux États, comme la France avec la proposition de loi Avia, ont fait le choix de prescrire aux entreprises du Web de procéder à l’effacement rapide des propos pouvant se révéler haineux, xénophobes, antisémites, injurieux. Les algorithmes rendent possible l’effacement des propos. Il existe évidemment un risque que l’on finisse par renoncer à la poursuite judiciaire de ces propos. Si nous devions poursuivre chaque propos haineux sur le Web, les tribunaux seraient rapidement engorgés par des milliards de procédures. Néanmoins, nous devons rester très vigilants. Le risque est de se retrouver dans la même situation que face aux tagueurs. Faute de pouvoir identifier les auteurs des tags, nous nous sommes résolus à engager des brigades qui repeignent les murs. De la même manière, l’effacement des propos sur le Web reviendrait à repeindre tous les jours la page en blanc, sans autre incidence, si bien que l’on pourrait considérer que le fait de professer des propos haineux n’est finalement pas si grave. Il faut donc veiller à ne pas banaliser ce type de propos et assurer leurs auteurs qu’ils seront poursuivis. Nous devrons donc inventer des algorithmes qui courent plus rapidement que les algorithmes de la haine. Il s’agit autant d’un défi technologique que d’une nécessité politique.

Je passe la parole à Jan Kleijssen.

2.   Intervention de M. Jan Kleijssen, directeur, Société de l’information ‑ Lutte contre la criminalité, Conseil de l’Europe

Merci. Plusieurs sujets que je souhaitais aborder l’ont déjà été ce matin. Je vous épargnerai mes commentaires sur les travaux du Conseil de l’Europe relativement à la liberté des médias, que le président de notre comité directeur vous a déjà présentés.

En revanche, je parlerai de la cybercriminalité et de nos travaux sur l’intelligence artificielle. Au préalable, je vous livrerai une citation d’un journaliste français, Bruno Patino, issue de son ouvrage La civilisation du poisson rouge. Si vous doutez de ses propos, je vous conseille de prendre le train pour trouver une confirmation de son postulat. Selon lui, « le poisson rouge tourne dans son bocal. Il semble redécouvrir le monde à chaque tour. Les ingénieurs de Google ont réussi à calculer la durée maximale de son attention : 8 secondes. Ces mêmes ingénieurs ont évalué la durée d’attention de la génération des millenials, celle qui a grandi avec les écrans connectés : 9 secondes. Nous sommes devenus des poissons rouges, enfermés dans le bocal de nos écrans, soumis au manège de nos alertes et de nos messages instantanés. » Je pense néanmoins que son constat s’applique également aux personnes nées précédemment.

Comme l’a souligné la professeure Divina Frau-Meigs ce matin, il faut parfois des actes d’une forte gravité pour que le grand public, mais aussi les responsables politiques, se réveillent. Nous avons connu malheureusement, en mars 2019, l’attaque terroriste de Christchurch. Pendant 17 minutes, elle a été diffusée en direct. J’ai assisté, avec quelques‑uns d’entre vous, à une conférence de l’Autorité de protection des données, organisée à Tirana il y a deux semaines. Le responsable de la Nouvelle-Zélande nous a raconté avoir interrogé les réseaux sociaux sur ce dysfonctionnement des outils d’intelligence artificielle. Leur réponse a été la suivante : « Ce n’était pas assez sanglant ». À l’initiative du Président de la République française et de la Première ministre de Nouvelle-Zélande, dix chefs d’État et de gouvernement, ainsi que des dirigeants d’entreprises et d’organisations du numérique, ont lancé l’Appel de Christchurch pour lutter contre le terrorisme et l’extrémisme violent en ligne. Hélas, l’attentat survenu à Halle, le 10 octobre dernier, a été retransmis en direct de la même manière. Il reste encore des actions à mener pour s’assurer que l’appel de Christchurch soit mis en œuvre.

Je voudrais également appeler votre attention sur un rapport du 9 octobre 2019 publié par le rapporteur spécial des Nations unies sur la liberté d’expression. S’agissant des lois imposant de nouvelles obligations aux entreprises pour éviter la propagation des discours haineux, M. David Kaye relève que « les entreprises ne prennent pas au sérieux leurs responsabilités ». J’espère qu’il sera entendu.

Au cours des six derniers mois, les cybercriminels ont volé 4,1 milliards de fichiers comportant des données personnelles. Des millions de photos d’enfants et autres victimes d’abus sexuels ont été partagées. Des ordinateurs ont fait l’objet d’attaques, notamment en période électorale. Malheureusement, moins de 1 % de la cybercriminalité est effectivement signalée à la police. Sur les 100 000 cas qui ont été portés à la connaissance des forces de l’ordre, seulement 1 à 10 conduisent à une condamnation. L’impunité est donc presque totale, et la profitabilité de ce secteur est extrême. Si le même constat s’appliquait à la criminalité ordinaire, je pense qu’aucun Ministre de la Justice ne resterait en fonction très longtemps. Il y a donc beaucoup de choses à faire.

64 pays ont signé la convention de Budapest sur la cybercriminalité. Une centaine de pays ont commencé à la mettre en œuvre. Le Conseil de l’Europe a été actif dans 130 pays. Nous avons élaboré un nouveau protocole pour permettre aux forces de l’ordre de récupérer des informations, selon des conditions très précises. Ce protocole soulève un grand nombre de questions relatives à la protection des données. Auparavant, la police pouvait entrer au domicile d’un suspect et saisir un disque dur qui servirait de pièce à conviction. Actuellement, les preuves se trouvent sur le cloud. Les traités en vigueur en matière criminelle se révèlent inadaptés à ces nouvelles formes de criminalité.

La semaine prochaine, je me rendrai à la Conférence Octopus à Strasbourg. Les débats seront retransmis en direct sur Internet.

Je suis convaincu que l’intelligence artificielle va changer l’Histoire. La disponibilité des données de masse et les nouvelles capacités de traitement des ordinateurs ont conduit à une explosion de l’intelligence artificielle. Il est intéressant de souligner à cet égard l’absence presque totale d’une réglementation. À la différence de tous les autres produits, les outils d’intelligence artificielle ne sont pas réglementés. Nous pourrions connaître un accident similaire à celui du Boeing 737 Max. En l’occurrence, l’intelligence artificielle n’avait pas été mise à jour et l’intervention humaine était impossible, les pilotes n’ayant pas été formés pour désactiver le système de vol autonome. Pour remédier à l’absence de réglementation, des efforts ont été entrepris. La Déclaration de Montréal a été suivie d’une série de chartes éthiques. Cependant, ces instruments sont non contraignants : le citoyen n’a pas la possibilité de les invoquer devant un tribunal. Je me félicite de la décision du Conseil de l’Europe de réunir le comité directeur pour évaluer la possibilité d’élaborer un nouvel instrument juridique pertinent pour s’assurer que la conception et le développement de l’intelligence artificielle répondre aux normes des droits de l’Homme, de l’État de droit et de la démocratie. Il s’agira d’un processus multipartite impliquant des entreprises, nos partenaires de l’OCDE et de l’Union européenne. J’espère que ce procédé va aboutir à une réglementation devenue urgente.

M. Olivier Becht. – Merci beaucoup. Je vais passer la parole à Jean‑Paul Lehners.

3.   Intervention de M. Jean-Paul Lehners, président de la commission européenne contre le racisme et l’intolérance

Je vous remercie d’avoir organisé ce colloque. L’ECRI a depuis longtemps alerté les gouvernements des États membres sur les risques liés à la diffusion de propos racistes, xénophobes ou antisémites sur Internet. Notre commission avait d’ailleurs plaidé en faveur d’un protocole additionnel à la convention du Conseil de l’Europe relative à la cybercriminalité pour incriminer les actes de nature raciste et xénophobe commis par le biais des systèmes informatiques. Il y a 19 ans, l’ECRI a adopté sa recommandation de politique générale n° 6 relative à la lutte contre la diffusion de matériels racistes, xénophobes et antisémites sur Internet. Cette recommandation comprend un certain nombre de préconisations se déclinant autour de plusieurs maîtres-mots qui restent d’actualité : sensibilisation, formation, autorégulation, dissuasion et application adaptée de la loi. Cela étant, le défi est grandissant. L’ECRI a observé une montée préoccupante des propos haineux, notamment en ligne, et en a fait état dans ses rapports. Internet est devenu un support important dans la propagation des contenus haineux, de nature raciste ou prônant certaines formes d’intolérance. Cette problématique a été abordée lors de la Conférence organisée pour le 25ème anniversaire de l’ECRI, les 26 et 27 septembre derniers.

Le déferlement des contenus haineux est un défi commun à toute l’Europe. Il marque grandement les personnes visées, menace la cohésion de nos sociétés et constitue autant de premiers pas vers la violence. Il est donc indispensable d’y apporter une réponse concrète. C’est la raison pour laquelle nous avons publié récemment notre recommandation de politique générale n° 15 sur la lutte contre les discours de haine. Elle comprend une série de préconisations portant non seulement sur la dimension législative, mais aussi sur la nécessaire mobilisation de toute la société contre les discours de haine en général. Ces recommandations s’appliquent évidemment aux discours de haine en ligne. En ce qui concerne le volet législatif, l’ECRI préconise de clarifier la responsabilité en droit civil et administratif en cas de recours aux discours de haine, tout en respectant la liberté d’expression et d’opinion. Plusieurs actions sont envisagées : déterminer les responsabilités particulières des auteurs de ces discours de haine, des prestataires de services Internet, des forums en ligne, des hébergeurs de sites, des intermédiaires en ligne, des plateformes de réseaux sociaux, des modérateurs de blogs et autres intervenants jouant un rôle analogue. Il s’agit de permettre, sous réserve de garanties appropriées – y compris au niveau judiciaire – la suppression des contenus haineux dans les informations accessibles par Internet. Nous recommandons également le blocage des sites diffusant ces discours de haine, l’interdiction de la diffusion de ces discours et la mise en place d’une obligation de révéler l’identité de leurs auteurs. Il s’agit en outre d’assurer le droit d’agir en justice aux personnes ciblées par les discours de haine auprès des organes chargés des questions d’égalité, des institutions nationales et des droits de l’Homme, ainsi qu’aux organisations non gouvernementales ayant un intérêt à agir et, enfin, de faciliter et favoriser le signalement des cas d’utilisation des discours de haine par les personnes visées ainsi que les témoins.

L’ECRI cherche à favoriser l’autorégulation comme moyen de lutte contre les discours de haine. Il s’agit d’encourager la notion de code de conduite, de veiller à sa mise en œuvre et de promouvoir le suivi de la désinformation, des stéréotypes négatifs et des stigmatisations. L’ECRI préconise par ailleurs la nécessité de sensibiliser le grand public à la nécessité de respecter la diversité et aux dangers que présentent les discours de haine, tout en soulignant le caractère mensonger de leurs fondements et leur caractère inacceptable. Nous recommandons l’élaboration de programmes éducatifs spécifiques, ainsi que de formation à destination de plusieurs publics, notamment les jeunes. L’ECRI a eu l’occasion de constater que ces mesures ont produit certains effets positifs. Elle a ainsi observé que pour contrer un message de haine de manière efficace, il convient de faire diffuser un contre-discours par des membres des élites politiques, religieuses et culturelles (y compris des artistes et des sportifs célèbres). Créer des synergies entre plusieurs acteurs, comme les organisations internationales et le secteur privé, peut également donner de bons résultats dans la recherche de réponses durables dans la lutte contre les discours de haine à caractère raciste, homophobe ou transphobe.

Pour l’Espagne, l’ECRI a recommandé aux autorités de faire usage de leur pouvoir réglementaire à l’égard des fournisseurs de services Internet et des réseaux sociaux ; de renforcer la protection en matière de droit civil et administratif et, le cas échéant, de mettre l’accent sur les enquêtes pénales. En ce qui concerne la Norvège, l’ECRI avait préconisé de confier à une ou plusieurs unités de police la mission de lutter contre les discours de haine en ligne et surtout de leur affecter les ressources techniques et humaines nécessaires. Lorsque de telles unités existent et bénéficient de ressources adaptées, la formation du personnel et l’élaboration de lignes directrices sont également primordiales pour assurer une meilleure efficacité aux méthodes d’identification et de traitement des discours de haine, comme l’ECRI a pu le préconiser dans ses rapports concernant le Monténégro et l’Ukraine. Bien évidemment, mieux vaut prévenir que guérir. Il convient alors de sensibiliser les internautes à l’interdiction des discours de haine ; d’inciter les sites Internet à respecter les codes de conduite existants et de charger un organisme d’opérer la surveillance active des propos haineux en lui attribuant les fonds nécessaires. C’est ce que l’ECRI a préconisé aux autorités néerlandaises. Enfin, l’ECRI a pu estimer, comme dans le cas de la Serbie, que la mise en place d’une stratégie de lutte contre les discours de haine en ligne, sans empiéter sur l’indépendance éditoriale, était nécessaire.

Les personnes qui restent le plus exposées aux propos haineux en ligne sont les Roms, les Noirs, les juifs, les musulmans, les personnes LGBTI, les migrants, réfugiés ou demandeurs d’asile ou perçus comme tels. L’ECRI a constaté des cas de publication de propos ouvertement racistes dans certains médias, ou encore d’apologie du nazisme et de négation de l’Holocauste ; l’emploi de termes insultants et de stéréotypes en relation avec certains groupes, ainsi que de véritables appels à la violence à l’égard de ces personnes. Le discours de haine se diffuse rapidement par l’intermédiaire des réseaux sociaux et peut avoir une audience bien supérieure à celle de la presse écrite. L’emploi de propos grossiers par certains élus contribue aussi à un discours public de plus en plus choquant et intolérant. Par ailleurs, les tentatives par des personnalités publiques de justifier l’existence de préjugés et l’intolérance à l’égard de certains groupes ne font que perpétuer et accroître l’hostilité à leur encontre à travers l’ensemble du continent. L’existence d’un discours politique propagandiste fondé sur la division et l’absence de réaction rapide par un contre-discours clair sont régulièrement constatées par l’ECRI.

Les propos haineux en ligne sont entretenus par des « bulles d’opinion », dans lesquelles des personnes partagent les mêmes opinions. En outre, la situation s’aggrave du fait de la diffusion croissante de fausses informations souvent destinées à donner une image détournée de groupes minoritaires et vulnérables. De nouveaux défis apparaissent car des groupes extrémistes, notamment néo-nazis, déplacent leurs contenus vers certains pays à l’étranger ou dans des groupes fermés comme WhatsApp.

Il reste donc nécessaire d’apporter une réponse plus efficace aux discours de haine en développant des règles adaptées et en améliorant le contre-discours. Nous sommes aussi à la recherche de bonnes pratiques ou de pratiques sensées dans le respect de la convention européenne des droits de l’Homme. En Irlande, les membres du gouvernement, notamment le Premier ministre, ont pris position sur les réseaux sociaux pour se désolidariser des commentaires islamophobes formulés par un élu local. L’un d’eux a déclaré que ces commentaires étaient intolérables et opposés au principe d’une Irlande inclusive, qu’il défend. L’élu en cause a été sanctionné par un retrait de l’investiture de son parti pendant 12 mois. Ces réactions ont permis de signaler au grand public que le racisme et l’intolérance ne seraient pas acceptés par les dirigeants et les élus. Pour leur part, les autorités françaises ont réagi à la propagation des discours de haine par l’ouverture de discussions visant à assurer la communication des coordonnées à la justice en vue d’engager des poursuites pénales. Cette mesure a pris effet avec la première transmission d’informations en 2013. Il y a quelques années, l’ECRI a également salué l’initiative des médias norvégiens qui, dans le sillage des attentats de juillet 2011, ont estimé nécessaire de faire preuve d’une plus grande responsabilité rédactionnelle et de surveiller les forums Internet. Une autre bonne pratique a consisté en la fermeture des forums pendant la nuit. En 2016, les principales entreprises des technologies et de l’information en Europe se sont accordées sur un code de conduite. Cependant, le contrôle de l’ECRI et d’autres organisations a eu tendance à montrer que ce code n’était pas correctement appliqué et n’avait pas permis d’éviter l’avalanche des discours haineux en ligne. En 2017, l’Allemagne a adopté un nouveau cadre législatif qui impose aux fournisseurs de réseaux de supprimer les propos haineux dans les 24 heures et de les transférer à un organisme de régulation indépendant. L’ECRI rendra public son rapport sur l’application de cette loi, entrée en vigueur en janvier 2018, au 1er semestre 2020.

L’initiative législative prise en France, qui a conduit l’Assemblée nationale à adopter en première lecture la proposition de loi visant à lutter contre les contenus haineux sur Internet, rappelle à bien des égards l’initiative allemande. L’ECRI sera amenée à apprécier l’impact de ce texte qui est actuellement examiné par le Sénat. Autant dire que les débats sur ces textes susciteront tout l’intérêt de notre Commission.

Sans préjudice des futures activités de l’ECRI, il convient de faire écho aux encouragements qui ont pu être effectués de solliciter l’avis du Conseil de l’Europe dans le cadre de ses activités de coopération, et ce, chaque fois que le respect de la convention européenne des droits de l’Homme semble remis en cause.

L’option législative est l’une des mesures les plus fortes. En dépit des bonnes intentions, personne n’est à l’abri d’un contournement de l’objet de la loi, sinon d’un usage abusif ou excessif. Dans son 5ème rapport sur la Fédération de Russie, l’ECRI s’est préoccupée des usages excessifs et abusifs de la législation. La procédure de blocage des sites Internet, parfois sans autorisation judiciaire, peut y être utilisée pour restreindre l’accès à des organisations jugées indésirables ou étouffer la dissidence. Il s’agit là d’un risque non négligeable.

Je terminerai par deux remarques personnelles qui n’engagent pas l’ECRI. La première est une question de vocabulaire : le français n’est pas ma langue maternelle. Comment qualifier le passage de la colère à la haine ? Selon Alphonse Daudet, « la haine est la colère des faibles ». Je crois qu’il faut continuer à réfléchir à la définition de la haine. Enfin, chaque fois que nous constatons une augmentation des discours de haine, je crois qu’il nous faut vérifier si elle correspond à une crise de la société. Une société plus inégale peut-elle contribuer à une augmentation des discours haineux ?

M. Olivier Becht. – Monsieur Lehners, merci beaucoup pour ces interrogations qui ne manqueront pas de susciter le débat. Je passe la parole à Béatrice Oeuvrard.

4.   Intervention de Mme Béatrice Oeuvrard, Manager chargée des affaires publiques de Facebook France

Les interrogations formulées à l’instant par M. Lehners me paraissent pertinentes. Que l’on soit du côté de la plateforme, de l’utilisateur ou du Conseil de l’Europe, nous avons tous pour objectif de lutter contre les propos haineux. Je serai très claire : nous ne faisons pas business sur les discours haineux qui font d’ailleurs fuir les annonceurs.

Ce matin, vous avez souligné qu’il ne fallait pas laisser les plateformes décider seules. Dans bien des cas, malheureusement, nous sommes seuls. Par exemple, la loi allemande, assortie d’une clause de « revoyure » au bout de trois ans, est questionnée dès à présent sur son opérabilité. Nous en discutons avec le gouvernement allemand. Nous pourrions également nous interroger sur l’efficacité du texte français.

Le critère de la « viralité » doit effectivement être pris en considération. Or, ce critère ne semble avoir été retenu ni dans la loi allemande ni dans la proposition de loi Avia. Chez Facebook, 35 000 personnes sont chargées de la modération et de la cybersécurité, dont 23 000 recrutées en 2018. Nous avons également fortement investi dans l’intelligence artificielle. Les textes actuels ne prennent pas en compte la granularité qui est pourtant importante. Faut-il mettre tous les contenus au même niveau ? Une plateforme comme Facebook a certes des moyens pour recruter des modérateurs, mais ce n’est pas le cas de toutes les plateformes. Il faut prendre aussi en considération les petites plateformes.

Comme vous avez pu le lire dans des articles publiés par Marc Zuckerberg, nous sommes extrêmement favorables à la mise en place d’un organisme de régulation, comme l’a proposé Madame Avia, de manière à adopter une approche systémique à l’égard des manquements constatés par les plateformes. Il sera alors possible d’identifier les moins bons élèves. Cette approche systémique me semble essentielle. En effet, le rôle du judiciaire a son importance. Un parallèle a été effectué avec l’effacement des tags. J’appelle néanmoins votre attention sur la nécessité de conserver les preuves, de sensibiliser et responsabiliser les auteurs.

En début d’année, nous dénombrions près de 4 millions de contenus haineux retirés au niveau mondial. C’est finalement assez peu au regard du milliard de photographies diffusées chaque jour sur Facebook. Tous les contenus diffusés sur Internet ne sont pas haineux, mais nous recensions 7 millions de contenus haineux retirés au 3ème trimestre. Cela ne signifie pas que les contenus de ce type ont augmenté, mais simplement que nous avons investi davantage dans nos outils de détection. S’agissant du terrorisme, le taux de prévalence s’élève à 0,04 % : sur 10 000 contenus, 4 contenus à caractère terroriste sont identifiés. Ces chiffres sont le résultat de nos investissements humains et technologiques.

Avec le Forum mondial d’Internet contre le terrorisme, les plateformes leaders sur Internet partagent avec les plus petites plateformes les hashtags des contenus qu’elles ont repérés comme devant être supprimés, et ce, pour éviter leur propagation. Nous avons eu recours à ce dispositif lors de l’attentat de Christchurch. En l’occurrence, la tâche était particulièrement difficile car nous avions plus de 800 formats vidéo différents à traiter. J’espère que personne n’a effectivement déclaré que la machine n’avait pu détecter immédiatement ce contenu parce qu’il n’était « pas assez sanglant ». Si de tels propos ont été exprimés, je m’en excuse au nom de notre société. La machine n’était pas suffisamment mature pour repérer que l’arme n’était pas celle d’un jeu vidéo, mais utilisée pour commettre de vrais meurtres. Nous avons montré aux sénateurs notre méthodologie, qui est certes perfectible.

Je ne pense pas que la machine puisse tout gouverner. Nous accorderons toujours une place importante à l’humain sur ce type de dispositif. Cela est d’autant plus important en matière de lutte contre les contenus haineux. Je citerai une affaire qui a été jugée : lorsqu’un artiste dit « je vais te Marie-Trintigner la gueule », je suis touchée en tant que femme. Pour autant, la Cour a jugé que ce type de contenu n’était pas haineux au motif que la citation émanait d’un rappeur bien connu, Orelsan, et que cela faisait partie de la création artistique. Nous voyons là toute la difficulté à trancher. Il nous est demandé d’apprécier la gravité des propos en 24 heures. La Cour, elle, n’a pas pris 24 heures pour juger !

Les plateformes sont donc responsables, mais seulement en partie. Chacun doit jouer son rôle (le régulateur, les autorités judiciaires) de manière cohérente, qu’il s’agisse du versant judiciaire ou éducatif. Nous avons lancé un fonds d’un million d’euros pour aider les associations à diffuser des contre-discours. La lutte contre les discours haineux ne pourra se faire uniquement au travers d’une plateforme. Son efficacité ne pourra être assurée qu’avec le concours de l’ensemble des acteurs.

M. Olivier Becht. – Merci. Je donne la parole à Andrea Cairola.

5.   M. Andrea Cairola, spécialiste du programme « section pour la liberté d’expression » au sein du secteur de la communication et de l’information de l’UNESCO

Je vous remercie d’avoir organisé ce colloque. Étant le seul représentant des Nations Unies, je voudrais rappeler le cadre international. Le Pacte international relatif aux droits civils et politiques, en son article 19, protège la liberté d’expression. Les restrictions à la liberté de parole s’apprécient selon quatre exigences : la légalité, la légitimité, la nécessité et la proportionnalité. L’article 20 spécifie que « tout appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence » est interdit par la loi. Par ailleurs, les Nations Unies se sont dotées d’une convention pour la prévention et la répression du crime de génocide.

Je ferai référence à quatre initiatives des Nations Unies :

– le rapport de David Kaye, qui contient des recommandations aux États et aux plateformes, qui sont basées sur les standards nationaux. Ce rapport peut être très utile à votre réflexion. Il s’agit de respecter plusieurs normes qui peuvent entrer en contradiction. En matière de lutte contre les discours haineux, le passage immédiat à l’action est essentiel ;

– la stratégie Guterres de lutte contre les discours de haine, qui propose une solution multidirectionnelle et selon laquelle toute action doit être alignée avec les principes de liberté d’opinion et d’expression. Ce plan d’action insiste également sur la responsabilité de tous, l’importance de l’éducation des citoyens numériques, et met l’accent sur la recherche ;

– l’action de l’UNESCO en matière d’éducation, de libre circulation de l’information et de liberté d’expression. Il est important de construire l’esprit critique ;

– l’enseignement de l’Holocauste et du génocide, action de l’UNESCO pour promouvoir l’éducation à la citoyenneté mondiale.

Notre approche envers Internet repose sur quatre principes : le respect des droits de l’Homme, l’ouverture, l’accessibilité et la gouvernance multipartite. Nous sommes en train de développer une stratégie pour apporter une réponse multidimensionnelle. Nous encourageons en particulier l’action législative. 303 indicateurs ont été élaborés pour relever le défi de la lutte contre les discours de haine. Ce cadre de référence pourra servir de base de travail.

M. Olivier Becht. – Merci. Ces problématiques sont éminemment complexes. Les réponses qui sont apportées par les organisations internationales et les entreprises du Web sont progressives. Je vous propose d’ouvrir le débat

B.   Échanges avec la salle

M. Gilbert Flam, président de la commission des affaires européennes et internationales de la LICRA. – S’agissant des failles de l’intelligence artificielle, nous pouvons malheureusement citer cette chaîne d’information en continu qui, sans prendre de précaution ni de recul, a diffusé pendant deux heures un discours d’appel à la haine retransmis en direct…

Notre association soutient la démarche entreprise par Laetitia Avia avec sa proposition de loi. Nous avons tous constaté une explosion des discours de haine sur les réseaux sociaux (notamment racistes, xénophobes, antisémites et homophobes). Internet est à la fois un espace de liberté et une agora pour l’expression de la haine. Les migrants ont été particulièrement visés.

Nous sommes tous d’accord sur la nécessité de protéger la liberté d’expression, même quand elle peut choquer et mettre en cause les politiques des gouvernements en place. En tant qu’association internationale, nous avons bien conscience des enjeux en termes de défense de la liberté d’expression. Il faut donc être extrêmement prudent. Les discours de haine ne sont pas des opinions, mais des délits. Comment être efficace tout en préservant la liberté d’expression ? Comment exiger des plateformes qu’elles retirent réellement et rapidement les contenus haineux qu’elles contribuent à propager ?

Je dois saluer le travail réalisé par la commission sur l’égalité de l’APCE, dont le rapport annoté par les parlementaires a conduit à une résolution, puis une recommandation envoyée au Comité des Ministres. Pour autant, les propositions d’action me semblent insuffisantes. Il ne faut pas seulement mettre l’accent sur l’éducation, mais aussi contraindre les plateformes. Nous avons salué l’initiative de la Commission européenne de créer un code de conduite, qui nous a permis non seulement d’échanger avec les plateformes, mais aussi de renforcer la prise de conscience des enjeux. Toutefois, nous avons vu les limites du soft law dans la régulation des contenus haineux. Le taux de retrait, très inégal selon les plateformes, reste insuffisant. Il faut donc aller plus loin. C’est la raison pour laquelle nous considérons que la proposition de loi Avia est utile et nécessaire. Elle est importante, en ce qu’elle considère que les plateformes doivent être considérées comme responsables des contenus qu’elles contribuent à diffuser. Cette proposition de loi impose aux plateformes de se doter d’un représentant légal et les contraint à retirer les contenus haineux en 24 heures, tout en conservant pendant un an les éléments de preuve en vue d’engager une procédure judiciaire. Un parquet spécialisé sera constitué à cet effet.

En revanche, il nous semble important que les organisations non gouvernementales, les associations représentant la société civile soient impliquées dans le dispositif, notamment dans les signalements, et ce, dans l’intérêt général. J’espère que le Sénat en tiendra compte.

Mme Béatrice Oeuvrard. – Nous avons tous le même objectif et avons d’ailleurs salué le travail de Madame Avia. Quant au code de bonne conduite, nous y travaillons avec votre association. Je crois que Facebook fait partie des bons élèves, même si le dispositif est toujours perfectible. Le cadre législatif ne doit pas être trop rigide pour permettre aux acteurs de s’adapter. Nous sommes extrêmement favorables à la venue d’un régulateur pour mettre en place ces aménagements. Nous avons par ailleurs agi en faveur de la société civile.

S’agissant du terrorisme, les contenus partagés le sont désormais sous la forme d’URL. Il faut que notre parole et la vôtre soient écoutées.

Il nous semble important de désigner des représentants légaux des plateformes, et aussi d’identifier les auteurs.

M. Jan Kleijssen. – La société civile a été étroitement associée à nos travaux et elle le restera.

M. Thierry Schaffauser, membre du Syndicat des travailleurs du sexe (STRAS). – Je m’exprimerai en tant que travailleur du sexe et défenseur des droits des personnes LGBT. La proposition de loi Avia, dans l’un de ses articles, vise à censurer tout ce qui a trait au proxénétisme. La définition du proxénétisme au sens de la loi française est très large. Ainsi, est considéré comme du proxénétisme le fait de mettre en relation un travailleur du sexe et un client. N’importe quel site d’annonces d’escort peut être pénalisé. L’introduction du proxénétisme à travers cet amendement vise non pas à protéger les travailleurs du sexe de la haine en ligne, mais à criminaliser notre usage d’Internet. Je vous rappelle que le rapport européen sur la traite des êtres humains alerte sur l’amalgame entre les infractions de traite et le proxénétisme. Cette proposition de loi assimile toute forme de prostitution au proxénétisme et opère un amalgame entre la traite des êtres humains, la pédophilie et le terrorisme. Je ne pense pas être un terroriste. Je ne profère aucun propos haineux en ligne ; je vends des services sexuels sur des sites spécialisés.

À force de tout criminaliser, nous sommes amenés à utiliser d’autres plateformes – y compris des réseaux sociaux et des applications. Le législateur ne lutte ni contre l’exploitation, ni contre les contenus haineux, mais criminalise la vie de certaines personnes. Ce faisant, il renforce l’exploitation. Si nos annonces sont censurées, nous perdrons tout contact avec les clients, nous serons précarisés et incités à passer par des intermédiaires qui nous factureront nos annonces. L’Office central pour la répression de la traite des êtres humains s’est lui-même prononcé contre la fermeture du site Vivastreet qui a fermé sa section « Rencontres » à la suite de la procédure judiciaire en cours. La police a intérêt à collaborer avec ces sites pour mieux identifier les victimes de la traite des êtres humains, notamment les mineurs exploités sexuellement. En interdisant tout, vous compliquez le travail de la police.

Aux États-Unis, l’équivalent de la proposition de loi Avia a eu pour conséquence de conduire des personnes à retourner travailler dans la rue. Des contenus qui n’étaient pas des annonces, comme des publications sur des forums d’entraide, ont également été censurés.

M. André Gattolin. – Il est effectivement regrettable de renvoyer vers la rue les travailleurs du sexe qui se trouveront dans un environnement plus dangereux. La question n’est pas celle de la moralité, mais de l’effectivité de la protection de ces personnes. Je suis preneur des informations que vous voudrez bien nous communiquer sur cette disposition.

Mme Sylvie Bollini, représentante permanente de la République de Saint-Marin auprès du Conseil de l’Europe. – La phrase « Je vais te Marie-Trintigner la gueule » m’apparaît comme une apologie du féminicide. À mon sens, la haine est caractérisée dès lors que le propos est blessant. Le Comité des Ministres du Conseil de l’Europe a adopté des recommandations sur la lutte contre le sexisme. Il s’agit de la première définition complète du sexisme dans un instrument international.

Mme Sarah Bouchahoua, collaboratrice de Mme Laetitia Avia, députée de Paris. – Monsieur Schaffauser, nous avons bien reçu votre courrier.

Madame Oeuvrard, j’ai bien entendu vos remarques sur la « viralité », mais comment faire lorsqu’un enfant reçoit chaque jour des insultes sur Facebook sans pour autant que celles-ci soient propagées ? S’agissant des risques d’engorgement des tribunaux, la proposition de loi Avia inclut la création d’un parquet numérique.

L’ONU a-t-elle un projet de résolution à l’égard d’Internet pour combattre les discours de haine ?

Mme Béatrice Oeuvrard. – À la suite de l’avis du Conseil d’État, la proposition de loi Avia a été étendue aux contenus dits odieux. La loi américaine vise également les cas de diffamation, à la différence de la loi française. En Europe, des projets de Digital Services Act ont été déposés, avec une segmentation des sujets (terrorisme, propriété intellectuelle…). Je comprends l’enjeu de notifier les auteurs, mais quand il s’agit de pédopornographie ou d’apologie du terrorisme, cela reviendrait à notifier des pédophiles ou des terroristes. Il faut donc être très vigilant quant au périmètre de la loi.

Par ailleurs, il importe de définir un curseur pour mieux traiter la problématique des contenus viraux. Il faudra prendre en compte les moyens dont disposent les petites plateformes. Pour autant, nous n’entendons absolument pas laisser de côté les enfants victimes de propos insultants non viraux.

Le règlement européen inclut une obligation de retrait des contenus haineux en une heure. Évidemment, nous agirons au plus tôt.

M. Andrea Cairola. – L’ONU n’a pas élaboré de convention spécifique à Internet car la lutte contre les discours haineux est déjà couverte par la convention sur les droits civils et politiques et la convention sur le génocide. Néanmoins, l’ONU et l’UNESCO se sont engagées à mettre en œuvre des mesures de prévention.

M. Olivier Becht. – Je vous remercie d’avoir participé à cette table ronde et cède la parole à ma collègue Nicole Duranton, qui va conclure notre journée d’échanges.

 

 


Actes du colloque du 14 novembre 2019
organisé au sénat par la délégation française à l’APCE

 

—  1  —


   Conclusion Par Mme Nicole Duranton, sÉnatrice de l’Eure, premiÈre vice-prÉsidente de la dÉlÉgation française À L’APCE

 

Mes chers collègues, Mesdames et Messieurs, je tiens à vous remercier d’avoir participé à ce colloque que j’ai eu l’honneur de coprésider avec ma collègue Nicole Trisse, et que nos collègues André Gattolin, Patrick Chaize et Olivier Becht ont animé avec une vivacité et une curiosité qui, je l’espère, vous auront, comme moi, permis de suivre le fil rouge de toutes ces discussions.

Aujourd’hui, les trois quarts des citoyens passent peut-être plus de temps sur le territoire virtuel des GAFAM que dans la vie réelle. Le numérique ne peut plus être considéré, de façon simpliste, comme un outil de partage et de connaissance ; il est aussi devenu une menace pour la démocratie et les droits de l’Homme.

Le Conseil de l’Europe a un rôle essentiel à jouer dans la coordination des efforts de tous les régulateurs des données numériques et algorithmiques. En effet, les entreprises qui vendent en France un service numérique, que les Français utilisent chaque jour, ne sont pas toutes basées en France. Les trafiquants d’influence, d’armes, de contenus illégaux de toutes sortes ne s’embarrassent pas non plus des frontières. Comme le disait très justement le juge à la Cour européenne des droits de l’Homme, M. André Potocki, l’avenir est dans cette coordination ; et à l’échelle européenne, le Conseil de l’Europe permet d’avoir une vision d’ensemble pour adopter une position commune.

Que ce colloque ait eu lieu ici, au Palais du Luxembourg, n’est bien sûr pas anodin. En effet, le Sénat est le lieu où sont représentés les territoires et leurs élus, avec de solides ancrages locaux. Mais aujourd’hui, de nouvelles menaces sont rendues possibles par la vitesse à laquelle l’information circule. Elles concernent très directement chacun de nos territoires, chacun de nos élus, chacun de nos citoyens ; en bref, chacun d’entre nous. Le Sénat se doit d’apporter sa pierre à l’édifice des mesures visant à lutter contre les fake news, la cybercriminalité, le cyber-terrorisme, tout en garantissant le respect des droits de l’Homme. J’espère que ce colloque aura permis à ceux qui étaient venus ici sans attente précise de mieux cerner les contours de ces nouvelles menaces. J’espère aussi que ceux qui s’interrogeaient sur une question précise, et dont le travail au quotidien touche directement à la régulation des données, ont trouvé les réponses qu’ils attendaient de la part des spécialistes de grande qualité réunis autour de cette table.

Notre première table ronde était consacrée aux droits numériques des citoyens comme nouvelle frontière des droits de l’Homme et de l’action du Conseil de l’Europe.

Elle s’est demandée : « Jusqu’où le droit peut-il aller dans la vie privée du citoyen ? » et « Quel est le meilleur échelon pour traiter ce droit nouveau : la France ou l’Europe ? »

Aujourd’hui, nous éprouvons les limites de l’échelon français puisque les problèmes auxquels sont confrontés les citoyens dans les usages numériques sont d’ampleur mondiale. La présentation des efforts réalisés par la France à ce sujet a été assurée par mon collègue André Gattolin et Mme Marie-Laure Denis, présidente de la CNIL, auprès de laquelle le volume de requêtes est en constante augmentation, ayant récemment atteint 12 000. Ces interventions ont été largement complétées par M. Jean-Philippe Walter, Commissaire à la protection des données du Conseil de l’Europe, qui nous a expliqué le travail de l’institution en la matière. M. André Potocki, juge à la Cour européenne des droits de l’Homme, nous a offert un tour d’horizon très complet de la jurisprudence, depuis l’arrêt « Times contre Royaume-Uni », de 2009, qui reconnaît que le principe général de liberté d’expression s’applique aussi à Internet. Le principe de proportionnalité comme guide de l’action a été affirmé. Il faut aussi en retenir que l’action du juge doit être conjuguée à celle du parlementaire.

La deuxième table ronde a porté sur les réponses apportées aux fake news. Ces dernières posent en effet problème dans le cadre de la liberté d’expression et de la liberté de la presse puisque le caractère viral d’une information repose de moins en moins sur sa véracité et son caractère vérifiable. Le législateur est parfois mis face à un paradoxe, puisque son action peut rapidement ouvrir la porte aux théories du complot, et à la défiance face à l’idée de « vérité officielle », de « pensée unique ».

M. Patrick Chaize, président du groupe d’études Numérique du Sénat, a mis l’accent sur l’ambivalence de l’information sur Internet, partie essentielle du processus démocratique et, simultanément, danger pour la démocratie. Qu’elles soient de nature publicitaire, commerciale, ou même électorale, les fake news perturbent l’exercice de la décision du consommateur, de l’usager, du citoyen. Il a rappelé les résolutions adoptées par l’APCE depuis 2014, et les motifs légitimes pour lesquels le Sénat a rejeté le texte sur les fake news, qu’il jugeait imprécis et dangereux pour les libertés individuelles.

M. Thomas Schneider, président du Comité directeur sur les médias et la société d’information au Conseil de l’Europe, a rappelé que les experts n’apprécient pas l’expression globale « fausse information », en distinguant trois formes : la fausse information, sans intention de nuire ; la désinformation, qui cherche à nuire ; et l’information malveillante, vraie mais cherchant également à nuire. Il a rappelé la déclaration du Comité des Ministres de février 2019, qui insiste sur la nécessité d’une base financière saine pour les médias si l’on ne veut pas qu’ils se tournent vers des financements liés au « buzz » et donc à la désinformation potentielle.

M. Camille Grenier, chargé de mission information et démocratie à Reporters sans frontières, a tenu à distinguer quatre grands défis : le financement, la régulation, l’autorégulation et la définition de l’espace public numérique.

Mme Divina Frau-Meigs, professeure et sociologue des médias à l’Université Sorbonne Nouvelle, nous a présenté plusieurs points de vue : celui de membre du groupe d’experts européen sur l’éducation aux médias, celui du groupe d’experts sur la désinformation et celui du groupe « éducation à l’information » de l’UNESCO, en soulignant le caractère difficile de la recherche dans le domaine. Elle a toutefois terminé sur une perspective optimiste, en considérant que ces menaces sur la démocratie ont mis à jour le besoin de l’intégrité de l’information et le besoin de mieux éduquer aux usages numériques.

Enfin, la troisième table ronde a traité de la lutte contre les discours de haine, la cybercriminalité et le cyber-terrorisme, qui sont des manifestations extrêmes des libertés extrêmes laissées aux citoyens sur Internet.

M. Jan Kleijssen, directeur « société de l’information - lutte contre la criminalité » au Conseil de l’Europe, nous a exposé les travaux du Conseil.

M. Olivier Becht, député du Haut-Rhin, vice-président de la délégation française de l’APCE et rapporteur général sur l’évaluation de l’impact de la science et de la technologie à la commission de la culture, de la science, de l’éducation et des médias de la même APCE, a également permis une meilleure compréhension de ce qu’est l’avenir de la démocratie à l’heure numérique.

M. Jean-Paul Lehners, président de la Commission européenne contre le racisme et l’intolérance, a distingué les différentes difficultés dans le traitement de l’information reçue.

M. Andrea Cairola, spécialiste du programme « section pour la liberté d’expression » au sein du secteur de la communication et de l’information de l’UNESCO, nous a permis de mieux comprendre les enjeux liés à la manière dont l’information circule.

Mme Béatrice Oeuvrard, manager chargée des affaires publiques de Facebook France, a permis d’avoir un point de vue très important, en tant que représentante du travail des GAFAM sur les usages et la notion de citoyenneté numérique, en défendant ces services qui aujourd’hui, ne le cachons pas, nous sont à tous d’une très grande utilité !

À court terme, le Sénat va discuter la proposition de loi Avia en séance publique au mois de décembre et doit prendre en compte cette double exigence de protection des données et d’encouragement de l’économie, et intégrer les préoccupations spécifiques de nos territoires et de nos élus. Il nous reste à traduire par le droit ces préoccupations, en ne laissant pas Google, Facebook, Amazon, Apple ou Microsoft remplacer la loi par le code informatique, et sans pour autant brider le potentiel incroyable de nos entreprises et de nos jeunes. Comme vous vous en doutez, c’est tout un programme !

Je voudrais en conclusion vous faire part de quelques idées fortes que je retire de nos échanges.

D’abord, pour reprendre l’analyse de Thomas Schneider ce matin, chaque nouveau média présente un caractère déstabilisant et chaque rupture technologique présente à la fois un potentiel de démocratisation et de manipulation, un risque aussi de fragmentation de la société.

On voit qu’au travers des questions abordées, c’est bien la cohésion de nos sociétés qui est en jeu. Divina Frau-Meigs a évoqué la société numérique. Mais l’enjeu est bien au fond de continuer à « former société », et non d’être simplement une collection de groupes d’individus.

J’ai bien retenu les propos tenus ce matin sur la rapidité des évolutions des usages numériques, des plateformes, et des conséquences qui en découlent, notamment dans la perception qu’a la jeunesse, mais aussi les exclus d’Internet, de nos valeurs fondamentales.

Au travers des différents débats que nous avons eus, je crois que ce colloque permet de confirmer une prise de conscience partagée des déstabilisations en cours et la quête d’un nouvel équilibre qui nous interroge tous, parlementaires, juristes, acteurs économiques.

Quand on cherche un nouvel équilibre, il faut avoir des fondamentaux, un cap. Nous avons évoqué les enjeux des médias et c’est à la présidente du Huffington Post, Ariana Huffington, que je voudrais emprunter ces mots : « Quand nous devenons hyper-connectés avec les technologies et déconnectés de nous-mêmes, nous perdons la trace de notre sagesse, de notre bienêtre et de notre volonté ».

Au Conseil de l’Europe, nous avons un cap : ce sont les valeurs que nous avons en partage, auxquelles nous devons nous reconnecter ! Et nous avons la chance de pouvoir faire partager ces valeurs au travers des instruments internationaux que nous portons, comme la convention 108 ou la convention de Budapest sur la cybercriminalité.

Nous avons besoin d’échanger pour partager et pour ne pas laisser les plateformes seules face à des défis qui les dépassent en partie : Mme Oeuvrard, j’ai entendu votre appel ! Le Conseil de l’Europe est une structure adaptée dans cette perspective.

J’en retire aussi une conviction, un impératif pour nous les parlementaires qui sommes en quête de nouveaux équilibres : c’est la nécessité pour le Parlement d’évaluer la qualité de la réponse législative ou réglementaire.

Le Parlement n’est pas seulement « législateur » : il a aussi une mission de contrôle et d’évaluation des politiques publiques qui est essentielle, en particulier dans un contexte aussi novateur et déstabilisant que le numérique.

Le but, il est clair, cher Jan Kleijssen : c’est de conjurer la perspective d’être ramenés au rang de « poissons rouges » ! Et pour cela, au-delà des régulations ou modes d’autorégulation, l’éducation jouera un rôle majeur. C’est une conviction qui a été largement partagée aujourd’hui et qui doit nous guider. C’est notre « responsabilité sociétale et humaine » !

Je tiens à remercier et féliciter encore une fois tous nos intervenants pour leurs exposés et leurs réponses aux nombreuses questions que vous avez posées.