Accueil > Travaux en séance > Les comptes rendus > Les comptes rendus de la session > Compte rendu intégral

Afficher en plus grand
Afficher en plus petit
Edition J.O. - débats de la séance
Articles, amendements, annexes

Assemblée nationale
XVe législature
Session extraordinaire de 2018-2019

Compte rendu
intégral

Deuxième séance du jeudi 04 juillet 2019

SOMMAIRE

Présidence de M. Marc Le Fur

1. Haine sur internet

Discussion des articles (suite)

Article 1er (suite)

Amendement no 286

Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République

Mme Nicole Belloubet, garde des sceaux, ministre de la justice

Amendements nos 308 , 361 , 325 , 255 , 217 , 338 , 236 rectifié , 296 , 147 , 130

Après l’article 1er

Amendement no 175 rectifié

Après l’article 6 (amendements appelés par priorité)

Amendement no 302

M. Cédric O, secrétaire d’État chargé du numérique

Amendement no 88

Article 1er bis

M. Philippe Latombe

M. Jean-Michel Mis

Amendements nos 89 , 148 , 163 , 170, 169 , 340 , 67 , 362 , 134

Après l’article 1er bis

Amendements nos 297 rectifié , 113 , 216 , 333 , 382, 383, 384 (sous-amendements) , 68, 69 , 354

Article 1er ter

M. Philippe Latombe

Mme Caroline Abadie

Mme Frédérique Dumas

Amendement no 150

Après l’article 1er ter

Amendement no 186

Article 2

M. Philippe Latombe

M. Guillaume Vuilletet

Mme Danièle Obono

Amendements nos 298 , 319 , 151 , 239 , 311 rectifié , 195 , 337 , 380 (sous-amendement) , 348, 326 , 240 , 312 , 128 , 220 , 321 , 344 , 313 , 282 rectifié , 314 , 315 , 341 , 63 , 135, 136 , 285 , 349 , 381 (sous-amendement) , 232

Article 3

M. Raphaël Gérard

Mme Géraldine Bannier

M. Philippe Latombe

M. Cédric O, secrétaire d’État

Amendements nos 70 , 365 , 241 , 213 , 242 , 306 , 218 , 80 , 138 , 316 , 366 , 320 rectifié , 323 , 350 , 179 , 287 , 210 , 74 , 300 , 367 , 283 , 299 , 368 rectifié , 385 (sous-amendement) , 73 , 37 , 262 , 118 , 370 , 317 , 342 , 279 , 95 , 211 , 369 , 90

Après l’article 3

Amendement no 355

Article 3 bis

Amendements nos 256 , 257

Article 4

Mme Frédérique Dumas

Mme George Pau-Langevin

Mme Céline Calvez

Amendements nos 187 , 280 , 36 , 71 , 62 , 248 , 209, 212 , 178 , 371 , 318 , 274 , 66 , 244 , 335 , 119 , 77 , 288 , 281 , 64 , 334 , 293 , 245 , 81

Article 6

Amendements nos 301 , 303 , 184 , 246 , 258 , 356

2. Ordre du jour de la prochaine séance

Présidence de M. Marc Le Fur

vice-président

M. le président. La séance est ouverte.

(La séance est ouverte à quinze heures.)

1

Haine sur internet

Suite de la discussion d’une proposition de loi

M. le président. L’ordre du jour appelle la suite de la discussion de la proposition de loi de Mme Laetitia Avia et plusieurs de ses collègues visant à lutter contre la haine sur internet (nos 1785, 2062, 1989).

Discussion des articles (suite)

M. le président. Hier soir, l’Assemblée a poursuivi la discussion des articles de la proposition de loi, s’arrêtant à l’amendement no 286 à l’article 1er.

Article 1er (suite)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 286.

Mme Laure de La Raudière. Nous reprenons l’examen de ce texte dont, depuis le début, on nous dit qu’il ne concerne que les contenus manifestement illicites. Or, autant l’alinéa 3 vise bien « tout contenu contrevenant manifestement aux cinquième, septième et huitième alinéas de l’article 24 de la loi du 29 juillet 1881 sur  la liberté de la presse » ainsi qu’à certains articles du code pénal, autant l’alinéa 4 ne vise pas les contenus manifestement illicites.

Je propose donc, au travers de cet amendement, de préciser que ce sont les contenus manifestement illicites, et seulement eux, qui sont visés par la proposition de loi, comme nous en avons débattu hier soir. Notre assemblée a en effet refusé, comme vous l’avez dit, d’inclure les contenus dits « gris ». Il s’agit donc seulement d’une précision : les choses sont toujours plus claires quand elles sont exprimées de façon précise.

 

M. le président. La parole est à Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République, pour donner l’avis de la commission.

Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République. Chère collègue, je partage pleinement votre objectif ; c’est pourquoi j’ai déposé un amendement, no 308, qui tend à corriger la rédaction du vôtre. La difficulté à laquelle se heurte votre amendement est qu’il vise tous les contenus « manifestement »  illicites. En elle-même, la solution est meilleure, mais elle est imparfaite au regard du texte dans son ensemble, qui ne vise que les « contenus illicites ». L’alinéa 3 de l’article 1er vise en effet une certaine catégorie de contenus manifestement illicites, mais pas tous. Par conséquent, si nous ajoutons le mot « manifestement » à toutes les occurrences ici concernées, la conformité avec  l’alinéa 4 ne sera plus assurée.

L’amendement no 308 me permettra d’apporter une correction qui ne vise que les contenus mentionnés à l’alinéa 3. Aussi je vous demande de retirer l’amendement ; à défaut, l’avis serait défavorable.

 

M. le président. La parole est à Mme la garde des sceaux, ministre de la justice, pour donner l’avis du Gouvernement.

Mme Nicole Belloubet, garde des sceaux, ministre de la justice. Même avis.

M. le président. La parole est à M. Frédéric Reiss.

M. Frédéric Reiss. Hier soir, nous avons discuté de ces zones grises, ainsi que de la viralité des contenus, ce qui a donné lieu à un débat tout à fait intéressant. Même si je n’ai pas déposé d’amendement à cet endroit du texte, je me suis interrogé, lors de la discussion générale, sur l’éventuelle absence d’un chaînon manquant. Si le texte traite en effet des contenus manifestement illicites, un doute subsiste quant à la suppression de contenus seulement présumés tels.

Si la saisine du juge judiciaire sera possible, le problème dont nous parlons, nous le savons bien, requiert une grande réactivité, et le temps judiciaire n’offre pas forcément l’immédiateté dont on a besoin en la matière.

 

J’avais donc, au cours de la discussion générale, indiqué qu’il aurait peut-être été opportun d’avoir à consulter une sorte d’autorité, laquelle serait évidemment en charge des plateformes, tout en jouissant d’une certaine indépendance.

 

Je sais que le problème n’est pas simple du tout, mais une telle solution permettrait sans doute de progresser sur ces sujets et d’y apporter des réponses. L’idéal serait une recommandation rapide fondée sur le droit applicable : les médias sociaux ne seraient ainsi plus seuls à décider, avec le risque que cela comporte par rapport à  des remises en cause de la liberté d’expression.

 

M. le président. Madame de La Raudière, l’amendement est-il retiré ou maintenu ?

Mme Laure de La Raudière. Il est maintenu.

(L’amendement no 286 n’est pas adopté.)

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour soutenir l’amendement no 308.

Mme Laetitia Avia. Je viens de le défendre : il est rédactionnel.

Mme Laure de La Raudière. Il est plus que cela…

Mme Laetitia Avia, rapporteure. Je l’ai défendu à l’instant.

(L’amendement no 308, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 361.

Mme Frédérique Dumas. Cet amendement, qui satisfait l’avis du Conseil d’État s’agissant de la durée de conservation des données afin de permettre aux enquêtes pénales d’avoir lieu en cas de saisine de la justice, tend à assurer la conservation, pendant une période d’un an, des contenus illicites qui ont été supprimés.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Une question se pose en effet, chère collègue, à propos du délai de conservation des données aux fins de poursuite : à cette seule fin, je le précise, puisque, en effet, l’idée est bien que la suppression de certains contenus ne fasse pas obstacle à ce qui, in fine, est l’objectif impérieux de cette lutte, à savoir la poursuite des auteurs.

Dans son avis, le Conseil d’État a en effet indiqué que des précisions relatives au délai de conservation des données étaient nécessaires. Si la commission a donné un avis défavorable à votre amendement, il me semble, à titre personnel, qu’il nous faut avancer en la matière. À titre personnel, l’avis est donc favorable.

 

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Il est également favorable sur le principe, sous réserve, peut-être, de rectifications rédactionnelles mineures au cours de la navette.

Mme Laure de La Raudière. Très bien !

M. le président. La parole est à M. Claude Goasguen.

M. Claude Goasguen. Madame la garde des sceaux, ne prenez-vous pas des responsabilités énormes avec ce délai d’un an ?

Mme Nicole Belloubet, garde des sceaux. Énormes. (Sourires.)

M. Claude Goasguen. Pensez-vous en effet que ce délai sera tenable et qu’il ne sera pas dépassé ? En l’état actuel des procédures pénales, en effet, un an, ça me paraît très court. Quoi qu’il en soit, c’est vous qui en serez responsable : amusez-vous bien…

(L’amendement no 361 est adopté.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 325.

Mme Laure de La Raudière. Il s’agit simplement d’un amendement de correction. L’alinéa 5 est redondant avec l’alinéa 6, que nous avons inséré en commission. L’objet de ces deux alinéas est le même, seule la rédaction diffère.

Compte tenu de l’insertion de l’alinéa 6 en commission, j’ai jugé préférable de supprimer l’alinéa 5. Or, visiblement, l’amendement no 296 du Gouvernement privilégie la rédaction de l’alinéa 6 sur celle de l’alinéa 5. Je ne vois vraiment pas pourquoi, mais sans doute Mme la ministre, avec les compétences juridiques qui sont les siennes, pourra-t-elle m’éclairer.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. En effet, l’alinéa 5 et l’alinéa 6 font doublon. Votre amendement propose, chère collègue, de supprimer le premier. Je suis davantage favorable à la rédaction proposée par le Gouvernement dans son amendement no 296, qui maintient l’alinéa 5 et supprime l’alinéa 6 : elle me paraît ainsi plus claire. L’avis est donc défavorable sur l’amendement no 325. 

Mme Laure de La Raudière. C’est vous qui avez inséré l’alinéa 6 en commission !

Mme Laetitia Avia, rapporteure. En effet, la densité des travaux en commission a conduit à quelques difficultés pour la bonne rédaction du texte : heureusement que l’examen en séance est là pour y remédier, afin que cette rédaction soit la plus propre possible.

M. Erwan Balanant. Bravo !

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Je partage l’avis de Mme la rapporteure : il y a effectivement redondance entre les alinéas 5 et 6. Vous proposez, madame la députée, de supprimer l’alinéa 5 ; je propose, pour ma part, de supprimer l’alinéa 6.

Si je préfère ma solution à la vôtre, ce n’est pas par volonté de l’emporter à tout prix, mais tout simplement parce que l’alinéa 5 énonce clairement les peines dont il est question, alors que l’alinéa 6 ne fait qu’y renvoyer. C’est la raison pour laquelle je préfère la solution que le Gouvernement va proposer dans un instant.

 

(L’amendement no 325 est retiré.)

M. le président. La parole est à Mme Aurore Bergé, pour soutenir l’amendement no 255.

Mme Aurore Bergé. Les acteurs visés par les dispositions actuelles de la proposition de loi sont englobés sous l’appellation générique de « plateformes » : cette dénomination a, au-delà de la question de la haine en ligne, des effets juridiques structurants sur la régulation des contenus.

Le renvoi des sanctions prévues à l’article 6-2 à l’article 1 du VI de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dite « LCEN », qui vise, quant à lui, d’autres catégories d’acteurs ainsi que d’autres obligations, ne paraît pas justifié.

 

L’amendement vise à corriger cette situation en prévoyant directement, à l’article 6-2, une sanction spécifique renforcée à l’égard des opérateurs de plateformes en ligne.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’objectif de cet alinéa est bien de greffer le texte au régime général classique des sanctions, non de créer de nouvelles obligations. Il tend en effet à punir les plateformes qui auraient commis le nouveau délit que nous créons de la sanction pénale d’ores et déjà prévue par la LCEN.

M. Claude Goasguen. Très bien !

Mme Laetitia Avia, rapporteure. Il ne s’agit donc pas de créer une nouvelle sanction, mais bien de se greffer sur celles qui existent déjà. L’objectif est également, en regroupant toutes ces sanctions au même endroit du texte, d’améliorer la lisibilité du texte. Je suggère donc le retrait de l’amendement ; à défaut, avis défavorable.

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Même avis.

M. le président. Madame Bergé, l’amendement est-il retiré ou maintenu ?

Mme Aurore Bergé. Je le maintiens.

(L’amendement no 255 n’est pas adopté.)

M. le président. Je suis saisi de deux amendements identiques, nos 217 et 338.

La parole est à M. Erwan Balanant, pour soutenir l’amendement no 217.

M. Erwan Balanant. Il tend à habiliter les associations de lutte contre les discriminations, telles qu’elles sont mentionnées dans la loi de 1881 sur la liberté de la presse, à exercer les droits reconnus à la partie civile s’agissant du nouveau délit de refus de retrait d’un contenu manifestement haineux.

La constitution de partie civile permet à la personne qui en bénéficie d’avoir accès au dossier de la procédure et lui confère plusieurs droits au cours de l’instruction comme lors de la phase de jugement. Cette disposition sera de nature à renforcer l’effectivité de l’obligation de retrait en vingt-quatre heures des contenus manifestement haineux.

 

M. le président. L’amendement identique no 338 de Mme Caroline Abadie est défendu.

Quel est l’avis de la commission ?

 

Mme Laetitia Avia, rapporteure. En effet, la loi de 1881 permet à un certain nombre d’associations de se constituer partie civile et, ce faisant, de mieux assurer la protection des droits des personnes victimes notamment de haine, de discriminations et d’incitations à la violence.

Dans le cadre de ce nouveau délit, il paraît tout à fait justifié de donner cette même capacité aux associations, dans le cadre des actions qui seront engagées à l’encontre des plateformes. L’avis de la commission est donc favorable.

 

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Il est également favorable.

M. Claude Goasguen. Vous rendez-vous compte du surcroît de travail induit ?

M. le président. La parole est à M. Claude Goasguen.

M. Claude Goasguen. Dans la mesure où les dispositions actuelles sont tout de même fondées sur la rapidité d’exécution, ce qui n’enlève rien à la justice, je me tourne vers Mme la garde des sceaux, qui en l’occurrence prend tous les risques.

Vous rendez-vous compte, madame la garde des sceaux, de la procédure dans laquelle vous entrez ? On connaît en effet celle qui s’applique pour la loi de 1881 ; si vous y ajoutez celle-là, vous n’êtes pas sortie de l’auberge…

 

Je vous appelle tout de même à un peu plus de tempérance, d’autant plus que je ne suis pas sûr qu’une telle procédure améliore les choses : on sera en effet confronté à des conflits juridiques permanents. Toute association qui se sentira concernée ira devant le tribunal : c’est logique. Or, dans la mesure où ce cas se présentera des milliers de fois, la surcharge, pour les tribunaux, sera bien supérieure encore à celle induite par la loi de 1881.

 

Cela étant, si vous vous sentez capable de l’assumer, ma foi, je vous félicite.

 

M. le président. La parole est à Mme la garde des sceaux.

Mme Nicole Belloubet, garde des sceaux. J’ai parfaitement conscience de ce surcroît de travail, monsieur le député. Merci de vous en soucier. Je rappelle cependant qu’il est question ici d’un délit de non-retrait de contenu, non d’une contestation sur le contenu.

M. Claude Goasguen. Je le sais bien, mais des associations viendront forcément contester les décisions prises !

(Les amendements identiques nos 217 et 338 sont adoptés.)

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 236 rectifié.

M. Stéphane Peu. Le présent amendement se veut un amendement d’équilibre entre les sanctions. Il vise à nous prémunir contre le risque de surcensure, tel qu’il résulte par exemple de la loi allemande.

La proposition de loi prévoit de sanctionner l’éventuel non-retrait d’un contenu manifestement haineux. Elle tend également à sanctionner pénalement les notifications abusives ou malveillantes de contenus présentés comme illicites. En revanche, aucune sanction n’est prévue en cas de retrait abusif d’un contenu. Or, au vu de la responsabilité qui leur est confiée, les plateformes risquent de se protéger au maximum des sanctions. Le risque est donc grand de les voir ratisser large et de procéder au retrait de communications licites.

 

M. Claude Goasguen. C’est sûr !

M. Stéphane Peu. On l’a vu en Allemagne, le phénomène n’est pas marginal.

Pour que la proposition de loi soit équilibrée, sanctionnons donc également les surcensures manifestes qui interviendraient au nom de la mauvaise interprétation par les plateformes du principe de précaution.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il me semble nécessaire de revenir sur ces éléments en ce début de discussion. J’avais eu l’occasion d’évoquer hier les mécanismes d’équilibre proposés, mais je ne suis pas certaine d’avoir alors totalement répondu à votre interrogation.

Votre amendement, monsieur Peu, soulève une difficulté, dans la mesure où le délit de retrait abusif n’existe pas. La peine que vous proposez n’étant donc rattachée à aucun délit, elle serait entachée d’un défaut de légalité.

 

En revanche, le sujet que vous soulevez renvoie à une vraie problématique, sur laquelle j’ai particulièrement travaillé en rédigeant ce texte, précisément parce qu’il s’agit du travers que l’on a pu trouver à la loi allemande. Plusieurs dispositifs sont prévus pour y répondre.

 

En premier lieu, il importe de rappeler que, lorsqu’un contenu est retiré de manière abusive au regard des conditions générales d’utilisation – CGU –, la responsabilité contractuelle de la plateforme peut déjà être engagée. Ce message mérite d’être relayé auprès de nos concitoyens, et il convient de profiter de nos débats pour l’affirmer haut et fort : la responsabilité contractuelle des plateformes peut et doit être engagée lorsque ces dernières abusent de leurs prérogatives et censurent indûment des contenus.

 

En second lieu, la proposition de loi prévoit plusieurs garde-fous. Nous en débattrons ultérieurement, car nous proposons de nouveaux amendements sur ce sujet. Le premier est l’obligation de mobiliser des moyens, humains, technologiques et de procédure, pour empêcher tout retrait de contenus injustifié. Les plateformes devront ainsi mener tous les audits et vérifications requis pour s’assurer de l’absence de retraits abusifs.

 

Le deuxième garde-fou réside dans le pouvoir d’appréciation et de contrôle sur les conditions générales d’utilisation. Ces dernières restent des contrats de droit privé, mais elles pourront faire l’objet de vérifications sur deux aspects essentiels : leur caractère objectif et leur caractère non discriminatoire. Dès lors que le régulateur pourra s’assurer de la conformité des CGU à ces exigences et de leur caractère objectif et non discriminatoire, il pourra vérifier qu’aucun abus n’a été commis en application de leurs clauses.

 

Enfin, le texte proposé prévoit expressément que, dans le cadre de la procédure de sanction confiée au Conseil supérieur de l’audiovisuel – CSA –, ce dernier sanctionne les obligations de moyens, et, pour ce faire, apprécie le comportement des plateformes. Le CSA s’assurera donc de la conformité de ce comportement, qu’il soit insuffisant ou au contraire abusif en matière de retrait de contenus. La sanction proposée, qui peut atteindre 4 % du chiffre d’affaires de l’opérateur, s’appliquera donc également si une plateforme abuse de son droit et se rend coupable de surcensure.

 

Toute une panoplie d’éléments vise ainsi à mieux encadrer, à assurer cet équilibre que nous sommes les premiers à tenter d’atteindre, et à rester dans le cadre de la liberté d’expression tout en respectant la ligne de crête évoquée hier par M. le secrétaire d’État chargé du numérique.

 

Je tente donc la demande de retrait ; à défaut, l’avis serait défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Même avis. Nous avons abordé ce sujet hier soir, et avions renvoyé à la responsabilité contractuelle. Je rejoins donc la démonstration de Mme la rapporteure : retrait et, à défaut, avis défavorable.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Nous avons en effet abordé cette discussion hier soir et, à mes yeux, ne l’avons pas terminée.

Mme Laure de La Raudière. Exact !

M. Philippe Latombe. L’amendement proposé par M. Peu met en évidence le problème de temporalité auquel nous sommes confrontés. Nous faisons également face à des difficultés concernant les CGU, que nous avons évoquées hier. Le rôle du CSA est un troisième sujet.

S’agissant tout d’abord des CGU, vous renvoyez, madame la rapporteure, à la partie contractuelle. Je rappelle cependant qu’en 2016, la DGCCRF – Direction générale de la concurrence, de la consommation et de la répression des fraudes – contestait le pouvoir discrétionnaire que les plateformes s’étaient arrogé dans le cadre des CGU.

 

Il a même été dit, hier, que quelqu’un devrait s’occuper des CGU. Qui le fera ?

 

Mme Laetitia Avia, rapporteure. Je l’ai dit tout à l’heure !

M. Philippe Latombe. Mais comment procédera-t-on ?

La deuxième question est celle de la temporalité. Si un contenu est supprimé alors qu’il n’est pas manifestement illicite, vous renvoyez à une décision de justice. Or, on l’a rappelé, les procédures judiciaires prennent du temps. Un problème de temporalité se pose : si vous demandez le retrait immédiat en raison des effets potentiels des contenus diffusés, il faut aussi prévoir la possibilité de réparer les retraits abusifs selon une temporalité similaire, c’est-à-dire extraordinairement rapide.

 

Enfin, vous indiquez que le CSA disposera d’un pouvoir de sanction si l’obligation de moyens n’est pas respectée, si les plateformes ne retirent pas suffisamment de contenus, ou si elles en suppriment trop. Ce n’est pas ce qui est demandé ! Lorsqu’il y a un préjudice, sa réparation doit aussi porter sur l’action. Les signalements abusifs sont sanctionnés. Pourquoi les retraits abusifs ne le seraient-ils pas ?

 

Nous en revenons toujours à la discussion qui nous occupe depuis hier après-midi : nous avons un problème avec la ligne de crête que vous appelez de vos vœux. Vous pensez l’avoir trouvée ; nous ne sommes pas de cet avis. Nous estimons que le texte pose problème en matière de liberté d’expression, et qu’il convient de définir un mécanisme permettant de sanctionner les plateformes lorsqu’elles retirent du contenu gris sans qu’il soit manifestement illicite.

 

La séance d’hier soir s’était interrompue sur cette discussion, dont je constate qu’elle reprend aujourd’hui sur la base des mêmes arguments développés dans chaque camp, sans que nous parvenions à nous comprendre.

 

M. le président. L’amendement est maintenu, monsieur Peu ?

M. Stéphane Peu. Oui, monsieur le président.

M. le président. La parole est à M. Jean Terlier.

M. Jean Terlier. Nous avons effectivement eu cette discussion hier soir, et il me semblait que Mme la ministre et Mme la rapporteure étaient intervenues assez clairement, pour rappeler qu’en la matière, le droit commun s’applique, mon cher confrère.

M. Thibault Bazin. Il n’y a pas de confrères, ici !

M. Jean Terlier. Aujourd’hui, si un contenu est retiré de manière abusive, la situation entre dans le cadre de la responsabilité contractuelle de droit commun. Si le retrait abusif cause préjudice à un tiers, celui-ci peut tout à fait saisir le juge des référés, lequel pourra alors, s’il constate ce caractère abusif, obliger les plateformes, par une injonction de faire, à rétablir ce contenu et les condamner à verser des dommages et intérêts.

Votre demande est donc déjà satisfaite, monsieur Latombe : il existe des mécanismes, y compris des mécanismes d’urgence pouvant être mobilisés dans le cadre de référés, qui permettent de traiter le problème soulevé.

 

M. le président. L’hémicycle n’est pas un prétoire, monsieur Terlier : nous sommes ici entre collègues, non entre confrères.

La parole est à M. Claude Goasguen.

M. Claude Goasguen. Je ne voudrais pas apparaître comme celui qui ne fait que pointer les difficultés. Difficile, ça le sera, car le nombre d’affaires montera rapidement en flèche. Sur le strict plan du droit, vous avez tout à fait raison. Cependant, le droit – vous le savez mieux que quiconque, madame la ministre – doit également être applicable.

C’est pourquoi j’insiste sur l’aspect pratique de cette proposition de loi, avec laquelle je suis en plein accord. Au vu de la multiplication des problèmes qui s’annonce – comme nous l’avons d’ailleurs observé en Allemagne –, serons-nous capables de tenir la distance pour rectifier, dans le sens du droit, les situations qui se présenteront ?

 

Il s’agit là d’une vraie question car, dans le cas contraire, nous serons face à un véritable problème juridique. Vous avez fait une loi fort intéressante, nous dira-t-on, mais on ne peut l’appliquer. Or, dans les milieux concernés, qui sont extrêmement réactifs et vivent de la liberté, cette dernière reprendra ses droits, quitte à se traduire par des outrances auxquelles nous ne pourrons pas remédier.

 

J’appelle donc à la prudence, même si, sur le plan juridique, je suis pleinement en accord avec vos propositions.

 

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. On voit bien que ce débat ne sera pas clos par nos discussions. Il constituera, en réalité, le sujet majeur des dix prochaines années.

Le problème de la proposition de loi réside dans son article 1er. Toutes les obligations de moyens et de coopération qui sont proposées par la suite vont en effet dans le sens de l’histoire. S’agissant de l’article 1er, au contraire, l’équilibre que vous recherchez ne sera jamais respecté. Or, s’il est important que la victime d’une infraction manifestement illicite puisse bénéficier d’un retrait rapide du contenu, la liberté d’expression doit être traitée avec la même exigence.

 

De fait, la décision rendue par un juge de droit commun pour assurer le respect de la liberté d’expression prendra beaucoup plus de temps que le délai prévu pour retirer des contenus. Il y a donc un problème ! L’équilibre juridique ne sera pas assuré.

 

Le véritable enjeu réside dans les obligations de moyens et les autres avancées, importantes, apportées par la proposition de loi. Il conviendra également d’analyser ce qu’elle implique pour les modèles économiques, la viralité, la transparence et l’ordonnancement – nous y reviendrons.

 

M. le président. La parole est à M. Stéphane Peu.

M. Stéphane Peu. C’est sur cette notion de ligne de crête que nos avis divergent. Entre la création d’un délit pour non-retrait de propos illicites et l’absence de sanction pour retrait abusif, mon amendement se voulait d’équilibre.

M. Claude Goasguen. Nous sommes d’accord sur ce point.

M. Stéphane Peu. Je crains que la ligne de crête, telle que vous la définissez, ne soit praticable que par un dahu. (Sourires.)

M. Erwan Balanant. Mais le dahu est équilibré, c’est déjà quelque chose !

M. Stéphane Peu. Si l’on crée un délit pour non-retrait de contenu, il faut créer, au nom de l’équilibre, un délit de retrait abusif, eu égard à la protection de la liberté d’expression. Sinon, la loi sera totalement déséquilibrée.

Tel était le sens de l’amendement que je propose : vous ne pouvez pas nous renvoyer aux simples relations contractuelles avec les plateformes s’agissant de la liberté d’expression, quand la proposition de loi crée, par ailleurs, un nouveau délit.

 

(L’amendement no 236 rectifié n’est pas adopté.)

M. le président. L’amendement no 296 du Gouvernement est rédactionnel.

Quel est l’avis de la commission ?

 

Mme Laetitia Avia, rapporteure. Favorable.

M. Thibault Bazin. Monsieur le président !

M. le président. La parole est à M. Thibault Bazin.

M. Thibault Bazin. L’adoption de l’amendement no 296 ferait tomber les amendements suivants, ce qui nous empêcherait d’évoquer plusieurs questions légitimes.

Je songe notamment à celle des sanctions prévues en cas de non-respect des dispositions et à la nécessité de s’assurer que ces sanctions seront suffisantes au regard du poids financier des acteurs concernés. Les montants retenus doivent être suffisamment dissuasifs, dans un sens comme dans l’autre – pour reprendre l’échange légitime que nous avons eu avec notre collègue Peu.

 

Un rapport rendu en septembre 2018 préconisait d’ailleurs des sanctions plus élevées. Il me semble que c’est là un point dont nous devons débattre, madame la ministre.

 

M. le président. La parole est à Mme la rapporteure.

Mme Laetitia Avia, rapporteure. Pour répondre à l’interpellation de M. Bazin, dans le rapport que nous avions remis, Gil Taieb, Karim Amellal et moi, nous prévoyions en effet une sanction de 37,5 millions d’euros,…

M. Thibault Bazin. C’est ce que je propose à travers mon amendement.

Mme Laetitia Avia, rapporteure. …mais il s’agissait d’une sanction administrative. Cette sanction administrative, nous l’évoquerons à l’article 4 : nous avons prévu qu’elle se monte à 4 % du chiffre d’affaires mondial.

(L’amendement no 296 est adopté et l’amendement no 122 tombe.)

M. le président. L’amendement no 147 de Mme Emmanuelle Ménard est défendu.

(L’amendement no 147, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Sur l’article 1er, je suis saisi par le groupe La République en marche d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

La parole est à M. Erwan Balanant, pour soutenir l’amendement no 130.

 

M. Erwan Balanant. J’ai présenté hier un amendement presque identique, mais, dans la mesure où certaines personnes n’étaient pas dans l’hémicycle quand je l’ai fait, je vais refaire le match. (Sourires.)

En commission, pensant bien faire, on a étendu le champ des contenus illicites visés aux discriminations fondées sur l’identité de genre. Je pense, pour ma part, que si nous avons bien fait, nous n’avons pas fait assez bien. En effet, la convention d’Istanbul, que nous avons ratifiée, distingue identité de genre et sexe. Si nous voulons que ce texte soit en cohérence avec elle, il faut remplacer les mots « orientation ou identité sexuelle » par les mots « genre, de leur orientation sexuelle, de leur identité de genre ». Tel est l’objet de cet amendement.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable : nous avons déjà eu cette discussion hier.

M. Erwan Balanant. Et que faites-vous de la convention ?

(L’amendement no 130, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. Je mets aux voix l’article 1er, tel qu’il a été amendé.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        41

        Nombre de suffrages exprimés                37

        Majorité absolue                        19

                Pour l’adoption                31

                Contre                6

(L’article 1er, amendé, est adopté.)

Après l’article 1er

M. le président. Je suis saisi d’un amendement no 175 rectifié, portant article additionnel après l’article 1er.

La parole est à M. Frédéric Reiss, pour le soutenir.

M. Frédéric Reiss. Cet article additionnel, qui serait ainsi rédigé : « La présente loi vise à lutter contre la diffusion de contenus haineux en ligne tout en s’inscrivant dans le respect des droits de l’homme », j’aurais voulu qu’il soit inséré au tout début du texte. Toutefois, le service de la séance m’ayant expliqué qu’il n’était pas possible de déposer un tel amendement avant l’article 1er, nous ne l’examinons que maintenant, alors que nous avons déjà eu, dans le cadre de l’examen de l’article 1er, une discussion sur ces questions.

J’aurais tout particulièrement souhaité faire référence à la Déclaration universelle des droits de l’homme, laquelle affirme que « tout individu a droit à la liberté d’opinion et d’expression », étant entendu qu’on ne peut pour autant accepter le déferlement de haine auquel on assiste sur les réseaux sociaux. Il s’agissait donc de rédiger une sorte de chapeau pour le texte de loi.  Très bien ! » sur les bancs du groupe LR.)

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je comprends, cher collègue, le sens de votre amendement, qui vise à rappeler les principes sur lesquels se fondent les dispositions prévues dans la proposition de loi, à savoir la protection des utilisateurs de l’internet dans le respect de leurs droits fondamentaux ; mais il fait problème dans la mesure où il arrive après l’article 1er et se contente de poser un principe, sans avoir aucune portée normative. Il aurait fallu affirmer ce principe dans l’exposé des motifs. Ce ne sera pas le cas. Néanmoins, il est bon que nous le fassions dans l’hémicycle, de sorte que cela soit consigné dans le compte rendu des débats.

S’agissant de l’amendement lui-même, je vous suggère, faisant en cela appel à votre conscience (Sourires), de le retirer ; à défaut, l’avis serait défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Même avis.

M. le président. La parole est à M. Frédéric Reiss.

M. Frédéric Reiss. Par suite des explications qui viennent d’être données, je retire l’amendement. Je suis conscient que, portant article additionnel après l’article 1er, il arrive un peu comme un cheveu sur la soupe.

(L’amendement no 175 rectifié est retiré.)

Après l’article 6 (amendements appelés par priorité)

M. le président. Mes chers collègues, je vous rappelle qu’à la demande du Gouvernement, nous examinons par priorité les amendements nos 302 et 88, portant article additionnel après l’article 6.

 La parole est à Mme la garde des sceaux, pour soutenir l’amendement no 302.

Mme Nicole Belloubet, garde des sceaux. Mesdames et messieurs les députés, je prendrai un peu de temps pour présenter cet amendement qui vient, en quelque sorte, concrétiser l’édifice construit par Mme la rapporteure.

Ce que nous souhaitons, à travers cette politique publique de lutte contre les contenus haineux, c’est être très efficaces et nous doter de moyens qui traduisent véritablement la volonté du législateur. Nous voulons donc concevoir des moyens d’enquête et des moyens judiciaires efficaces, en vue de poursuivre et condamner les auteurs des infractions visées.

 

À cette fin, je propose – et Mme la rapporteure m’a beaucoup épaulée pour cela – de créer un parquet spécialisé qui assurerait au mieux la répression de ces infractions. Ce parquet, constitué de magistrats formés spécifiquement à cette fin et particulièrement compétents sur ces sujets parfois très complexes, disposerait d’une compétence concurrente pour intervenir sur ces dossiers. En l’état du droit, nous pouvons d’ores et déjà organiser une telle compétence concurrente pour les actes de cyberhaine publics, notamment les raids numériques, dans la mesure où ils relèvent de la loi de 1881 sur la liberté de la presse. Tel n’est pas le cas, en revanche, des actes de cyberhaine qui ne sont pas publics, par exemple ceux commis par l’intermédiaire d’une messagerie privée. C’est pourquoi le présent amendement tend à créer un cadre complet et sécurisé, organisé de la manière suivante.

 

Pour les contenus haineux publics, la jurisprudence constante de la Cour de cassation ouvre d’ores et déjà une possibilité de compétence concurrente nationale pour les infractions de presse prévues par la loi de 1881 lorsqu’elles sont commises sur internet. Le lieu de commission du délit qui détermine la compétence de la juridiction se situe en tout point du territoire où la publication du texte litigieux a été réalisée. Comme n’importe qui peut, en tout point du territoire, avoir accès aux contenus publics diffusés sur internet, tout parquet peut logiquement s’en saisir. En pratique, aujourd’hui, une juridiction parisienne – pour prendre cet exemple – peut d’ores et déjà décider de se déclarer compétente en matière de messages de haine diffusés sur internet, dans la mesure où tous les messages sont accessibles depuis Paris.

 

Pour concrétiser cette compétence concurrente nationale, je diffuserai une circulaire afin d’en rappeler l’existence à tous les parquets généraux, et ce dès l’adoption de cette proposition de loi. Je veillerai à ce que le parquet qui sera nationalement retenu pour exercer cette compétence concurrente dispose des effectifs suffisants en matière de magistrats et de greffiers pour faire face aux procédures. Cette circulaire, monsieur Goasguen, expliquera aussi comment ce parquet spécialisé devra articuler son action avec celle des parquets locaux – qu’il ne s’agit pas, en effet, de déposséder de toute attribution en ce domaine.

 

Le mécanisme sera le suivant : dès réception d’une plainte signalant des faits de cyberhaine, une enquête sera immédiatement diligentée sous l’autorité du parquet spécialisé, qui adressera les premières réquisitions aux opérateurs techniques d’internet dans le but d’identifier les auteurs visés par la plainte. À l’issue de ces investigations, deux hypothèses se présenteront.

 

S’il s’agit de faits isolés, dès lors qu’un auteur aura été identifié et localisé, on retiendra le critère de compétence qui s’attache à son domicile, afin de privilégier la dimension pédagogique de la réponse pénale. Il s’agira donc d’une réponse de proximité. Le parquet du lieu du domicile de l’auteur pourra ainsi aisément mettre en œuvre soit des mesures alternatives aux poursuites, pour les faits les moins graves, soit l’ordonnance pénale prévue par la loi de réforme pour la justice que vous venez d’adopter, si les faits paraissent plus graves. Le dessaisissement au profit du parquet du lieu de domicile de l’auteur favorisera la présence de ce dernier lors du jugement et du prononcé pédagogique de la sanction.

 

S’il s’agit de faits mettant en cause plusieurs individus, par exemple dans le cas de raids numériques discriminatoires, ou si, pour la même publication, plusieurs plaintes de victimes lui sont adressées, le tribunal de grande instance dont le parquet aura été spécialisé conservera sa compétence jusqu’au jugement. La désignation de cette juridiction unique spécialisée pour traiter ces affaires permettra d’assurer la cohérence de la réponse pénale et de la jurisprudence en la matière.

 

Autrement dit, le système que nous avons conçu permettra de conserver la proximité pour les incitations à la haine résultant d’un fait isolé, mais le parquet spécialisé pourra se saisir de l’affaire en cas de raids numériques.

 

Un mot, pour terminer, sur les contenus haineux non publics, par exemple dans le cadre d’échanges de textos ou de courriels. On ne s’inscrit pas, dans ce cas, dans le cadre de la loi de 1881 et la jurisprudence de la Cour de cassation permettant d’organiser la compétence concurrente d’un parquet spécialisé ne peut jouer. Il nous faut donc un texte spécifique. Tel est l’objet du présent amendement.

 

La question que nous nous sommes posée est la suivante : comment pouvons-nous organiser, de manière rationnelle, la remontée des dossiers vers ce parquet spécialisé sans provoquer une thrombose du système, laquelle conduirait au résultat inverse de celui recherché ? Nous avons opté pour une solution simple, celle de la plainte en ligne, qui, instituée par la loi de réforme pour la justice, verra le jour dans quelques mois, au premier semestre de 2020. Une personne qui portera plainte en ligne parce qu’elle aura été victime de messages haineux non publics verra sa plainte systématiquement traitée par le parquet spécialisé. Ce dernier opérera un tri, en bonne intelligence avec les parquets locaux : les dossiers qui mériteront d’être conservés par le parquet spécialisé le seront et ceux qui supposent un traitement local seront aiguillés vers le parquet local.

 

Organiser la remontée des dossiers pour toute forme de plainte risquerait d’être trop lourd et de paralyser le système. De plus, ce type de délit concernera plutôt des personnes qui sont ouvertes aux nouvelles technologies. C’est pourquoi nous avons retenu la compétence du parquet spécialisé sur la base d’une plainte en ligne. Que les choses soient claires : en toute hypothèse, il sera toujours possible, pour une personne qui ne saurait pas porter plainte en ligne, de se rendre dans un commissariat ou dans une gendarmerie pour le faire. Avec le ministre de l’intérieur, nous sensibiliserons les services enquêteurs à cette question afin qu’ils accompagnent les plaignants.

 

Nous avons ainsi construit, je crois, un système équilibré, en distinguant les contenus haineux publics et privés et, dans chaque cas de figure, en donnant la possibilité au parquet spécialisé de traiter les dossiers qui méritent de l’être à ce niveau-là.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je tiens à remercier Mme la garde des sceaux pour cet amendement qui complète le dispositif et répond à une réelle nécessité. Dans cette proposition de loi, on demande beaucoup aux plateformes, on les responsabilise. Mais les pouvoirs publics doivent aussi prendre leurs responsabilités car il n’est pas admissible que, in fine, ceux qui répandent la haine ne répondent pas de leurs actes face à un juge.

Nous connaissons bien trop de cas de dépôts de plaintes qui n’ont eu aucune conséquence ou même de personnes dissuadées de déposer plainte car les services, compte tenu de leur encombrement, ne considèrent pas une injure homophobe sur Facebook comme une priorité.

 

Il est donc important de créer un parquet numérique, lequel sera aussi le fer de lance de la politique pénale en la matière. Au-delà du symbole, il permettra aussi d’apporter des réponses concrètes à nos concitoyens pour que, chaque fois qu’ils feront l’objet de propos haineux sur internet, nous puissions en retrouver les auteurs, les poursuivre et les sanctionner.

 

Comme je vous le disais hier, nous sommes dans un cercle infernal : pas de plainte, pas d’enquête, pas de jugement. Il faut y remédier. Grâce à la création de la plainte en ligne, les plaintes seront plus nombreuses. Les enquêtes doivent aboutir – sur ce point, nous parlerons tout à l’heure de la coopération judiciaire. Il faut enfin prononcer des sanctions pour que davantage de personnes déposent plainte.

 

J’ajoute un dernier élément d’organisation proposé par Mme la ministre de la justice et qui me semble très important : le maintien de la possibilité d’un traitement local car certains faits de haine en ligne restent circonscrits à un territoire. Il faut donc s’assurer que la création de ce parquet ne représente pas non plus une contrainte supplémentaire pour les victimes. Chaque fois que celles-ci en auront besoin, soit parce que les circonstances de l’affaire l’exigent, soit parce qu’elles ont souhaité déposer plainte en ligne, elles auront accès au parquet numérique. Mais elles pourront toujours se rendre dans un commissariat de proximité pour que l’affaire soit traitée au niveau local, si telle est leur volonté. Tous ces commissariats disposeront bien sûr d’un moyen de saisir ce parquet numérique via le dépôt de plainte en ligne, qui sera accessible dans chacun d’eux.

 

Le mécanisme est donc solide, il répond à une réelle demande et à une vraie nécessité : je voulais le saluer. Avis très favorable, donc. (Applaudissements sur les bancs du groupe LaREM.  Mme Isabelle Florennes applaudit aussi.)

 

M. le président. La parole est à M. le secrétaire d’État chargé du numérique.

M. Cédric O, secrétaire d’État chargé du numérique. Je veux ajouter un point sur lequel je discutais en aparté avec Mme la garde des sceaux. Nous faisons un très grand pas vers le respect du droit des victimes. Il ne faut pas se mentir : des progrès restent aussi à faire dans notre société. Nous savons que, régulièrement, des personnes déclarent qu’elles sont victimes de cyberharcèlement à des proches qui leur répondent que ce n’est pas si grave. Il en va parfois de même lorsque les victimes s’adressent à un professeur, et aussi, malheureusement, lorsqu’elles se rendent dans un commissariat.

À travers la haine en ligne et en particulier le cyberharcèlement, nous sommes confrontés à un problème de santé publique et à une difficulté à « faire société », comme le montrent des histoires tragiques, telles que celle qui s’est produite la semaine dernière. Nous en avons discuté avec Mme la rapporteure et Mme la garde des sceaux, et nous en discutons aussi avec M. le ministre de l’intérieur et avec M. Adrien Taquet, secrétaire d’État chargé de la protection de l’enfance.

 

Des progrès restent à faire en matière d’éducation, de sensibilisation du personnel enseignant, des parents et des fonctionnaires de police. Peut-être faudrait-il aussi mener des campagnes de communication sur le sujet. Bref, nous ne sommes pas au bout de l’histoire : au-delà de tout ce que nous pourrons écrire ici, une prise de conscience collective est nécessaire. D’ailleurs, si la proposition de loi est utile, c’est aussi parce qu’elle inscrit le sujet à l’agenda politique et médiatique. Nous serons donc attentifs, pour la bonne application du droit, à son effectivité jusqu’au dernier kilomètre – pour reprendre une expression à la mode. (Applaudissements sur quelques bancs du groupe LaREM.)

 

M. le président. La parole est à M. Claude Goasguen.

M. Claude Goasguen. Je suis très favorable à cet amendement complexe qui, madame la garde des sceaux, a dû vous demander beaucoup de travail. En réalité, il concerne la procédure. Si celle-ci ne suit pas la loi sur le fond, la loi tombera. Vous le savez très bien, c’est de la procédure que dépendra le succès ou l’échec de la loi, laquelle fait l’unanimité sur nos bancs, à quelques exceptions près.

Le seul point qui me semble à revoir – mais il n’est pas de votre compétence – c’est la plainte en ligne, qui ne fonctionne pas. (Exclamations sur quelques bancs des groupe LaREM et MODEM.) La plainte en ligne, en général, dans les commissariats, n’est pas un grand succès. Mais cela dépend du ministre de l’intérieur, auquel vous ferez donc passer le message.

 

Mme Laetitia Avia, rapporteure et Mme Nicole Belloubet, garde des sceaux, ministre de la justice. La plainte en ligne n’existe pas encore !

M. Claude Goasguen. Si ! Vous pouvez déposer plainte en ligne dans n’importe quel commissariat.

M. Erwan Balanant. C’est la pré-plainte, pour l’instant !

M. le président. S’il vous plaît, mes chers collègues, seul M. Goasguen a la parole.

M. Claude Goasguen. Oui, la pré-plainte en ligne. C’est la même chose ! En revanche, je crains que vous n’ayez quelques difficultés à mettre en place la plainte en ligne dans les commissariats.

Je voterai sans problème pour cet amendement qui est une belle construction, sous réserve, peut-être, d’une clause de revoyure, dans un an ou deux, pour vérifier sa bonne application. Car c’est, je crois, la manière dont cette loi fonctionnera qui en fera la force. En tout cas, j’y suis très favorable.

 

M. le président. La parole est à M. Thibault Bazin.

M. Thibault Bazin. Madame la garde des sceaux, le dispositif que vous proposez est très intéressant, en particulier parce qu’il se préoccupe de la justice de proximité – un point qui nous avait opposés il y a quelques mois lors du débat sur la réforme que vous avez défendue. Vous avez parlé, à propos des auteurs des infractions, d’une nécessaire pédagogie.

Je pense aussi aux victimes, que vous avez évoquées. Un vrai problème d’accessibilité à cette justice de proximité se pose. Le parquet numérique doit être accessible à tous, dans tous les territoires. Certaines victimes de messages haineux n’ont qu’un accès difficile ou inexistant à internet.

 

M. Claude Goasguen. C’est le problème !

M. Thibault Bazin. Ce sont leurs proches qui découvrent ces messages, mais elles-mêmes n’y ont pas accès. Si, concrètement, elles s’adressent à des policiers ou à des gendarmes, il faut d’abord que ceux-ci aient accès aux réseaux sociaux, ce qui n’est pas si simple. Il faut ensuite qu’ils identifient les auteurs des messages, sinon la plainte sera très difficilement recevable. Et je ne vous parle pas du formulaire de plainte en ligne, destiné à caractériser la plainte, ce qui n’est pas si évident. Cela constitue un défi, surtout pour quelqu’un qui n’est pas habitué à ces outils. Je vous invite donc vraiment à rendre ce dispositif accessible à tous.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Nous nous félicitons, madame la ministre, de l’importante avancée que représente votre amendement. Comme M. le secrétaire d’État et vous-même l’avez dit, il envoie un signal fort sur les infractions dans le secteur numérique, sur le fait que celui-ci ne peut jouir d’aucune impunité par rapport au monde « physique ». Sur le plan sociologique, votre texte fait avancer le logiciel dont vous avez parlé.

Comme on l’a dit, chacun, sur l’ensemble du territoire, doit avoir accès au dispositif, afin d’éviter toute fracture à cet égard ; d’où l’intérêt de la clause de revoyure. Cela me conduit à rappeler deux aspects importants. Le premier est celui des moyens dévolus au dispositif : les moyens financiers, sur lesquels nous reviendrons peut-être dans le cadre du PLF – projet de loi de finances –, mais aussi les moyens humains, notamment pour la formation. La plupart du temps, en effet, le problème tient à l’insuffisance de la formation ou de la spécialisation des magistrats en la matière.

 

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. J’interviens parce qu’il me semble – vous me corrigerez si je me trompe, monsieur le président – que l’adoption de cet amendement ferait tomber le nôtre.

M. le président. Je m’étais posé la question. Non, il ne tomberait pas.

Mme Danièle Obono. Nous aurons donc l’occasion de revenir sur le nôtre…

M. le président. Si vous le voulez, vous pouvez donc renoncer à cette prise de parole… (Sourires.)

Mme Danièle Obono. J’en profiterai, si vous le permettez, pour compléter mon intervention, car j’ai beaucoup de choses à dire.

Pour le coup, j’irai dans le sens des interventions précédentes, car l’amendement que je présenterai juste après celui dont nous débattons tend, lui aussi, à créer une chambre spécialisée : non pas seulement un parquet, donc, mais aussi un tribunal de grande instance. La saisine des magistrats du siège, en plus de ceux du parquet, garantirait la prise en considération des droits de la défense.

 

Le présent amendement nous semble donc aller dans le bon sens, même si nous pouvons regretter qu’il n’arrive qu’après l’examen en commission : cela prouve que du travail reste à faire, malgré la minutie et le souci du détail dont la rapporteure se prévaut.

 

Il aurait donc été utile que nous puissions travailler ensemble sur le sujet, d’autant que je voterai l’amendement. Mais ce qui m’interpelle, c’est qu’on vote pour la mise en place de nouvelles structures sans préciser les moyens qu’on leur donne, alors même que Mme la ministre a déclaré qu’elle y veillerait.

 

M. le président. Merci, madame Obono.

Mme Danièle Obono. Je reprendrai la parole tout à l’heure, monsieur le président, pour poser cette question de manière un peu plus précise…

M. le président. Merci.

La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Effectivement, nous progressons, nous allons dans le bon sens. J’aurais tendance à ajouter : enfin, madame la ministre ! Bien entendu, la régulation et les sanctions administratives sont nécessaires pour pouvoir nettoyer le net de toutes ces scories, de ces messages de haine qui y sont diffusés. Mais nous savons bien que la clé de voûte du système est la mise en branle de la justice. Or, très souvent, sur ces questions, les magistrats, occupés par mille et une autres affaires, ne disposent pas de la technicité nécessaire pour aller de l’avant sur les procédures relatives au droit de la presse, souvent remplies de chausse-trapes.

Qu’il y ait un parquet spécialisé est une très bonne chose, cela témoigne d’une volonté d’avancer sur le plan de la justice : il était temps. Nous verrons, lors du PLF, si cette magistrature spécialisée disposera des moyens que requiert son travail.

 

M. le président. La parole est à M. Stéphane Mazars.

M. Stéphane Mazars. Je salue tout d’abord le travail remarquable et colossal accompli par Mme la rapporteure et complété par l’amendement du Gouvernement.

Vous l’avez dit, monsieur Goasguen, cet amendement a trait à la procédure. Or nous savons qu’en matière pénale, tout ce qui touche à la procédure touche aussi au fond. Ce dispositif est bien sûr utile pour atteindre les résultats escomptés.

 

Un parquet spécialisé présente deux avantages. D’une part, les dossiers seront traités avec célérité : on sait que c’est important car, tout allant très vite sur la toile, la réponse doit également être rapide. De plus, la loi de 1881 comprenant des dispositions abrégées, il faudra donc être très agile en matière de poursuites lors de son application. D’autre part, le contentieux étant ici très technique, la loi de 1881 doit être maniée avec beaucoup d’habileté. Nous avons donc besoin de parquets rompus à ce type de procédures.

 

Madame la garde des sceaux, je souscris à votre volonté d’une dichotomie, in fine, dans le traitement des dossiers, selon les faits considérés. Certains dossiers seront traités devant une juridiction spécialisée, d’autres reviendront devant des tribunaux des grande instance, en cas de trouble à l’ordre public local ou lorsque la réponse pénale aura vocation à être pédagogique, notamment pour les plus jeunes auteurs de ces infractions.

 

M. le président. Merci de conclure.

M. Stéphane Mazars. Enfin, s’agissant du dépôt de plainte, j’appelle votre attention, madame la garde des sceaux, sur la nécessité, y compris pour les OPJ – officiers de police judiciaire –, dans les commissariats et dans les brigades de gendarmerie, d’accompagner les dépôts de plainte en ligne lorsque les personnes se présenteront physiquement dans ces lieux. (Applaudissements sur plusieurs bancs du groupe LaREM. – Mme Isabelle Florennes applaudit aussi.)

M. Claude Goasguen. Très juste !

M. le président. La parole est à M. Stéphane Peu.

M. Stéphane Peu. Je me félicite à mon tour de cet amendement. On ne peut demander – comme moi-même et d’autres l’avons fait – qu’une plus grande place soit accordée aux juges et ne pas saluer cet amendement – ou alors il faudrait faire preuve d’une grande mauvaise foi, laquelle m’est totalement étrangère, vous le savez bien… (Sourires et exclamations sur divers bancs.) Créer un parquet spécialisé, une juridiction et, si j’ai bien compris, ce qui s’apparenterait à une 17e chambre bis, spécialisée dans les questions liées au numérique, est une excellente initiative.

J’annonce au passage que je retirerai un amendement que j’avais prévu de défendre, portant article additionnel après l’article 7, et par le biais duquel je demandais un rapport sur le sujet parce que les joies du débat parlementaire font que vous pouvez, vous, en tant que Gouvernement, nous proposer cet amendement, mais que nous ne pouvons pas le faire, nous, en tant que députés, puisque nous tomberions sous le coup de l’article 40 de la Constitution – ce qui, il faut bien l’admettre, est un vrai problème pour l’Assemblée.

 

Nous aussi serons attentifs, au moment de l’examen du projet de loi de finances, à ce que cette décision soit accompagnée des moyens nécessaires – nous connaissons l’état de nos tribunaux…

 

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. Je me félicite également et je vous félicite, madame la garde des sceaux, de la création d’un parquet numérique spécialisé. Nous défendons cette idée depuis longtemps. À chaque fois que nous avons modifié la loi pour la confiance dans l’économie numérique, au cours des précédentes législatures, a été évoquée la nécessité de créer un parquet spécialisé. Que des plaintes ne soient pas laissées de côté par les juridictions ; que les victimes voient les auteurs de ces infractions passer en jugement et n’aient donc plus le sentiment que l’impunité règne ; que la jurisprudence peu à peu constituée permette de faire œuvre de pédagogie et de convaincre ceux qui se trouvent derrière un ordinateur que les mêmes lois s’appliquent dans le monde virtuel et dans la vraie vie, tout cela est une excellente chose, bien évidemment. Un tel dispositif aurait même dû être mis en place depuis bien plus longtemps et c’est pourquoi je vous renouvelle toutes mes félicitations.

Je n’étais en revanche pas favorable, vous l’avez compris, à l’article 1er, à propos duquel de vraies questions demeurent. La création d’un parquet spécialisé montre à quel point les questions relatives à la liberté d’expression sont complexes ; dès lors, il est dommage de laisser ainsi aux mains d’acteurs privés le traitement de ce que nous avons appelé les « contenus gris ».

 

M. le président. La parole est à M. Erwan Balanant.

M. Erwan Balanant. Nous pouvons bien sûr nous féliciter de cet amendement, mais je crois déceler une légère contradiction dans vos propos, monsieur le secrétaire d’État. Vous avez indiqué que ce tribunal pourrait traiter les cas de cyberharcèlement sexuel ; or vous venez de rejeter mon amendement no 126 qui visait à intégrer les propos constitutifs de harcèlement moral, sexuel ou scolaire dans le champ d’application de la proposition de loi. Je souhaite par conséquent savoir si le domaine de compétence du nouveau parquet dépassera ce cadre pour intégrer le cyberharcèlement moral, sexuel ou scolaire. Le cas d’un enfant victime de cyberharcèlement scolaire, par exemple, pourrait-il être soumis à cette nouvelle juridiction ? Si ce ne devait pas être le cas, le nouveau dispositif s’en trouverait considérablement limité et il resterait un énorme trou dans la raquette.

M. le président. La parole est à Mme la garde des sceaux.

Mme Nicole Belloubet, garde des sceaux. J’adhère à l’idée émise par M. Goasguen et par M. Peu d’une clause de revoyure. Nous nous lançons ici dans un processus assez novateur et il nous faudra bien entendu en évaluer les résultats.

Quand j’ai dit, madame Obono, madame Pau-Langevin, que je veillerais à engager des moyens pour la formation de magistrats qui devront être en nombre suffisant, je rappelle que c’est déjà le cas pour les infractions à la carte bleue : elles sont traitées par un parquet unique, celui de Pontoise, adossé à une plateforme spécifique, la plateforme Perceval ; et à ce parquet sont affectés des magistrats en nombre suffisant. C’est de la même manière que nous allons procéder ici.

 

Ensuite, il me semble très important de travailler – MM. Bazin et Mazars, entre autres, l’ont souligné – sur l’effectivité des plaintes qui seront déposées en ligne. Nous devons veiller à ce qu’elles soient prises en considération dans les commissariats.

 

Enfin, monsieur Balanant, le parquet spécialisé ira au-delà du texte et sera bien saisi des cas de cyberharcèlement sexuel.

 

M. Erwan Balanant. Cela va mieux en le disant.

(L’amendement no 302 est adopté.)

M. le président. La parole est à Mme Danièle Obono, pour soutenir l’amendement no 88 – même si elle a déjà commencé à le présenter.

Mme Danièle Obono. Je réagissais surtout à l’amendement du Gouvernement. J’ai notamment insisté sur les précisions qu’il fallait apporter concernant la composition de ce nouveau tribunal de grande instance spécialisé.

En prenant pour modèle les dispositions en vigueur sur la liberté de la presse, nous souhaitons ici permettre au Gouvernement de créer, à titre expérimental et pour une durée de trois ans, des chambres judiciaires spécialisées dans le numérique.

 

Reste que la question centrale, pour nous, est celle des moyens alloués à la justice afin qu’elle puisse faire son travail, ici consistant à lutter contre les propos et les actes délictueux en matière de discrimination, de racisme, d’homophobie… Or c’était le point aveugle de la proposition de loi, jusqu’à ce que le Gouvernement dépose, il y a quelques jours, l’amendement voté à l’instant, et qui permet d’engager le débat. Ce débat, nous l’avons eu lors de l’examen du projet de loi de programmation 2018-2022 et de réforme pour la justice, et nous l’aurons de nouveau au moment de discuter le projet de loi de finances pour 2020. En effet, les moyens accordés à la justice ne sont pas suffisants, ils sont même inférieurs à la moyenne européenne et…

 

M. le président. Merci, madame Obono.

Mme Danièle Obono. …les professionnels auront besoin de garanties pour que ce TGI spécialisé ne soit pas submergé comme le sont tous les autres TGI.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. Mme Obono souhaite que le Gouvernement puisse décider de la création de chambres judiciaires spécialisées dans le numérique pour une durée de trois ans et au sein de dix tribunaux de grande instance au plus. Or vous avez pu lire, dans l’exposé sommaire de l’amendement du Gouvernement, qu’il s’agissait de spécialiser un parquet et une juridiction en matière de lutte contre la haine en ligne. L’idée est bien que toute la chaîne soit spécialisée pour pouvoir répondre à la demande.

Ensuite, la loi de programmation que vous venez d’évoquer contient des dispositions permettant d’organiser la spécialisation territoriale. Il est donc d’ores et déjà possible de poursuivre le mouvement de spécialisation engagé dans certaines matières.

 

M. le président. Quel est l’avis du Gouvernement ?

Mme Nicole Belloubet, garde des sceaux. Bien évidemment, le parquet spécialisé disposera des moyens nécessaires. Ce sont d’ailleurs des moyens, madame Obono, que vous auriez pu voter si vous aviez été favorables au projet de loi de programmation…

M. Thibault Bazin. Pas de polémique…

Mme Nicole Belloubet, garde des sceaux. Car les moyens dont je dispose, je les ai grâce à cette loi. Par ailleurs, le système que nous proposons, prévoyant à la fois spécialisation et proximité dans tous les tribunaux, nous permettra de répondre à d’autres de vos exigences.

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. Nous allons continuer en effet d’en débattre, madame la ministre. Les critiques que nous formulons sur votre loi de programmation ne sont pas seulement celles des députés du groupe La France insoumise, elles sont exprimées par toute la profession, par tout le monde judiciaire. Il y a eu des « journées mortes », des actions dans tout le pays, précisément parce que les professionnels reprochaient à ce texte de contribuer à la désertification judiciaire.

M. Thibault Bazin. C’est vrai.

Mme Danièle Obono. Or, à en juger par la loi de programmation et par les débats budgétaires à venir, la logique de votre gestion étant austéritaire, je crains que la création de la nouvelle juridiction que nous venons de voter ne soit pas accompagnée de moyens suffisants. Les magistrats seront donc très attentifs. Il ne s’agit pas de voter des textes pour se faire plaisir, avant de se rendre compte que les annonces ne sont pas suivies d’effets, faute de moyens. Et la loi de programmation, je le répète, a mobilisé contre elle toute la profession – il faut croire que les premières personnes concernées savent ce qu’il en est des moyens que vous dites vouloir engager et…

M. le président. Merci, madame Obono.

Mme Danièle Obono. …de la priorité que vous dites vouloir donner au service public de la justice, sur ces questions comme sur les autres.

M. Thibault Bazin. Elle a raison !

(L’amendement no 88 n’est pas adopté.)

Article 1er bis

M. le président. La parole est à M. Philippe Latombe, premier orateur inscrit sur l’article 1er bis.

M. Philippe Latombe. L’article 1er bis détermine la forme que doit prendre la notification d’un contenu haineux. Or si celui-ci concerne un mineur – en milieu scolaire, par exemple –, il doit être traité très rapidement, ce qui paraît difficile si seuls les parents peuvent procéder à la notification. C’est pourquoi j’ai déposé un amendement prévoyant la désignation, en milieu scolaire, de fonctionnaires habilités à saisir une plateforme au nom du mineur concerné pour faire supprimer le plus rapidement possible certains contenus – on pense à ces vidéos, propageant la haine ou des insultes, qui peuvent circuler entre élèves.

Cet amendement peut être considéré comme étant d’appel – sa rédaction n’est sans doute pas satisfaisante –, mais en tout état de cause, j’appelle donc votre attention sur la nécessité de prévoir des dispositions spécifiques pour les mineurs dans le cadre scolaire. Un autre amendement, déposé cette fois au nom de l’ensemble du groupe MODEM, va d’ailleurs dans ce sens.

 

M. le président. La parole est à M. Jean-Michel Mis.

M. Jean-Michel Mis. Dans un souci d’efficacité, cet article vise à simplifier les mécanismes de notification des contenus illicites auprès des opérateurs de plateformes afin de rapprocher, comme l’a dit la rapporteure, le texte de la pratique. Modifiant la loi pour la confiance dans l’économie numérique, il prévoit que le notifiant devra fournir ses nom, prénoms et adresse électronique ou, s’il s’agit d’une personne morale, sa forme sociale, sa dénomination sociale et son adresse électronique. Les autorités administratives devront, quant à elles, fournir leur dénomination et leur adresse électronique.

Afin de faciliter la qualification, pour les opérateurs de plateformes, des contenus qui leur seront signalés, et suivant ainsi les recommandations du Conseil d’État, l’article prévoit que la notification du contenu haineux devra indiquer la description des faits litigieux et les motifs pour lesquels le contenu notifié contrevient, d’après le notifiant, à la loi. Sachant qu’un commentaire sur sept laissés sur les réseaux sociaux comme Facebook serait haineux, d’après l’étude de la société de modération Netino, l’article nous semble l’un des plus importants du texte que nous avons à examiner.

 

En effet, en imposant un formalisme trop lourd, on risquerait de décourager les utilisateurs de signaler des contenus illicites, surtout si la qualification juridique du délit constaté est à leur charge. Je me réjouis donc que Mme Abadie ait déposé l’amendement no  340, qui tend à simplifier l’identification du notifiant.

 

Si internet permet aujourd’hui le développement de l’un de nos droits les plus précieux, la liberté d’expression, il n’en demeure pas moins qu’il ne peut pas constituer un espace de non-droit où tout peut se dire et être diffusé. La diffusion sur internet de contenus haineux doit pouvoir être signalée par tout un chacun afin qu’ils soient retirés et leurs auteurs sanctionnés. Il y va de la protection des droits fondamentaux des citoyens. Par ailleurs, une attention particulière doit être prêtée aux publics les plus fragiles, notamment les mineurs – nous y reviendrons. (Applaudissements sur quelques bancs du groupe LaREM.)

 

M. le président. Je vous informe que depuis le début de la séance nous avons examiné treize amendements par heure et qu’à ce rythme nous n’aurons pas terminé l’examen du texte avant samedi matin. (Sourires.)

Je suis saisi de deux amendements identiques, nos 89 et 148.

L’amendement no 89 de M. Michel Larive est défendu.

La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 148.

 

Mme Emmanuelle Ménard. Avec cet amendement de suppression de l’article, je tiens à nouveau à souligner à quel point il est problématique de ne laisser aux plateformes que vingt-quatre heures pour retirer des propos dits haineux. Fixer un délai aussi bref est selon moi une grave erreur, surtout si le propos dont il s’agit relève de la fameuse « zone grise ».

Vous connaissez mon attachement farouche à la liberté d’expression, fondement de notre démocratie. Bien sûr, il ne s’agit pas ici de défendre les harceleurs qui, pendant neuf mois, ont persécuté une jeune adolescente au point de la pousser à mettre fin à ses jours ; c’est évidemment une véritable tragédie, et nous sommes tous d’accord sur la nécessité d’agir contre de tels comportements. Mais dans cet exemple, les propos incriminés étaient manifestement illicites. S’agissant des « contenus gris », un problème demeure, d’autant que, j’y insiste, le délai de traitement est beaucoup trop court.

 

(Les amendements identiques nos 89 et 148, repoussés par la commission et le Gouvernement, ne sont pas adoptés.)

M. le président. La parole est à M. Gilles Lurton, pour soutenir l’amendement no 163.

M. Gilles Lurton. Il est rédactionnel : si le mot « nom » est écrit au singulier, le mot « prénom » doit l’être également.

(L’amendement no 163, accepté par la commission et le Gouvernement, est adopté.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 170. 

Mme Laure de La Raudière. Si vous le voulez bien, monsieur le président, je soutiendrai également l’amendement no 169.

La proposition de loi vise à simplifier grandement le signalement de contenus manifestement illicites par les personnes physiques : il leur suffit pour cela de donner une adresse mail et de décrire les faits. Mais sachant que nous disposerons tous bientôt d’une carte d’identité numérique, il serait extrêmement simple de la joindre à la notification, les opérateurs ayant l’obligation de ne pas conserver ce document.

 

Très sincèrement, je suis vraiment gênée par le caractère anonyme du signalement. Cela ne correspond pas à nos habitudes législatives. Nous demandons finalement aux opérateurs de retirer un contenu manifestement illicite sur la base d’un signalement anonyme – puisque l’adresse mail ne constitue pas une identification. Il serait pourtant extrêmement simple, je le répète, d’ajouter en pièce jointe une carte d’identité électronique.

 

L’amendement no 169, lui, vise les personnes morales qui effectueront un signalement. Elles pourraient y joindre un extrait de K. bis – je ne connais pas une entreprise qui n’en ait pas à disposition sous forme électronique.

 

Vous ne vous contentez pas de simplifier les signalements : vous voulez aussi les rendre anonymes, et je ne comprends pas pourquoi. Pour ma part, je suis d’accord pour simplifier la notification mais pas pour l’anonymiser.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Au cœur de l’article 1er bis, il y a la volonté de simplifier le signalement. Cette simplification repose sur la création d’un bouton unique. Une personne victime d’un contenu haineux doit pouvoir le signaler à partir de sa tablette ou de son téléphone. Il ne s’agit pas d’instituer une procédure dissuasive, mais au contraire d’encourager les notifications et de les simplifier par rapport à ce qui est aujourd’hui possible dans le cadre de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

On ne peut demander à la victime d’un torrent de contenus haineux de transmettre une copie de sa carte d’identité à chaque signalement : ce serait contraire à l’objectif visé par la proposition de loi.

 

Par ailleurs, madame de La Raudière, vous évoquez « l’anonymat du signalement », mais il n’y a aucun anonymat. Dans sa rédaction actuelle, l’article 1er bis indique qu’une notification comprend nom, prénom, adresse électronique du notifiant ou « tout élément d’identification mentionné au II de l’article 6 » de la LCEN – autrement dit les éléments d’identification que l’on utilise pour retrouver les auteurs de contenus haineux !

 

Notez que si l’on adoptait vos amendements, on demanderait leur pièce d’identité à ceux qui font un signalement, alors que l’on n’en demande pas aux auteurs des contenus haineux !

 

J’ajoute que je ne suis pas favorable à l’idée de donner un mandat aux plateformes pour qu’elles recensent et qu’elles fichent nos concitoyens victimes de contenus haineux à partir de leur pièce d’identité.

 

Pour répondre précisément à votre préoccupation, madame la députée, les députés du groupe La République en Marche soutiendront un amendement prévoyant que les conditions d’identification sont réputées satisfaites lorsque le notifiant est déjà « logué » et enregistré sur la plateforme concernée – son compte Facebook, Snapchat ou Twitter permettra en effet de l’identifier.

 

J’entends bien que vous n’adhérez pas au processus de signalement que nous proposons, mais il constitue l’objectif même du texte. Je suis donc défavorable aux deux amendements.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Avis défavorable. Vous pointez là, madame de La Raudière, un risque réel, celui du « sursignalement ». On a ainsi déjà connu ce que l’on pourrait appeler des « raids de signalements ». Toutefois ce sujet est traité par l’article 1er ter qui prévoit des sanctions en cas de signalement abusif.

Comme je l’ai expliqué hier, nous ne considérons pas qu’internet soit synonyme d’anonymat puisque nous faisons en sorte de permettre à la justice d’aller chercher les auteurs de commentaires anonymes. Pour être cohérent avec ce propos, je suis dans l’obligation de vous dire que ceux qui « sursignalent » ne sont pas davantage anonymes pour la justice, qui peut également aller les chercher.

 

Ce parallélisme me fait penser qu’il n’est pas nécessaire d’augmenter le nombre de données d’identification demandées pour un signalement. Il me semble qu’avec l’amendement dont a parlé Mme la rapporteure, nous atteindrons un bon équilibre.

 

M. Claude Goasguen. Très bien !

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je partage l’avis de Mme de La Raudière : tel qu’il est rédigé, l’article 1er bis risque de favoriser le « sursignalement ». La ligne de crête que vous dessinez est à mes yeux loin d’être infranchissable. Vous savez très bien que des signalements pourront être effectués à partir de comptes spécialement créés, de VPN – réseaux privés virtuels –, voire depuis l’étranger. Et une fois de plus, ils concerneront plus volontiers des « contenus gris ». Nous allons avoir des problèmes.

Nous devons également pouvoir poursuivre ceux qui font des signalements abusifs. Si nous ne demandons pas la communication de la carte d’identité, il faut en tout cas trouver un dispositif à même d’éviter le risque de « sursignalement ». Sans cela, il y aura une véritable course en la matière, et, dès que la loi sera applicable, nous constaterons une augmentation extraordinairement forte des signalements. Comme les plateformes auront peur des sanctions, elles iront au plus simple et supprimeront les contenus. Dans un certain nombre de cas, cela finira devant les tribunaux. Il faut donc authentifier les signalements, si ce n’est avec la carte d’identité, du moins par un autre moyen.

 

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Vous constaterez que l’on revient toujours au même sujet. Tout se complique systématiquement parce que vous ne parvenez pas à maintenir l’équilibre entre la répression de l’infraction et la préservation de la liberté d’expression.

La simplification, c’est très bien quand on la regarde d’un certain point de vue. Le revers de la médaille, c’est que vous donnez aux plateformes un pouvoir en matière de qualification et d’interprétation. Tout le problème vient de là.

 

Nous ne cessons de vouloir que l’impunité soit exclue du monde numérique comme elle l’est du monde physique. Sur ce plan nous voulons que le premier univers rejoigne le second, pourtant vous êtes en train de défaire tout ce qui permettait d’équilibrer la régulation et les libertés dans le monde physique. Dans le monde physique, on ne peut pas porter plainte – en l’espèce ce serait une plainte auprès d’une entreprise privée – sans présenter sa carte d’identité.

 

Mme George Pau-Langevin. Il suffit d’écrire au parquet !

Mme Frédérique Dumas. Cela n’a rien à voir, car nous parlons d’un signalement qui aboutit presque directement au retrait d’un contenu, c’est-à-dire à la sanction la plus forte en matière de liberté d’expression. Et tout cela se fait sans carte d’identité !

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. Monsieur le secrétaire d’État, vous savez parfaitement que l’on peut créer des comptes à l’étranger ou des adresses mail en gmail.com qui permettent de faire un signalement sans être identifié.

Permettez-moi de faire un petit test immédiatement : je sors mon smartphone et ma pièce d’identité, je fais une photo, je la transfère et je l’envoie grâce à l’application de signalement. Voilà, c’est fait en quelques secondes ! Franchement, je crois que très peu de victimes ne seraient pas capables d’en faire autant.

 

Aujourd’hui, pour porter plainte ou pour signaler quelque chose, on fait part de son identité. Cela me semble important. Pensez à tous les signalements qui seront effectués à partir de faux comptes à l’étranger pour affaiblir tel acteur d’un marché dans le cadre d’une guerre économique ! Dans de tels cas, le dispositif de sanctions prévu dans la proposition de loi ne s’appliquera pas. Je demande seulement que l’on fasse preuve d’un peu de bon sens !

 

M. le président. La parole est à M. Claude Goasguen.

M. Claude Goasguen. L’article 1er bis est largement suffisant. Il ne faut pas oublier que les plateformes qui accueillent des contenus cherchent à les conserver. Leur raison d’être, c’est de sauvegarder la liberté d’expression plutôt que de favoriser la destruction des contenus.

Nous le verrons lors des prochaines élections municipales : chaque mot de travers écrit sur un candidat sera immédiatement suivi d’une notification de la part de ses partisans scandalisés. Dans ce cas, la plateforme est confrontée à un choix : supprimer le contenu ou le conserver ? Mais soyons clairs : si Facebook, par exemple, optait pour la suppression systématique en cas de notification, Facebook disparaîtrait !

 

La logique d’un tel système est de privilégier la liberté. Laissez-le donc vivre ! La notification telle qu’elle est prévue est suffisamment encadrée. Le texte permet de contrer les débordements les plus significatifs. Il peut y avoir le pire, mais aussi le meilleur dans ces situations. L’intérêt des réseaux sociaux, c’est de continuer à fonctionner plutôt que de se détruire.

 

(Les amendements nos 170 et 169, successivement mis aux voix, ne sont pas adoptés.)

M. le président. La parole est à Mme Caroline Abadie, pour soutenir l’amendement no 340 que Mme la rapporteure évoquait il y a un instant.

Mme Caroline Abadie. Le notifiant ne doit être tenu de décliner ses nom, prénom et adresse électronique que s’il n’est pas déjà complètement authentifié. Si la plateforme dispose déjà de ces informations, il n’est pas utile de les réclamer à nouveau. Ce qui compte pour nous, c’est l’expérience de l’utilisateur : il doit pouvoir faire rapidement une notification sans se heurter à des obstacles formels.

M. Claude Goasguen. Mais c’est la plateforme qui décide !

(L’amendement no 340, accepté par la commission et le Gouvernement, est adopté.)

M. le président. La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 67.

Mme George Pau-Langevin. Les membres du groupe Socialistes et apparentés souhaitent simplifier la démarche de notification en supprimant l’obligation d’indiquer « la catégorie à laquelle peut être rattaché le contenu litigieux » au moment du signalement. Ce choix, qui relève d’une opération de qualification juridique, peut en effet être complexe.

Permettez-moi d’ajouter, pour rebondir sur notre débat précédent, qu’une carte d’identité n’est pas demandée pour l’ouverture d’une adresse mail et d’un compte qui serviront à déverser des horreurs sur le net. Je ne vois pas pourquoi on la demanderait à celui qui signale ces horreurs ! Il me semble logique de simplifier la vie des notifiants.

 

M. Claude Goasguen. Très bien !

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. La loi du 21 juin 2004 prévoit que les notifiants qualifient juridiquement les contenus signalés en indiquant sur quel texte légal ils se fondent. Nous voulons simplifier l’expérience des utilisateurs : nous nous contentons de leur demander d’indiquer à quelle catégorie peut se rattacher le contenu qu’ils signalent et de le décrire. Cela sera adapté selon les plateformes.

Cette solution permet de faire de la pédagogie sur les contenus illicites, mais aussi d’orienter au mieux les contenus en question afin qu’ils soient traités plus efficacement.

 

(L’amendement no 67, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 362.

Mme Frédérique Dumas. Je suis surprise par les arguments avancés : « On veut aller vite, il faut supprimer tout formalisme. » Mais il ne s’agit pas de formalisme, mais de traiter des données très importantes représentant des valeurs fondamentales. Et ce n’est pas parce qu’on passe dans le monde du numérique qu’il faut faire tout et n’importe quoi en la matière. J’entends dire qu’on n’a pas à donner sa carte d’identité sur internet, pas plus que dans une boulangerie, mais acheter son pain n’a aucun rapport avec faire des signalements ou déposer plainte. On est vraiment en train de passer à côté de ce qui fonde notre droit depuis deux cents ans. Pourquoi ne pas changer les choses, certes, mais il ne suffit pas de dire : « Il faut aller vite. » Ne confondons pas vitesse et précipitation, je le dis avec d’autres collègues depuis des mois sur la plupart des sujets que traite notre assemblée.

Notre groupe a déposé cet amendement qui n’est pas de procédure mais qui vise à rendre visible sur le site concerné la liste des catégories auxquelles peuvent être rattachés les contenus litigieux. Il n’y aurait ici aucun problème de droit.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Cet amendement gagne à être comparé avec le précédent, no 67, qui proposait, en définitive, que le notifiant n’ait pas à expliquer les motifs de son signalement. Il tendait en effet à supprimer l’obligation de préciser « la catégorie à laquelle peut être rattaché le contenu litigieux » et les motifs pour lesquels celui-ci « doit être retiré, rendu inaccessible ou déréférencé ».  Mais dès lors que l’on prévoit de sanctionner les notifications abusives ou malveillantes – c’est l’objet de l’article suivant –, il faut bien que le signalement justifie d’un motif, susceptible le cas échéant d’être contesté. L’amendement no 362, lui, tend à simplifier la motivation en rendant les catégories directement accessibles via le site. Ce serait faire preuve de pédagogie et de transparence que de demander ainsi au notifiant d’expliquer sommairement, en choisissant une catégorie dans un menu déroulant, pourquoi il fait ce signalement en vue d’un retrait.

M. le président. La parole est à M. Claude Goasguen.

M. Claude Goasguen. L’intérêt de ce système, c’est la liberté. Je prends un exemple qui vous dira quelque chose, chers collègues, parce que nous avons tous été candidats à des élections : dans quelques mois, au moment des municipales, il est évident que des sites vont être inondés de ce genre de procédure, et que le moindre mot de travers donnera lieu à un signalement. Vous pourriez donc vous inspirer de la jurisprudence constituée par la 17e chambre du tribunal de grande instance de Paris à partir des plaintes pour diffamation – d’autant qu’elle est parfois savoureuse. Même quand on perd, il est toujours sympathique, alors que l’on a été insulté copieusement, d’entendre le magistrat dire : « Oh, vous savez, le contexte électoral, c’est très particulier » ! C’est le principe de la liberté, laissez-le prospérer, sinon on va arriver à un blocage total du système parce que la plateforme va supprimer tout contenu litigieux. Et si c’est le cas, il n’y a plus de campagne électorale possible. Il n’y aura plus de réseaux sociaux dédiés, vous ne pourrez plus faire campagne.

M. Philippe Latombe. On pourra toujours distribuer des tracts ! (Sourires.)

M. Claude Goasguen. C’est absurde, vous n’allez pas empêcher les réseaux sociaux de fonctionner, mon cher collègue !

(L’amendement no 362 n’est pas adopté.)

M. le président. La parole est à M. Philippe Latombe, pour soutenir l’amendement no 134.

M. Philippe Latombe. Au préalable, je vais répondre à M. Goasguen : la sanction telle qu’est prévue va créer un véritable problème car les plateformes ne voudront pas s’immiscer dans ce genre de litige, d’autant qu’elles n’en ont pas la capacité juridique.

M. Claude Goasguen. Mais si !

M. Philippe Latombe. Pas si elles risquent une amende équivalant à 4 % de leur chiffre d’affaires.

M. Claude Goasguen. Elles le feront parce que sinon elles seront sanctionnées !

M. Philippe Latombe. On verra bien avec l’expérience, monsieur Goasguen.

Par cet amendement, je demande que des fonctionnaires de l’éducation nationale, figurant sur une liste définie par arrêté ministériel, soient autorisées à signaler le contenu manifestement illicite à la place du mineur qui en est victime dans le cadre scolaire. Il s’agit de cas où la viralité se manifeste à l’intérieur d’un petit cercle au sein de l’établissement, et devoir demander l’autorisation des parents pour procéder au signalement pourrait poser un problème, étant donné la nécessité de réagir dans un délai très court.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. J’entends votre préoccupation, mais votre groupe a déposé un amendement prévoyant la désignation d’un tiers de confiance, une solution susceptible de convenir à tous les mineurs, y compris dans le domaine scolaire. L’avis est donc défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Le problème du tiers de confiance, c’est qu’il faudra le déterminer à l’avance et qu’il ne sera pas nécessairement choisi au sein du milieu scolaire. Nous risquons de perdre du temps. La disposition que je propose peut être comparée à la possibilité, pour les ex-délégués du personnel, de s’autosaisir en lieu et place d’un salarié dans des situations particulièrement grave. À cet égard, l’amendement de mon groupe ne répond pas tout à fait à ma préoccupation.

(L’amendement no 134 n’est pas adopté.)

(L’article 1er bis, amendé, est adopté.)

Après l’article 1er bis

M. le président. Je suis saisi de plusieurs amendements portant article additionnel après l’article 1er bis.

La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 297 rectifié.

M. Cédric O, secrétaire d’État. Il s’agit d’étendre la simplification du formalisme s’attachant à la notification des contenus des sites sur lesquels nous travaillons au droit commun de la loi pour la confiance dans l’économie numérique, c’est-à-dire au-delà du seul champ des contenus haineux, tout en conservant une différence : la préservation du principe de subsidiarité pour les contenus autres que ceux visés à l’article 1er de la présente proposition de loi.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Favorable.

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. La proposition de loi vise exclusivement les contenus haineux. D’autres contenus illicites ne sont pas concernés par ce texte mais, de même que certaines activités illicites, ils le sont par la LCEN. On va donc appliquer un formalisme très générique dans un complet anonymat – ni pièce d’identité ni K. bis exigés –, avec donc des risques de « sursignalement ». Je ne comprends pas car cela fait tout de même partie des bases de notre droit que de décliner son identité quand l’on signale quelque chose d’illicite – en l’occurrence aux opérateurs et à l’ensemble des autres personnes morales visées par la LCEN. Je suis très ennuyée par la dérive qui se dessine.

Mme Laetitia Avia, rapporteure. Ce n’est pas une dérive !

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Je suis bien conscient, madame la députée, que les gens qui voudront contourner le système le feront. Mais la loi que nous sommes en train d’élaborer n’a pas pour but de combattre les professionnels de la haine en ligne tels que M. Soral, mais de simplifier, pour les citoyens ordinaires, le signalement des contenus illicites. Ce n’est pas en demandant une carte d’identité ou un K. bis que nous dissuaderons certaines personnes de lancer des « raids de signalement ». Des photos de cartes d’identité ou de K. bis, je peux vous en trouver sur le web en moins de deux minutes.

M. Claude Goasguen. Bien sûr !

M. Cédric O, secrétaire d’État. Cette proposition de loi n’est pas dirigée contre ce que l’on pourrait appeler « le grand banditisme » ; elle s’adresse à des gens comme vous et moi, qui ont une utilisation raisonnable et raisonnée du net. J’entends les préoccupations qui s’expriment sur le risque de « sursignalement », mais vu la manière dont fonctionne le net aujourd’hui, rien ne peut empêcher que des gens s’organisent pour effectuer des signalements en masse, de même que l’on ne peut éviter que des gens s’organisent pour vous insulter, voire vous menacer de mort – de toute façon, on ne les retrouvera pas ! Ce texte ne vise pas ces gens, mais ce que l’on peut appeler le « tout-venant ».

M. Claude Goasguen. Très bien !

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Comme on est dans le monde du numérique, on tend à oublier le monde physique. Or dans le monde physique, on ne vote pas non plus que des lois destinées à réprimer le grand banditisme. Et dans le monde physique, une pièce d’identité est exigée même pour faire une main courante. Cela n’a rien à voir avec la gravité de l’acte.

Second point : si on n’avait pas donné un tel pouvoir aux plateformes, on n’en serait pas là. Mais dès lors que la sanction est le retrait du contenu, ce qui peut conduire à un zèle excessif, nous sommes obligés de rechercher un équilibre. Alors que vous ne cessez de dénoncer le pouvoir des plateformes, vous accroissez encore leurs prérogatives en leur donnant le pouvoir judiciaire. Ne vous étonnez donc pas, monsieur le secrétaire d’État, si certains députés rappellent que tout le monde ne peut pas faire ce qu’il veut, n’importe comment, seulement parce qu’il en a envie.

 

(L’amendement no 297 rectifié est adopté.)

M. le président. Je suis saisi de plusieurs amendements, nos 113, 216, 333, 68 et 69, pouvant être soumis à une discussion commune. Les amendements nos 113, 216 et 333 sont identiques.

La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 113, qui fait l’objet des sous-amendements nos 382, 383 et 384.

Mme George Pau-Langevin. Cet amendement, comme plusieurs autres que nous avons déposés, porte sur les tiers de confiance, plus précisément sur les « signaleurs de confiance » – puisque le code de bonne conduite défini au niveau européen fait une distinction entre cette catégorie et celle des opérateurs. J’ai bien compris que l’objectif de la proposition de loi de Mme Avia est plutôt de donner à chacun la possibilité de signaler, en actionnant un simple bouton, un contenu illicite. Mais lorsque les signaleurs de confiance s’expriment, ils sont davantage entendus que si c’est M. Toutlemonde. En outre, nous devons garantir une protection particulière à certaines catégories de personnes, notamment aux jeunes car nous les savons plus vulnérables sur le net.

M. Claude Goasguen. Voilà !

Mme George Pau-Langevin. Par conséquent, nous demandons que les mineurs puissent saisir un signaleur de confiance associatif si eux-mêmes n’ont pas la force de procéder personnellement au signalement. Un tel statut n’est pas prévu par votre proposition de loi, madame la rapporteure. Pourtant, certaines associations – dont l’objet est par exemple la lutte contre le racisme ou contre l’homophobie – font déjà un excellent travail en ce sens,. Il serait dommage de se priver de leur concours.

M. le président. L’amendement no 216 est défendu par Mme Isabelle Florennes.

La parole est à M. Jean-Michel Mis, pour soutenir l’amendement no 333.

 

M. Jean-Michel Mis. L’amendement tend à permettre aux mineurs, premiers utilisateurs des plateformes en ligne, une protection spéciale lorsqu’ils sont victimes de violences ou de harcèlement sur internet. Nous savons en effet que tels faits peuvent avoir des conséquences extrêmement graves sur un public vulnérable. Ils sont de nature à compromettre l’épanouissement personnel et la réussite scolaire des enfants et des adolescents, au point parfois de conduire au drame.

L’actualité récente nous a rappelé cruellement cette évidence. Permettez-moi de saluer la mémoire d’une jeune fille, Evaëlle, qui le 25 juin dernier a mis fin à ses jours après avoir été harcelée par ses camarades sur internet. Ses parents avaient porté plainte en février dernier, mais ses harceleurs continuaient de sévir sur les réseaux sociaux. Mes chers collègues, nous ne pouvons plus tolérer que de tels gestes de désespoir se produisent. « Une société qui ne protège pas ses enfants n’a pas d’avenir », disait Nelson Mandela en 2001.

 

L’amendement que je présente au nom de l’ensemble de mes collègues de La République en marche prévoit que les mineurs victimes d’un contenu abusif puissent saisir directement un signaleur de confiance au sens de la recommandation de la Commission européenne du 1er mars 2018 contre les contenus illicites en ligne, c’est-à-dire une personne ou une entité considérée par un prestataire de services d’hébergement comme disposant d’une expertise et ayant une responsabilité particulière aux fins de lutter contre lesdits contenus. Cette saisie pourrait s’effectuer sans autorisation parentale afin de permettre aux enfants victimes de haine en ligne de se faire aider même si leurs parents n’en sont pas informés.

 

Cette proposition s’inscrit dans la continuité logique des dispositions de la loi du 14 mai 2018 sur la protection des données personnelles, qui fixe une majorité numérique à 15 ans. Par sagesse, lorsque le contenu notifié n’est pas retiré, rendu inaccessible ou déréférencé, l’association informe également les parents et les représentants légaux du mineur. L’amendement précise aussi les obligations du tiers de confiance en tant qu’interface entre le mineur et les opérations de plateforme en ligne. (Applaudissements sur quelques bancs du groupe LaREM.)

 

M. le président. La parole est à Mme Isabelle Florennes.

Mme Isabelle Florennes. Pardon, monsieur le président ! M’étant laissé surprendre par la rapidité des débats, je n’ai pas pu défendre l’amendement no 216, proposé par le groupe MODEM – et particulièrement Mme Vichnievsky –, et identique à celui qui a été parfaitement défendu par M. Mis. Il faut porter une attention particulière aux mineurs, qui, étant fragiles, n’ont pas systématiquement recours, dans une telle situation, à l’autorité parentale. C’est pourquoi il paraît indispensable de prévoir un tiers de confiance et une interface.

M. le président. Je suis saisi de trois sous-amendements, nos 382, 383 et 384, pouvant faire l’objet d’une présentation groupée.

La parole est à M. le secrétaire d’État, pour les soutenir.

M. Cédric O, secrétaire d’État. Je commence par demander le retrait, au profit des amendements identiques nos 113, 216 et 333, des amendements nos 68 et 69 qui seront appelés dans un instant.

Si le Gouvernement partage la préoccupation des auteurs des amendements nos 113, 216 et 333, il souhaite toutefois, comme le prévoit le sous-amendement no 382, que la notification d’un contenu manifestement illicite opérée par une association de protection de l’enfance à la demande d’un mineur ne puisse intervenir sans information préalable des représentants légaux, les parents étant les premiers protecteurs de l’enfant mineur.

 

Les sous-amendements nos 383 et 384 visent à adapter cet énoncé pour qu’il se conforme aux exigences de la législation sur la protection des données à caractère personnel. Il s’agissait à l’origine d’un seul sous-amendement, qui a été découpé en trois parties pour des raisons juridiques.

 

M. Claude Goasguen. C’est mieux ainsi !

M. le président. Les deux amendements, nos 68 et 69 de Mme Cécile Untermaier sont défendus.

Quel est l’avis de la commission sur ces amendements et sous-amendements ?

 

Mme Laetitia Avia, rapporteure. Je salue le travail parlementaire transpartisan qui a été effectué sur ces dispositions. À l’origine, les amendements déposés en commission étaient rédigés de manière très différente, même s’ils visaient tous à protéger les mineurs, en permettant à des associations de se substituer à eux, lorsqu’il s’agissait de signaler des contenus et d’assurer le suivi de ce signalement.

Nous avons travaillé sur ces propositions pendant les deux dernières semaines et nous sommes arrivés à une rédaction commune, que les sous-amendements du Gouvernement précisent encore en rappelant la place nécessaire de ceux qui exercent l’autorité parentale et l’encadrement de la conservation des données.

 

Le dispositif, désormais bien ficelé, devrait susciter l’adhésion de tous. J’émets un avis favorable sur les trois sous-amendements et sur les amendements identiques nos 113, 216 et 333. Je suggère en revanche le retrait des amendements nos 68 et 69.

 

M. le président. La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Notre préoccupation ayant été entendue, nous retirons nos amendements nos 68 et 69 au profit des amendements identiques nos 113, 216 et 333.

(Les amendements nos 68 et 69 sont retirés.)

M. Claude Goasguen. Très bien !

M. le président. Sur les amendements nos 113, 216 et 333, je suis saisi par le groupe La République en marche d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

(Les sous-amendements nos 382, 383 et 384, successivement mis aux voix, sont adoptés.)

M. le président. Je mets aux voix les amendements identiques nos 113, 216 et 333, sous-amendés.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        38

        Nombre de suffrages exprimés                37

        Majorité absolue                        19

                Pour l’adoption                37

                Contre                0

(Les amendements identiques nos 113, 216 et 333, sous-amendés, sont adoptés.)

(Applaudissements sur les bancs du groupe LaREM.)

M. le président. La parole est à M. Cédric Roussel, pour soutenir l’amendement no 354.

M. Cédric Roussel. Afin de renforcer la lutte contre les contenus haineux en ligne et d’accorder une plus grande place aux associations reconnues comme compétentes dans ce domaine, il est proposé d’introduire dans le dispositif de signalement la notion de tiers de confiance pour celles-ci.

Ce tiers de confiance sera habilité à effectuer des opérations de sécurité juridique, d’authentification et de transmission automatique au CSA pour autosaisine.

 

Quelques précisions sur les modalités d’application de l’amendement : pour être habilitées comme tiers de confiance, les associations agréées par l’État dans le domaine de la lutte contre toute forme de discrimination devront conclure avec l’administration une convention pour la mise en œuvre du dispositif. D’autre part, pour la réalisation de ses missions, le tiers de confiance devra conclure avec l’administration, pour une durée de cinq ans, une convention individuelle.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. Le dispositif que nous venons de mettre en place me semble suffisant pour protéger les mineurs. Par ailleurs, toute personne peut effectuer sur internet un signalement pour le compte d’un tiers.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis. Je précise, ce qui fera plaisir à Mme Dumas et à M. Latombe, que le CSA, responsable de l’obligation systémique à laquelle est attachée la peine pouvant aller jusqu’à 4 % du chiffre d’affaires, n’a pas à s’occuper des sujets individuels.

Dès lors que le CSA ne se prononce que sur les sujets systémiques, la transmission automatique prévue dans l’amendement n’est pas souhaitable.

 

(L’amendement no 354 est retiré.)

Article 1er ter

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Tout à l’heure, l’amendement de M. Peu a appelé notre attention sur l’objet de cet article 1er ter : à mon sens – car, depuis hier, je m’exprime dans ce débat à titre personnel –, l’équilibre n’est pas atteint. Si la proposition de loi prévoit des sanctions, aucune d’entre elles ne concerne les plateformes qui, avant tout signalement, retireraient des contenus de leur propre chef, de leur propre autorité – le plus souvent à l’aide de logiciels et d’algorithmes autoapprenants –, parce qu’elles craignent la sanction systémique du CSA. Or la suppression préalable de certains mots-clés et de certaines images par les plateformes constitue une atteinte très grave à la liberté d’expression.

Le Gouvernement nous l’a dit hier et il vient de le répéter : si un contenu est supprimé, il sera possible d’aller voir le juge, qui se fondera sur les conditions générales d’utilisation. Or, dans bien des cas, si des plateformes ont supprimé des contenus, c’est parce que leurs CGU, qui ne font l’objet d’aucun contrôle de la DGCCRF – direction générale de la concurrence, de la consommation et de la répression des fraudes –, prévoyaient des dispositions abusives.

 

Pour en revenir à un exemple que j’ai cité hier, le mot « lesbienne » ne peut pas être utilisé sur Facebook. Un groupe lié à une association qui promeut l’homosexualité féminine et qui revendique le nom de « lesbienne » n’a pas pu obtenir de Facebook la possibilité de l’utiliser dans ses publications, ce qui n’est pas normal.

 

C’est parce que le texte ne contient aucune disposition obligeant les plateformes à respecter les règles protégeant la liberté d’expression qu’à mon sens, l’équilibre n’est pas atteint.  

 

M. le président. La parole est à Mme Caroline Abadie.

Mme Caroline Abadie. Le groupe LaREM a introduit l’article 1er ter lors de l’examen du texte en commission, afin de rappeler au notifiant qu’il est responsable pénalement au moment où il notifie. Il peut en effet être puni d’un an d’emprisonnement ou de 15 000 euros d’amende dans le cas où il aurait conscience, quand il envoie sa notification, que celle-ci est abusive, c’est-à-dire quand il sait de bonne foi que le contenu n’est pas manifestement illicite.

Il s’agit d’une nouvelle application du « en même temps » : après avoir facilité la notification, nous voulons que le notifiant soit mis, le cas échéant, face à ses responsabilités. (M. Jean Terlier applaudit.)

 

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. M. le secrétaire d’État m’ayant citée, je crois utile de lui répondre. J’ai bien compris que la sanction de 4 % du chiffre d’affaires est « systémique », et qu’elle vise une obligation de moyens, sans concerner individuellement tel ou tel contenu. Mais, pour rester logique dans mon approche, je soutiens qu’il ne faut pas compartimenter les choses : vous avez confié aux plateformes une sanction qui n’est pas juridique, mais qui leur permettra de retirer un contenu. N’est-ce pas la pire des choses, au regard de la liberté d’expression ?

Le pouvoir énorme que vous leur avez ainsi confié n’est pas encadré. L’abus de retrait n’est pas sanctionné de la même manière que la diffusion de messages haineux ou injurieux. Soit on est dans le régime du droit commun – auquel cas la sanction intervient au bout de plusieurs mois –, soit on tombe dans une procédure d’abus, qui risque de provoquer de l’autocensure. Je considère donc moi aussi qu’il y a déséquilibre.  

 

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 150.

Mme Emmanuelle Ménard. Voici un amendement que je défendrai avec des pincettes, car je ne cache pas que je désapprouve ce texte, qui risque d’engendrer, de la part des plateformes, un excès de zèle alimenté par des dénonciations qui, si elles sont instrumentalisées, risquent d’aboutir à de véritables catastrophes. De ce fait, nous proposons d’envoyer un message clair à toutes les personnes qui voudraient abuser du nouveau pouvoir de dénonciation que vous allez leur accorder.

Ce message clair, c’est une tolérance zéro pour ceux qui s’attaqueront à la liberté d’expression, ce qu’ils pourront faire de manière anonyme, comme nous l’avons vu lors de l’examen de l’article précédent.

 

Les 15 000 euros de sanction prévus nous semblent à la fois beaucoup et trop peu. Si l’intention de lutter contre la haine sur internet est louable, il faut aussi – pendant indispensable – être intraitable envers ceux qui pourraient se servir des failles de la loi pour censurer ceux qui ne pensent pas comme eux. À mon sens, il s’agit d’une condition sine qua non pour que la proposition de loi, à défaut d’être excellente, soit au moins acceptable.

 

L’aggravation de la sanction de 15 000 à 75 000 euros va dans ce sens. Elle envoie le bon message : la liberté d’expression est l’ADN de notre démocratie. Il faut la préserver, et plus encore s’assurer qu’elle ne sera pas entravée. J’insiste donc sur la nécessité de relever le plafond de l’amende pour lutter contre les dénonciations abusives qui pourraient à terme museler la liberté d’expression.  

 

(L’amendement no 150, repoussé par la commission et le Gouvernement, n’est pas adopté.)

(L’article 1er ter est adopté.)

Après l’article 1er ter

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 186.

Mme Laure de La Raudière. Cet amendement vise à soumettre à une obligation de moyens toutes les plateformes – quel que soit le volume de leur activité – afin qu’elles fournissent un univers sécurisé, défini sur les conseils du CSA.

Les entreprises concernées doivent s’assurer que l’obligation de vigilance s’applique au minimum à veiller à ce que les modalités et les conditions générales d’utilisation de la plateforme sont conformes aux normes fixées, à appliquer leurs propres modalités et conditions générales d’utilisation de manière efficace et cohérente, à prendre des mesures rapides, transparentes et efficaces à la suite des signalements faits par les utilisateurs…

 

En fait, il s’agit de fixer un cadre de travail pour l’ensemble des plateformes, qui ont une obligation de moyens. Le CSA travaillerait avec elles sur les conditions générales d’utilisation que l’on a évoquées tout à l’heure. Il veillerait à ce que les plateformes situées en dessous du seuil prévu à l’article 1er respectent la LCEN et mettent en œuvre, à cette fin, les moyens nécessaires. Je ne vous cache pas que cet amendement m’a été proposé par la plateforme Snapchat – laquelle, pourtant, fait l’objet d’une fréquentation qui la situe au-dessus du seuil. À mes yeux, ce débat a toute sa place dans le cadre de l’examen de la proposition de loi.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je comprends votre objectif mais votre amendement se heurte à plusieurs difficultés. Premièrement, nous n’avons pas encore abordé le chapitre de la régulation administrative et des obligations de moyens. Nous examinerons par la suite l’office du régulateur. Notre débat porte toujours sur le délit institué par l’article 6-2 de la loi pour la confiance dans l’économie numérique, qui fait l’objet d’un contrôle du juge. Ce premier élément n’est pas simplement formel, car il incombe au juge d’apprécier les éléments constitutifs de l’infraction, tels que la matérialité des faits et l’intention de l’auteur.

Deuxièmement, vous évoquez les modalités de la régulation administrative. Or le régulateur appréciera les éléments que vous évoquez sans qu’il soit nécessaire de les inscrire dans la loi. Si un manquement est commis, le régulateur, fort du pouvoir d’instruction qui lui est reconnu par la loi, appréciera les faits in concreto. Les précisions que vous entendez apporter sont superfétatoires, car le texte fait référence au délit institué par le nouvel article 6-2 de la LCEN, lequel délit relève de l’appréciation du juge. Avis défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Nous avons entamé hier la discussion sur les seuils – appréciés en fonction du nombre de connexions –, et nous sommes amenés à la poursuivre. Vous avez voulu maintenir le principe des seuils, soit, mais il n’y a pas de petites ni de grandes victimes. Il y a des victimes de contenus haineux qui, dans certains cas, auront la possibilité d’en obtenir le retrait sous vingt-quatre heures et, dans d’autres cas, ne l’auront pas. L’intérêt de l’amendement de Mme de La Raudière est d’imposer des obligations plus strictes et de gommer les différences de traitement entre les victimes, que la plateforme se situe au-delà ou en deçà des seuils que vous aurez déterminés. En effet, il faut aussi penser aux victimes. Cela justifierait la suppression des seuils – ce que nous n’avons pas fait – ou l’adoption de l’amendement proposé par Mme de La Raudière.

(L’amendement no 186 n’est pas adopté.) 

Article 2

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je souhaite intervenir sur un point particulier évoqué aux alinéas 5 et suivants : la contestation de la notification. L’alinéa 8 dispose que les opérateurs « mettent en œuvre un dispositif permettant… ». Vous instituez un dispositif sans expliquer de quoi il s’agit. Un délai est prévu pour le signalement, mais pas pour l’examen de la contestation de ce dernier ni pour le retrait du contenu. Vous dites que vous avez équilibré le texte. Pourtant, une disproportion demeure : si la plateforme doit, en vingt-quatre heures, traiter le signalement et retirer le contenu, il faut aussi définir un délai de contestation du retrait. À cette fin, je déposerai deux amendements. Pourquoi deux ? Parce que la contestation des retraits se fera devant le juge, et que les tribunaux seront nombreusement saisis. On risque, de ce fait, de connaître, pendant quelque temps, des divergences de jurisprudence. Il serait peut-être souhaitable de recentrer ces contentieux sur des juridictions spécialisées. Je rejoins, à certains égards, ce qui a été dit par nos collègues de La France insoumise il y a quelques minutes. Nous devrions avoir une véritable expertise sur le sujet, pour éviter l’hétérogénéité des décisions et s’inscrire dans un temps judiciaire très long assurant la stabilisation de la jurisprudence.

M. le président. La parole est à M. Guillaume Vuilletet.

M. Guillaume Vuilletet. Il s’agit d’un des éléments centraux du dispositif. Si je ne m’abuse, notre collègue Danièle Obono avait cité, dans sa motion de rejet préalable, Stokely Carmichael, militant de la cause afro-américaine, qui affirmait : « Si un homme blanc veut me lyncher, c’est son problème. S’il a le pouvoir de me lyncher, c’est mon problème. » Je m’inscris en faux contre cette affirmation, qui relève d’une perception très nord-américaine, très individualiste. Dans notre pays, dans notre République, si tu veux me tuer, si tu peux me tuer, c’est notre problème à tous. Dans le premier cas, cela nous apparaît peut-être de façon plus distante, parce que le problème relève de notre éducation, du vivre ensemble. Dans le second cas, c’est évidemment autre chose.

Aujourd’hui, internet permet de tuer, de faire pression, de diffuser un discours qui va se répandre et favoriser non seulement la haine, mais encore le passage à l’acte. À cet égard, l’article 2 assure un équilibre entre la notification, la contestation de cette dernière, l’information des auteurs, dans les deux sens, et le recours ultérieur à la justice. Ce système permettra à tout citoyen, conscient de sa responsabilité au regard du vivre ensemble, de signaler un contenu haineux, tout en autorisant celui qui s’estime injustement contraint d’invoquer sa liberté de parole. Les membres du groupe La République en marche soutiendront cette disposition, qui constitue le cœur de l’équilibre du texte. (Applaudissements sur plusieurs bancs du groupe LaREM.)

 

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. Je ne me retrouve pas dans cette disposition, même si, comme l’ensemble de nos collègues, j’approuve l’objectif poursuivi par la majorité à travers la mise en place de ce dispositif. Le texte confie une mission aux autorités administratives, au CSA, sans leur attribuer les moyens correspondants, qu’ils soient humains, techniques ou de formation ; leurs ressources demeurent très en deçà du niveau nécessaire.

Je ne peux résister au plaisir de répondre à l’interpellation de notre collègue Guillaume Vuilletet concernant la citation de Stokely Carmichael. Cela nécessiterait des débats plus approfondis, car cette question est au cœur de la lutte contre les discriminations. J’ai fait référence à ces propos pour illustrer une situation de pouvoir, un rapport de forces, pas seulement entre des individus. La stratégie du Black Panther Party était de s’adresser à l’institution, notamment à la police, mais aussi à la justice américaine. Elle entendait remettre en cause le fonctionnement de ces structures, le rapport de pouvoir les caractérisant, au détriment de certaines populations stigmatisées, discriminées et tuées – il n’était nul besoin d’internet, déjà, à l’époque, aux États-Unis pas plus que ce n’est nécessaire aujourd’hui en France. Contrairement à ce que vous avez dit, ce n’est pas une prise de position spécifiquement nord-américaine, même si c’est une tradition particulière dont on a, de mon point de vue, beaucoup à apprendre. Elle revêt une dimension universelle, car les discriminations, la hiérarchie et les rapports de pouvoirs se sont appliqués, et continuent malheureusement à s’appliquer à toutes les sociétés. Nous sommes donc en désaccord…

 

M. le président. Veuillez conclure, ma chère collègue !

Mme Danièle Obono. …car votre texte m’apparaît bien trop superficiel et ne se concentre pas sur ce champ.

M. le président. La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 298.

M. Cédric O, secrétaire d’État. C’est un amendement de précision, qui vise à indiquer que les obligations prévues par le nouvel article 6-3 de la LCEN sont limitées au champ des contenus visés par le nouvel article 6-2 du même texte, à savoir les contenus haineux « manifestement illicites ».

(L’amendement no 298, accepté par la commission, est adopté.)

M. le président. L’amendement no 319 de Mme Laetitia Avia est un amendement de coordination.

(L’amendement no 319, accepté par le Gouvernement, est adopté.)

M. le président. L’amendement no 151 de Mme Emmanuelle Ménard est défendu.

(L’amendement no 151, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 239.

M. Stéphane Peu. L’alinéa 5 confère aux opérateurs la responsabilité d’informer du signalement, non seulement la personne qui notifie, mais encore l’auteur du contenu, avec toutes les décisions qui les accompagnent. Nous proposons, par l’amendement no 239, que cette mission de service public ne soit pas attribuée exclusivement aux plateformes. Nous souhaitons qu’en présence d’un contenu contraire à la loi et signalé par un individu aux opérateurs, le signalement soit transmis sans délai à la plateforme PHAROS – plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements – qui, je le rappelle, est composée de policiers et de gendarmes et est rattachée au ministère de l’intérieur. Un tel signalement automatique garantirait que les opérateurs ne soient pas les seuls juges du caractère « manifestement illicite » du contenu et, partant, les seuls décideurs de la sanction.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable, pour deux raisons. Premièrement, votre amendement vise à ce que tous les signalements soient transmis à PHAROS, ce qui nécessiterait de multiplier le nombre d’agents travaillant sur cette plateforme. En effet, on parle de milliers, pour ne pas dire de millions de signalements en France chaque année. Les plateformes ont l’obligation de disposer de modérateurs pour traiter ces signalements, qu’il n’appartient pas à PHAROS de prendre en charge. Nous prévoyons, dans le texte, des moyens de contrôler cette obligation pour s’assurer que les choses seront faites correctement.

Deuxièmement, l’article 3 oblige les plateformes à informer promptement les autorités publiques compétentes des activités haineuses qui leur seront notifiées. La transmission d’information permettra ainsi à ces autorités de prendre le relais, notamment dans le cadre du suivi judiciaire et de la poursuite des auteurs.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Stéphane Peu.

M. Stéphane Peu. Bien que j’aie peu d’espoir de vous convaincre, j’ajoute que vous allez confier à des plateformes privées des responsabilités relevant d’un État. Or si on lit attentivement certaines tribunes, notamment de Mark Zuckerberg, on constate déjà que ces plateformes se considèrent de plus en plus comme des États. J’ai ainsi été effaré de lire qu’elles proposent de mettre en place une cour internationale émanant de leurs rangs. C’est insensé ! Si les pouvoirs publics ne reprennent pas l’initiative, on conférera à ces plateformes des responsabilités considérables. Si on se contente d’affecter vingt-six policiers et gendarmes à la plateforme PHAROS, si on oppose un État faible à des plateformes disposant de moyens quatre, cinq, six fois supérieurs,…

M. le président. Veuillez conclure, mon cher collègue !

M. Stéphane Peu. …on subira une inversion des rôles préjudiciable.

Je vous soumets une idée en guise de conclusion. On a mis en place, à grand renfort de publicité – même si son ampleur me paraît bien faible –, une taxe sur les GAFA. Affectons-en le produit au financement d’une vraie plateforme de régulation, afin que PHAROS ne connaisse plus les vaches maigres. (Mme Danièle Obono applaudit.)

 

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je partage l’avis de mon collègue Stéphane Peu. Vous avez demandé au loup comment il fallait garder la bergerie : comme dans le conte des frères Grimm, il a mis la patte dans la farine pour se faire passer pour un agneau, puis vous lui avez donné les clefs de la bergerie ! L’amendement vise à ce que les opérateurs ne soient pas les seuls juges de ce qui est manifestement illicite, en donnant à l’État la possibilité de contrôler la boîte noire.

En effet, personne ne sait comme cela va se passer. Vous croyez que Facebook laissera le CSA trifouiller dans la boîte noire afin d’obtenir toutes les informations qu’il souhaite ?

 

Mme Laetitia Avia, rapporteure. Oui !

M. Philippe Latombe. Non ! À la rigueur, Facebook vous dira d’envoyer un contenu dans la boîte noire pour voir ce qu’il en ressort. Entre les deux, vous ne saurez pas ce qu’il s’est passé. Même si le CSA opère un contrôle systémique, il y aura tellement de cas – des milliers, des millions – que vous ne pourrez jamais savoir comment cela va se passer. M. Peu le dit depuis le début, et il a raison : Facebook se considère comme un État. Il ne faut pas, comme vous l’envisagez, confier à une telle plateforme des prérogatives régaliennes. Si vous voulez absolument le faire, agissez au moins avec beaucoup de transparence et de doigté.

(L’amendement no 239 n’est pas adopté.)

M. le président. Je suis saisi de deux amendements, nos 311 rectifié et 195, pouvant être soumis à une discussion commune.

La parole est à Mme Laetitia Avia, pour soutenir l’amendement no 311 rectifié.

Mme Laetitia Avia, rapporteure. Il vise à adapter le dispositif aux moteurs de recherche. Ces derniers ont en effet été intégrés dans le champ de la proposition de loi, mais leur travail d’indexation de contenus ne leur permet pas toujours d’entrer en contact avec l’auteur d’un contenu, ce qui peut les placer dans l’impossibilité de respecter certaines des obligations qui leur sont imposées. L’amendement précise donc que les opérateurs informent l’utilisateur du contenu notifié « lorsqu’ils disposent des informations permettant de le contacter ».

L’amendement no 195 est très proche, mais il lui manque un élément de coordination. J’en demande donc le retrait au profit de l’amendement no 311 rectifié.

 

M. le président. La parole est à M. Pierre-Alain Raphan, pour soutenir l’amendement no 195.

M. Pierre-Alain Raphan. Le fond comme la rédaction de votre proposition de loi sont d’une haute qualité, madame la rapporteure. Je retire mon amendement, qui va dans le même sens que le vôtre.

(L’amendement no 195 est retiré.)

(L’amendement no 311 rectifié, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Cédric Roussel, pour soutenir l’amendement no 337.

M. Cédric Roussel. Bien que les plateformes aient désormais l’obligation de répondre, favorablement ou non, à un signalement, en mentionnant le contenu litigieux et le caractère effectif ou non du retrait, force est de constater que le texte n’énumère pas la date et l’heure du signalement comme des informations devant être impérativement transmises au notifiant et à l’utilisateur à l’origine de la publication du contenu.

Pourtant, l’horodatage, qui consiste à enregistrer la date et l’heure d’un événement, revêt une fonction décisive dans la lutte contre les contenus haineux en ligne. La dématérialisation des données et les échanges massifs sur les réseaux posent des difficultés aux victimes pour apporter une preuve tangible des actes commis en ligne.

 

L’horodatage électronique pourra servir de preuve irréfutable de l’existence de contenus répréhensibles à une date et une heure précises. Forme de sceau électronique, il présente la vertu de protéger nos concitoyens, cibles des passions tristes de certains.

 

Pour cette raison et pour satisfaire nos objectifs de clarté, d’intelligibilité, d’efficacité et d’effectivité de la loi, l’amendement vise à sécuriser le dispositif de signalement, afin de donner une date et une heure certaines à la mise en ligne du contenu et de déclencher rapidement le délai légal prévu par le texte.

 

M. le président. La parole est à Mme Laetitia Avia, pour soutenir le sous-amendement no 380 et donner l’avis de la commission sur l’amendement no 337.

Mme Laetitia Avia, rapporteure. La disposition proposée est importante, car les informations relatives à la date et à l’heure du signalement et du traitement permettront d’engager la responsabilité des plateformes. Toutefois, vous employez dans votre amendement le terme « signalement », alors que le texte vise une notification. L’objet de mon sous-amendement vise donc à remplacer celui-là par celle-ci.

Sous réserve de l’adoption du sous-amendement no 380, je donne un avis favorable à l’amendement no 337.  

 

(Le sous-amendement no 380, accepté par le Gouvernement, est adopté.)

(L’amendement no 337, sous-amendé et accepté par le Gouvernement, est adopté.)

M. le président. Je suis saisi de deux amendements, nos 348 et 326, qui peuvent faire l’objet d’une présentation groupée.

La parole est à Mme Laure de La Raudière, pour les soutenir.

Mme Laure de La Raudière. Mes chers collègues, je dois vous avouer n’avoir pas compris la rédaction de l’alinéa 5 de l’article 2. En effet, s’il existe une obligation de déterminer la nature de tous les contenus signalés en vingt-quatre heures, il apparaît logique que le notifiant, comme l’utilisateur qui a publié le contenu, soient informés dans le même délai des suites réservées à ce contenu, qu’il soit retiré ou non. Il est qualifié dans un délai de vingt-quatre heures : soit il est manifestement illicite et il est retiré, soit il ne l’est pas, et cette réponse peut être transmise. Je ne vois pas l’intérêt du délai de sept jours prévu par l’alinéa 5 et je ne comprends pas dans quels cas il doit s’appliquer.

L’introduction d’un délai de sept jours répond, je suppose, à la difficulté de qualifier certains contenus en vingt-quatre heures. Dans ce cas, je propose que les opérateurs puissent utiliser ces sept jours pour saisir le CSA, afin de recueillir son avis et qualifier précisément les contenus. Ensuite, ils auraient vingt-quatre heures pour les retirer ou notifier leur caractère licite aux utilisateurs.

 

Il s’agit presque d’un amendement de précision, destiné à comprendre l’utilité du délai de sept jours inséré par l’alinéa 5.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Tout d’abord, nous devons tous avoir à l’esprit que le CSA n’intervient pas dans l’appréciation des contenus individuels.

Vous demandez, madame de La Raudière, quel est l’intérêt du dispositif. Il ne s’agit pas des contenus « gris », que nous avons évoqués tout à l’heure. Certains contenus signalés ne seront pas déclarés illicites, certains d’entre eux étant d’ailleurs manifestement licites, même si les personnes les ayant signalés pensaient qu’ils présentaient un problème. Le signalement comporte donc une vertu pédagogique.

 

C’est pourquoi toute personne émettant un signalement doit recevoir une réponse. On prévoit un délai de sept jours pour apporter cette réponse, car les plateformes vont concentrer tous leurs moyens pour qualifier le contenu dans un délai de vingt-quatre heures, si bien qu’elles ne pourront pas, surtout s’il n’y a pas d’urgence, prévenir la personne dans ce même délai du caractère licite du signalement. On leur donne donc un délai de sept jours pour le faire si le contenu n’est pas illicite, d’autant plus que les réponses doivent être motivées.

 

Il n’est pas nécessaire d’avoir un délai aussi contraint pour un contenu licite. Et ce qui importe, in fine, c’est que toutes les personnes signalant un contenu reçoivent une réponse.

 

J’émets un avis défavorable sur ces deux amendements.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Avis également défavorable.

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. Vous ne m’avez pas vraiment convaincue, madame la rapporteure, car si le contenu est qualifié en vingt-quatre heures, la réponse peut être transmise dans le même délai. En effet, qualifier un contenu dans un temps aussi bref prouve que son caractère licite ou illicite est manifeste, si bien qu’il est possible d’apporter la réponse à la personne qui l’a signalé.

Dans l’amendement no 326 – que je n’avais en fait pas défendu, monsieur le président –, le CSA, auquel vous avez décidé de ne pas accorder la faculté de juger les contenus individuels, est remplacé par le juge judiciaire. Cela fait référence au débat que nous avons déjà eu.

 

(Les amendements nos 348 et 326, successivement mis aux voix, ne sont pas adoptés.)

M. le président. L’amendement no 240 de M. Stéphane Peu est défendu.

(L’amendement no 240, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 312 de Mme Laetitia Avia est rédactionnel.

(L’amendement no 312, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 128.

M. Erwan Balanant. L’alinéa 6 de l’article 2 dispose que les opérateurs « mettent en place pour les utilisateurs situés sur le territoire français un dispositif de notification directement accessible et uniforme permettant à toute personne de notifier un contenu illicite dans la langue d’utilisation du service ». L’amendement propose de supprimer les termes « situés sur le territoire français ».

Prenons en effet l’exemple d’un citoyen français en vacances ou en déplacement professionnel en Italie, qui reçoit un commentaire insultant à l’une de ses publications sur internet. Avec la rédaction actuelle du texte, il ne peut pas notifier le commentaire, car il doit être en France pour le faire. Il faut supprimer les termes « situés sur le territoire français » pour résoudre ce problème.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Mon avis est défavorable : même à l’étranger, ce citoyen reste inscrit à la plateforme qu’il a rejointe en tant qu’utilisateur situé sur le territoire français, si bien qu’il pourra toujours notifier le propos.

M. Erwan Balanant. Pas du tout !

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis défavorable.

M. le président. La parole est à M. Erwan Balanant.

M. Erwan Balanant. Je suis désolé, madame la rapporteure : si vous vous connectez à votre compte Facebook à partir de l’Italie, c’est le Facebook italien qui apparaîtra. Vous n’êtes plus en France, donc vous ne pouvez plus notifier un contenu, aux termes de l’alinéa 6 de l’article 2.

M. Stéphane Peu. Cela marche en Bretagne ?

M. Erwan Balanant. Oui, monsieur Peu.

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Votre amendement pose tout d’abord un double problème de territorialité et de conventionnalité au regard du droit de l’Union européenne. Il fragiliserait la solidité juridique du texte, et c’est la raison pour laquelle j’en demande le retrait – à défaut, mon avis sera défavorable.

Par ailleurs, il me semble que Mme la rapporteure a raison : à l’étranger, on reste connecté en tant qu’utilisateur français ; moi-même, qui me déplace souvent en Corée du Sud, je conserve en toutes circonstances un compte Facebook français, puisque je me suis inscrit comme utilisateur français. Cela étant, la situation est peut-être différente sur d’autres plateformes.

 

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Cela dépend en effet des plateformes et des réglages que vous avez sélectionnés au moment de votre inscription. Sur Facebook, en l’absence de tel réglage, on se connecte sur le site Facebook du pays dans lequel on se trouve. Ce problème de territorialité pourrait être dépassé si le texte faisait référence aux utilisateurs français et non aux utilisateurs « situés sur le territoire français » ; ainsi, l’utilisateur français, situé en France ou à l’étranger au moment d’effectuer son signalement, bénéficierait toujours des mêmes droits. Cette modification répondrait à l’esprit de la demande de M. Balanant.

M. le président. La parole est à M. Erwan Balanant.

M. Erwan Balanant. Il s’agit d’une question juridique. Lorsqu’il se rend en Corée, Cédric O n’est pas situé sur le territoire français. L’idée de M. Latombe est très bonne : traduisons-la en sous-amendement pour que les utilisateurs que l’alinéa évoque soient « français » et non « situés sur le territoire français ».

En tout cas, la rédaction actuelle du texte pose un véritable problème.

 

(L’amendement no 128 n’est pas adopté.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 220.

Mme Emmanuelle Ménard. Tel qu’il est rédigé, l’alinéa 6 permet « à toute personne de notifier un contenu illicite ». Or, en matière de liberté d’expression, il me semble que la prudence devrait être la règle. L’amendement vise à limiter le champ d’application de l’alinéa aux contenus potentiellement illicites, ce qui permet de garantir la présomption d’innocence.

(L’amendement no 220, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements identiques, nos 321 et 344.

La parole est à Mme la rapporteure, pour soutenir l’amendement no 321.

Mme Laetitia Avia, rapporteure. Il s’agit de déplacer une disposition qui, adoptée en commission, tend à informer les notifiants des risques qu’ils encourent en cas de notification abusive, au sein des dispositions relatives au signalement du contenu. Ainsi, s’il y a signalement, il y aura information.

M. le président. L’amendement no 344 de Mme Caroline Abadie est défendu.

Quel est l’avis du Gouvernement sur ces deux amendements identiques ?

 

M. Cédric O, secrétaire d’État. Avis favorable, ce sont d’excellents amendements.

(Les amendements identiques nos 321 et 344 sont adoptés.)

M. le président. La parole est à Mme la rapporteure, pour soutenir l’amendement no 313.

Mme Laetitia Avia, rapporteure. Nous en venons à des amendements visant à préciser les obligations auxquelles sont soumises les plateformes, notamment celle de fournir des informations sur les moyens et les procédures – visées par le présent amendement – mis en œuvre dans le traitement des contenus illicites.

(L’amendement no 313, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 282 rectifié.

M. Philippe Dunoyer. Cet amendement est très simple : il vise à substituer, à l’alinéa 7, le mot « et » au mot « ou ». Nous avons abordé le sujet hier, lors de l’examen de la motion de rejet préalable. Parmi les obligations qui pèseront sur les plateformes, figure la mise en œuvre de moyens humains ou technologiques.

Nous avons ouvert le débat, à l’entame de nos travaux, sur la nécessité de compléter les moyens algorithmiques, qui sont sans conteste disponibles et utilisés par les plateformes en vue de traiter les contenus le plus efficacement possible, en leur adjoignant de façon obligatoire des moyens humains. Cela ajoutera une touche d’humanité au traitement des signalements, en évitant que celui-ci soit exclusivement mécanique, automatique, technologique, ce qui fait partie de nos préoccupations.

 

Même si je ne doute pas que tel soit le cas, encore faut-il l’écrire dans la loi, afin de nous assurer qu’aucune plateforme ne pourra, à l’avenir, se soustraire à cette obligation en arguant que, ayant le choix entre des moyens technologiques et des moyens humains, elle a préféré les premiers au motif que les algorithmes la protègent.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Nous avons ouvert ce débat hier, dans le cadre de la motion de rejet préalable. Je tiens à rappeler qu’aucune plateforme visée par le texte ne fonctionne avec des moyens 100 % algorithmiques. Telle n’est pas leur façon de fonctionner. Au demeurant, je doute qu’elles s’engagent sur ce chemin, et les obligations fixées par le texte ne vont pas forcément dans ce sens.

J’ai dit hier qu’il s’agissait de changer deux lettres – « ou » en « et ». Mais j’ai parlé un peu vite car, si la commission a repoussé l’amendement, c’est qu’il a un caractère contraignant : en imposant une combinaison des moyens humains et des moyens technologiques, il pourrait empêcher le recours à une modération humaine des informations.

 

Je vous propose donc, cher collègue, de rectifier votre amendement, en remplaçant le mot : « et » par les mots : « et, le cas échéant », ce qui permet de conserver une modération humaine des informations, si nécessaire.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Il me semble utile de débattre de ce sujet, dont Mme la rapporteure et moi-même avons longuement débattu en aparté.

Monsieur Dunoyer, votre amendement, rectifié dans le sens que vient d’indiquer Mme la rapporteure, me paraît utile. Il permet en effet de préciser que les plateformes – Facebook, par exemple –, en règle générale, ne peuvent dire que leurs contenus sont systématiquement traités de façon technologique. Il ne les oblige pas, pour autant, à recourir systématiquement à un traitement humain des contenus.

 

Je reprendrai l’exemple que j’ai cité hier car il montre que, dans certains cas, il faut laisser les plateformes recourir aux moyens technologiques. La vidéo de la tuerie de Christchurch, une fois identifiée, a été automatiquement déréférencée. Or on en a dénombré 1,5 million d’exemplaires dans les heures qui ont suivi. Dès lors qu’il faudra retirer les contenus en vingt-quatre heures, il sera impossible de s’en remettre à l’action d’un être humain appuyant sur un bouton.

 

Il faut donc s’en tenir à un principe d’équilibre. Au demeurant, parmi les obligations incombant au CSA, figure la vérification de l’équilibre des traitements des contenus.

 

Nous partageons totalement votre optique, monsieur Dunoyer. On ne peut pas laisser Facebook renvoyer tous ses modérateurs, pour se reposer exclusivement sur une modération technologique des informations. Votre précision est utile mais, dans certains cas, compte tenu de la viralité et de la masse des contenus postés sur le web, il faut que les plateformes puissent automatiser les procédures.

 

Votre amendement, tel qu’il vient d’être rectifié par Mme la rapporteure, permet de parvenir à un tel équilibre, qui sera vérifié par le CSA. Le Gouvernement y est donc favorable.

 

M. le président. La parole est à M. Frédéric Reiss.

M. Frédéric Reiss. Nous débattons de l’alinéa 7 afin de déterminer – toujours mus par un souci d’efficacité et de transparence – comment demander aux opérateurs de mettre en œuvre les procédures et les moyens – humains ou technologiques – permettant un traitement des contenus dans les meilleurs délais.

Nous avons déjà largement entamé le débat sur les moyens technologiques – notamment les algorithmes – auxquels recourent les plateformes. J’ai amorcé hier une réflexion, dont la pertinence m’a été confirmée ce matin, pour faire la lumière sur les revenus susceptibles de provenir de l’exploitation publicitaire, par les plateformes, des discours de haine.

 

Le président de l’association AAID – Association for accountability and internet democracy – a demandé au numéro deux de Facebook de réfuter les soupçons, s’agissant de l’exploitation commerciale des messages de haine, qui pèsent sur cette plateforme. Celui-ci avait annoncé qu’il donnerait une réponse dans les huit jours. Mais la question date du 21 juin ; nous sommes le 4 juillet, et aucune réponse n’est venue.                                                                                              

 

Il faut avoir présent à l’esprit, me semble-t-il, qu’il est inadmissible qu’une plateforme puisse engranger de l’argent, en toute impunité, en exploitant les propos haineux et les contenus illicites qui circulent sur le net.

 

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Madame la rapporteure, je suis en désaccord avec vous : l’automatisation intégrale de la modération des informations entre bien dans le modèle de Facebook – et d’autres plateformes –, ce qui explique que ses dirigeants développent les algorithmes autoapprenants, investissent massivement dans l’intelligence artificielle et alimentent une base de données servant de référence, laquelle n’est plus limitée à des mots-clés, mais comporte également des expressions. Tout cela vise à rendre la modération des informations 100 % automatique.

Il est donc normal que nous débattions du remplacement de « ou » par « et ». À titre personnel, je préfère le « et », sec, au « ou ». J’admets que la rectification que vous proposez constitue une amélioration, et je la voterai.

 

J’aurais néanmoins préféré que nous adoptions un « et » simple, afin de réintroduire de l’humain dans la modération des contenus, et d’éviter que celle-ci relève d’une boîte noire qui permettrait un jour aux plateformes de dire qu’elle n’y peuvent plus rien, qu’elle n’ont plus la main en ce domaine, devenu trop complexe car confié à l’intelligence artificielle.

 

Réintroduire de l’humain permet de responsabiliser les acteurs et de désigner, au besoin, un responsable. Sinon, à un moment donné, on nous opposera que le système – la boîte noire – a pris les décisions et qu’on ne peut rien faire, ce qui n’est pas acceptable. Même dans le numérique, il faut des êtres humains.

 

M. le président. La parole est à M. Philippe Dunoyer.

M. Philippe Dunoyer. J’accepte la rectification de l’amendement, dans un esprit totalement consensuel. Je remercie M. le secrétaire d’État et Mme la rapporteure de leurs précisions.

(L’amendement no 282, tel qu’il vient d’être rectifié, est adopté.)

M. le président. L’amendement no 314 de Mme Laetitia Avia, rapporteure, est de précision.

(L’amendement no 314, accepté par le Gouvernement, est adopté.)

M. le président. Sur les amendements identiques nos 315 et 341, je suis saisi par le groupe La République en marche d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

L’amendement no 315 de Mme la rapporteure est défendu.

 

La parole est à Mme Caroline Abadie, pour soutenir l’amendement no 341.

 

Mme Caroline Abadie. Il vise à parer aux risques de retrait excessif de contenus. Il intéressera sans doute nos collègues qui s’en inquiètent beaucoup depuis hier. Il s’agit d’obliger les plateformes à mener une évaluation systématique de toutes les notifications.

L’amendement insiste sur le fait que notification ne vaut pas retrait, et que les plateformes doivent mettre en œuvre les moyens nécessaires pour mener l’évaluation de chaque notification. Autant dire qu’il ne consiste pas à donner du pouvoir aux plateformes, mais à leur fixer un véritable devoir de mettre en œuvre des moyens très significatifs.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Cet amendement plaira à M. Latombe et à Mme Frédérique Dumas. Nous sommes conscients d’avancer sur une ligne de crête. L’amendement impose aux plateformes d’investir dans des moyens appropriés. Le CSA vérifiera que tel est le cas, et que l’équilibre entre le plus et le moins est assuré. Avis favorable.

M. le président. Je mets aux voix les amendements identiques nos 315 et 341.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        39

        Nombre de suffrages exprimés                39

        Majorité absolue                        20

                Pour l’adoption                39

                Contre                0

(Les amendements identiques nos 315 et 341 sont adoptés.)

(Applaudissements sur plusieurs bancs du groupe LaREM.)

M. le président. L’amendement no 63 de M. Hervé Saulignac est défendu.

(L’amendement no 63, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Les amendements nos 135 et 136 peuvent faire l’objet d’une présentation groupée.

La parole est à M. Philippe Latombe, pour les soutenir.

M. Philippe Latombe. Le texte prévoit, en cas de contestation du retrait d’un contenu, une réponse de l’opérateur sous vingt-quatre heures. Nous nous heurtons à nouveau au problème des contenus gris.

Madame la rapporteure, vous demandez aux plateformes de mettre en place un dispositif de contestation. Je suis tout à fait d’accord avec vous s’agissant de la possibilité de contester à l’intérieur même de la plateforme.

 

Toutefois, vous ne prévoyez pas les modalités de cette contestation. Certes, on peut considérer qu’il est souhaitable, en fonction du type de plateforme, de les laisser s’organiser.

 

En revanche, dès lors que la réponse à un signalement doit être fournie sous vingt-quatre heures, nous pourrions prévoir, par souci d’équilibre, en miroir, une réponse aux contestations de signalement sous vingt-quatre heures.

 

Le signalement est assorti de motifs. Ceux-ci pourraient fonder une réponse à la contestation du signalement, formulée par la plateforme sous vingt-quatre heures.

 

Nous nous heurtons là à la difficulté de la temporalité. Dès lors qu’il faut déréférencer très vite des contenus, s’il s’agit d’un contenu gris faisant l’objet d’une contestation, il faut que la réponse à cette contestation soit elle aussi fournie sous vingt-quatre heures, ce qui permet de prendre d’éventuelles décisions judiciaires rapidement, sur la base des motifs de l’éventuelle acceptation de la contestation du signalement. Tel est l’objet de l’amendement no 135.

 

L’amendement no 136 porte sur la réponse à la contestation d’un signalement. Comme vous l’avez indiqué, monsieur le secrétaire d’État, et comme l’a indiqué Mme la garde des sceaux, si cette réponse ne convient pas à l’internaute ayant contesté le signalement, au point qu’il porte l’affaire devant un tribunal, il faut prévoir lequel, afin d’éviter de la jurisprudence un peu partout.

 

Je propose donc de retenir les neuf tribunaux de grande instance spécialisés dans les contentieux de propriété intellectuelle énuméré par le code de l’organisation judiciaire. Ainsi, nous disposerons très rapidement d’une jurisprudence convergente.

 

À défaut, celle-ci sera abondamment produite par les tribunaux de grande instance un peu partout sur le territoire. Nous devons assurer son homogénéité le plus rapidement possible, afin que chacun sache si la contestation d’un contenu est fondée ou non.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Nous sommes dans le cadre des obligations de moyens, lesquelles font l’objet d’une supervision par le CSA. Sur ces éléments, justement, le dispositif permettra une certaine agilité puisque le CSA travaillera au plus près des plateformes qui le mettront en place tout d’abord. Il pourra ainsi évaluer les temps de traitement et adresser aux plateformes les recommandations les plus adaptées aux besoins.

Je ne suis pas favorable, pour ma part, à l’inscription d’un délai dans la loi : ce n’est pas l’objectif. L’objectif est de s’assurer que les recours soient effectifs, bien cadrés, supervisés, et c’est justement pour cela qu’un régulateur sera chargé de cette mission : il adressera des recommandations, fixera des lignes directrices et définira de bonnes pratiques. Avis défavorable, donc.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Pas plus que M. Peu tout à l’heure, je n’ai l’espoir de vous convaincre. Je sais simplement que, puisque vous fixez un délai pour le signalement et pour la réponse au signalement, il faudrait fixer aussi un délai de réponse à la contestation, pour assurer les équilibres nécessaires.

Nous divergeons sur cet équilibre et sur cette ligne de crête que vous dites avoir trouvés depuis hier. Certains d’entre nous, sur l’ensemble de ces bancs, ont des difficultés à voir les choses de cette façon-là. Dont acte. Mes amendements sont évidemment maintenus.

 

(Les amendements nos 135 et 136, successivement mis aux voix, ne sont pas adoptés.)

M. le président. La parole est à M. Meyer Habib, pour soutenir l’amendement no 285.

M. Meyer Habib. Il vise à renforcer le volet préventif et dissuasif de la proposition de loi. L’idée est simple : les auteurs récidivistes – et eux seuls, je le répète – des contenus haineux seront fichés et signalés aux autres utilisateurs par les opérateurs de plateformes.

C’est là un axe préventif complémentaire des articles 6 bis et ter de cette proposition de loi, qui invite l’éducation nationale à former les élèves à la lutte contre la diffusion de la haine en ligne.

 

Les critères, sur lesquels vous ne manquerez pas de m’interroger, seront précisés par décret. Concrètement, sur tel ou tel réseau social, un encart lisible « signalé » apparaîtra sous votre nom et votre profil. Cette information aura d’abord, évidemment, une fonction punitive et dissuasive, conformément à la logique du « shaming » – honte publique, en français.

 

La publication de contenus haineux doit être stigmatisée. La peur et la honte doivent changer de camp. Ce principe préventif permettra aux autres utilisateurs, ou aux parents qui suivent, de près ou de loin, le compte de leurs enfants, en particulier mineurs, d’identifier les auteurs et propagateurs de contenus manifestement illicites. Vous l’avez compris, il s’agit surtout de protéger les plus jeunes, très présents sur les réseaux sociaux. Aujourd’hui, 76 % des 12-17 ans le sont, et 93 % des 18-24 ans.

 

Je propose donc que les auteurs ne puissent plus s’abriter derrière des pseudonymes : ils doivent être signalés par une mention claire sur leurs comptes comme ayant publié des contenus illicites.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Plusieurs aspects de cet amendement me gênent, notamment dans sa rédaction : s’agit-il d’un auteur signalé, ou de contenus manifestement illicites, et qui ont été qualifiés comme tels ? Voilà une question parmi plusieurs autres que je me pose. Vous nous dites que l’amendement vise les auteurs récidivistes, mais je ne vois pas cette précision dans sa rédaction.

Je tiens surtout à rappeler que nous avons adopté, en commission, un amendement de votre groupe prévoyant l’affichage, en lieu et place d’un contenu manifestement illicite, d’un message informant du retrait. Je pense que cela répond à votre préoccupation et permet d’atteindre votre objectif.

 

Quant aux mentions portées sur les comptes des utilisateurs des réseaux sociaux, je rappelle qu’elles relèvent de la compétence de l’autorité judiciaire, qui peut d’ores et déjà, après une condamnation, en ordonner la publication sur tout support – y compris sur le support électronique que constitue un compte sur un réseau social. Avis défavorable, donc.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Meyer Habib.

M. Meyer Habib. De fait, nous aurions peut-être pu améliorer la rédaction pour la rendre plus claire. Tout d’abord, je l’ai dit, nous parlons ici de récidivistes. J’ai aussi dit, et vous m’avez sans doute écouté, que les critères de cette sanction seraient fixés par décret. On peut donc imaginer qu’un utilisateur qui, à deux, trois ou quatre reprises – ce sera au décret de le déterminer – aura tenu des propos illicites sera signalé et montré du doigt. En anglais, cela s’appelle le « shaming » et je puis vous garantir que ça fonctionne très bien, et que ce sera très dissuasif.

Cet amendement a d’ailleurs intéressé beaucoup de parlementaires. Peut-être faut-il en améliorer la rédaction, mais je pense que le fait de montrer du doigt les propagateurs de haine – après leur avoir adressé un avertissement, par exemple, et s’ils commettent encore un certain nombre de récidives, à déterminer selon la gravité du fait – me semble aller dans le bon sens.

 

(L’amendement no 285 n’est pas adopté.)

M. le président. Je suis saisi d’un amendement no 349 qui fait l’objet d’un sous-amendement no 381.

La parole est à Mme Caroline Abadie, pour soutenir l’amendement.

Mme Caroline Abadie. Par cet amendement, le groupe La République en marche a voulu s’attaquer à la viralité. De nombreux collègues, sur nos bancs, ont travaillé sur ce sujet, et nous avons beaucoup mouliné la question. Le sujet est important : la vidéo de la tuerie de Christchurch, par exemple, a connu 1,5 million de rediffusions en vingt-quatre heures, alors qu’elle avait été retirée au bout de quatorze ou dix-sept minutes. C’est énorme.

Nous voudrions donc imposer aux plateformes de mettre en œuvre tout moyen pour empêcher la viralité des contenus retirés au titre de l’article 1er, c’est-à-dire des contenus notifiés et manifestement illicites.

 

Il s’agit d’une obligation de moyens, car il est clair que le problème ne sera pas facile à traiter pour les plateformes : nous restons soucieux de préserver l’équilibre entre ce qu’on leur demande et ce qu’elles peuvent faire.

 

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour donner l’avis de la commission sur cet amendement et soutenir le sous-amendement no 381.

Mme Laetitia Avia, rapporteure. Je salue la démarche et l’objectif, qui est de s’assurer, autant que possible, que lorsque des contenus sont retirés, ils ne soient pas rediffusés, avec, à chaque fois, le même effet nocif.

Mon sous-amendement vise à modérer cette disposition, puisqu’il ne s’agit pas, je crois, de marquer d’une empreinte chaque contenu retiré, mais de prévoir des moyens adaptés aux différentes situations, de manière que, lorsque la viralité d’un contenu doit vraiment être neutralisée, les plateformes emploient les moyens nécessaires pour y parvenir.

 

C’est pourquoi je vous propose de remplacer les mots : « tout moyen » par les mots : « les moyens appropriés », afin que cette obligation soit mieux proportionnée. Sous réserve de l’adoption de cette modification, je donne un avis favorable à l’amendement.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. Je comprends parfaitement l’objectif, mais je voudrais savoir comment vous comptez l’atteindre. Comment empêcher que des contenus retirés ne réapparaissent, si des gens veulent les publier ? Cela veut-il dire que les opérateurs et les plateformes devront mettre des empreintes sur ces contenus, comme on le fait pour protéger la propriété intellectuelle ? À défaut d’étude d’impact sur cet amendement, je voudrais une explication de Mme la rapporteure ou de M. le secrétaire d’État : comment cette mesure s’appliquera-t-elle, concrètement ?

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Plusieurs méthodes sont possibles. Tout réside dans l’adéquation des moyens et la capacité du régulateur à en vérifier l’emploi. Prenons l’exemple des contenus terroristes : il existe aujourd’hui des bases de données partagées entre les opérateurs susceptibles de diffuser ces contenus. Cela pose d’ailleurs d’autres problèmes, puisqu’ils se les partagent entre eux, et que cela échappe au regard des pouvoirs publics, même si nous sommes en train de faire changer les choses.

Il me semble possible, par exemple, de taguer un certain nombre de contenus. En tout cas, plusieurs solutions techniques existent, qui posent chacune des questions, l’objectif étant que le régulateur soit en mesure de vérifier le caractère adéquat et approprié des moyens retenus.

 

(Le sous-amendement no 381 est adopté.)

(L’amendement no 349, sous-amendé, est adopté.)

M. le président. La parole est à M. Bertrand Bouyx, pour soutenir l’amendement no 232.

M. Bertrand Bouyx. Il vise à responsabiliser les opérateurs mentionnés à l’article 1er en les obligeant à publier leurs règles de modération. Si la proposition de loi a pour principal objet le retrait des contenus haineux signalés comme tels, il semble tout aussi pertinent d’affirmer le rôle de modération des opérateurs en amont, ou en l’absence de signalement. L’objectif est également d’imposer une obligation de moyens en adéquation avec les termes de l’article 1er.

On a bien compris la nécessité des signalements, mais les règles du jeu doivent être explicitement énoncées par l’arbitre. Il est important, de même, que les règles de modération soient publiées.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Le cinquième alinéa de l’article 3 prévoit d’ores et déjà que les opérateurs mettent à disposition une information publique claire et détaillée sur les règles de modération des contenus. Nous avons voté cette disposition en commission.

Je défendrai tout à l’heure un amendement pour précise qu’il s’agit de donner une information sur ces règle. Votre amendement me semble donc satisfait, monsieur Bouyx.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 232 est retiré.)

(L’article 2, amendé, est adopté.)

Article 3

M. le président. La parole est à M. Raphaël Gérard, inscrit sur l’article 3.

M. Raphaël Gérard. L’article 3 s’inscrit dans une série de nouvelles obligations administratives faites aux plateformes pour donner chair à leur devoir de coopération en matière de lutte contre les contenus haineux en ligne.

Compte tenu de la difficulté constatée par les utilisateurs victimes de contenus haineux sur les réseaux sociaux pour accéder à ces contenus, qui sont soit éphémères, soit supprimés, soit retirés, il est dommage, à mon sens, de ne pas avoir inséré dans cette liste une obligation de conservation des données strictement nécessaires aux fins de poursuite, de manière à permettre l’identification des auteurs de tels contenus.

 

À l’heure actuelle, plusieurs plateformes manquent en effet à leurs obligations relatives à la conservation des données utiles aux fins de poursuites judiciaires par les victimes de contenus haineux. Facebook, par exemple, les conserve pendant quelques mois, alors que le délai de prescription court jusqu’à un an en cas d’injures ou de propos discriminatoires.

 

De fait, le rapport sénatorial relatif à la loi du 29 juillet 1881 sur la liberté de la presse à l’épreuve d’internet, publié en 2016, rappelle que l’amende encourue en cas de non-conservation des éléments d’identification n’est pas suffisamment dissuasive, notamment en raison de son montant – 75 000 euros –, qui n’est pas proportionné au regard du profil des principaux acteurs visés par la proposition de loi.

 

Il aurait donc pu être intéressant de rendre cette sanction plus dissuasive en permettant au Conseil supérieur de l’audiovisuel de se fonder sur le non-respect de cette obligation pour justifier une mise en demeure des opérateurs concernés, et prononcer une sanction pouvant aller jusqu’à 4 % du chiffre d’affaires mondial.

 

M. le président. La parole est à Mme Géraldine Bannier.

Mme Géraldine Bannier. L’article 3 est d’une importance majeure puisqu’il porte sur l’information claire et nécessaire dont doivent disposer les utilisateurs sur les voies de recours, soit qu’un retrait de contenu est contesté, soit qu’une demande de retrait n’a pas été satisfaite.

Le groupe MODEM présentera un amendement de précision imposant aux plateformes d’informer les utilisateurs sur les éléments constitutifs de l’injure et de l’incitation à la haine.

 

L’article 3 précise aussi l’information que les plateformes doivent transmettre au CSA relativement aux actions et aux moyens engagés dans la lutte contre les propos haineux. Notre groupe défendra deux amendements, l’un pour préciser le contenu des informations qu’elles doivent rendre publiques, l’autre pour intégrer au compte rendu fait au CSA un volet relatif à la prévention qu’elles pourront mettre en œuvre.

 

L’alinéa 9 est crucial car il permet de mettre fin à une forme d’impunité en imposant la désignation d’un représentant légal sur le territoire français. C’est là un réel progrès, de nature à améliorer la coopération souhaitable entre les opérateurs et le CSA.

 

Le groupe MODEM est favorable à l’article 3.

 

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Cet article est important, mais il ne va pas assez loin.

À plusieurs reprises, monsieur le secrétaire d’État, lors de votre audition en commission comme en séance, vous avez établi un parallèle avec la régulation bancaire. Or, en cette matière, l’organe de régulation effectue des contrôles physiques sur place. Placé sous la tutelle de la Banque centrale européenne, il peut exiger que des informations lui soient transmises et, au besoin, aller les chercher par une inspection.

 

Or, aux termes de l’article 3, les opérateurs « rendent compte de l’organisation interne qu’ils adoptent pour se conformer à l’obligation prévue au premier alinéa ». Ils pourront raconter ce qu’ils veulent ! Comment pourrez-vous vérifier ce que leur système contient ? Comment être sûr que l’information qu’ils donnent est conforme à la réalité, alors que les serveurs et les équipes seront implantés hors du territoire français et de l’Union européenne ? Là est la vraie difficulté.

 

Vous leur demandez des informations et vous faites confiance à ceux-là même qui prétendaient protéger les données personnelles des utilisateurs et qui, pour certains, les ont vendues à Cambridge Analytica ou à d’autres.

 

Ne soyez pas naïfs ! Les plateformes nous raconteront des choses que nous ne serons pas en mesure de vérifier : c’est gênant.

 

Je reviens à ce que je disais précédemment : vous avez demandé au loup comment il fallait garder la bergerie ; il vous a expliqué comment le faire ; il s’est engagé à donner certaines informations mais, à la fin, vous ne saurez pas si elles sont pertinentes. C’est en cela que l’article 3 protège insuffisamment les utilisateurs.

 

Je ne reviens pas sur le débat que nous avons eu à propos des CGU : s’il importe de mettre à disposition des informations claires à leur sujet, il faut aussi pouvoir contrôler leur conformité à la réglementation française.

 

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Les obligations que vous évoquez, monsieur Latombe, sont précisées à l’article 4. L’article 3, lui, concerne la transparence et l’information destinée au grand public. Les pouvoirs d’enquête, y compris sur pièces et sur place, du CSA – que nous renforçons, d’ailleurs – font, eux, l’objet de l’article 4.

La capacité à vérifier l’exactitude des informations transmises par les plateformes, qui est en effet la condition sine qua non de l’efficacité de la loi, relève de l’article 4.

 

M. le président. Nous en venons aux amendements à l’article.

L’amendement no 70 de Mme Michèle Victory est défendu.

(L’amendement no 70, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements, nos 365 et 241, pouvant être soumis à une discussion commune.

La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 365.

Mme Frédérique Dumas. Dans un souci de simplification et de transparence, l’amendement, qui s’inspire de la rédaction du  règlement général relatif à la protection des données, vise à substituer aux mots : « claire et détaillée », les mots : « centralisée, concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples ».

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 241.

M. Stéphane Peu. Cet amendement complète et précise les obligations faites aux opérateurs de plateforme : l’information qu’ils doivent fournir à leurs utilisateurs en matière de lutte contre les contenus haineux doit être « facilement accessible et visible ». Il s’agit de renforcer la portée du devoir d’information qui incombe aux opérateurs et de conforter ainsi l’effectivité du droit à l’information.

M. le président. Quel est l’avis de la commission sur ces deux amendements ?

Mme Laetitia Avia, rapporteure. Sans être identiques, ils visent tous deux à préciser les caractéristiques des informations données par les plateformes. L’amendement de M. Peu me semble répondre à l’objectif d’accessibilité de l’information que nous cherchons à atteindre.

J’émets donc un avis favorable à l’amendement no 241, et demande le retrait de l’amendement no 365.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Je ne retire pas l’amendement car je n’en suis pas la première signataire.

M. le président. Cela ne vous empêche pas de le retirer, ma chère collègue…

(L’amendement no 365 n’est pas adopté.)

(L’amendement no 241 est adopté.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 213.

M. Erwan Balanant. Nous venons d’adopter un amendement visant à rendre facilement accessible et visible l’information des utilisateurs. Afin de rendre le dispositif plus opérationnel,  l’amendement no 213 tend à compléter l’obligation d’information en imposant aux opérateurs de publier la définition de l’injure et de l’incitation à la haine.

Ce dispositif, d’une part, aurait une visée pédagogique puisqu’il sensibiliserait l’ensemble des utilisateurs à la teneur de ces infractions. Confrontés très régulièrement aux définitions qui en sont données, ils auraient une conscience accrue de ce qu’ils peuvent ou non exprimer. D’autre part, la mesure permettrait aux victimes de contenus relevant de l’injure ou de l’incitation à la haine de les identifier comme tels. Elles seraient incitées à agir contre les contenus qui leur portent préjudice.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Votre amendement reviendrait à faire figurer des textes de droit dans l’information publique. Or l’amendement que nous venons de voter a précisément pour objet de rendre claire et accessible à tous cette information, à l’opposé de votre proposition qui l’alourdirait et, ce faisant, en compromettrait l’efficacité. Plus l’information est dense, moins elle sera lue et plus les utilisateurs se contenteront de cliquer sans que l’objectif ait été atteint. Avis défavorable.

(L’amendement no 213, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 242 de M. Stéphane Peu est défendu.

(L’amendement no 242, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 306 de Mme Laetitia Avia, rapporteure, est rédactionnel.

(L’amendement no 306, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Sébastien Cazenove, pour soutenir l’amendement no 218.

M. Sébastien Cazenove. L’article 3 contraint les opérateurs de plateformes à donner une information publique, claire et détaillée sur les voies de recours pour les victimes de propos haineux. L’amendement vise à préciser que cette information comprend les coordonnées téléphoniques valides des acteurs en mesure d’assurer l’accompagnement des victimes afin de leur permettre d’agir dans les meilleurs délais.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je ne suis pas sûre que cela relève du domaine de la loi. L’information portera sur les acteurs susceptibles d’accompagner les victimes et sur les bonnes pratiques en la matière, mais la mention du numéro de téléphone ne me paraît pas pertinente. Je demande donc le retrait ; à défaut, l’avis sera défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 218 est retiré.)

M. le président. La parole est à M. Raphaël Gérard, pour soutenir l’amendement no 80.

M. Raphaël Gérard. Cet amendement vise à préciser l’obligation pour les plateformes d’informer les utilisateurs des risques encourus en cas de notification abusive, obligation qui a été introduite en commission.

La rédaction actuelle prévoit qu’en amont de chaque notification, les plateformes adressent un message au notifiant. Je souscris bien entendu à l’intention qui est de rendre la sanction du signalement abusif plus opérationnelle, mais je crains que l’expérience des utilisateurs ne soit pas suffisamment prise en compte. En effet, nombreux sont ceux qui acceptent les conditions générales d’utilisation sans véritablement les lire. Il s’agit là d’un premier écueil.

 

Je redoute également qu’une information systématique dissuade les utilisateurs en proie à la peur du gendarme de recourir à la procédure de signalement de contenus manifestement illicites.

 

Je propose donc que l’information soit transmise dès lors que les plateformes ont relevé de précédents signalements inexacts de la part du notifiant.  

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Défavorable. Nous sommes parvenus en commission à un point d’équilibre.

(L’amendement no 80, ayant reçu un avis défavorable du Gouvernement, est retiré.)

M. le président. La parole est à M. Philippe Latombe, pour soutenir l’amendement no 138.

M. Philippe Latombe. Il s’agit d’un amendement d’appel destiné à lancer le débat sur l’interopérabilité.

Il dispose que « les opérateurs doivent proposer préalablement à l’acceptation des conditions générales d’utilisation aux utilisateurs le choix entre un système de modération interne à la plateforme ou extérieur par un opérateur indépendant ». C’est dans la phrase suivante que réside l’appel : « Les opérateurs s’assurent de la compatibilité des systèmes externes avec leur plateforme. »

 

Nous sommes plusieurs à penser que le combat contre la haine sur internet ne peut être mené sans l’interopérabilité des plateformes. Cette considération ne relève pas d’une position dogmatique selon laquelle il faudrait casser les monopoles.

 

En revanche, en octroyant aux plateformes la possibilité de modérer les contenus, vous installez une barrière à l’entrée, quoi que vous ayez dit sur les seuils. Vous introduisez de telles exigences, notamment en termes de rapidité, et de telles sanctions que la modération extérieure aux plateformes ne sera plus possible, à moins d’être prévue expressément dans la loi.

 

Il faut pouvoir discuter de l’interopérabilité et l’intégrer dans les textes si nous voulons un internet respectueux des êtres humains, ouvert et capable de diffuser des contenus à travers le monde.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Je profite de l’intervention de M. Latombe pour développer mon point de vue sur l’interopérabilité, et je salue la présence de Mme Obono, qui m’avait interrogé à ce sujet.

La discussion sur l’interopérabilité est intéressante et souhaitable, en particulier dans le cadre de la réflexion sur l’emprise grandissante des plateformes sur l’économie et la société occidentales. L’interopérabilité est une des solutions, mais elle dépasse la question des contenus haineux en ligne.

 

En réponse à Mme Obono, j’avais indiqué que le fait d’imposer l’interopérabilité aux plateformes était excessivement agressif pour leur modèle économique. Le combat sur l’interopérabilité, de surcroît, doit être mené, non au niveau français mais, au regard du champ d’application considéré, européen, d’autant que les Américains, disons-le clairement, ne resteront pas sans réaction. C’est à l’Europe d’imposer des règles en matière d’interopérabilité, comme elle l’a fait pour la protection des données.

 

J’en profite pour proposer un deuxième éclaircissement, sur un point que Mme la rapporteure a déjà évoqué : je pense très sincèrement que l’interopérabilité ne peut pas résoudre le problème de la haine en ligne.

 

Mme Danièle Obono. Ce serait tellement plus simple !

M. Cédric O, secrétaire d’État. C’est intéressant, madame Obono, parce que votre position révèle une vision assez libérale. Lorsque vous êtes sur WhatsApp, vous pouvez communiquer avec Telegram. Selon vous, il est possible, lorsqu’on rencontre un problème sur WhatsApp, de fermer l’application et de poursuivre sa discussion sur Telegram. Si je puis me permettre, cela signifie que, pour vous, le marché règle la situation. Vous fluidifiez le marché en considérant que la libre-concurrence est une solution.

Mme Danièle Obono. Absolument pas !

M. Cédric O, secrétaire d’État. Si, tout à fait.

J’ai eu cette discussion avec l’association La Quadrature du Net, qui défend cette position. D’une certaine façon ce point de vue est libéral, en cohérence avec leur identité libertaire. Pour eux, le marché va régler le problème.

 

Par ailleurs, penser trouver une solution avec une approche libérale est en fait une illusion des métropolitains, des gens hyperconnectés qui comprennent très bien ce système – on le voit en observant la manière dont les populations les plus fragiles utilisent les réseaux sociaux.

 

Dernièrement, j’ai passé beaucoup de temps avec des sociologues qui travaillent sur la fracture numérique, parce que l’inclusion numérique fait partie de mes missions.

 

Les personnes les plus fragiles ou les gilets jaunes ne nous demandent pas de régler les difficultés posées par Facebook en leur donnant la possibilité d’aller sur un autre réseau social ou en rendant VK – VKontakte – interopérable avec Facebook. Ils veulent que nous apportions des réponses aux problèmes qu’ils rencontrent : voilà le sujet fondamental.

 

M. Pierre-Alain Raphan. Évidemment !

Mme Danièle Obono. Il faut des règles !

M. Cédric O, secrétaire d’État. Si vous estimez que l’interopérabilité est une solution, je pense que vous vous trompez profondément. : toutes les études sociologiques le montrent très clairement. (Applaudissements sur plusieurs bancs du groupe LaREM. – Mme Géraldine Bannier applaudit aussi.)

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je note avec plaisir que le sujet de l’interopérabilité nécessitera des discussions et que vous y êtes favorable.

Ce n’est pas le sujet, dites-vous, car ce n’est pas la solution aux problèmes visés par le texte. Mais je suis en désaccord avec vos arguments, qui consistent à dire que l’action relève du niveau européen et non français, et que nous craignons la réaction des États-Unis.

 

Pour rendre possible l’instauration de la taxe GAFA, il a bien fallu que quelqu’un commence, qu’un des pays de l’Union européenne, la France, ouvre la voie. De même, nous pourrions très bien décider, ici, de nous engager dans l’interopérabilité, entraînant avec nous l’ensemble de l’Union européenne.

 

Nous avons peur des États-Unis ? Oui, tout le monde a peur des États-Unis en ce moment ; à telle enseigne que Facebook y est utilisé comme une arme, à travers la création d’une cryptomonnaie, en vue d’une éventuelle guerre commerciale.

 

Nous sommes face à un problème de souveraineté, que l’interopérabilité peut résoudre en partie – même si elle ne réglera pas tout – en permettant à d’autres plateformes d’exister ou en augmentant leurs parts de marché.

 

M. le président. Merci de conclure.

M. Philippe Latombe. L’exemple de Huawei l’a montré : annoncer aux Chinois qu’ils n’auront plus l’OS d’Android a dénoué le différend avec eux. Nos démocraties risquent de rencontrer les mêmes difficultés avec Facebook et les autres plateformes.

M. le président. La parole est à Mme Danièle Obono.

Je crains, monsieur le secrétaire d’État, que vous n’ayez relancé le débat... (Sourires.)

M. Cédric O, secrétaire d’État. J’en suis désolé… (Sourires.)

Mme Danièle Obono. Il ne faut pas le craindre, ce débat est intéressant ! De toute façon il rebondira en fin d’article à travers plusieurs amendements, et il est aussi nécessaire qu’utile.

Votre point de départ, monsieur le secrétaire d’État, n’est pas le même que celui de Mme la rapporteure, puisque vous reconnaissez que la question de l’interopérabilité est, non pas hors sujet, mais plus générale. Je le tiendrai pour acquis, sinon, nous serions amenés à considérer que les parlementaires, selon vous, travaillent et proposent des amendements complètement à côté de la plaque, ce qui ne serait pas très constructif.

 

Je ne reprendrai pas les observations de M. Latombe s’agissant du niveau européen, mais ferai deux remarques. Je pense, comme d’autres, que le « business model », c’est-à-dire le modèle économique, est précisément l’un des fondements de la haine sur internet. Donc, s’attaquer au problème en utilisant les méthodes de l’interopérabilité résout, en partie, un problème structurel. Mieux vaut s’attaquer aux sources qu’aux conséquences, et c’est ce que vous faites, je crois, à travers cette proposition de loi.

 

Deuxièmement, et nous reprendrons le débat, je ne crois pas que ma position soit libérale…

 

M. le président. Merci, ma chère collègue…

Mme Danièle Obono. …ou alors nous parlons d’un libéralisme politique, que j’assume comme faisant partie de la tradition politique à laquelle j’appartiens.

Je crois aussi que la demande des gilets jaunes, que vous refusez d’entendre, portait sur le besoin de services publics, sur le besoin d’une justice et d’une police de proximité.

 

M. le président. Merci.

Mme Danièle Obono. C’est aussi ce que nous proposons, car notre approche est globale. (Exclamations sur quelques bancs du groupe LaREM.)

M. le président. La parole est à Mme Caroline Abadie.

Mme Caroline Abadie. Cette proposition de loi vise à lutter contre les contenus haineux en ligne, non à régler tous les problèmes soulevés par les réseaux sociaux ou internet.

Demanderait-on à quelqu’un qui a été la cible d’injures à caractère raciste, ou proférées en raison de son handicap, de ses pratiques sexuelles, ou d’un appel au viol, de quitter le lieu où de tels propos ont été tenus ?

 

Mme Danièle Obono. Mais arrêtez ! Ce n’est pas une réponse ! Vous insultez le travail des parlementaires !

Mme Caroline Abadie. Pour moi, ce n’est ni la réponse politique, ni la réponse technique qu’il convient d’apporter à ce problème, malgré tout l’intérêt du sujet de l’interopérabilité.

Mme Danièle Obono. Ce que vous dites n’est pas sérieux !

Mme Caroline Abadie. Par ailleurs, si nous appliquions ce principe, madame Obono, ne demeureraient sur les réseaux sociaux que les « haters ».

Mme Danièle Obono. Pas du tout !

Mme Caroline Abadie. Certains espaces seraient donc privés de démocratie, de pluralité, de discours ouverts sur le monde.

Mme Danièle Obono. N’importe quoi !

Mme Caroline Abadie. Je ne pense pas que ce soit une bonne idée. (Applaudissements sur les bancs du groupe LaREM.)

M. Pierre-Alain Raphan. Très bien !

(L’amendement no 138 n’est pas adopté.)

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour soutenir l’amendement no 316.

Mme Laetitia Avia, rapporteure. Cet amendement, dont j’ai déjà parlé, concerne les modalités générales du dispositif.

(L’amendement no 316, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 366.

Mme Frédérique Dumas. Nous proposons de donner une périodicité, en l’occurrence annuelle, au compte rendu des actions.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’avis est défavorable, la proposition est trop rigide.

(L’amendement no 366, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 320 rectifié de Mme Laetitia Avia, rapporteure, est de précision.

(L’amendement no 320 rectifié, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour soutenir l’amendement no 323.

Mme Laetitia Avia, rapporteure. Il s’agit d’ajouter à l’obligation de transparence l’obligation de publier des informations sur les résultats obtenus en matière de lutte contre les contenus haineux.

(L’amendement no 323, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme Géraldine Bannier, pour soutenir l’amendement no 350.

Mme Géraldine Bannier. Je propose que le volet préventif soit pleinement intégré au compte rendu que les opérateurs de plateformes doivent remettre au CSA, afin qu’ils rendent compte de l’action et des moyens engagés pour la lutte contre les contenus visés à l’article 1er et leur prévention. Il me semble important, en effet, que les opérateurs s’occupent aussi de la prévention.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je veux d’abord saluer l’engagement de Mme Bannier, non seulement dans les travaux parlementaires menés à l’occasion de ce texte, mais aussi, de façon plus générale, sur la nécessité d’agir, en matière de prévention, vis-à-vis des utilisateurs d’internet et des réseaux sociaux.

Vous avez raison, le volet préventif était absent de la première version du texte. Le travail en commission a permis d’avancer sur ce sujet, et l’amendement que vous défendez me paraît essentiel. Les informations transmises par les opérateurs au CSA devront inclure les actions menées en matière de prévention. C’est là un point important, que je vous remercie d’avoir soulevé à travers votre amendement, qui complète utilement le dispositif. L’avis est donc hautement favorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Très favorable également.

(L’amendement no 350 est adopté.)

M. le président. La parole est à M. Frédéric Reiss, pour soutenir l’amendement no 179.

M. Frédéric Reiss. Je propose de supprimer la deuxième phrase de l’alinéa 6. Le rôle et les missions du CSA sont définis dans l’article 4 : les alinéas 3, 4 et 5 mentionnent les recommandations, le bilan, et les informations, ce qui est quasiment la même chose.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’amendement no 287 de Mme de La Raudière, qui va suivre, précise davantage les pouvoirs du CSA. Demande de retrait, donc.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 179 est retiré.)

M. le président. Je suis saisi de deux amendements, nos 287 et 210, pouvant être soumis à une discussion commune.

La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 287.

Mme Laure de La Raudière. Il s’agit d’apporter une précision à l’alinéa 6, à la suite du débat que nous avons eu en commission sur ce sujet. Les informations qui seront rendues publiques devront l’être dans le respect du secret des affaires. L’objectif est aussi que les opérateurs ne restreignent pas les informations qu’ils transmettront au CSA.

M. le président. La parole est à Mme Isabelle Florennes, pour soutenir l’amendement no 210.

Mme Isabelle Florennes. Après la discussion que nous avons eue en commission sur le sujet, nous avons souhaité maintenir la présentation de cet amendement, dont l’objectif est de préciser les informations que les opérateurs sont tenus de rendre publiques et de transmettre au CSA. Il insiste sur les actions de prévention à mener, en particulier auprès des mineurs. Je sais que l’article 4 nous permettra d’y revenir.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il me semble que l’amendement no 287 est mieux à même d’atteindre nos objectifs puisque, en la matière, il faut pouvoir faire preuve d’agilité. Nous identifions les informations dont nous avons besoin aujourd’hui, mais nous ignorons celles dont nous aurons besoin demain.

Nous proposons donc de mener des délibérations, dans le respect du secret des affaires, sur l’ensemble des informations qui seront rendues publiques. Avis  favorable sur l’amendement no  287, donc, et demande de retrait sur l’amendement no 210.

 

(L’amendement no 210 est retiré.)

(L’amendement no 287, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 74.

Mme George Pau-Langevin. Un certain nombre de nos collègues se préoccupent de l’identification des personnes signalées ; nous suggérons un processus de double identification pour la création du compte, afin d’assurer la vérification des informations fournies – courriel ou numéro de téléphone, par exemple – et leur correspondance avec le titulaire du compte. Cela faciliterait l’identification ultérieure de ces personnes, donc sécuriserait les signalements éventuels.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La rédaction de l’amendement, qui impose aux plateformes de disposer des éléments d’identification de leurs utilisateurs, affaiblirait les dispositions de la LCEN. Elle suppose en effet une possible défaillance du système actuel d’identification, ce qui, là encore, est de nature à affaiblir un système dont nous avons besoin, notamment pour poursuivre les auteurs. Avis défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 74 est retiré.)

M. le président. Je suis saisi de deux amendements, nos 300 et 367, pouvant être soumis à une discussion commune.

La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 300 et donner l’avis du Gouvernement sur l’amendement no 367. 

M. Cédric O, secrétaire d’État. L’obligation d’information des mineurs de moins de quinze ans et de leurs parents au moment du recueil des consentements est déjà prévue dans le règlement général sur la protection des données, le RGPD.

Cet amendement tend à clarifier la manière dont cette obligation d’information est mise en œuvre : elle doit intervenir au moment où le consentement conjoint du mineur de moins de quinze ans et des titulaires de l’autorité parentale est recueilli par la plateforme, conformément, donc, à l’obligation déjà inscrite au RGPD.

 

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 367.

Mme Frédérique Dumas. Nous pensons que cet article sera difficile à appliquer. Il est donc préférable, à nos yeux, que les obligations visées soient portées à la connaissance de l’ensemble des utilisateurs, et pas uniquement à celle des mineurs de moins de quinze ans ou de leurs représentants légaux.

M. le président. Quel est l’avis de la commission sur ces deux amendements ?

Mme Laetitia Avia, rapporteure. L’amendement du Gouvernement précise un dispositif que nous avons voté en commission des lois. La commission est donc favorable à l’amendement no 300 et défavorable à l’amendement no 367.

(L’amendement no 300 est adopté et lamendement no 367 tombe.)

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 283.

M. Philippe Dunoyer. Il vise à préciser que le représentant légal, qui doit obligatoirement être désigné comme interlocuteur pour l’exécution des obligations prévues à cet article, soit une personne physique domiciliée sur le territoire français. La précision figure déjà à l’alinéa 9 que cet amendement vise à modifier.

Pourquoi une personne physique est-elle nécessaire ? Parce que l’ensemble des obligations, et la nécessité à la fois d’être réactif et proactif, impose selon nous l’intervention d’une personne physique et non d’une personne morale, au sein de laquelle des arcanes ou des organes décisionnels pourraient ralentir la procédure ou rendre plus opaque un dispositif qui se veut transparent.

 

Il s’agit donc d’un amendement de précision.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il me semble que cette précision est importante afin de donner sa pleine efficacité au dispositif tel qu’il est prévu dans ce projet de loi. L’avis est donc favorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Sagesse.

(L’amendement no 283 est adopté.)

M. le président. La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 299.

M. Cédric O, secrétaire d’État. Cet amendement de précision concerne le représentant légal.

(L’amendement no 299, accepté par la commission, est adopté.)

M. le président. L’amendement no 368 rectifié n’est pas défendu ? 

Mme Laetitia Avia, rapporteure. La commission le reprend, monsieur le président.

M. le président. L’amendement no 368 rectifié, repris par la commission, fait l’objet d’un sous-amendement no 385.

Vous avez la parole, madame la rapporteure, pour soutenir l’amendement.

Mme Laetitia Avia. Il précise que l’interlocuteur référent sera également chargé de recevoir les demandes du Conseil supérieur de l’audiovisuel, conformément au lien constant que nous souhaitons voir s’instaurer entre cette institution et les plateformes.

M. le président. Vous gardez la parole, madame la rapporteure, pour soutenir le sous-amendement no 385.

Mme Laetitia Avia. Il est rédactionnel, et permet l’adoption de l’amendement no 368 rectifié, initialement déposé par M. Molac.

(Le sous-amendement no 385, accepté par le Gouvernement, est adopté.)

(L’amendement no 368 rectifié, sous-amendé, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 73.

Mme George Pau-Langevin. La désignation d’un représentant légal nous semble un élément important, par ailleurs très attendu par toutes les associations ainsi que par tous ceux qui veulent rendre les procédures efficaces.

Nous souhaitons préciser que « tout acte extra judiciaire, assignation, réquisition, notification ou demande adressé audit représentant légal est réputé valablement délivré. » Cela permettrait en effet d’engager la responsabilité judiciaire des opérateurs sur le territoire français.

 

On peut m’opposer que cela va sans dire, mais il nous semble que cela va mieux en le disant.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Ce point correspond effectivement à l’objectif de la proposition de loi, et la rédaction que nous avons adoptée permet d’ores et déjà de le clarifier. En revanche, la rédaction que vous proposez, ma chère collègue, peut soulever quelques difficultés juridiques. En définitive, elle lèverait même les conditions de recevabilité d’un acte juridique et pourrait dont poser des difficultés d’application. L’avis est donc défavorable.

(L’amendement no 73, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 37 de Mme Florence Granjus est défendu.

(L’amendement no 37, repoussé par la commission et le Gouvernement, est retiré.)

M. le président. Je suis saisi de trois amendements, nos 262, 118 et 370, pouvant être soumis à une discussion commune.

L’amendement no 262 Mme Laure de La Raudière est défendu.

La parole est à Mme Danièle Obono, pour soutenir l’amendement no 118.

 

Mme Danièle Obono. Il a vocation à mettre en place une interopérabilité des plateformes entre elles. À l’instar de l’association La Quadrature du Net, qui l’appelle de ses vœux, nous considérons que les mécanismes de la haine sur internet sont rendus possibles par l’extension infinie des plateformes qui comptent énormément d’utilisateurs et d’utilisatrices. Il est par ailleurs difficile de quitter ces réseaux pour des raisons sociales. Il nous semble que ce dispositif permettrait de quitter l’un d’entre eux sans perdre l’ensemble de ses contacts et qu’il permettrait même de communiquer avec ceux-ci sur une autre plateforme.

Il aurait également pour effet de créer des communautés plus réduites, qui pourraient être plus faciles à modérer, et de donner naissance à une autogestion plus facile à mettre en place entre les membres de la communauté elle-même.

 

Pour essayer de poursuivre la discussion sur ce sujet sans caricatures, je n’ai, pas plus que quiconque, présenté ce dispositif comme l’outil susceptible de tout régler. Il nous semble cependant cibler de manière très précise et très pertinente ce qui se trouve au cœur des problèmes en matière de haine et de discrimination.

 

Chère collègue Abadie, peut-être n’avez-vous pas assez lu sur le sujet ? Vous ignorez en effet également qu’une telle interopérabilité a été à un moment possible : elle a même rendu possible la  création de communautés sur internet, notamment pour les personnes victimes, dans le reste de la société, de sexisme, de racisme, d’homophobie et d’attaques.

 

Mme Aurore Bergé. Allons !

Mme Danièle Obono. En effet, des plateformes comme Facebook ou Twitter avaient, de manière transparente, ouvert leur interface de programmation, leur API – application programming interface –, ce qui rendait possible la navigation en leur sein.

Par conséquent, cette interopérabilité se trouve précisément à l’origine des communautés sur internet qui ont fait prospérer toutes les actions ainsi que toutes les interpellations, c’est-à-dire tout ce qui fait la démocratie sur internet.

 

Si j’étais aussi caricaturale que vous, je dirais aux personnes victimes d’attaques et d’agressions qu’elles doivent continuer à les subir et qu’elles n’ont pas la possibilité – la possibilité ! – de se mettre en sécurité.

 

Mme Caroline Abadie. Attendez, vous allez un peu loin !

Mme Danièle Obono. Je ne fais que vous retourner l’argumentation que vous m’avez opposée. Je pense que le sujet est bien trop important, et ce dont je parle est d’ailleurs défendu par les victimes elles-mêmes : ce serait donc les insulter – et pas seulement moi – que de poursuivre cette querelle sur le terrain où vous l’avez placée. (Protestations sur quelques bancs du groupe LaREM.)

Il s’agit à mon sens d’un sujet sérieux, cela a été dit, et peut-être technique, mais également politique : tel est le sens de cet amendement. Je crois que nous devons continuer à en discuter dans des termes un peu plus sérieux et respectueux.

 

M. le président. Sur l’amendement no 370, je suis par ailleurs saisi par le groupe Libertés et territoires d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

Sur les amendements identiques nos 317 et 342, je suis saisi par le groupe La République en marche d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

 

La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 370 

 

Mme Frédérique Dumas. Je prends pour la première fois la parole sur le sujet de l’interopérabilité. En premier lieu, vous avez raison, celle-ci ne va pas résoudre tous les problèmes. Nous ne l’avons jamais prétendu, d’ailleurs. De la même manière, votre proposition de loi ne mettra pas fin à la haine sur internet, comme vous l’avez dit : il s’agit d’un ensemble de mesures qui permettront d’atténuer et de trouver une solution à ces problèmes complexes. On ne peut donc pas prétendre que vous auriez tout réglé, et qu’aucune des propositions que l’on vous fait ne serait pertinente.

Je veux aussi répondre à Mme Abadie sur le fait que la réponse ne serait pas politique. Pour ce qui nous concerne, nous ne travaillons pas à des réponses politiques, mais à des réponses tout court. On a bien vu, et c’est dommage, que votre réponse, pour le coup, était politique, mais au sens communicationnel. Nous souhaitons, nous, nous attaquer à la source du problème, comme d’autres collègues l’ont souligné.

 

Vous ne pouvez pas affirmer ce que vous affirmez : cela reviendrait en effet à dire, dans le domaine de la santé, que l’on soignera les gens lorsqu’ils tomberont malades, mais qu’il ne faut surtout pas s’occuper de prévention ni de régulation, car ce seraient des réponses politiques. La prévention, comme la régulation, nous nous en occupons.

 

M. le président. Merci, ma chère collègue.

Mme Frédérique Dumas. Nous avons voulu, à travers cet amendement, montrer qu’un chemin existe, en amont, pour réguler internet, tant dans son contenu que dans son modèle économique qui provoque, du fait de la viralité des contenus, des incitations à la haine.

M. le président. Merci.

Mme Frédérique Dumas. Je reprendrai la parole ultérieurement.

M. le président. Quel est l’avis de la commission sur ces différents amendements ?

Mme Laetitia Avia, rapporteure. Je ne suis pas intervenue précédemment dans le débat, car je trouvais que la façon dont et M. le secrétaire d’État et Mme Abadie avaient expliqué notre position en la matière était assez juste. J’éprouve pour ma part, je le répète, une réelle difficulté à parler d’interopérabilité, s’agissant de la haine en ligne et de soutien aux personnes qui en sont victimes.

J’ai un vrai problème avec cela : la question n’est pas dans une réponse politique, mais dans le message politique adressé aux victimes. Je ne pense pas qu’il soit opportun de leur dire : allez ailleurs, on va vous créer quelque chose de plus sain, un système dans lequel vous serez en sécurité, et, à côté, on mettra en œuvre toutes les conditions pour assurer vous-même votre sécurité.

 

Mme Danièle Obono. Il ne s’agit pas de cela !

Mme Laetitia Avia, rapporteure. C’est exactement ce que vous venez de dire, madame Obono. Vous proposez de donner aux victimes les moyens d’assurer elles-mêmes leur sécurité, mais ailleurs.

Mme Danièle Obono. Allez, arrêtez !

Mme Laetitia Avia, rapporteure. C’est comme si – car ce qu’on dit peut avoir des conséquences – on avait déclaré à Rosa Parks : « Vous ne pouvez pas vous asseoir dans ce bus, mais vous pouvez prendre place dans un autre qui dépend d’une autre ligne, à côté, laquelle accepte la mixité raciale, fonctionne bien et assurera votre sécurité » ! (Applaudissements sur plusieurs bancs du groupe LaREM.)

Mme Danièle Obono. Mais arrêtez ! Vous m’insultez à nouveau ! Vous êtes ridicule ! Je serais ségrégationniste ? Vous vous rendez compte des bêtises que vous dites ? (Exclamations sur plusieurs bancs du groupe LaREM.)

M. le président. S’il vous plaît, seule Mme la rapporteure a la parole.

Mme Laetitia Avia, rapporteure. Ce n’est pas la réponse à apporter. L’interopérabilité représente à mon sens le premier pas sur la voie du renoncement et ce texte se situe aux antipodes de celui-ci.

Ce texte ne renonce à rien : il vise à s’assurer que nous veillons sur les victimes et que les pouvoirs publics puissent, sur toutes les plateformes sur lesquelles elles s’expriment, les défendre.

 

Mme Danièle Obono. Insupportable ! (Mêmes mouvements.)

Mme Aurore Bergé. Oh, ça suffit, madame Obono !

Mme Danièle Obono. Non ça ne suffit pas !

Mme Laetitia Avia, rapporteure. L’avis de la commission est donc défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Il est également défavorable.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. L’interopérabilité mérite selon moi mieux que ces discussions au cours desquelles on s’envoie des noms d’oiseaux. J’ai essayé d’amorcer ce débat tout à l’heure, de façon très posée, et je remercie M. le secrétaire d’État d’avoir pris le temps de répondre, tout aussi posément.

L’interopérabilité mérite mieux que la discussion qui vient d’avoir lieu. Madame la rapporteure, nous n’avons pas la même vision que vous sur l’interopérabilité et sur ses effets. Très bien : nous pouvons avoir une divergence.

 

Nous pensons que l’interopérabilité constitue un moyen supplémentaire et complémentaire permettant de lutter contre la haine. Je ne suis pas d’accord, chère collègue, avec les propos que vous avez tenus tout à l’heure, car ils tendraient à légitimer l’existence, sur certaines plateformes, de communautés de haters.

 

De toute façon, de telles communautés, au sein desquelles les membres s’expriment entre eux sur tous types de sujets, existent déjà dans le dark web. Dans la mesure où ils n’interagissent pas avec l’extérieur, leurs échanges n’ont pas le même impact. Or elles existent : il ne faut pas le nier.

 

L’interopérabilité permet à des personnes souhaitant échapper à des messages haineux sur une plateforme d’en sortir. Ce n’est pas sans raison que certaines communautés, notamment homosexuelles, ont utilisé les possibilités de l’interopérabilité pour communiquer entre elles.

 

Un nouveau modèle émerge qui, comme dans nombre d’exemples observés par le passé, est utilisé par des communautés, lesquelles, parce qu’elles ne se retrouvent pas dans les systèmes actuels, en imaginent un nouveau. Nous pourrions nous intéresser à cet effort de conception d’un système alternatif, en considérant qu’il mérite d’être promu.

 

Je vous rejoins, monsieur le secrétaire d’État, sur le fait que d’autres enjeux se posent – notamment des enjeux de souveraineté ou économiques. Je ne méconnais pas le poids financier des États-Unis sur ce sujet. Il n’empêche : nous pourrions quand même nous pencher sur ces innovations et ne pas les percevoir uniquement comme la manifestation d’une défiance.

 

M. le président. Merci…

M. Philippe Latombe. Elles constituent aussi une démarche constructive, qui permet d’engager une vraie discussion sur les communautés.

M. le président. La parole est à Mme Caroline Abadie.

Mme Caroline Abadie. Ayant été interpellée à deux reprises, je me sens obligée de répondre, même si j’estime que l’explication que j’ai fournie était très claire. Je ne prétends pas que l’interopérabilité n’a pas d’intérêt. J’explique simplement qu’elle n’est pas ce que nous souhaitons défendre dans cette proposition de loi et qu’elle ne correspond pas au message politique et opérationnel que nous voulons adresser aux victimes de propos haineux.

Le sujet de l’interopérabilité nécessite certainement plus que quelques amendements. S’il passionne à ce point l’opposition, j’invite d’ailleurs cette dernière à s’en saisir à bras-le-corps.

 

La proposition de loi, quant à elle, porte sur les propos de haine en ligne. Je ne pense pas que le terme de « ségrégation » ait été employé dans notre hémicycle, mais lorsque vous expliquez à des personnes victimes de racisme qu’elles peuvent se rendre sur une autre plateforme, madame Obono, pour quel type de sites opteront-elles ? Pour une plateforme qui ne regroupe que des victimes de racisme ou de sexisme ? Cela reviendrait à constituer des communautés. Or nous ne souhaitons absolument pas, avec cette proposition de loi, inciter les gens à s’enfermer dans leur communauté : nous voulons de la tolérance et du vivre ensemble ; nous voulons que les utilisateurs sachent parler ensemble, avec bienveillance, et se montrent sociables sur des réseaux sociaux. (Applaudissements sur les bancs du groupe LaREM.)

 

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Il faudrait que la majorité nous écoute un peu, et qu’elle essaye d’entendre nos arguments. Vous nous offrez une réponse politique, et instrumentalisez nos propos. Nous n’avons jamais prétendu que l’interopérabilité constituait l’unique réponse. Je crois d’ailleurs que vous ne comprenez en quoi elle consiste. Il ne s’agit pas, comme l’a prétendu Mme la rapporteure, de dire aux utilisateurs des plateformes : « N’allez pas là, allez ailleurs, entre vous ! ».

Mme Laetitia Avia, rapporteure. Je n’ai jamais dit : « entre vous » ! J’ai au contraire insisté sur la mixité !

Mme Frédérique Dumas. Je peux poursuivre, madame la rapporteure ? Il semble en effet que vous n’ayez pas envie de comprendre.

Ce que vous n’avez pas compris, disais-je, c’est que l’interopérabilité permet aux personnes qui le souhaitent de quitter une plateforme tout en restant connectées avec le reste du monde, tout en sachant que, sur internet, des endroits différents existent, avec des pratiques éthiques elles-mêmes différentes.

 

Il ne s’agit donc pas d’une réponse directe, d’un pansement ou d’un médicament : il s’agit de donner la possibilité de comparer différentes plateformes et de privilégier celles qui promeuvent des comportements éthiques. L’objectif, en effet, n’est pas simplement de punir, mais d’éradiquer le phénomène de propagation de la haine sur internet : nous estimons que l’interopérabilité est un chemin qui permet de progresser en ce sens.

 

Vous affirmez que les gilets jaunes n’attendent pas l’interopérabilité. En réalité, ils souhaitent pouvoir accéder à des lieux dans lesquels ils ne seront pas enfermés, comme vous souhaitez le faire en refusant d’approfondir la notion d’interopérabilité.

 

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. Dès mon intervention pour défendre la motion de renvoi en commission, des propositions ont été présentées et argumentées de manière tout à fait sereine et constructive à travers des exemples, des références, et même un rappel de l’histoire d’internet. Ces propositions n’ont peut-être pas convaincu – je peux l’entendre –, mais elles ne méritent pas le traitement qui leur est réservé, au nom des personnes qui les ont défendues comme au nom des victimes. Ces victimes, vous prétendez vouloir les protéger et entendre leurs demandes, mais vous semblez surtout vouloir parler à leur place, madame la rapporteure.

Mme Aurore Bergé. Les victimes, nous les avons entendues !

Mme Danièle Obono. La question n’est pas de savoir quel discours tenir aux victimes, mais d’entendre ce qu’elles disent. Les réponses à apporter ne peuvent se réduire à expliquer aux femmes violées qu’elles doivent changer de rue, ou à conseiller aux personnes victimes de racisme comme Rosa Parks – paix à son âme, car elle doit se retourner dans sa tombe d’être utilisée de telle manière – d’utiliser un bus réservé aux Noirs.

Mme Laetitia Avia, rapporteure. J’ai justement insisté sur le besoin de mixité raciale, au contraire !

Mme Danièle Obono. Dans ce cas, évitez d’utiliser des exemples que vous ne maîtrisez pas, madame.

Par ailleurs, madame Abadie, l’histoire d’internet est précisément l’histoire des communautés. Internet, ce n’est pas l’espace où tout le monde parle ensemble tout le temps et au même endroit, c’est même le contraire ! C’est la liberté d’aller où l’on veut et de contrôler son espace. C’est cette liberté qui a fait internet et qui a nourri la démocratie et les débats en son sein.

 

Vous commettez donc un contresens en prétendant obliger les utilisateurs d’internet à se regrouper en un lieu unique, et à ne pouvoir le quitter qu’en renonçant aux réseaux et aux contacts que leur apporte cet endroit. Je veux bien que nous échangions sur cette vision qui est la vôtre,…

 

Mme Laetitia Avia, rapporteure. Il faudrait pour cela que vous écoutiez un peu !

Mme Danièle Obono. …mais je n’accepte pas que vous instrumentalisiez et dénigriez une argumentation politique par des propos insultants, à la fois pour vos collègues parlementaires qui défendent leurs positions de manière cohérente, argumentée et, jusqu’à présent sereine – même en assumant les désaccords – et pour les personnes victimes…

Mme Aurore Bergé. Monsieur le président, ça suffit !

Mme Danièle Obono. Mon intervention sera aussi longue qu’il le faut, madame Bergé !

M. le président. Merci, madame Obono.

Mme Danièle Obono. Vous devrez accepter de m’écouter, et d’entendre cette parole des victimes que vous niez quand vous traitez leur demande de cette manière.

(Les amendements nos 262 et 118, successivement mis aux voix, ne sont pas adoptés.)

M. le président. Je mets aux voix l’amendement no 370.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        39

        Nombre de suffrages exprimés                38

        Majorité absolue                        20

                Pour l’adoption                5

                Contre                33

(L’amendement no 370 n’est pas adopté.)

M. le président. Je suis saisi de deux amendements identiques, nos 317 et 342.

La parole est à Mme Laetitia Avia, rapporteure, pour soutenir l’amendement no 317.

Mme Laetitia Avia, rapporteure. Cet amendement tend à apporter la deuxième pierre à l’édifice que j’évoquais précédemment, pour s’assurer que les opérateurs ne procèdent pas à des retraits de contenus injustifiés et excessifs. Nous avons déjà voté un amendement créant une obligation de moyens en matière de contrôle et d’audit de ces retraits.

L’amendement no 317 vise à ce que les CGU soient formulées dans des termes précis, aisément compréhensibles, objectifs et non discriminatoires, ce qui permet au régulateur de s’assurer du respect de l’ensemble de ces conditions. Dans l’hypothèse de retraits de contenus excessifs, qu’une plateforme justifierait au regard de ses conditions générales d’utilisation, le CSA pourra ainsi auditer ces CGU pour savoir si elles sont discriminatoires.

 

Les CGU tomberaient ainsi sous le coup des sanctions prévues par l’article 4, relatif aux comportements de non-conformité des plateformes, qu’ils aboutissent à des retraits insuffisants ou excessifs.

 

M. le président. L’amendement no 342 de Mme Caroline Abadie est défendu.

Quel est l’avis du Gouvernement ?

 

M. Cédric O, secrétaire d’État. Avis favorable.

M. le président. Je mets aux voix les amendements identiques nos 317 et 342.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        36

        Nombre de suffrages exprimés                34

        Majorité absolue                        18

                Pour l’adoption                34

                Contre                0

(Les amendements identiques nos 317 et 342 sont adoptés.)

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 279.

M. Philippe Dunoyer. Il vise à créer, comme le suggérait M. Gérard en s’exprimant sur l’article, une obligation, aisée à réaliser techniquement, de conservation des données qui permettront, en cas de poursuites judiciaires aboutissant à la reconnaissance d’un fait délictueux, à l’autorité judiciaire – et à elle seule – d’identifier l’auteur du contenu haineux incriminé, qu’il s’agisse d’une personne physique ou morale.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Cette disposition étant satisfaite par le grand II de l’article 6, j’en demande le retrait.

(L’amendement no 279 est retiré.)

M. le président. La parole est à Mme Danièle Obono, pour soutenir l’amendement no 95.

Mme Danièle Obono. Il concerne le dispositif d’information et de communication. Le régime de responsabilité et les obligations qui s’imposent aux plateformes ne sont pas à la hauteur de leur importance dans les usages numériques quotidiens de nos citoyens.

La réponse à adresser au fléau de la haine en ligne ne saurait être uniquement pénale, les dispositifs existants nous semblant déjà satisfaisants. À la lumière des débats récents sur la Ligue du LOL, qui ont fait émerger une prise de conscience tardive mais réelle de l’existence de comportements en ligne dégradants, l’enjeu de la sensibilisation et de la bonne information apparaît central.

 

Le groupe La France insoumise propose de monter une campagne d’information visant à faire connaître les principales associations luttant pour la reconnaissance des victimes de cyberviolence et de cyberharcèlement. Afin de mener à bien ce projet, l’une des pistes à étudier pourrait être l’allocation d’une partie de l’espace publicitaire disponible des plateformes à ce type de campagnes.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Une information relative à l’accompagnement des victimes est déjà prévue à l’alinéa 3 de l’article 3. Avis défavorable.

(L’amendement no 95, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme Géraldine Bannier, pour soutenir l’amendement no 211.

Mme Géraldine Bannier. Cet amendement s’inscrit dans la logique de celui que j’ai défendu précédemment. Il tend à introduire, à l’article 3, un alinéa supplémentaire pour inviter les opérateurs à prendre part à la nécessaire prévention à mener auprès de tous les publics.

L’alinéa 11 de l’article 3 serait ainsi formulé : « Ils peuvent mettre en place un dispositif de prévention pour informer leurs utilisateurs des conséquences sur les victimes de la diffusion de contenus haineux. »

 

J’estime en effet depuis longtemps qu’un continuum doit exister entre la prévention menée par les familles, l’éducation nationale et les plateformes.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je comprends le sens de votre démarche, madame Bannier, mais votre amendement soulève deux difficultés.

En premier lieu, alors que le champ de l’article 3 couvre les obligations pesant sur les plateformes, cet amendement ne tend pas à créer une obligation.

 

Par ailleurs, sur le fond, il consiste à inciter les plateformes à fournir une information sur les conséquences des contenus haineux pour les victimes. Or ces conséquences peuvent varier en fonction de chaque individu. Elles dépendent énormément des personnes, et, plus largement, d’une multitude de facteurs.

 

Les plateformes ne me semblent pas être le lieu adéquat pour afficher une information sur les conséquences des contenus haineux pour les victimes. Je demande donc le retrait de l’amendement.

 

(L’amendement no 211 est retiré.)

M. le président. L’amendement no 369 de M. Paul Molac est défendu.

(L’amendement no 369, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Sur l’amendement no 90 à venir, je suis saisi par le groupe La France insoumise d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

La parole est à Mme Danièle Obono, pour soutenir l’amendement.

 

Mme Danièle Obono. Il s’agit là d’un sujet que nous avons déjà évoqué au cours de la discussion.

L’objet du présent amendement est de faire en sorte que les algorithmes utilisés par les plateformes n’aient pas pour effet de perpétuer, de produire ou de renforcer des préjugés justifiant ou instituant des discriminations entre les personnes en raison de ce qu’elles sont. Notre objectif est d’obtenir une transparence des algorithmes afin de lutter contre d’éventuels biais.

 

Plusieurs études l’ont démontré : les grandes plateformes, dont nous faisons un usage quotidien, ne sont pas exemptes de discrimination structurelle, ancrée historiquement et socialement dans notre société.

 

La Commission nationale de l’informatique et des libertés, la CNIL, souligne, dans un rapport de 2017, que « tout algorithme est […], en un sens, biaisé, dans la mesure où il est toujours le reflet – à travers son paramétrage et ses critères de fonctionnement, ou à travers les données d’apprentissage qui lui ont été fournies – d’un système de valeurs et de choix de société. Le débat autour des biais et des discriminations qu’ils peuvent générer n’est donc qu’un miroir grossissant mettant en valeur cette caractéristique essentielle dans ce qu’elle a de plus problématique. »

 

À travers cet amendement, nous proposons donc de créer une obligation pour que les plateformes rendent publics les moyens qu’elles utilisent afin d’éviter que leurs algorithmes produisent des discriminations. Un tel outil permettrait aux usagers et aux usagères de faire directement des signalements et de veiller à ce que ces biais soient corrigés. Il nous semble que cela créerait un cercle vertueux pour les plateformes et que ce serait un facteur d’apprentissage pour les usagers.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable : comme je l’ai déjà dit en commission, cet amendement n’entre pas dans le champ de la proposition de loi.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. La transparence des algorithmes est un enjeu de taille. Si j’émets un avis défavorable sur l’amendement, parce qu’il sort largement du champ de la proposition de loi, je précise néanmoins que le Gouvernement et l’Union européenne travaillent sur cette question. Je pense que nous aurons l’occasion de revenir sur ce sujet de société très important, qui touche aussi au fonctionnement de notre démocratie.

Mme Laure de La Raudière. En effet !

M. le président. La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Je voterai pour cet amendement, qui touche à une question extrêmement importante – bien que, je l’admets, elle n’ait pas grand-chose à voir avec l’objet de la proposition de loi. Il importerait en effet que nous examinions le problème de la discrimination sur l’internet de manière plus poussée et plus complète.

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Parmi les thèmes que le Gouvernement souhaite promouvoir pour le programme de travail de la future Commission européenne, il y a la régulation systémique des grandes plateformes – nous estimons en effet que, ces plateformes jouant désormais un rôle systémique, elles ne peuvent être traitées de la même manière que les autres acteurs économiques – et, s’agissant des obligations spécifiques à imposer à ces grandes plateformes, il y a la transparence des algorithmes. Le Gouvernement est donc conscient du problème et souhaite agir pour y remédier, mais agir à l’échelon européen, qui nous semble, du point de vue technologique comme du point de vue économique, le niveau adéquat.

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. Je ne suis pas d’accord avec l’idée selon laquelle cet amendement n’entrerait pas dans le champ de la proposition de loi. Nous parlons en ce moment de la propagation de la haine à travers des agressions racistes, sexistes ou homophobes, dans le cadre d’un écosystème, d’une structure de l’internet qui fonctionne de telle sorte qu’il produit les mêmes biais que ceux que l’on relève chez les usagers qui commettent des actes délictueux. Ces biais sont présents dans la matrice même de l’internet.

Nous sommes donc en plein dans le sujet, et il n’y a pas que moi qui le dis : des sénateurs américains ont fait le même constat et ont déposé une proposition de loi sur le sujet, afin qu’un débat parlementaire s’engage sur la question, non seulement de la transparence des algorithmes, mais aussi de leurs biais discriminants. Ce serait une erreur que de manquer l’occasion que nous avons de cibler les causes structurelles de ce qui pose problème sur l’internet, et de ne pas nous arrêter aux seules conséquences.

 

M. le président. Je mets aux voix l’amendement no 90.

(Il est procédé au scrutin.)

M. le président. Voici le résultat du scrutin :

        Nombre de votants                        34

        Nombre de suffrages exprimés                32

        Majorité absolue                        17

                Pour l’adoption                3

                Contre                29

(L’amendement no 90 n’est pas adopté.)

(L’article 3, amendé, est adopté.)

Après l’article 3

M. le président. La parole est à M. Cédric Roussel, pour soutenir l’amendement no 355.

M. Cédric Roussel. Cet amendement vise à renforcer la lutte contre la prolifération des propos illicites protégés par l’anonymat, fléau de notre société numérique. Pour ce faire, il est proposé d’inscrire explicitement dans le texte que les hébergeurs ont pour obligation notamment de « mettre en œuvre leurs meilleurs efforts pour recueillir et vérifier les éléments d’identification collectés lors de la création d’un compte ».

L’objectif n’est pas de mettre fin à l’anonymat sur l’internet, car cet anonymat, souvent décrié, peut être dans certains cas protecteur et garantir la liberté d’expression, par exemple celle des personnes politiquement opprimées. Il s’agit uniquement de pouvoir identifier facilement la personne à l’origine du contenu litigieux, dès lors que l’anonymat a pour seul dessein d’humilier une personne ou un groupe d’individus sur un fondement répréhensible juridiquement.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Ce que vous proposez, cher collègue, est déjà prévu par la proposition de loi, mais à l’égard des seules grandes plateformes – et non de l’ensemble des hébergeurs –, à travers le renforcement des sanctions encourues en cas de non-respect des obligations de coopération judiciaire et à travers l’intégration dans les obligations de moyens desdites plateformes de la nécessité de désigner un représentant légal qui sera l’interlocuteur référent des pouvoirs publics et recevra les demandes du CSA.

L’amendement est donc satisfait par le texte, dans les limites de son champ d’application. Demande de retrait ; à défaut, l’avis de la commission serait défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 355 est retiré.)

Article 3 bis

M. le président. La parole est à Mme Béatrice Piron, pour soutenir l’amendement no 256, tendant à supprimer l’article.

Mme Béatrice Piron. Cet amendement, déposé à l’initiative de Mme Bergé, était en cohérence avec l’amendement no 255, lequel a été rejeté. Il est donc retiré.

(L’amendement no 256 est retiré.)

M. le président. La parole est à Mme Béatrice Piron, pour soutenir l’amendement no 257.

Mme Béatrice Piron. Par l’intermédiaire d’une modification du 1 du VI de l’article 6 de la loi pour la confiance dans l’économie numérique, les pénalités de l’article 3 bis visent, en l’état actuel du texte, les opérateurs de plateformes, les hébergeurs et les fournisseurs d’accès. Les éditeurs ne sont pas visés.

Si l’objectif de cette proposition de loi est d’englober l’ensemble des acteurs, l’article devrait également viser les éditeurs pour les manquements à leur obligation d’identification, telle qu’elle est prévue au III de l’article 6 de la loi pour la confiance dans l’économie numérique. Le respect de cette obligation est en effet essentiel pour que les auteurs de contenus manifestement illicites puissent être appréhendés par les autorités et sanctionnés pour les infractions prévues par la loi de 1881 sur la presse et par le code pénal.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La proposition de loi ne touche pas au statut des éditeurs. Le travail qui a été mené porte sur le statut des hébergeurs et sur certaines dispositions concernant les fournisseurs d’accès à l’internet.

Les obligations qui portent sur les éditeurs au titre du III de l’article 6 de la loi pour la confiance dans l’économie numérique sont différentes de celles dont nous traitons dans ce texte : elles ont trait aux standards ouverts, etc. Il ne s’agit pas du tout du même champ d’application.

 

Ce dont il est question, dans cet amendement, c’est d’une responsabilité qui touche les personnes morales comme les personnes physiques – notamment les directeurs de publication d’organes de presse. Nous n’avons aucune idée de l’impact des dispositions que vous proposez. Leur champ d’application est extrêmement large et déborde celui de la proposition de loi, avec des conséquences qui pourraient être très lourdes.

 

Demande de retrait ; à défaut, l’avis de la commission serait défavorable.

 

 

(L’amendement no 257 est retiré.)

(L’article 3 bis est adopté.)

Article 4

M. le président. Plusieurs orateurs sont inscrits sur l’article.

La parole est d’abord à Mme Frédérique Dumas.

Mme Frédérique Dumas. À nos yeux, cet article va dans le bon sens. Il fixe en effet aux opérateurs des obligations de moyens, ce qui correspond bien au monde d’aujourd’hui et de demain. Le CSA pourra examiner les comportements et les pratiques, travailler en coopération avec les acteurs et définir progressivement une forme de jurisprudence, en liaison avec d’autres autorités de régulation, l’idée étant que l’ensemble de ces autorités travaillent ensemble, soit en fusionnant, soit en instaurant des collèges ou d’autres moyens de dire le droit. Certaines choses sont encore à corriger, mais, contrairement à ce qui a été fait à l’article 1er, lequel donne le pouvoir aux plateformes, le chemin emprunté ici nous convient.

M. le président. La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Pour abonder dans le même sens, je pense que nous avons bien progressé depuis que nous avons commencé à travailler sur ce texte. La procédure retenue a pu susciter un certain nombre d’interrogations, y compris dans nos rangs. On s’est demandé ce qu’allaient représenter cette régulation et ces sanctions administratives. Or je pense que, le rôle des uns et des autres ayant été clarifié, la formulation actuelle répond à nombre des interrogations ou des inquiétudes qui avaient pu, à juste titre, s’exprimer.

M. le président. La parole est à Mme Céline Calvez.

Mme Céline Calvez. Le travail accompli en commission a permis de préciser les prérogatives dont disposera le CSA pour accompagner les opérateurs, les informer et faire en sorte que les contenus haineux soient éradiqués. L’article lui accorde en outre un pouvoir de sanction, ce qui est appréciable. Depuis trente ans, le CSA a vu croître sa capacité à intégrer les changements technologiques et à jouer le mieux possible son rôle de régulateur. Aujourd’hui, nous renforçons encore ses prérogatives en matière d’évaluation, de communication et d’information à destination des plateformes, pour vérifier que celles-ci remplissent bien leurs obligations de moyens. Nous lui donnons en outre la capacité de sanctionner de graves manquements ou des manquements réitérés de la part des plateformes.

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 187.

Mme Laure de La Raudière. Il est retiré, monsieur le président.

(L’amendement no 187 est retiré.)

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 280.

M. Philippe Dunoyer. L’article 4 prévoit que le CSA adresse aux plateformes, en cas de nécessité, des recommandations, des bonnes pratiques et des lignes directrices.

L’amendement tend à supprimer les mots « en cas de nécessité ». En effet, je ne pense pas que cette réserve soit utile, bien au contraire. Il vaudrait mieux la supprimer, pour que, dès l’adoption de la proposition de loi, une recommandation unique soit adressée – en notre nom, en quelque sorte – par le CSA aux opérateurs, afin de leur indiquer quelles sont les bonnes pratiques, les orientations à suivre, les risques qu’ils encourent. Dans un second temps seulement, une fois la loi entrée en application, le CSA pourra, au fil de l’eau, « en cas de nécessité », compléter ces recommandations.

 

L’objet de l’amendement est donc de permettre la transmission des recommandations dès la promulgation de la loi.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Le CSA adressera aux opérateurs des recommandations, lignes directrices ou à et bonnes pratiques pour la bonne application des obligations que nous avons prévues. Mais grâce au travail accompli afin d’affiner certaines rédactions, de telles recommandations ne seront pas systématiquement utiles, d’où la précision « en cas de nécessité ». L’avis est donc défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Dunoyer.

M. Philippe Dunoyer. Mon intention n’était pas d’imposer la formulation de recommandations sur l’ensemble des dispositions de la proposition de loi mais de prévoir, dès le départ, une communication homogène entre le CSA et les opérateurs afin que ces derniers obtiennent des précisions chaque fois que cela sera utile. C’est ainsi que j’avais compris la mention « en cas de nécessité ». Peut-être s’agit-il d’un quiproquo entre nous, à moins que j’arrive à faire changer d’avis Mme la rapporteure…

Mme Laetitia Avia, rapporteure. C’est un quiproquo.

M. Philippe Dunoyer. Je maintiens donc mon amendement.

(L’amendement no 280 n’est pas adopté.)

M. le président. L’amendement no 36 de Mme Marie-Pierre Rixain est défendu.

Quel est l’avis de la commission ?

 

Mme Laetitia Avia, rapporteure. Favorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Sagesse.

(L’amendement no 36 est adopté.)

M. le président. L’amendement no 71 de Mme George Pau-Langevin est défendu.

(L’amendement no 71, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 62.

Mme George Pau-Langevin. Nous demandons que le bilan de l’application de la proposition de loi soit inséré dans le rapport annuel d’activité publié par le CSA. Cet amendement me semble assez consensuel : non seulement la même requête a été formulée par d’autres, mais cette disposition vaut déjà pour d’autres textes qui concernent le CSA.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’objectif fait consensus. Il est vrai qu’en commission, je vous avais demandé de retravailler cet amendement avant son examen en séance. Or sa rédaction continue de poser problème puisqu’il contraint le CSA à insérer le bilan de l’application du texte dans son rapport d’activité annuel. L’idée d’un bilan annuel est bien présente dans notre texte, mais pas forcément en lien avec le rapport d’activité du CSA. Je demande donc le retrait de l’amendement.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 62 est retiré.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 248.

Mme Laure de La Raudière. Je pense que la rédaction actuelle de l’alinéa 5 ne donne pas suffisamment de pouvoir d’enquête au CSA. Je propose donc de supprimer la deuxième phrase de l’alinéa 5 et d’ajouter, après l’alinéa 13, deux alinéas destinés à compléter la loi du 30 septembre 1986 afin de confier au CSA un pouvoir d’enquête grâce auquel il pourra obtenir « toutes les informations nécessaires au contrôle des obligations » mentionnées à l’article 6-3 de la LCEN.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Ce pouvoir revêt une grande importance, donc l’avis est favorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 248 est adopté.)

M. le président. Je suis saisi de deux amendements, nos 209 et 212, qui peuvent faire l’objet d’une présentation groupée.

La parole est à Mme Isabelle Florennes, pour les soutenir.

Mme Isabelle Florennes. Ils visent à préciser les informations que les opérateurs sont tenus de transmettre au CSA.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Parmi les deux rédactions que vous proposez, celle de l’amendement no 212 me paraît la plus large et la mieux à même d’atteindre les objectifs visés. L’avis est donc favorable pour cet amendement et je demande le retrait pour l’autre.

(L’amendement no 209 est retiré.)

(L’amendement no 212, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Frédéric Reiss, pour soutenir l’amendement no 178.

M. Frédéric Reiss. Sans doute est-ce un amendement d’appel et peut-être n’est-il pas très satisfaisant dans sa rédaction. Mais en tant que membre de l’Assemblée parlementaire du Conseil de l’Europe, je tenais à insérer un alinéa prévoyant une coordination européenne entre le CSA et ses homologues.

Tout à l’heure, monsieur le secrétaire d’État, pendant notre discussion, d’ailleurs relativement vive, sur l’interopérabilité des plateformes, vous avez évoqué le rôle de l’Europe. De fait, la proposition de loi que nous examinons semble transposer dans notre droit une recommandation de la Commission européenne de mars 2018, où il était déjà question de mesures proactives, proportionnées et spécifiques destinées à lutter efficacement contre les contenus illicites et de nature virale sur internet et contre les contenus à caractère terroriste.

 

La difficulté consiste à traduire dans le droit français ces mesures à caractère très général. C’est pourquoi, à travers cet amendement, j’exprime mon souhait que le CSA puisse se coordonner avec les états membres du Conseil de l’Europe qui ont créé – ou envisagent de créer – des autorités administratives indépendantes chargées de qualifier les contenus publiés sur internet de façon licite ou illicite, tels que mentionnés à l’article 6-2.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. S’agissant d’un amendement d’appel, je laisserai le ministre répondre plus longuement. Mais je tenais à rappeler, puisque vous l’avez évoqué également en commission, combien il est important de travailler sur ce sujet à l’échelle européenne. En effet, comme le rappelait également le Conseil d’État dans son avis, c’est à cette échelle que nous parviendrons à maximiser les résultats.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Monsieur Reiss, nous partageons l’idée que, s’agissant de la haine en ligne, une approche coordonnée au niveau européen est nécessaire. Si cette proposition de loi est adoptée, comme je l’espère, j’essaierai de défendre une approche similaire au niveau de l’Union européenne, qui passerait donc par les obligations de moyens. Je pense d’ailleurs que c’est le niveau pertinent concernant la régulation des grands acteurs d’internet, comme je l’ai déjà dit à propos d’autres sujets. La directive SMA – service des médias audiovisuels -–, qui sera transposée dans le cadre du projet de loi sur l’audiovisuel, consacre l’existence d’un groupe européen des régulateurs de l’audiovisuel appelé ERGA – European regulators group for audiovisual media services.

A priori, la demande formulée dans votre amendement devrait être assez largement satisfaite par cette transposition prévue d’ici à la fin de l’année comme l’a annoncé le Gouvernement. En attendant, je vous demande de le retirer.

 

(L’amendement no 178 est retiré.)

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 371.

Mme Frédérique Dumas. Il s’agit d’apporter une précision, qui peut d’ailleurs être formulée différemment. On parle dans l’alinéa 6 de « manquement » – au singulier –, à propos du devoir de coopération de l’opérateur. L’idée est de ne faire sanctionner par le CSA qu’un non-respect « systématique » de ce devoir, et non pas un simple manquement.

À propos de la coopération européenne, je remarque que le Gouvernement ne voit aucun problème à instituer une « taxe GAFA » qui ne sera appliquée par aucun autre pays – mais je sais que l’explication est politique.

 

Je veux dire aussi que le CSA aura besoin de moyens pour assurer les nouvelles missions qui lui sont confiées, et que nous serons attentifs à cette question.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Un manquement « systématique », cela signifie un manquement qui se produit tout le temps. L’avis est donc défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Je peux comprendre le rejet du mot « systématique », cependant il aurait été intéressant de proposer une expression autre que « manquement » au singulier. Mais il semble que vous ne le souhaitiez pas.

(L’amendement no 371 n’est pas adopté.)

M. le président. L’amendement no 318 de Mme Laetitia Avia, est un amendement de coordination.

(L’amendement no 318, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 274.

M. Philippe Dunoyer. Le Conseil supérieur de l’audiovisuel peut, à tout moment et dans un délai qu’il fixe lui-même, mettre un opérateur en demeure de se conformer aux obligations mentionnées à l’article 6-3. Nous proposons que cette mise en demeure soit assortie d’une astreinte journalière selon des modalités fixées par décret. Une telle formule serait en effet susceptible d’entraîner une réaction rapide de la part de la plateforme. Il me semble important que le CSA puisse, en cas de manquement, témoigner de son autorité en touchant au portefeuille les opérateurs concernés.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’avis est défavorable. Des sanctions suffisamment importantes à l’encontre des opérateurs figurent déjà dans la proposition de loi.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 274 n’est pas adopté.)

M. le président. L’amendement no 66 de M. Hervé Saulignac est défendu.

(L’amendement no 66, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements identiques, nos 244 et 335.

La parole est à M. Stéphane Peu, pour soutenir l’amendement no 244.

M. Stéphane Peu. L’alinéa 12 donne au CSA la possibilité de rendre publiques les mises en demeure et les sanctions qu’il prononce à l’encontre des opérateurs manquant à leurs obligations. Mais nous pensons que ceux-ci seront plus enclins à se montrer exemplaires s’ils savent que leur comportement en matière de retrait de contenu haineux et de moyens mis en œuvre pour les identifier sera systématiquement porté à la connaissance du public. Conformément à l’avis du Conseil d’État, et dans une logique de transparence, cet amendement vise à rendre obligatoire la publicité des décisions du Conseil. L’effet serait plus incitatif, sachant que les opérateurs sont soucieux de leur image.

M. le président. L’amendement no 335 de Mme Cathy Racon-Bouzon est défendu.

Quel est l’avis de la commission ?

 

Mme Laetitia Avia, rapporteure. L’avis est favorable. Il est important que le public ait connaissance de ces mises en demeure et sanctions et que cela ne soit pas seulement une option, ce qui est déjà le cas s’agissant de l’application de la loi de 1986. Il n’est pas judicieux de faire une exception en la matière.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Votre proposition est judicieuse même si, comme vous le savez probablement, la loi dispose déjà que les sanctions infligées par le CSA sont publiées au Journal officiel. En outre, dans la pratique, le CSA rend publiques les mises en demeure qu’il prononce. Néanmoins, le fait de rendre une sanction publique est considéré comme une sanction complémentaire, ce qui nécessite qu’elle soit encadrée. Je m’en remets par conséquent à la sagesse de l’Assemblée. Le ministre de la culture aura probablement l’occasion d’y revenir dans le cadre du projet de loi sur l’audiovisuel, dont l’examen nous donnera l’occasion de mieux encadrer cette disposition et, éventuellement, d’étendre la liste des supports de publication.

(Les amendements identiques nos 244 et 335 sont adoptés.)

M. le président. La parole est à M. Frédéric Reiss, pour soutenir l’amendement no 119.

M. Frédéric Reiss. Le présent amendement, de notre collègue Ciotti, vise à assurer l’effectivité des mises en demeure et sanctions prononcées par le CSA. Le texte prévoit que le CSA « peut également ordonner leur insertion dans des publications, journaux et supports qu’il désigne, aux frais des opérateurs faisant l’objet de la mise en demeure ou de la sanction. » Ne pas procéder à cette publication constituerait un nouveau manquement passible d’une sanction pécuniaire. Mais celle-ci ne suffit pas ; aussi souhaitons-nous qu’une astreinte journalière puisse être décidée, dont le montant serait déterminé par décret en Conseil d’État.

(L’amendement no 119, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme George Pau-Langevin, pour soutenir l’amendement no 77.

Mme George Pau-Langevin. Nous sommes préoccupés par le rôle que joueront les associations dans cette procédure. Je persiste à penser, en effet, que, depuis 1972, ce sont elles qui ont fait vivre la lutte contre le racisme, la lutte contre l’homophobie ou contre les discriminations. Or nous ne parvenons pas à savoir si les dispositions de la proposition de loi seront appliquées en s’appuyant sur leur savoir-faire ou si, au contraire, elles vont se retrouver totalement banalisées parmi tous les signaleurs susceptibles d’intervenir.

J’avais suggéré qu’en cas de non-retrait des contenus, elles puissent elles-mêmes saisir le juge judiciaire. Il faut savoir qu’aux termes du droit en vigueur, toute personne ne peut pas intervenir à la place de la victime. Une disposition devrait donc permettre aux associations de s’y substituer. Il me semble que si le texte ne reprend pas les dispositions prévues aux articles 48-1 à 48-6 de la loi du 29 juillet 1881 sur la liberté de la presse, qui spécifient pour chaque type d’infraction que les associations compétentes peuvent intervenir, on se priverait d’un moyen de conforter la lutte contre les propos haineux.

 

J’entends bien que la procédure n’est pas exactement la même, ici, que celle prévue par la loi de 1881, mais il faudrait trouver le moyen de redonner aux associations le rôle très positif qu’elles ont eu jusqu’à présent dans la lutte contre les propos haineux.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je m’interroge vraiment sur la place de cet amendement puisque nous sommes en train d’examiner l’article 4 sur le rôle du CSA. Or, à vous entendre, j’ai l’impression qu’il est davantage question des retraits de contenus et de dispositions relevant de l’article 1er. Vous voulez vous assurer que les associations aient un rôle similaire à celui qu’elles jouent dans l’accompagnement des victimes au titre de la loi de 1881.

Mme George Pau-Langevin. Je souhaite qu’elles épaulent le CSA, en quelque sorte.

Mme Laetitia Avia, rapporteure. En ce qui concerne l’obligation de retrait, nous avons voté, hier, un amendement permettant aux associations qui peuvent déjà se constituer partie civile au titre de la loi de 1881 de le faire également en application de l’article 1er de la proposition de loi, pour la poursuite du nouveau délit de refus de retrait. Voilà qui donne un rôle particulier aux associations pour accompagner les victimes de contenus haineux ou pour se substituer à elles.

Ensuite, pour ce qui est des relations entre le CSA et les associations, il ne me paraît pas nécessaire de les inscrire dans la loi mais il est bien évident qu’un partenariat privilégié doit être institué. Ce point a en tout cas été évoqué au cours de mes discussions avec les représentants du CSA et leur volonté en la matière est claire.

 

C’est pourquoi je vous demande de retirer votre amendement, faute de quoi j’émettrai un avis défavorable.

 

(L’amendement no 77, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements, nos 288 et 281, pouvant être soumis à une discussion commune.

La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 288.

Mme Laure de La Raudière. Le présent amendement est peut-être redondant avec l’amendement no 248 qui visait à donner au CSA le pouvoir de recueillir toutes les informations nécessaires au contrôle des obligations qui s’imposent aux opérateurs. Reste que la rédaction des deux amendements diffère et l’amendement no 288 vise à ce que « le Conseil supérieur de l’audiovisuel dispose également d’un pouvoir d’expertise de l’efficacité de ces dispositifs ». Nous devons en effet nous assurer que le CSA dispose bien des moyens de cette expertise.

M. le président. La parole est à M. Philippe Dunoyer, pour soutenir l’amendement no 281.

M. Philippe Dunoyer. Nous souhaitons doter le CSA d’un pouvoir de contrôle sur place et sur pièces mais cette proposition est, j’imagine, satisfaite par un amendement adopté précédemment. Ce qui n’est sans doute pas le cas du second alinéa que nous entendons insérer après l’alinéa 13. Même si cela paraît aller de soi, comme le rappelait notre collègue Pau-Langevin, mieux vaut l’inscrire dans le texte : les informations recueillies par le CSA dans le cadre de ses pouvoirs d’enquête ne sauraient faire l’objet d’une divulgation. Il convient de les protéger car les pouvoirs importants de contrôle donnés au Conseil ne doivent pas être exercés au détriment des opérateurs de plateformes.

M. le président. Quel est l’avis de la commission sur ces deux amendements ?

Mme Laetitia Avia, rapporteure. L’amendement no 288 est en effet redondant avec l’amendement no 248 que nous avons adopté tout à l’heure.

Quant à l’amendement no 281, si nous interdisons toute divulgation des informations recueillies, il ne sera pas possible d’alimenter le rapport d’activité. L’amendement no 248 me paraît bien plus à même de garantir le respect du secret des affaires. Avis défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis. En ce qui concerne les moyens, madame de La Raudière, il est en effet impératif que le CSA dispose de l’expertise nécessaire à la réalisation de son travail de vérification. Nous réfléchissons en ce moment au champ de compétences des régulateurs et à d’éventuels rapprochements entre le CSA, l’Autorité de régulation des communications électroniques et des postes, l’ARCEP, et la Haute autorité pour la diffusion des œuvres et la protection des droits sur internet – HADOPI –, en particulier parce qu’il y aurait intérêt à combiner le savoir-faire technique de l’ARCEP et la compétence du CSA relative aux contenus. Le travail interministériel se poursuit sur le sujet, et des annonces seront sans doute faites dans les semaines à venir. En tout cas, l’idée est bien que le régulateur dispose et de l’expertise technique pour procéder à ses vérifications.

Mme Laure de La Raudière. Je retire mon amendement.

(L’amendement no 288 est retiré.)

M. le président. Retirez-vous le vôtre, monsieur Dunoyer ?

M. Philippe Dunoyer. Je comprends bien que l’interdiction de la divulgation pourrait prêter à confusion mais mon amendement précisait bien que les informations recueillies devaient servir à « l’accomplissement des missions du CSA ». Mais je n’entends pas polémiquer et je retire à mon tour mon amendement.

(L’amendement no 281 est retiré.)

M. le président. L’amendement no 64 de Mme George Pau-Langevin est défendu.

(L’amendement no 64, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme Céline Calvez, pour soutenir l’amendement no 334.

Mme Céline Calvez. Le présent amendement est proposé par l’ensemble des députés du groupe La République en marche. Il part d’un constat : lorsqu’un contenu haineux est signalé sur une plateforme, il n’est retiré que sur celle-ci, et peut rester sur les autres. Les opérateurs et les plateformes ont en effet des caractéristiques différentes : le nombre de contenus, le trafic ne sont pas les mêmes et les usagers seront plus ou moins conduits à signaler les contenus haineux. Nous proposons donc que le CSA encourage les plateformes à se communiquer entre elles les informations dont elles disposent concernant des contenus haineux, afin de pouvoir agir dans les plus brefs délais. Le partage de signalement immédiat entre les opérateurs – en particulier en cas où est repérée la diffusion en direct d’une vidéo à caractère haineux – permettrait d’apporter une réponse plus rapide sur l’ensemble des plateformes.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il semble en effet important que les plateformes collaborent davantage entre elles afin de lutter contre les contenus illicites. Que dans ce but, elles soient incitées par le régulateur à partager outils et informations, voilà qui me paraît de bon augure. Avis favorable.

(L’amendement no 334, accepté par le Gouvernement, est adopté.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 293.

Mme Laure de La Raudière. Je suis choquée de ce que nous venons d’adopter un tel amendement sans le moindre débat. Je ne l’avais pas remarqué auparavant et il est maintenant trop tard pour y revenir mais il y a ainsi des amendements lourds de conséquences qui sont adoptés sans étude d’impact, ce qui me sidère quelque peu.

Le présent amendement va vous montrer à quel point j’ai examiné le texte avec attention. L’alinéa 16 de l’article 4 tend à exonérer les opérateurs mentionnés au troisième alinéa de l’article 1er du respect des obligations prévues au troisième alinéa du 7 du I de l’article 6 de la LCEN. Il doit en être de même pour les obligations prévues au quatrième alinéa du 7 du I du même article, car ces dernières sont reprises dans le présent texte, notamment à l’alinéa 6 de l’article 3 et à l’alinéa 8 de l’article 4.

 

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La rédaction de l’alinéa 16 de l’article 4, en visant le troisième alinéa du 7 du I de l’article 6 de la LCEN, permet d’exclure les opérateurs de plateforme en ligne de l’application des troisième et quatrième alinéas de ce même 7. Votre intention est donc pleinement satisfaite. Avis défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. S’il y a un problème, il sera résolu à l’occasion de la navette parlementaire mais je ne vois pas comment l’alinéa 16 de l’article 4 de la proposition de loi, en visant le troisième alinéa du 7 du I de l’article 6 de la LCEN, pourrait viser dans le même temps le quatrième alinéa…

(L’amendement no 293 n’est pas adopté.)

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 245.

M. Stéphane Peu. Compte tenu des nouvelles missions confiées au CSA, les alinéas 17 à 21 prévoient le transfert vers cette autorité du contrôle de l’application des dispositions de l’article 6-1 de la loi pour la confiance dans l’économie numérique, relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques, qui relève aujourd’hui de la compétence d’une personnalité qualifiée désignée au sein de la Commission nationale de l’informatique et des libertés. Le présent amendement vise à supprimer ces alinéas afin de permettre un double contrôle par le CSA et par la CNIL.  

En effet, l’extension du champ de compétence du CSA au contrôle de la procédure de signalement de contenus illicites ne doit pas conduire à réduire la compétence de la CNIL en matière de contrôle de la légalité des blocages administratifs de sites – une compétence indispensable au regard du rôle joué par la Commission nationale en matière de préservation des libertés individuelles. En outre, le contrôle effectué par la CNIL vient en complément de celui qui est assuré par le CSA et permet d’éviter toute mesure disproportionnée ou abusive.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. Non seulement le transfert prévu est cohérent, mais il est réclamé par les acteurs concernés. La CNIL a en particulier formulé une demande en ce sens lors de son audition. J’ajoute que l’avis du Conseil d’État contient une recommandation à ce sujet.

(L’amendement no 245, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. Raphaël Gérard, pour soutenir l’amendement no 81.

M. Raphaël Gérard. Aujourd’hui, le CSA ne bénéficie en interne d’aucune expertise pour assurer son rôle de régulateur en matière de lutte contre la haine en ligne. L’amendement vise à placer, auprès du président du CSA, un comité scientifique composé de représentants d’associations de lutte contre les discriminations et de personnalités qualifiées, pour l’accompagner dans l’évaluation de l’application de la loi et le conseiller sur les recommandations à adresser aux plateformes. Je souligne que le CSA dispose déjà d’un certain nombre de comités spécialisés, en particulier dans le domaine de la santé.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Nous avons déjà eu une discussion sur ce sujet en commission. Nous pourrons la reprendre lorsque nous examinerons l’article 7 de la proposition de loi. En attendant, mon avis est défavorable.

(L’amendement no 81, repoussé par le Gouvernement, n’est pas adopté.)

(L’article 4, amendé, est adopté.)

Article 6

M. le président. L’amendement no 301 du Gouvernement est un amendement de cohérence.

(L’amendement no 301, accepté par la commission, est adopté.)

M. le président. La parole est à Mme Samantha Cazebonne, pour soutenir l’amendement no 303.

Mme Samantha Cazebonne. Les mineurs doivent être également protégés de la vue de contenus publiés comportant des sévices graves, ou de nature sexuelle, ou des actes de cruauté envers un animal domestique, ou apprivoisé, ou tenu en captivité. En effet, lorsqu’un enfant est témoin de sévices exercées sur les animaux, il y a en réalité deux victimes : l’animal lui-même et l’enfant témoin. Des études américaines ont ainsi mis en évidence le lien entre l’observation de maltraitance animale par des enfants et la violence interpersonnelle que ces derniers peuvent manifester, y compris sous forme de harcèlement.

Il y va donc de la protection de l’enfance de préserver les mineurs de tels contenus diffusés en ligne, dont les effets néfastes, notamment l’accoutumance à la violence, ont été établis.

 

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Chère collègue, je comprends votre intention, mais peut-être sommes-nous un tout petit peu à côté de l’objet de la proposition de loi. Cela étant, je sais que vous travaillez sur le sujet depuis un moment, et je suis persuadée que vous parviendrez à trouver le véhicule adéquat pour l’adoption de ces dispositions très fortes. À ce stade, je vous demande de retirer l’amendement, sinon je donnerai un avis défavorable.

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 303 est retiré.)

M. le président. Je suis saisi de deux amendements, nos 184 et 246, pouvant être soumis à une discussion commune.

La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 184.

Mme Laure de La Raudière. Il vise à remplacer l’autorité administrative par l’autorité judiciaire aux alinéas 5 et 6 de l’article 6. La liberté d’expression est une liberté publique, protégée par la Constitution, et le juge judiciaire est l’autorité compétente pour opérer le retrait d’un contenu, même s’il s’agit d’un contenu répété, comme le Conseil d’État le souligne par exemple au point 25 de son avis sur la proposition de loi.

J’espère que cette référence au Conseil d’État sera un sésame pour l’adoption de cet amendement !

 

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 246.

M. Stéphane Peu. Dans le même esprit que l’amendement précédent, il concerne les sites dits miroirs. L’alinéa 5 cherche à remédier aux insuffisances du droit actuel en matière de réapparition de contenus ayant fait l’objet d’une décision définitive de l’autorité judiciaire.

Nous partageons l’idée qu’il faut bloquer au plus vite la duplication de sites haineux, mais, nous inspirant du rapport remis, au mois de septembre dernier, au Premier ministre par M. Karim Amellal et M. Gil Taïeb, qui recommandait de « créer une procédure simple et rapide, sous le contrôle du juge afin de bloquer les sites manifestement racistes et antisémites », nous proposons d’introduire une procédure de référé assez voisine de celle applicable au secteur des jeux d’argent et de hasard en ligne.

 

Mme Laure de La Raudière. On devrait quand même être au moins aussi protecteur lorsque l’on traite de la liberté d’expression !

M. Stéphane Peu. C’est un argument supplémentaire !

M. le président. Quel est l’avis de la commission sur les amendements en discussion commune ?

Mme Laetitia Avia, rapporteure. Ils tendent à vider de sa substance la disposition de simplification que nous avons pourtant déjà réécrite en commission conformément aux préconisations du Conseil d’État afin de nous assurer que la procédure demeure en permanence sous le contrôle du juge.

L’alinéa 5 prévoit que si une décision judiciaire définitive interdit la reprise totale ou partielle d’un contenu, l’autorité administrative, en l’espèce l’OCLCTIC – Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication –, peut demander aux fournisseurs d’accès internet de mettre en œuvre cette décision. En cas de contestation au cours de la procédure, il y aura un retour devant le juge.

 

Cette disposition correspond à ce qui a été demandé par le Conseil d’État – dont l’avis commente une première version du texte dans laquelle le juge était bien moins présent, en amont comme en aval. La nouvelle rédaction propose un processus particulièrement équilibré et très encadré qui permet de s’assurer à la fois du respect de la liberté d’expression et du blocage des sites miroirs de sites interdits par le juge. Je demande le retrait des amendements. À défaut, mon avis sera défavorable.

 

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Les préoccupations de Mme de La Raudière et de M. Peu ne sont pas légitimes : la rédaction de l’alinéa 5 permet de lutter efficacement contre les sites illégaux tels que celui de Démocratie participative, tout en laissant le juge au centre des décisions.

C’est à lui qu’il revient de dire qu’un site est illégal, qu’il doit être bloqué ou déréférencé et que toutes les dispositions nécessaires doivent être prises pour éviter sa réapparition. Il donne en quelque sorte un mandat à l’OCLCTIC, qui l’applique. Si l’hébergeur ou le moteur de recherche contestent ce processus, alors on repasse devant le juge. Je pense qu’il s’agit d’un bon équilibre entre protection et efficacité.

 

Sans une telle procédure, il faudrait revenir systématiquement devant le juge pour déréférencer des sites absolument identiques. À défaut de retrait des amendements, mon avis sera donc défavorable.

 

(Les amendements nos 184 et 246, successivement mis aux voix, ne sont pas adoptés.)

M. le président. Je suis saisi de deux amendements identiques, nos 258 et 356.

La parole est à Mme Béatrice Piron, pour soutenir l’amendement no 258.

Mme Béatrice Piron. Mme Aurore Bergé est le premier signataire de cet amendement qui a pour objectif de réintégrer l’hébergeur dans le processus de lutte contre la diffusion de contenus et sites miroirs. Il permet que l’autorité administrative s’adresse soit à l’hébergeur soit au fournisseur d’accès à internet pour faire cesser le dommage, à l’instar du dispositif prévu au 8 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique modifié par la proposition de loi.

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement identique no 356.

Mme Laure de La Raudière. Il a été parfaitement défendu par ma collègue.

(Les amendements identiques nos 258 et 356, repoussés par la commission et le Gouvernement, ne sont pas adoptés.)

M. le président. La suite de la discussion est renvoyée à la prochaine séance.

2

Ordre du jour de la prochaine séance

M. le président. Prochaine séance, ce soir, à vingt et une heures trente :

Suite de la discussion de la proposition de loi visant à lutter contre la haine sur internet.

La séance est levée.

(La séance est levée à dix-neuf heures cinquante-cinq.)

Le Directeur du service du compte rendu de la séance

de l’Assemblée nationale

Serge Ezdra