Accueil > Travaux en séance > Les comptes rendus > Les comptes rendus de la session > Compte rendu intégral

Afficher en plus grand
Afficher en plus petit
Edition J.O. - débats de la séance
Articles, amendements, annexes

Assemblée nationale
XVe législature
Session ordinaire de 2019-2020

Compte rendu
intégral

Deuxième séance du mardi 21 janvier 2020

Présidence de M. Marc Le Fur

vice-président

M. le président. La séance est ouverte.

(La séance est ouverte à vingt et une heures trente.)

1

Haine sur internet

Nouvelle lecture (suite)

M. le président. L’ordre du jour appelle la suite de la discussion, en nouvelle lecture, de la proposition de loi, modifiée par le Sénat, visant à lutter contre les contenus haineux sur internet (nos 2534, 2583).

Discussion des articles

M. le président. J’appelle maintenant, dans le texte de la commission, les articles de la proposition de loi.

Article 1er

M. le président. La parole est à M. Maxime Minot.

M. Maxime Minot. Internet est capable du meilleur comme du pire. C’est un espace de liberté et il doit le rester, à plus forte raison dans un pays comme le nôtre, tellement attaché à son expression libre et impertinente, qui voit dans internet la possibilité de s’exprimer autrement que par des canaux traditionnels.

Si cet espace de liberté, comme tout l’espace public, implique une vigilance accrue, celle-ci ne doit pas être confondue avec de la surveillance. Néanmoins, un espace de liberté n’est pas une zone de non-droit et il implique des règles l’encadrant sans le restreindre, afin de garantir le respect de chacun et de ne jamais excuser l’inexcusable. Même si nous disposons d’un arsenal juridique, législatif ou jurisprudentiel, nous devons aller plus loin pour contrer cette haine, devenue parfois virale.

En commission, vous déjà largement modifié la rédaction issue travaux du Sénat, tout en prenant en compte certaines remarques des sénateurs et de la Commission européenne.

M. Frédéric Reiss. C’est vrai !

M. Maxime Minot. Toutefois, il reste certaines limites à l’effectivité de ce texte, pavé de bonnes intentions et sans doute nécessaire.

En effet, vous demandez à de nombreux parlements de chercher à réguler, à se faire les gardiens de notre liberté d’expression. Vous voulez ainsi leur confier un droit à la censure qui, si nous voulons éviter le risque d’une dictature de la pensée, organisée par des algorithmes, autrement dit par des machines pilotées par des intérêts privés, ne peut être détenu que par le peuple. En outre, il aurait été sans doute plus utile de défendre une position non pas franco-française mais européenne : une initiative commune forte aurait eu davantage de poids.

Chers collègues, des doutes subsistent donc encore sur un texte qui ne doit pas être considéré comme un énième engagement présidentiel mais comme un sujet ô combien important pour nos libertés individuelles et qui engage l’avenir de la société dans son ensemble. (Mme Annie Genevard applaudit.)

M. le président. La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Je pense avoir dit l’essentiel lors de la discussion générale, mais je souhaite insister sur mon attachement à la possibilité de retirer les contenus concernés dans les vingt-quatre heures.

Nos amis sénateurs socialistes ont certes proposé une modification du texte qui rendrait ce retrait purement provisoire, dans l’attente de la saisine d’un juge chargé de qualifier les propos contestés. Doutant que les opérateurs saisissent réellement le juge, je penche plutôt pour la formulation qui a été rétablie : les propos incriminés doivent être retirés par l’opérateur pour qu’ensuite ceux qui veulent saisir le juge afin d’avoir un avis définitif puissent le faire. Ce dispositif me paraissant bien meilleur, je suis donc favorable au rétablissement du texte initial.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Comme je l’ai souligné lors de la discussion générale, avec cet article 1er, conjugué aux articles 2 et 4, vous proposez de remettre en cause ce sur quoi repose notre démocratie depuis deux cents ans et de compromettre l’efficience d’une régulation pourtant nécessaire.

Vous faites preuve d’une précipitation qui ne permettra ni de lutter efficacement contre ces contenus illégaux, ni de créer un environnement en ligne sécurisé pour les utilisateurs. Vous prenez la lourde décision de confier aux géants du numérique des quasi-pouvoirs de police ainsi que le pouvoir d’interprétation du juge.

Avec le Gouvernement, vous ne cessez de nous proposer à la dernière minute des modifications à ces trois articles. Pour démontrer l’équilibre de votre dispositif, vous invoquez l’alinéa 6 que vous avez introduit : « Le caractère intentionnel de l’infraction mentionnée à l’avant-dernier alinéa du présent I peut résulter de l’absence d’examen proportionné et nécessaire du contenu notifié. »

D’un côté, il sera très difficile de prouver l’intentionnalité, ce qui risque de rendre votre dispositif inefficient et, de l’autre, le verbe « pouvoir » laisse une très grande marge d’appréciation, pouvant donner lieu à des retraits excessifs ou à des contentieux sans fin. Dans tous les cas, on aboutit, j’y insiste, à l’inefficience.

M. le président. La parole est à Mme Anissa Khedher.

Mme Anissa Khedher. Cette proposition de loi est le résultat d’un long travail approfondi de Laetitia Avia, soutenu avec conviction par Caroline Abadie. Nos deux collègues ont toujours eu le souci de l’équilibre entre la lutte contre les propos haineux et le respect fondamental de la liberté d’expression.

Au cours des nombreuses réunions et auditions, nous avons pris le temps d’échanger avec nos concitoyens, les associations et les représentants des opérateurs, afin d’aboutir à une proposition de loi courageuse et ambitieuse. Elle est courageuse parce qu’elle s’attaque à un problème sur lequel nous avons fermé les yeux depuis trop longtemps ; elle est ambitieuse parce qu’elle témoigne de notre détermination à lutter contre tous les contenus haineux qui circulent, sans contrôle adapté, sur internet.

L’article 1er, tel que rédigé par la commission en nouvelle lecture, résume à lui seul une grande partie de cette ambition en rétablissant l’obligation pour les plateformes et moteurs de recherche de retirer dans les vingt-quatre heures les contenus heurtant la dignité humaine. Nous enjoignons aux opérateurs de modérer avec efficacité, sous peine de sanctions, les éléments haineux diffusés sur les sites et les réseaux sociaux.

Cependant, les opérateurs, les plateformes et les moteurs de recherche n’auront pas les pleins pouvoirs que certains nous accusent de leur donner : l’autorité judiciaire veillera toujours au respect des droits de chacun des internautes ; elle pourra prescrire, en référé, aux opérateurs d’agir pour faire cesser un dommage dû à un contenu ou occasionné par le retrait d’un contenu.

L’article 1er est à l’image de l’ensemble de la proposition de loi : il est adapté à la réalité de la haine en ligne ; il est protecteur pour les victimes ; il conserve un équilibre entre efficacité et liberté. (Applaudissements sur quelques bancs du groupe LaREM.)

M. le président. La parole est à M. Stéphane Peu.

M. Stéphane Peu. L’article 1er impose aux opérateurs des plateformes en ligne à fort trafic, de retirer les contenus litigieux et de les rendre inaccessibles dans un délai de vingt-quatre heures. Malgré les précautions prises et les références à la liberté de la presse ou à des articles du code pénal, nous pensons que ces opérateurs auront du mal à déterminer aussi rapidement et surtout aussi sûrement le caractère manifestement illicite d’un contenu.

Nous craignons de ce fait un risque de sur-censure. Il est en effet assez probable que, dans ce délai très court, un principe de précaution ou de prévention conduira à une censure excessive, en l’absence de l’intervention d’un juge qui dise le droit. Le risque est d’aller au-delà de la censure de discours haineux et de censurer aussi des critiques à caractère idéologique qui ont toute leur place dans le débat démocratique.

C’est pourquoi cet article nous inquiète. Nous avons déposé des amendements qui, pour éviter la sur-censure, visent à sanctionner les retraits abusifs auxquels il risque de conduire, notamment en raison de la brièveté du délai imposé pour retirer les propos litigieux.

M. le président. Je suis saisi de quatre amendements identiques, nos 1, 55, 66 et 122, tendant à supprimer l’article.

La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 1.

Mme Emmanuelle Ménard. L’article 1er est problématique en ce qu’il instaure la privatisation de la liberté d’expression en contournant le juge et en confiant la police de l’expression sur internet aux grandes plateformes.

Les opérateurs sont-ils les mieux placés pour exercer cette mission de censure a priori, quand il est parfois si difficile pour les juges de le faire a posteriori ? Je ne le pense pas.

Mon inquiétude est vive, je le répète, de voir les plateformes se transformer en juge de la liberté d’expression car, en la matière, la liberté doit évidemment être la règle et les restrictions, l’exception. C’est ainsi depuis la loi sur la presse de 1881, et c’est ainsi que cela doit rester puisque la liberté d’opinion et d’expression est la plus importante de nos libertés.

Avec cet article 1er vous déléguez une autorisation de censure à des algorithmes : le volume des expressions sur les plateformes internet est tel qu’aucun humain ne peut raisonnablement en surveiller la totalité, tout cela dans un délai de vingt-quatre heures, ce qui crée, de facto, une sorte de délit de non-retrait qui sera sanctionné financièrement. Inutile de vous faire un dessin : face au risque de sanctions pécuniaires surgit le risque d’autocensure ou de sur-censure car aucun opérateur privé ne voudra se voir sanctionner à répétition.

L’avocat François Sureau, explique à propos de ce texte : « La société de liberté se définit par un climat général que chaque restriction dégrade, dépouillant peu à peu le citoyen de sa capacité de libre détermination. » Et de poursuivre : « Je partage le dégoût moral des auteurs de [ce texte]. Mais le dégoût comme l’indignation ne sont pas nécessairement les meilleurs soutiens de la liberté. »

Je partage également ce dégoût mais, vous l’avez compris, je suis farouchement opposée à ce texte. J’ai eu l’occasion de le dire à maintes reprises, votre proposition de loi est contraire à ma conception voltairienne de la liberté d’expression en France.

M. le président. La parole est à Mme Danièle Obono, pour soutenir l’amendement no 55.

Mme Danièle Obono. Nous demandons la suppression de l’article 1er – cœur du dispositif proposé. Par manque de moyens humains pour l’appliquer, cette disposition ne sera pas opérationnelle, comme cela vous a été dit au cours des débats et des auditions par les nombreuses associations qui contestent ce texte et par les professionnels.

Surtout, ce texte passe à côté de l’essentiel : internet n’est que le reflet grossissant de ce qui se passe dans la réalité où il manque, je le répète, des moyens humains pour faire reculer les propos et les comportements racistes, sexistes ou homophobes. Il manque également des moyens financiers pour accompagner les victimes sur les plans judiciaire, social et psychologique, et pour former à ces sujets des professionnels de la justice, de la police et de la santé.

Rien dans cet article 1er ni dans le reste du texte ne répond fondamentalement aux demandes concrètes des associations de victimes pour faire reculer ces comportements dans la réalité et sur internet.

En réalité, tout en ayant la conviction d’œuvrer pour le bien commun, vous risquez de restreindre non seulement la liberté d’expression en général mais aussi les moyens de réagir dont disposent les victimes de ces agissements sur internet.

M. le président. La parole est à M. Guillaume Larrivé, pour soutenir l’amendement no 66.

M. Guillaume Larrivé. Je ne voudrais pas être mal compris. Je partage bien sûr les finalités de ce texte. Je comprends que vous avez essayé de faire de votre mieux pour trouver la rédaction la mieux à même de lutter efficacement contre le déferlement sur les réseaux sociaux d’une haine dont nous sommes, nous députés, non seulement les témoins mais aussi les cibles directes : notre expression publique sur les réseaux est souvent contestée de manière polémique, ce qui est légitime, mais aussi parfois de manière très violente, ce qui n’est pas légitime. Je comprends donc l’objectif du texte, comme j’ai déjà eu l’occasion de le dire à Mme la rapporteure devant la commission des lois.

Toutefois, et c’est pourquoi je défends cet amendement de suppression, la rédaction que vous proposez n’est pas aboutie. Malgré les légères évolutions de ces dernières heures, je regrette vraiment que vous n’ayez pas considéré plus attentivement la version proposée par nos collègues sénateurs. En effet, tel qu’il sera sans doute adopté cette nuit, l’article 1er fait courir à la liberté d’expression un risque particulièrement grave.

Depuis la grande loi de 1881 sur la liberté de la presse, la République française, c’est son honneur, assume le fait que, en matière d’expression, la liberté est la règle. Il ne s’agit pas d’une règle absolue, bien entendu, car il y a des exceptions, mais celles-ci doivent être particulièrement restreintes.

Certes, à l’heure des réseaux sociaux, le contexte est différent, mais les évolutions techniques ne doivent pas nous faire oublier nos principes juridiques et politiques : la liberté d’expression doit l’emporter sur la censure. Et cela d’autant plus que le dispositif de censure que vous esquissez est en réalité une privatisation de la censure, confiée aux réseaux sociaux, c’est-à-dire, en fait, aux algorithmes, en dépit de votre tentative d’introduire un peu de conscience humaine dans cette affaire.  

Confier la censure aux algorithmes est une régression. Ce n’est pas, j’ai le regret de vous le dire, digne de la République française. (Applaudissements sur plusieurs bancs du groupe LR.)

M. le président. La parole est à Mme Agnès Thill, pour soutenir l’amendement no 122.

Mme Agnès Thill. La question n’est évidemment pas de savoir si nous sommes pour ou contre la haine sur internet – nous sommes tous d’accord sur le fait qu’il faut la condamner –, mais de savoir comment lutter contre elle. Or si nous sacrifions l’État de droit dans ce combat, c’est la haine qui aura gagné.

Les contenus mentionnés dans l’article 1er sont pénalement répréhensibles. Qu’ils soient donc condamnés par la justice dans le cadre d’une procédure équitable. Il est impératif de conforter la place du juge judiciaire, gardien des libertés fondamentales, à tous les niveaux de la lutte contre les contenus illicites et de renforcer les moyens d’action de la justice.

L’article 1er n’apporte pas la bonne réponse au problème que nous cherchons à résoudre. Les opérateurs de plateformes en ligne, qui sont des sociétés privées, n’ont pas à se substituer au juge en matière de répression des crimes et délits. La justice ne peut être rendue que par un juge, dont les décisions s’inscrivent dans une procédure précise qui prévoit une instruction respectant le principe du contradictoire et les droits de la défense. Tout ce qui sort de ce cadre n’est pas conforme à l’État de droit. La haine ne peut être combattue qu’avec les instruments de l’État de droit.  

Par ailleurs, le harcèlement ne passe pas uniquement par les contenus, mais également par les signalements, qui ciblent parfois des utilisateurs en fonction de leurs opinions dans un objectif revendiqué de censure. Or nul n’a le monopole de la morale. Aucun député ni aucun membre du Gouvernement n’apprécierait de voir suspendu son compte Facebook ou Twitter à cause d’un signalement massif de groupes d’opposition structurés.

En matière de libertés publiques et de lutte contre la haine en ligne, force doit rester à la loi. La justice ne peut être rendue que par un juge. Je ne veux pas qu’avec les meilleures intentions, nous nous éloignions de l’État de droit.  

M. le président. La parole est à Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République, pour donner l’avis de la commission sur ces amendements de suppression.

Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République. Il est défavorable et pour plusieurs raisons. J’ai entendu de nombreuses interrogations et inquiétudes concernant l’article 1er. Elles sont naturelles s’agissant d’un texte qui est, nous en avons tous conscience, inédit. Nous nous sommes efforcés de trouver le juste équilibre entre respect de la liberté d’expression et protection des individus sur les réseaux sociaux. C’est presque une question de santé publique : nous devons protéger nos concitoyens des déferlantes quotidiennes de haine sur les réseaux sociaux.

Certains orateurs ont estimé que la proposition de loi conduisait à une privatisation de la liberté d’expression. Soit. Mais imaginons que nous supprimions l’article 1er et que nous en restions au droit en vigueur : les plateformes auraient toujours la possibilité de supprimer les contenus illicites sans qu’on sache ni quand ni comment et sans qu’aucune sanction leur soit applicable. En somme, si l’article était supprimé, on en reviendrait au statu quo et les plateformes pourraient continuer d’agir comme bon leur semblerait. Vous soutenez que nous allons déléguer l’autorisation de censure aux plateformes mais nous n’allons rien déléguer puisque la loi de 2004 pour la confiance dans l’économie numérique dispose déjà que les plateformes ont la responsabilité de retirer les contenus illicites. C’est écrit noir sur blanc !

Alors maintenant que faisons-nous ? Nous décidons-nous à avancer, à définir et encadrer les contenus que les plateformes doivent retirer, cela en nous appuyant sur le socle de la loi de 1881 qui doit s’appliquer pleinement aux réseaux sociaux ? Ou bien laissons-nous faire ? Est-ce qu’on avance ou est-ce qu’on renonce ? Telle est la question que je vous pose, chers collègues.

Vous avancez ensuite que nous prévoyons de contourner le juge. Ce n’est pas le cas. Le Sénat, lui, a cherché à le contourner puisqu’il a supprimé le volet judiciaire du texte. Or le juge est bien présent dans la nouvelle version de l’article – lequel vise des contenus manifestement illicites au sujet desquels existe une jurisprudence –, juge chargé de veiller au respect des droits de chacun puisque, conformément au droit commun, il pourra être saisi en référé pour une atteinte à la liberté d’expression ou même pour obtenir le retrait de certains contenus, comme c’est déjà possible. Le texte accorde donc au juge toute sa place alors que jusqu’à présent la responsabilité d’une plateforme n’a jamais été engagée au titre de la loi de 2004 – c’est que le système en vigueur ne fonctionne tout bonnement pas.

La crainte d’une sur-censure a également été exprimée. Nous avons bien entendu pris ce risque en considération : les plateformes pourraient en effet céder à la facilité consistant, pour éviter des sanctions, à supprimer massivement des contenus. Nous avons donc prévu une mesure visant à sanctionner les plateformes en cas de sur-censure. Un délit judiciaire est prévu pour le non-retrait de contenus manifestement illicites, mais il ne s’applique pas aux « contenus gris », qui demandent plus de temps et de recherches, notamment de contextualisation.

Mme Frédérique Dumas. Mais qui les détermine ?

Mme Laetitia Avia, rapporteure. En revanche, si les plateformes retirent des contenus de manière excessive, ce n’est pas un délit qui s’applique, mais une sanction du Conseil supérieur de l’audiovisuel, le CSA, qui peut représenter jusqu’à 4 % du chiffre d’affaires mondial de la plateforme. La sanction prévue en cas de sur-censure est par conséquent bien plus élevée que la sanction prévue en cas de non-retrait de contenus illicites. Et elle est suffisamment dissuasive pour que les plateformes évitent de s’adonner à ce qu’on pourrait considérer comme une facilité ; 4 % du chiffre d’affaires mondial, c’est une épée de Damoclès suffisamment menaçante pour s’assurer que chacun fera son travail.

L’article 1er tel que nous vous le proposons est équilibré, il répond, je vous le garantis, à toutes les questions qui ont été soulevées, et il rétablit le juge dans le dispositif alors que le Sénat l’en avait fait disparaître. (Applaudissements sur les bancs du groupe LaREM.)

M. le président. La parole est à M. le secrétaire d’État chargé du numérique, pour donner l’avis du Gouvernement.

M. Cédric O, secrétaire d’État chargé du numérique. Je ne reviendrai pas dans le détail sur des questions que nous avons déjà largement débattues en première lecture et au Sénat. Je constate toutefois, comme la rapporteure, que les différents avis qui se sont exprimés reflètent une certaine méconnaissance de la situation actuelle : le retrait des contenus illicites est déjà à la seule initiative des plateformes ; aucune obligation ne s’impose à elles si ce n’est leurs conditions générales d’utilisation – CGU. D’ailleurs, si une plateforme décidait de se politiser ou d’appliquer des CGU particulièrement restrictives, elle pourrait retirer tous les contenus qu’elle voudrait : relevant du domaine privé, elle n’aurait à respecter que ses propres règles. Or nous voulons introduire le pouvoir de l’État, de la puissance publique dans cet espace.

Plusieurs députés ont regretté qu’il soit prévu que les plateformes procèdent au retrait des contenus illicites avant l’intervention du juge. Elles ne le feront cependant pas sans supervision de la puissance publique puisque le CSA joue un rôle de régulation. En outre, dès lors qu’on estime problématique que ce soient elles qui procèdent au retrait des contenus, il faut dire qui devrait le faire à leur place. La vidéo de la tuerie de Christchurch a été téléchargée 1,5 million de fois en vingt-quatre heures sur une plateforme. Qu’on nous explique donc comment le juge pourra ordonner le retrait de chacune de ces vidéos identiques postées à quelques micro-secondes d’intervalle… On peut s’indigner mais si l’on ne veut pas se payer de mots et faire preuve de responsabilité il faut proposer une solution.

Pour ce qui concerne la sur-interprétation, je note que plusieurs modifications du texte ont été proposées par le Sénat et acceptées par la commission des lois de l’Assemblée. Elles concernent notamment le retrait de la peine de prison et la précision du caractère intentionnel du délit le cas échéant. Une partie des inquiétudes ont donc été prises en compte.

Vous avez évoqué, monsieur Larrivé, la discussion du texte au Sénat. Je veux bien croire que la liberté d’expression soit aujourd’hui au cœur de vos préoccupations. Reste que je me suis demandé quelle était votre position sur d’autres textes relatifs aux libertés publiques – ou la position du président Retailleau, puisque vous avez évoqué le Sénat. Prenons la loi visant à renforcer et à garantir le maintien de l’ordre public lors des manifestations, dite loi anti-casseurs.

Mme Danièle Obono. Ce n’est pas un bon exemple !

M. Cédric O, secrétaire d’État. Quelle n’a pas été ma surprise de découvrir que non seulement vous étiez aux côtés du Gouvernement pour défendre ce texte, mais que vous jugiez que nous jouions petit bras. Si l’on a chevillé au corps le principe de la liberté publique, alors il faut faire preuve de cohérence pour l’ensemble des textes.

J’ai bien entendu l’argument du président Retailleau sur la liberté d’expression. Il serait légitime si le seul amendement qu’il avait déposé n’avait pas proposé la facilitation de la suppression de présumés faux comptes. Alors même qu’on nous reproche de prévoir les conditions d’une suppression d’un trop grand nombre de commentaires, le groupe Les Républicains du Sénat veut inciter les plateformes à supprimer largement les faux comptes. Il y a là une incohérence politique ; or si nous voulons avancer, il faut laisser les considérations politiciennes de côté et revenir au fond du débat.

M. Pierre Dharréville. Bonne idée !

M. Cédric O, secrétaire d’État. Avis défavorable sur ces amendements de suppression. (Mme Caroline Abadie applaudit.)

M. le président. Chers collègues, nous touchons au cœur du débat. C’est pourquoi je ferai droit à vos différentes demandes de parole mais qu’il soit bien clair que cela ne fera pas jurisprudence pour la suite de la discussion.

La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Je ne suis pas d’accord avec les arguments défendus par les auteurs de ces amendements identiques. Ils estiment, en particulier, que l’article 1er porte une atteinte considérable à la liberté d’expression – aujourd’hui la règle de notre système juridique et donc dans notre démocratie. Or cet article se réfère à des dispositions qui punissent déjà des délits et donc des comportements que le droit en vigueur n’autorise pas. C’est le cas de plusieurs articles de la loi du 29 juillet 1881 sur la liberté de la presse qui punissent les provocations, les diffamations et les injures à caractère raciste et homophobe. L’article 1er du présent texte fait également référence aux articles 225-1 et suivants du code pénal portant notamment sur la discrimination. Affirmer que notre droit autorise l’expression de propos racistes, sexistes ou homophobes est donc faux. La proposition de loi vise simplement à ce que les idées que nous n’acceptons pas de voir apparaître dans la presse ne soient pas non plus diffusées sur les réseaux sociaux. (Applaudissements sur quelques bancs du groupe LaREM.)

M. le président. La parole est à M. Éric Diard.

M. Éric Diard. Je tiens tout d’abord à saluer la nouvelle rédaction de l’article 1er qui, au lieu de la liste à la Prévert des contenus haineux présentée en première lecture, propose désormais une définition fondée exclusivement sur le droit.

Cependant, à mon avis, qui d’autre qu’un magistrat peut juger si un contenu mis en ligne contrevient à la loi, même si c’est manifeste, étant donné que la législation est de plus en plus complexe ? Il y a une chose que je ne comprends pas, monsieur le secrétaire d’État : vous nous dites que les plateformes peuvent supprimer des messages haineux, puis vous ajoutez qu’on ne peut pas compter que sur le juge car alors le retrait de la vidéo sur l’attentat de Christchurch aurait été impossible dans un délai raisonnable ; mais si les unes pourraient le faire pourquoi pas ce dernier ? Je ne comprends pas cette contradiction.

Enfin, madame la rapporteure, qui définit la zone grise que vous évoquez ?

Mme Laure de La Raudière. Bonne question !

M. le président. La parole est à M. Julien Aubert.

M. Julien Aubert. Vous considérez le système existant comme la base d’un futur bon système,…

Mme Laetitia Avia, rapporteure. Mais non !

M. Julien Aubert. …estimant que la bonne solution pour combattre la haine sur internet, c’est d’avoir recours aux seules plateformes. Pour ma part, je crois qu’il y a des solutions alternatives. Vous auriez pu par exemple choisir de responsabiliser les internautes par le biais d’un système de cartes d’identité numérique, autre manière d’atteindre votre objectif sur lequel notre groupe est d’accord. Notre première divergence, c’est que vous partez du principe qu’on ne peut passer que par la censure exercée par les plateformes pour l’atteindre.

Deuxième divergence, après avoir reconnu que le dispositif actuel ne fonctionnait pas, vous nous expliquez qu’il faut complexifier le système pour le rendre plus opérationnel… Une nouvelle loi n’est vraiment pas nécessaire pour obliger une plateforme à retirer une vidéo comme celle montrant l’attentat de Christchurch.

Enfin, il s’agit vraiment d’une usine à gaz. Vous nous annoncez fièrement que le CSA pourra infliger une amende de 4 % sur le chiffre d’affaires mondial d’une plateforme qui ne se conformerait pas à une mise en demeure.

Mme Danièle Obono. Ce n’est pas sérieux !

M. Julien Aubert. J’en déduis que vous croyez très sincèrement que le CSA va infliger une amende record de quelque 5 milliards de dollars à Facebook comme l’a fait l’administration américaine… Je ne suis pas convaincu de votre argumentation. Votre tigre opérationnel me fait en effet davantage l’effet d’un tigre de papier.

De telles réponses de la part de la commission et du Gouvernement empêchent du coup d’avoir une vraie discussion sur le fond : est-ce, oui ou non, le rôle de ces plateformes de juger de la licéité des contenus par le biais d’algorithmes ? Il y a tout de même une différence avec la presse pour laquelle c’est un être humain qui sanctionne la liberté d’expression, alors qu’ici vous nous demandez de faire confiance à des algorithmes. Il s’agit d’une mécanisation qui pose problème et qui conduit à s’interroger sur le progrès politique que vous prétendez accomplir.

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. L’argumentation de la rapporteure et du secrétaire d’État contient une contradiction puisqu’ils reconnaissent qu’existe déjà un encadrement législatif, avec ses limites et ses faiblesses, et qu’ils prévoient, tout en donnant plus de prérogatives aux plateformes, de le complexifier en espérant ainsi résoudre le problème… Mais ils ne se posent pas la question de savoir pourquoi une partie de la législation ne peut pas s’appliquer. Est-ce parce que la définition du délit n’est pas assez précise, ce qui revient à mettre en cause le travail du juge, ou est-ce parce que les moyens donnés à la justice ne sont pas suffisants pour permettre, par exemple, aux personnes qui voudraient contester un retrait abusif par les plateformes – retrait déjà possible aujourd’hui – de le faire par la voie du référé, sachant qu’il faut disposer de certains moyens financiers pour payer les frais de procédure et rémunérer un avocat et de certaines compétences pour mener à bien tout un ensemble de démarches, moyens dont n’importe quel quidam ne dispose pas ? Comment comptez-vous donc résoudre ce problème de moyens ? Faut-il, comme vous le souhaitez, donner plus de pouvoirs aux plateformes afin qu’elles puissent pratiquer plus de retraits abusifs, ou bien faut-il donner les moyens à la justice de faire son travail et surtout aux justiciables d’avoir recours à la justice ? C’est sur la réponse que vous apportez que nous divergeons.

Par ailleurs, monsieur le secrétaire d’État, les conditions générales d’utilisation relèvent certes de l’initiative des plateformes, mais peuvent elles aussi constituer un motif de contestation du fait même qu’elles sont un contrat entre les parties, autre source de contentieux.

En réalité, le Gouvernement et la majorité passent encore une fois à côté de l’essentiel : il s’agit avant tout de donner des moyens à la justice.

M. le président. La parole est à M. Guillaume Larrivé.

M. Guillaume Larrivé. Pour qui se souvient de ce qu’étaient autrefois les débats devant la 17e chambre du tribunal de grande instance de Paris, les débats sur la liberté d’expression étaient des plus ciselés, de la vraie dentelle, nourris qu’ils étaient à la fois du contradictoire et de la collégialité, et l’Autorité Judiciaire – avec un grand « A » et un grand « J » – prenait le temps nécessaire avant de décider de censurer au fond, ou pas, de réprimer pénalement, ou pas, un propos ou un écrit susceptible de contrevenir à nos règles d’ordre public et d’excéder la liberté d’expression. C’était fondamentalement, de 1881 aux années Macron, l’état du droit.

Mme Laetitia Avia, rapporteure. C’est toujours le cas.

M. Guillaume Larrivé. Même si vous le démentez, vous introduisez ici une véritable privatisation de la censure…

M. Erwan Balanant. N’importe quoi !

M. Guillaume Larrivé. …en modifiant considérablement le dispositif de la loi de 2004. J’entends bien qu’il n’était pas parfait et qu’il impliquait déjà une appréciation du contenu par les réseaux sociaux, mais il n’encadrait pas la procédure de retrait dans un délai de vingt-quatre heures et ne la cadenassait pas dans un processus pénal. On a donc un vrai désaccord.

Et je crains, monsieur le secrétaire d’État, que vous ne preniez nos arguments un peu à la légère en vous référant à des dispositions complètement inopérantes, en évoquant la loi anti-casseurs qui n’a, pardon de vous le dire, aucun rapport avec la choucroute. Le débat porte sur l’article 1er de ce texte, pas sur ce que nous avons dit ou non sur d’autres sujets qui n’ont rien à voir.

M. Cédric O, secrétaire d’État. Je vous invitais à faire preuve de cohérence.

M. Guillaume Larrivé. Je pense tout de même que le fait que s’expriment des inquiétudes sur des bancs aussi divers, et ce n’est pas banal, que ceux du groupe La France insoumise, que ceux où se trouvent les députés membres du Rassemblement national, ou que ceux des groupes Mouvement Démocrate et apparentés – MODEM – (Exclamations sur plusieurs bancs du groupe MODEM),…

Mme Laetitia Avia, rapporteure. Comment ça ?

M. Erwan Balanant. Pas le MODEM ! Il faut vous calmer, cher collègue !

M. Guillaume Larrivé. …UDI-Agir et Les Républicains, sans compter certaines consciences du groupe LaREM – qui ne s’expriment pas car elles sont « tenues » mais qui n’en pensent pas moins –, devrait susciter dans l’esprit des députés macronistes et du membre du Gouvernement le petit début d’un léger doute.

M. Fabien Di Filippo. Il a raison !

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je vais réagir à ce qui vient d’être dit à l’instant en précisant deux points importants. Le premier, c’est que ce n’est pas le groupe MODEM qui s’oppose à ce texte, qu’il soutient, mais moi, à titre personnel. Le second a été évoqué par vous, monsieur le secrétaire d’État, quand vous avez pointé une certaine incohérence des sénateurs. Je partage votre point de vue selon lequel il y a eu très certainement, en partie tout au moins, une posture politicienne dans leur prise de position, je pense à l’amendement Retailleau, arrivé en séance, visant à rendre possible la suppression de comptes d’utilisateurs après plusieurs signalements concordants. C’était en effet une grosse erreur et nous avons quasiment tous voté la suppression en commission du nouvel alinéa qu’il introduisait.

En revanche, là où vous ne voyez qu’une posture politicienne, j’ai noté, pour en avoir discuté avec des sénateurs, même au sein du groupe Les Républicains, une vraie volonté de travailler sur ce texte.

Mme Laure de La Raudière. Vous avez raison !

M. Philippe Latombe. La commission des lois du Sénat s’y est attelée en ayant une vision différente de la vôtre. Ce n’était pas alors une posture politicienne mais bien une vision qui leur était propre et que certains partagent ici qui estiment que la rédaction finalement proposée ne permettra pas d’atteindre l’objectif poursuivi. Mais autant je peux partager votre point de vue sur l’amendement Retailleau, autant je ne suis pas d’accord avec votre analyse sur le reste. Je ne vais pas épiloguer – je pense que vous avez envie que l’article 1er soit voté tel quel et ce sera très certainement le cas. Je n’en déposerai pas moins des amendements destinés à le rééquilibrer tout de même encore un peu. C’est seulement dans cette perspective que je voterai les amendements de mes collègues.

M. le président. La parole est à Mme Caroline Abadie.

Mme Caroline Abadie. Les opposants à ce texte pourraient aussi avoir au moins un tout petit doute parce que, en première lecture, des députés de tous les bancs l’ont voté, y compris ceux présents ce soir.

Mme Danièle Obono. Non !

M. Guillaume Larrivé. Il y a aussi des députés de tous les bancs qui ont voté différemment !

Mme Caroline Abadie. Je vous ai retourné l’argument : balle au centre. (Sourires et mouvements divers.) Après ce petit point d’histoire sur ce qui s’est passé il y a six mois dans cet hémicycle, je rappelle aussi qu’il ne s’agit pas de donner aux plateformes un pouvoir supplémentaire puisqu’elles l’ont déjà. Ainsi, elles peuvent aujourd’hui supprimer le mot « rouge » des contenus si elles le souhaitent et personne ne pourra rien leur dire. En revanche, le texte leur impose un devoir, comme notre collègue George Pau-Langevin l’a très bien rappelé, celui de faire respecter sur internet la loi de 1881. Cela ne signifie pas que les auteurs ne seront plus responsables de leurs propos, ils le demeureront, mais que si ces derniers sont manifestement illicites au regard de la future loi, les plateformes devront les retirer. C’est bien la raison pour laquelle je n’arrive pas à comprendre pourquoi on parle de contenus gris : certains criant déjà au scandale quand on évoque des contenus manifestement illicites, imaginons ce qu’il en serait si l’on touchait ce soir aux contenus gris ! (Exclamations sur les bancs du groupe FI et sur plusieurs bancs du groupe LR.) Le texte ne concerne pas le contenu gris…

Mme Danièle Obono. Bien sûr que si !

Mme Caroline Abadie. …et il est question de « message manifestement illicite » quand il n’y a aucun doute. Et cela, le juge pourra… (Mme Obono continue de s’exclamer.) J’ai comme un écho dans l’oreille, excusez-moi, madame Obono.

Mme Danièle Obono. Vous ne vous êtes pas gênée pour intervenir quand je parlais et moi aussi j’avais un écho dans l’oreille !

Mme Caroline Abadie. Le juge, disais-je, pourra tout à fait intervenir en référé pour ordonner la remise en ligne du contenu litigieux puisque nous avons réintroduit cette disposition dans l’article 1er. (Applaudissements sur quelques bancs du groupe LaREM.)

M. Fabien Di Filippo. C’est la meilleure avocate du vote contre cette loi !

M. le président. La parole est à Mme la rapporteure.

Mme Danièle Obono. Si Mme Abadie commence à me chercher… (Protestations sur les bancs du groupe LaREM.)

M. le président. Madame Obono, écoutons la rapporteure.

Mme Laetitia Avia, rapporteure. Je reviens très rapidement sur trois points et je commencerai par le traitement algorithmique. Un amendement adopté par notre collègue Philippe Dunoyer en première lecture garantit que la modération s’effectuera toujours par une conjugaison de moyens humains et technologiques alors qu’aujourd’hui existe une modération 100 % algorithmique. L’Assemblée nationale a donc apporté des éléments de précision et de protection en la matière.

Mme Danièle Obono. Ce n’est pas vrai !

Mme Laetitia Avia, rapporteure. Ensuite, en ce qui concerne les moyens de la justice, imaginons que nous les ayons multipliés par cent dans le cadre de la réforme de la justice – dont j’ai été, vous vous en souvenez, la rapporteure –, pour les consacrer entièrement à la gestion des contenus haineux sur internet… Aurait-on pour autant résolu les problèmes ? Non.

Mme Danièle Obono. Ce n’est pas le sujet !

Mme Laetitia Avia, rapporteure. Pour information, le rapport de transparence de YouTube indique que la plateforme a supprimé, de juillet à septembre 2019, plus de huit millions de vidéos. J’ai bien dit huit millions de vidéos… Une plus petite plateforme, telle que Jeuxvideo.com, supprime tout de même 2 500 messages par jour. On pourrait multiplier le budget de la justice par 1 000, par 10 000 ou davantage encore qu’on ne parviendrait pas à avoir un juge derrière chaque contenu.

Mme Danièle Obono. Personne ne le propose ! Vous lancez un faux débat !

M. le président. Madame Obono, nous vous avons écoutée ; c’est maintenant au tour de la rapporteure.

Mme Laetitia Avia, rapporteure. Dernier point : les contenus gris. J’assume pleinement le fait de ne m’intéresser ici qu’à un sujet : les contenus manifestement illicites. On sait bien que ce texte ne réglera pas tout le problème, mais si l’on arrive déjà à supprimer ces contenus, internet sera un peu plus sain. Je viens de faire un exercice très simple sur Twitter que chacun de vous peut faire aussi. J’ai tapé les mots « sale noir » dans la barre de recherche. Qu’ai-je obtenu ? « Sale nègre, tu aimes les beurettes, hein ? Tu sais, les négresses sont moches. » Désolé, chers collègues, mais c’est tout de même un peu « manifestement illicite » ! Si cela peut disparaître, nous aurons fait notre job ! (Applaudissements sur les bancs du groupe LaREM.  M. Erwan Balanant applaudit également.)

M. Fabien Di Filippo. C’est déjà interdit par la loi !

Mme Danièle Obono. Vous commettez un contresens absolu !

(Les amendements identiques nos 1, 55, 66 et 122 ne sont pas adoptés.)

M. Julien Aubert. Nous sommes les défenseurs de la liberté !

M. Cyrille Isaac-Sibille. Ce qu’il ne faut pas entendre !

M. Julien Aubert. Vous n’avez qu’à vous boucher les oreilles ! Vous étiez déjà aveugle, vous allez devenir sourd, mon cher collègue !

M. Erwan Balanant. C’est l’hôpital qui se moque de la charité !

M. Cyrille Isaac-Sibille. Comme si vos propos, monsieur Aubert, relevaient de la liberté !

M. le président. Je suis saisi de deux amendements, nos 65 et 124, pouvant être soumis à une discussion commune.

La parole est à M. Guillaume Larrivé, pour soutenir l’amendement no 65.

M. Guillaume Larrivé. Je me permets d’indiquer à notre excellent collègue Isaac-Sibille, particulièrement enjoué après le dîner, que si personne n’a le monopole de la liberté, nous essayons modestement d’apporter notre pierre au débat.

Madame la rapporteure, sachez que personne ici n’a envie que le contenu qu’elle a cité continue à prospérer sur internet.

M. Cyrille Isaac-Sibille. Bravo !

M. Guillaume Larrivé. Mais cela va de soi. Personne, sur aucun banc, n’est défavorable aux objectifs d’intérêt général que vous affichez. La question, et souffrez que nous ayons ce débat, est de savoir quelles sont les meilleures modalités juridiques pour atteindre ces objectifs. Et sans être péremptoire car je n’ai pas de certitude absolue, je soutiens que l’article 1er issu des travaux du Sénat est meilleur que le vôtre, et c’est l’objet de cet amendement que de rétablir sa rédaction de l’article 1er.

Enfin, monsieur le secrétaire d’État, si nous n’avions pas pris la mauvaise habitude, sous cette législature comme sous d’autres, de faire voter les textes selon la procédure dite accélérée, anciennement procédure d’urgence, sans doute pourrions-nous avoir des débats plus approfondis.

Mme Danièle Obono. Exactement !

M. Guillaume Larrivé. En procédure accélérée, vous vous contentez d’accepter ou de rejeter les amendements…

M. Pierre Dharréville. Eh oui !

M. Guillaume Larrivé. …et nous ne disposons pas des quelques semaines qui permettraient d’aboutir à une rédaction plus construite.

M. Pierre Dharréville. Ce sera le cas lors de l’examen du projet de loi sur les retraites !

M. Guillaume Larrivé. Nous ne sommes d’ailleurs pas les seuls à vous le dire : la Commission européenne, diverses instances consultatives et d’autres voix qui comptent dans le débat public vous le disent également. Souffrez donc que nous continuions à défendre ces amendements même si, comme vous, nous ne nous réjouissons pas de lire sur les réseaux sociaux des contenus qui insultent manifestement la dignité humaine.

M. le président. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 124.

Mme Frédérique Dumas. Puisqu’il a été question de cohérence, permettez-moi d’en parler car je crois en avoir fait preuve…

M. Cédric O, secrétaire d’État. C’est vrai !

Mme Frédérique Dumas. …non seulement à l’occasion de l’examen du projet de loi visant à renforcer et garantir le maintien de l’ordre public lors des manifestations, dite loi anti-casseurs, dont l’article 3 a été censuré par le Conseil constitutionnel parce qu’une fois de plus, vous entendiez faire passer l’autorité administrative avant le juge, mais aussi parce que je n’ai pas voté en faveur du présent texte en première lecture. Enfin, je ne propose pas de supprimer l’article 1er mais de le réécrire. Lorsqu’on invoque la cohérence, encore faut-il être exemplaire.

Vous affirmez respecter un équilibre – la ligne de crête – entre la liberté d’expression et la sécurité publique. Que vous en ayez l’intention, soit, mais le problème tient au fait que vous excluez tout autre chemin. La fameuse zone grise, par exemple, me semble donner lieu à un véritable déni intellectuel et psychologique. Je vous crois sincères lorsque vous dites ne pas viser la zone grise mais celle-ci, par essence, ne saurait être « visée » ou non puisqu’elle présente un problème d’interprétation. Or vous confiez ce pouvoir d’interprétation – qui devrait revenir au juge – à des plateformes privées, d’où la privatisation de la décision de retrait.

Outre la privatisation de l’interprétation, il existe un risque de censure. Pourquoi ? Parce que vous associez l’obligation de résultat figurant à l’article 1er avec la sanction du retrait excessif. Il va de soi qu’ainsi pris en étau on court un risque de censure car le retrait excessif n’est pas du tout sanctionné de la même manière.

En tout état de cause, ce dispositif n’est pas efficace et portera atteinte soit à la liberté d’expression, soit à la sécurité des personnes. Nous proposons quant à nous de réécrire l’article de manière plus claire et plus cohérente en rétablissant peu ou prou la rédaction adoptée par le Sénat tout en maintenant le rappel à la compétence du juge.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Ces amendements maintiennent le statu quo ; avis défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Danièle Obono.

Mme Danièle Obono. Les exemples que cite la rapporteure confirment certains des propos tenus ici. Je partage rarement les idées des membres du groupe Les Républicains mais, en effet, si nous n’avions pas dû débattre suivant la procédure accélérée, peut-être aurions-nous pu explorer plus à fond le cas des recherches effectuées par mot-clé dans les moteurs de recherche. Quel est l’enjeu ? Les résultats que vous citez ont en grande partie pour origine des algorithmes et les associations auxquelles ils procèdent. Or votre texte ne prévoit strictement aucun outil tel que ceux que nous proposons – preuve qu’il existe des solutions alternatives – afin d’assurer une forme de transparence des algorithmes. Leur utilité s’est d’ailleurs vérifiée au cours du débat, puisque les associations indignes que j’avais citées ont été rectifiées.

Par l’exemple que vous donnez, vous prouvez qu’il existe une autre manière d’intervenir face à ces contenus, notamment lorsque les résultats d’une recherche par moteur produisent des associations tout à fait indignes. Pourtant, vous avez refusé cette méthode alternative comme vous avez refusé d’aller au bout du débat en posant la question structurelle de la viralité de certains contenus, qui sont à la source même d’internet. Au fond, l’exemple que vous citez est particulièrement emblématique de votre courte vue sur le sujet !

M. le président. La parole est à Mme Emmanuelle Ménard.

Mme Emmanuelle Ménard. Une fois n’est pas coutume, je suis d’accord avec Mme Obono. (Rumeurs ironiques.)

M. Raphaël Gérard. Cela vous arrive de plus en plus souvent !

Mme Emmanuelle Ménard. Non, pas très souvent, mais lorsqu’un argument est intelligent, je ne vois pas de raison de m’y opposer.

M. Pierre Cordier. Vous êtes bien d’accord avec Macron, cher collègue !

Mme Emmanuelle Ménard. En effet, madame la rapporteure, le résultat de la recherche que vous avez effectuée vous a été fourni par des algorithmes. C’est bien ce que nous dénonçons ! Vous nous dites que huit millions de vidéos ont été retirées sur YouTube : elles l’ont été par des algorithmes ! Revenons à l’exemple que vous venez de citer : quelqu’un, nous dites-vous, aurait publié un commentaire déclarant en substance – je n’ai plus les termes exacts en tête – que les Noirs sont moches. Chacun convient que ce commentaire est complètement stupide. Toutefois, si la justice et, a fortiori, la Cour européenne des droits de l’homme – la CEDH – s’en saisissent, je vous fiche mon billet qu’il ne sera pas jugé illicite en raison de son caractère général. Encore une fois, c’est un commentaire complètement débile, mais il ne s’agit pas d’une attaque ad hominem.

Mme Laetitia Avia, rapporteure. Non, mais c’est une attaque contre un groupe de personnes qui tombe sous le coup de la loi ! Ce que vous dites est tout simplement horrible !

Mme Emmanuelle Ménard. Non, ce n’est pas une attaque contre une personne et la CEDH ne le jugera pas illicite. Vous le voyez, il existe donc d’emblée une différence d’interprétation. Cela vous fait peut-être rire…

Mme Laetitia Avia, rapporteure. Non, je ne ris pas ; je suis sidérée !

Mme Emmanuelle Ménard. Eh bien, réagissez ! Et consultez la jurisprudence de la CEDH – je vous la ferai passer – puisque vous et votre majorité n’avez que le mot « Europe » à la bouche.

(Les amendements nos 65 et 124, successivement mis aux voix, ne sont pas adoptés.)

M. le président. La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 161.

M. Cédric O, secrétaire d’État. Cet amendement vise à mettre le présent texte, qui prévoit l’obligation de retrait dans les vingt-quatre heures sur notification des usagers, en cohérence avec l’obligation préexistante de retrait après notification par les autorités publiques concernant les contenus terroristes, dont le délai est abaissé à une heure.

Cette modification est conforme à l’ambition politique à l’œuvre depuis l’appel de Christchurch du 15 mai 2019 qui vise à contenir la viralité d’images obscènes et violentes, dont le caractère illicite est manifeste. Elle s’inscrit également dans le prolongement des discussions européennes, dans le cadre desquelles la France défend le principe d’une réaction immédiate des opérateurs afin de veiller à ce que la communication sur les attentats terroristes n’augmente pas l’écho donné aux contenus terroristes.

En clair, il s’agit de préciser que le retrait de contenus terroristes, prévu dans les vingt-quatre heures en cas de notification des usagers, serait ramené à une heure sur notification des autorités publiques aux plateformes.

M. Pierre Cordier. On n’y comprend rien ! Lui-même semble perdu !

M. Cédric O, secrétaire d’État. En outre, lors du débat relatif à la loi Avia, la Commission européenne nous a demandé de préciser l’articulation entre les règles applicables aux notifications par les usagers et celles qui relèvent d’une notification par les autorités publiques. Tel est l’objet de cet amendement.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Cet amendement présente l’intérêt d’instaurer une gradation dans le traitement des contenus, conformément à ce que j’ai entendu au cours de notre débat dans l’hémicycle, certains contenus plus graves, en particulier les contenus terroristes, nécessitant une attention plus aiguë, notamment de la part des plateformes. Il permet également d’instaurer une gradation entre les contenus signalés par un utilisateur lambda et les contenus signalés par l’autorité administrative compétente, la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements – PHAROS.

Grâce à cette mesure, on peut espérer que les contenus à caractère terroriste identifiés par PHAROS et signalés aux plateformes étant promptement retirés, il n’y ait plus de cas de tels contenus à retirer dans les vingt-quatre heures parce qu’ils auraient été signalés par des usagers. Nous resserrerons ainsi l’étau sur ces contenus qui exigent une vigilance particulière. Avis favorable.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Sur le fond, j’approuve l’amendement mais sur la forme, je regrette, monsieur le secrétaire d’État, que nous n’ayons pas été saisis de cet amendement en commission des lois et qu’il arrive aujourd’hui, en nouvelle lecture – alors même que vous avez déjà évoqué ce sujet au Sénat et que nous aurions pu en débattre en commission.

M. Pierre Cordier. Le MODEM se rebelle !

M. Philippe Latombe. Je le dis d’autant plus que vous étendez la mesure demandée par la Commission européenne au-delà des contenus terroristes pour englober les contenus à caractère pédopornographique. Sur le plan légistique, j’aurais préféré que nous puissions en débattre sereinement en commission des lois, et que nous ne soyons pas saisis de l’amendement en nouvelle lecture, le jour même de l’examen en séance.

Mme Cécile Untermaier. Il a raison !

M. le président. La parole est à M. Guillaume Larrivé.

M. Guillaume Larrivé. Je vous prie de croire, monsieur le secrétaire d’État, que mon argumentation n’est pas de circonstance. Voilà quinze ans que je travaille, dans de modestes fonctions exécutives et dans des fonctions législatives, sur des textes relatifs à la lutte antiterroriste. J’aurais aimé pouvoir voter une mesure telle que celle que vous venez de proposer. Néanmoins, j’ai un regret lié à la procédure – car ainsi fonctionne le Parlement – qui nous empêche de fabriquer un bon texte. Selon moi, dans un bon texte, votre amendement n’aurait pas été greffé sur l’article 1er mais aurait fait l’objet d’un article autonome. J’admets parfaitement qu’aux seules fins de la lutte antiterroriste, on impose un dispositif ad hoc ultra-contraignant assorti d’un délai extrêmement court d’une heure – à condition qu’il cible exclusivement la lutte antiterroriste.

Je ne pourrai pourtant pas voter en faveur de votre amendement, non seulement, comme l’indiquait M. Latombe, parce qu’il nous est présenté de manière improvisée et qu’on prend le Parlement par-dessus la jambe – sans doute l’amendement nous est-il balancé ainsi à la suite d’une réunion interministérielle, empêchant tout travail en commission un tant soit peu sérieux. De ce fait, nous ne pouvons parvenir à une rédaction consensuelle. Encore une fois, j’aurais accepté votre amendement s’il avait figuré dans un article autonome. En l’état, je ne peux pas le voter car, ce faisant, je me rattacherai à l’ensemble du dispositif de l’article 1er, que je ne peux pas accepter par ailleurs.

Sur les questions antiterroristes, les gouvernements socialistes de la précédente législature avaient su bâtir un consensus avec Les Républicains. Avec Éric Ciotti, j’ai passé des heures au cabinet de Manuel Valls et à celui de Bernard Cazeneuve pour élaborer des dispositions qui faisaient consensus à l’Assemblée. Je regrette que la nouvelle méthode de M. Macron ne permette pas d’aboutir à de tels consensus d’intérêt général en matière de lutte antiterroriste.

M. le président. La parole est à M. Frédéric Reiss.

M. Frédéric Reiss. Comme M. Latombe et comme je l’ai dit lors de la discussion générale, je regrette le recours à la procédure accélérée pour ce texte. En effet, l’amendement qui nous est présenté pourrait faire consensus car il a beaucoup de sens. Le problème d’un contenu haineux répréhensible tient surtout à sa viralité, qui est le véritable danger et que l’amendement permettrait d’enrayer.

M. Pierre Cordier. Très bien !

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. J’irai dans le même sens que mes collègues : cet amendement très important nous est présenté au dernier moment, alors que son importance aurait justifié qu’il arrive plus tôt. D’autre part, pourquoi ne fait-il pas l’objet d’un article séparé ? Vous qui recherchez un accord transpartisan et consensuel, vous savez bien qu’un article distinct l’aurait permis. En l’insérant dans l’article premier comme vous le faites, vous piégez en fait ceux qui ne sont pas d’accord avec ledit article.

Par ailleurs, je ne comprends pas pourquoi, avec cet amendement, vous tenez compte, monsieur le secrétaire d’État, du fait que l’interprétation des contenus – vous l’avez très bien dit, madame la rapporteure – ne sera pas laissée aux plateformes, ni à quiconque. C’est bien leur interprétation par la plateforme PHAROS qui permettra de les signaler.

Mme Laetitia Avia, rapporteure. Non !

Mme Frédérique Dumas. C’est bien un signalement par la plateforme PHAROS qui permettra de justifier la gravité du contenu, en procédant à une interprétation en amont. Ainsi, dans cet amendement, vous respectez l’équilibre de l’interprétation ; or tel n’est pas le cas dans les autres.

(L’amendement no 161 est adopté.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 70.

Mme Emmanuelle Ménard. Lutter contre la haine sur internet uniquement en fonction du seuil d’activité de quelques plateformes me semble une gageure assez risquée. Il est difficile de comprendre la logique d’une telle précision, qui reviendrait à considérer qu’insulter quelqu’un sur Facebook, par exemple, serait plus grave que le faire sur une autre plateforme, ou sur un site internet dont la fréquentation serait en deçà de ces seuils. En outre, ceux-ci seront fixés par décret. Par définition, nous ne les connaissons pas encore. Tout cela ne me semble pas souhaitable.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. La question des seuils est importante, précisément parce qu’il s’agit d’un dispositif exigeant, qui suppose des moyens significatifs, sans pour autant encourager, pour les plateformes, des situations d’oligopole. L’objectif est véritablement de faire preuve d’exigence vis-à-vis de celles dont l’audience est massive, et d’atteindre ce niveau d’exigence pour les nouvelles plateformes lorsqu’elles atteignent un certain seuil d’activité.

(L’amendement no 70, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 95.

Mme Laure de La Raudière. J’aimerais que le décret fixant les seuils d’activité soit pris en Conseil d’État. En effet, nous allons fixer des seuils en matière de nombre de connexions et d’adhérents aux plateformes, au-delà desquels ces dernières subiront les contraintes prévues par la présente proposition de loi, ce qui leur permettra de décider du caractère licite ou non des contenus qu’elles publient, et de les supprimer le cas échéant. J’estime que le Conseil d’État, qui est le juge administratif par excellence, devrait au moins être consulté sur le niveau de ces seuils.

Par ailleurs, nous avons sur ce point un raisonnement bien métropolitain. Nous allons fixer pour tout le territoire français un seuil d’activité unique, évalué à l’aune de la métropole. Je rappelle qu’il existe dans les territoires d’outre-mer des plateformes locales, dont l’effet sur les populations est bien supérieur à celui de Twitter ou de Facebook. Or leur activité sera certainement sous le seuil précité. Sur ce point, le texte n’est donc pas très bien rédigé.

En tout état de cause, il semble normal et justifié que le décret fixant les seuils d’activité soit, j’y insiste, pris en Conseil d’État.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. L’avis de la commission est défavorable, pour deux raisons. Tout d’abord, il y va de la cohérence de la proposition de loi avec d’autres textes que nous avons adoptés, notamment la loi relative à la lutte contre les fausses informations, qui ne prévoit pas que les seuils d’activité sont fixés en Conseil d’État. Par ailleurs, s’agissant des seuils territoriaux, nous avons remplacé, lors de la première lecture du texte, le singulier par le pluriel, afin de pouvoir faire preuve d’agilité et de pouvoir traiter certaines situations susceptibles de se produire de façon pertinente.

Mme Laure de La Raudière. Justement !

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. En ce qui concerne les seuils d’activité, je ne reviens pas sur l’argumentaire de la rapporteure, fondé sur le remplacement du singulier par le pluriel lors de la première lecture du texte.

Mme Laure de La Raudière. Très bonne évolution !

M. Cédric O, secrétaire d’État. De mémoire, cette modification a été adoptée à l’issue d’un débat sur les problèmes spécifiques des plateformes actives en outre-mer.

Pour ce qui est de la nature du décret – décret simple ou décret en Conseil d’État –, nous souhaitons que la fixation des seuils puisse évoluer de façon souple. Or le pouvoir réglementaire a déjà pris des décrets pour fixer des seuils applicables aux plateformes, notamment en matière de protection des consommateurs, sans que nul n’exige l’avis du Conseil d’État.

Mme Laure de La Raudière. Cette réponse n’est pas satisfaisante !

M. Cédric O, secrétaire d’État. Par conséquent, il n’apparaît pas forcément opportun que le décret précité soit soumis à un avis obligatoire du Conseil d’État. En tout état de cause, cela ne privera pas les acteurs concernés de la possibilité de contester cet acte réglementaire dans les conditions de droit commun. Madame de la Raudière, je vous invite à retirer votre amendement, et émettrai à défaut un avis défavorable.

(L’amendement no 95 n’est pas adopté.)

M. le président. Les amendements nos 54 et 43 peuvent être soumis à une discussion commune.

La parole est à Mme Blandine Brocard, pour soutenir l’amendement no 54.

Mme Blandine Brocard. De toute évidence, nous sommes tous d’accord sur la définition de la maladie. En revanche, nous ne sommes pas d’accord sur les remèdes à y apporter. Nous voulons tous limiter l’exposition des internautes aux contenus haineux. J’en veux pour preuve que nous limitons l’effet des mesures prévues par le texte aux contenus publiés sur les plateformes les plus importantes.

Or ce qui provoque l’exposition à un contenu donné n’est pas sa simple publication. Un contenu publié sur Twitter ou Facebook n’a pas en lui-même plus d’audience qu’un propos haineux publié sur un site n’ayant que quelques centaines de visiteurs. Le véritable danger, nous en sommes d’accord, c’est la viralité des contenus. Les outils viraux, en offrant des possibilités de partage du contenu et d’interaction, en diffusant celui-ci au-delà de l’auditoire naturel de son auteur, créent la surmultiplication de l’exposition.

Le vrai problème que nous voulons traiter, en fin de compte, c’est sa diffusion à grande échelle. Chacun sait pertinemment qu’un contenu peut faire trois fois le tour de la Terre en vingt-quatre heures, et infecter les mobiles des élèves d’un lycée en une heure à peine. Monsieur le secrétaire d’État, vous avez vous-même rappelé tout à l’heure les 1,5 million de vues, en vingt-quatre heures, de la tuerie de Christchurch, ajoutant qu’il était nécessaire de proposer une solution alternative.

Dès lors, je me permets de vous proposer un mécanisme simple, respectueux de la liberté d’expression à laquelle nous sommes tous attachés. Un contenu signalé par un utilisateur identifiable devra être examiné sous vingt-quatre heures ; en attendant son examen, la plateforme devra désactiver les mécanismes permettant de le rendre viral. Si elle estime le contenu contraire à la loi, elle alerte le juge, qui prend éventuellement une décision de suppression. Si elle le juge licite, elle informe l’auteur du signalement de sa possibilité de saisir le juge, et l’auteur du contenu de son droit de poursuivre en justice l’auteur du signalement abusif.

Certains objecteront qu’une telle disposition risque d’empêcher un tweet licite d’être diffusé immédiatement à grande échelle. Je réponds par la question suivante : croyez-vous vraiment, alors même qu’on sait la peine encourue pour signalement abusif, que de nombreux internautes cliqueront sur le bouton « signaler » sans raison valable ?

Quant à l’amendement du Gouvernement que nous venons d’adopter, il démontre bien que, dès lors qu’on laisse un contenu se propager pendant vingt-quatre heures, le mal est fait. Grâce à son adoption, nous avons raccourci les délais d’intervention pour les contenus terroristes et pédopornographiques. Monsieur le secrétaire d’État, je vous demande si une injure raciste ou homophobe ne mérite pas également que l’on restreigne rapidement sa diffusion.

M. le président. La parole est à M. Philippe Latombe, pour soutenir l’amendement no 43.

M. Philippe Latombe. Je défendrai simultanément les amendements nos 43 et 44. En effet, ils forment un tout, mais la légistique impose de les examiner séparément, dès lors que le premier porte sur l’alinéa 2, et que le second vise à insérer un alinéa après celui-ci.

Tous deux visent – comme celui présenté à l’instant par notre collègue Brocard – à proposer une solution alternative. Nous les avons élaborés avec les associations opposées à votre texte, madame la rapporteure, en tâchant de rédiger des amendements de repli. Nous avons repris la rédaction proposée par le Conseil national des barreaux, car elle constitue une solution intéressante, que j’aimerais verser au débat.

Elle consiste à retirer le contenu visé, non pas définitivement mais provisoirement – tel est l’objet de l’amendement no 43. L’amendement no 44 prévoit pour sa part que la plateforme ayant provisoirement supprimé le contenu visé saisit le juge des référés pour qu’il puisse statuer, ce qui permet d’échapper au reproche qui vous est adressé sur plusieurs bancs et hors de cette enceinte, madame la rapporteure, selon lequel le juge n’est plus dans la boucle.

Adopter l’un de ces amendements de repli permettrait de parvenir à une position peut-être plus acceptable sur tous les bancs et au-delà.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Mes chers collègues, je suis au regret de vous dire que vos propositions sont inopérantes, l’une comme l’autre.

En ce qui concerne celle que vient de défendre notre collègue Philippe Latombe, si chaque contenu retiré faisait l’objet d’une saisine du juge, nous nous trouverions dans la situation que j’évoquais tout à l’heure – huit millions de vidéos supprimées par YouTube en trois mois et 2 500 contenus supprimés par jeuxvidéo.com par jour : c’est tout bonnement impossible !

Le dispositif proposé par Blandine Brocard est également inopérant. Il repose sur le présupposé selon lequel l’examen d’un contenu a lieu en deux temps, ce qui n’est pas le cas dans un système de modération. Il n’y a pas d’abord un signalement et un traitement du contenu, ensuite la décision de le retirer ou non. Une fois que le contenu passe dans le viseur de la modération, celle-ci a lieu dans un délai de vingt-quatre heures, mais pas en deux temps.

Surtout, la mesure proposée est attentatoire à la liberté d’expression des nombreuses personnes qui ne profèrent pas de contenus haineux. Pour un contenu licite donné, le seul fait de le signaler permettrait d’empêcher son partage, son retweet, sa rediffusion. Or le partage de contenu sur internet est constitutif de la liberté d’expression, à laquelle on ne peut porter atteinte que de façon proportionnée, en présence d’infractions prévues par la loi du 29 juillet 1881, et non de façon préventive et généralisée, ce qui serait inconstitutionnel.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à Mme Blandine Brocard.

Mme Blandine Brocard. En ce qui concerne le dernier point évoqué par Mme le rapporteur et cette fameuse liberté d’expression, j’avais pris soin de mentionner que personne ne s’amusera – compte tenu des peines encourues – à signaler de façon abusive des tweets ou des publications. Pour moi, il ne s’agit vraiment pas d’un argument.

Par ailleurs, la question de fond – soit dit pour élever un peu le débat – est de savoir s’il est absolument nécessaire que tout contenu soit publié et retweeté en vingt-quatre heures ? Ne pouvons-nous pas accepter d’attendre un peu, et d’ainsi assainir la sphère des réseaux sociaux ?

M. le président. La parole est à M. Julien Aubert.

M. Julien Aubert. Je soutiens l’amendement de notre collègue Brocard qui, fondamentalement, respecte la liberté d’expression. Je conteste l’argument selon lequel le retweet fait partie intégrante de la liberté d’expression.

Je serais ravi que nous ayons une forme de débat juridique pour le savoir, et peut-être ne suis-je pas au fait de toutes les décisions du Conseil constitutionnel, mais je conteste le fait que partager un propos sur internet fasse partie intégrante de la liberté d’expression. Ce que je souhaite préserver, c’est la possibilité de dire ce que l’on souhaite sur les plateformes.

S’attaquer à la viralité permet de régler en partie le problème du nombre. Quand Mme Avia évoque des millions de vidéos, ce sont souvent une même vidéo partagée des millions de fois. Ce n’est pas parce que l’on désactive automatiquement sa diffusion – ce qui au demeurant ne constitue pas une double modération – qu’on porte atteinte à la liberté d’expression.

En lisant votre amendement, chère collègue Brocard, j’imagine la situation suivante : je poste un contenu sur internet, et, si quelqu’un le juge manifestement illicite et le signale, la plateforme bloque automatiquement sa diffusion. On peut toujours me lire, ma liberté d’expression est donc intacte ; en revanche, on ne peut plus partager mes propos, ce qui permet d’éviter l’incendie.

Mme Blandine Brocard. Exactement !

M. Julien Aubert. S’il s’agit d’une vidéo ou d’un propos injurieux, on évite qu’un million de personnes en prennent connaissance, ce qui permet de surcroît de régler en partie le problème de l’algorithme, car un énorme algorithme balayant des millions de messages n’est plus nécessaire, au profit d’une modération peut-être plus précise.

Cette disposition me semble respectueuse de la liberté d’expression, et permet l’intervention du juge. Elle est proposée par quelqu’un qui n’est pas de ma famille politique, et me semble bien plus proche de l’objectif et bien mieux proportionnée que celle retenue par le texte, notamment parce qu’elle prévoit l’intervention d’un juge. De façon générale, il me semble nécessaire d’approfondir la distinction entre viralité des contenus et liberté d’expression.

M. le président. La parole est à Mme Caroline Abadie.

Mme Caroline Abadie. Avec cet amendement, la victime qui a reçu un message ou été l’objet d’un commentaire sous un post reste victime ; le fait que ce contenu ne soit pas partagé ne met pas fin à cet état de fait. Or l’objet de cette proposition de loi est aussi de protéger les victimes.

Je comprends bien l’idée qu’avec un retweet ou un partage, il y aurait plus de vues. Mais il y a des journalistes, ou des gens en général, qui ont énormément de followers, et qui peuvent lancer des insultes. On peut alors se sentir victime dès la première vue.

Cet amendement ne répond pas à l’attente des victimes, qui veulent un retrait. Je rappelle par ailleurs que le juge intervient en cas de recours.

Le groupe La République en marche votera contre ces amendements.

M. le président. La parole est à Mme la rapporteure.

Mme Laetitia Avia, rapporteure. J’avais oublié le troisième point de mon argumentation… Dans le cadre de l’article 4, nous prévoyons différentes mesures pour limiter la viralité. C’est une régulation administrative : le CSA encourage notamment les plateformes à mettre en œuvre « des dispositifs techniques proportionnés facilitant, dans l’attente du traitement de la notification d’un contenu signalé comme illicite, la désactivation ou la limitation temporaire des fonctionnalités qui permettent de multiplier ou d’accélérer l’exposition du public à ce contenu, et notamment les possibilités de partage, d’interaction ou d’envoi de messages liés à ce contenu ». Il n’y a donc pas d’automaticité, mais un travail au plus près des besoins, comme il se doit pour une obligation de moyens.

Non, nous ne mettons pas la question de la viralité de côté ; nous l’inscrivons à sa juste place.

(Les amendements nos 54 et 43, successivement mis aux voix, ne sont pas adoptés.)

M. le président. Sur l’amendement no 38, que nous examinerons un peu plus loin, je suis saisi par le groupe Les Républicains d’une demande de scrutin public.

Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.

M. Stéphane Peu et M. Laurent Saint-Martin. On n’est jamais mieux servi que par soi-même ! (Sourires)

M. le président. Je suis saisi de deux amendements, nos 72 et 94, pouvant faire l’objet d’une discussion commune.

La parole est à Mme Emmanuelle Ménard, pour les soutenir.

Mme Emmanuelle Ménard. Il s’agit d’amendements de repli.

L’amendement no 72 vise à préférer au délai de vingt-quatre heures, beaucoup trop court pour permettre aux plateformes d’apprécier convenablement les propos mis en cause, un « délai proportionné permettant d’apprécier le caractère haineux du propos jugé haineux ». Nous parlions tout à l’heure d’une zone grise ; j’ai bien compris que pour vous, madame la rapporteure, celle-ci n’était pas concernée par le texte. Mais elle le sera de facto, puisqu’elle ne peut pas être définie ! Si l’on comprend votre objectif de célérité, votre texte risque néanmoins de porter dangereusement atteinte au principe de liberté d’expression, qui est le socle même de notre démocratie.

J’ajoute que cet article prévoit la possibilité de recourir à un juge des référés, soit pour faire retirer un contenu jugé haineux mais qui ne l’aurait pas été par la plateforme qui accueille ce propos, soit, à l’inverse, pour se plaindre de ce que l’on considère comme une atteinte à sa liberté d’expression. Cette disposition me dérange : vous inversez l’ordre normal des choses. Avec vous, la règle, c’est la censure, et nous devrions être heureux de pouvoir recourir à un juge pour voir rétablir notre liberté d’expression. C’est sans compter les frais de justice que cela impliquera pour le particulier censuré. C’est là une raison supplémentaire pour juger hautement problématique cet article 1er – et à tout le moins pour laisser aux plateformes un délai raisonnable, afin qu’elles n’agissent pas à la hâte mais prennent le temps d’apprécier le caractère véritablement haineux d’un propos avant de le censurer.

Quant aux 8 millions de contenus retirés de YouTube que vous évoquiez, il va sans dire qu’il n’y aurait pas dans ce cadre 8 millions de procédures judiciaires, puisque seules les personnes qui auront l’impression d’avoir été censurées abusivement iront devant la justice.

Quant à l’amendement no 94, il porte le délai pour retirer un contenu de vingt-quatre à soixante-douze heures. Vingt-quatre heures, je le redis, c’est très insuffisant, car un tel délai implique l’utilisation d’algorithmes ; or, qui dit algorithme dit absence de nuances. Que se passera-t-il quand des propos se situent dans cette fameuse zone grise, que par définition on ne peut pas circonscrire ?

Je voudrais rappeler ici la jurisprudence constante de la Cour européenne des droits de l’homme en matière de liberté d’expression : « la liberté d’expression vaut non seulement pour les informations ou idées accueillies avec faveur ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’État ou une fraction quelconque de sa population ». Comment une plateforme privée, et pire encore un algorithme, pourront-ils juger si un propos qui heurte, qui choque, qui inquiète, reste néanmoins dans les limites acceptables de la liberté d’expression ? Il est impossible qu’il n’y ait pas d’erreur, et votre dispositif ne me paraît décidément pas souhaitable.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Avis défavorable. L’amendement no 72, c’est le maintien du statu quo.

Le délai de vingt-quatre heures ne sort pas du chapeau ! Nous nous appuyons sur des données connues, des résultats concrets ; c’est le délai qui figure dans le code de conduite européen comme dans les rapports de transparence transmis par quelques-unes des plateformes.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(Les amendements nos 72 et 94, successivement mis aux voix, ne sont pas adoptés.)

(À vingt-deux heures cinquante, Mme Annie Genevard remplace M. Marc Le Fur au fauteuil de la présidence.)

Présidence de Mme Annie Genevard

vice-présidente

Mme la présidente. La parole est à Mme Blandine Brocard, pour soutenir l’amendement no 37.

Mme Blandine Brocard. Cet amendement a pour but de limiter l’obligation d’examen aux signalements effectués par des personnes qu’il serait possible d’identifier, afin d’écarter les signalements effectués par de faux comptes cachés derrière des adresses IP anonymes. Vous aviez vous-même exprimé vos réticences sur ce point, madame la rapporteure. En effet, sans cette précision, les plateformes devront examiner tous les signalements effectués par des utilisateurs ayant déclaré lors de leur inscription un nom, un prénom et une adresse électronique. Or il n’y a rien de plus simple, vous l’avez dit et les trolls le savent bien, que de créer un compte sur Twitter ou sur Facebook avec un mail anonyme en masquant son identité derrière un proxy.

Il suffit même d’utiliser le navigateur Opera qui propose à tous ses utilisateurs, sans aucune manipulation particulière, un proxy et des adresses anonymes suédoises !

Mme la présidente. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Demande de retrait ou, à défaut, avis défavorable, car la proposition me paraît satisfaite. Le texte prévoit en effet que pour que la responsabilité des plateformes soit engagée par la notification, celle-ci doit répondre aux dispositions du 5 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dite LCEN – article que nous complétons d’ailleurs à la suite des observations de la Commission européenne, afin que tous les éléments qui permettent d’identifier le notifiant et donc d’engager la responsabilité de la plateforme soient bien présents. Je vous renvoie à l’article 1er ter A de la proposition de loi.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(L’amendement no 37 n’est pas adopté.)

Mme la présidente. La parole est à M. Marc Le Fur, pour soutenir l’amendement no 38.

M. Marc Le Fur. Chacun ici en conviendra : il faut lutter contre toutes les formes de haine, quelles qu’en soient les victimes – il n’y a pas de victime qui mériterait moins d’attention que d’autres – et quelles qu’en soient les formes. Il n’y a pas de haine tolérable !

Or ce texte oublie certaines victimes potentielles de la haine sur internet, et notamment de la haine diffusée sur les réseaux sociaux. Je pense à celle, organisée, qui frappe certaines professions, en particulier le monde de l’agriculture et de l’élevage. On entend des mots terribles à l’égard de nos éleveurs : on parle de camps de concentration, de tortionnaires, de miradors… Ce sont là des propos très largement diffusés, et qu’il faut combattre !

M. Laurent Saint-Martin. En effet.

M. Pierre Cordier. Très bon exemple !

M. Maxime Minot. Absolument ! Ces propos sont horribles !

Mme Véronique Louwagie. Oui, ils sont criminels !

M. Marc Le Fur. Nous en serons tous d’accord. Je salue votre engagement sur ce texte, madame la rapporteure. Mais celui-ci doit intégrer ces haines-là ! Je vois ici ce soir nos collègues Berville, Kerlogot, Le Peih, Bothorel… qui, tous, connaissent bien ces préoccupations – très fortes, en particulier, dans notre région de Bretagne. Cette haine est d’autant plus injuste qu’elle frappe des gens qui font leur travail, qui respectent des normes très exigeantes ; or ils sont attaqués, et leurs enfants sont parfois attaqués, puisqu’ils observent cette diffusion sur internet.

M. Jean-Marc Zulesi. Très bien !

M. Marc Le Fur. Je souhaite donc, et c’est la condition que je mets pour voter votre texte, madame la rapporteure, que ce type de haine contre certaines professions, et en particulier la profession agricole, soit clairement sanctionnable, et sanctionné. (Applaudissements sur les bancs du groupe LR, ainsi que sur plusieurs bancs du groupe LT et sur quelques bancs du groupe LaREM.)

M. Thierry Benoit. Excellent !

M. Bruno Millienne. Très bien !

Mme Cécile Untermaier. C’est ridicule !

Mme la présidente. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Monsieur Le Fur, je suis, vous le savez, très sensible au sujet que vous évoquez ; je crois, comme vous, que nos agriculteurs ont besoin du soutien de la représentation nationale. Nous devons leur envoyer un message en ce sens.

Mais vous êtes un fin juriste, et je vous pose la question : la formulation de cet amendement est-elle adéquate ? Je crains que non. Il me semble important d’utiliser ce terme d’agribashing, comme vous le faites, pour faire prendre conscience à nos concitoyens qu’il existe une forme de discrimination à l’endroit de nos agriculteurs. Mais, pour traiter cette question, vous proposez d’inscrire dans le champ de la proposition de loi la diffamation envers les particuliers.

Or, si la diffamation n’est pas dans le champ du texte, c’est parce que celui-ci doit prévoir des mesures proportionnées et raisonnables – je l’entends depuis les débuts de nos débats. Nous demandons aux plateformes d’appliquer la loi, rien que la loi, pas plus que la loi. Leur demander d’apprécier le caractère diffamatoire d’un propos, ce serait leur confier des prérogatives exorbitantes : la diffamation ne peut en effet s’apprécier que dans son contexte.

Ce texte avance donc sur une ligne de crête. La diffamation n’est pas manifeste, et il est dès lors difficile d’intégrer à l’article 1er les agissements punis par l’article 32 de la loi du 29 juillet 1881. C’est pourquoi j’émets un avis défavorable.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

Mme la présidente. La parole est à M. Julien Aubert.

M. Julien Aubert. Plutôt que d’agribashing, je préférerais que l’on parle d’agri-dénigrement ou d’agri-stigmatisation.

Mme Laetitia Avia, rapporteure. C’est mieux, c’est vrai !

M. Julien Aubert. J’entends bien l’argument juridique – et vous êtes sans doute fine juriste vous aussi, madame la rapporteure.

Mme Cécile Untermaier. Ce n’est pas une démagogue, elle !

M. Julien Aubert. Mais il me semble que notre collègue Marc Le Fur avait déjà proposé un tel amendement ; on aurait pu penser que, si vous étiez de bonne foi, vous auriez proposé, éventuellement avec M. le secrétaire d’État, un sous-amendement qui viserait le même objectif tout en contournant la difficulté que vous soulignez.

Nous aurions pu ainsi inscrire dans le texte que quelqu’un qui partage sur les réseaux sociaux des vidéos manifestement hostiles à la profession agricole ou qui se fait l’écho d’actes de haine ou d’intrusions violentes, bref quelqu’un qui incite la population à participer au dénigrement généralisé d’une profession, doit faire l’objet d’une suspension.

J’entends votre argument sur la diffamation ; mais rien ne nous oblige à emprunter ce sentier, certes périlleux. Je le répète : notre règlement, même modifié par l’actuelle majorité, vous autorise à sous-amender, afin de répondre à la demande de Marc Le Fur, qui est ici, avec beaucoup d’autres de nos collègues, le porte-parole de cette profession qui s’estime dénigrée. Vous avez finement soulevé un problème juridique ; mais, grâce à votre sagacité et à votre travail dans l’hémicycle, voire au cours d’une courte suspension de séance, il pourra être contourné – si du moins vos intentions sont aussi claires que vous le dites !

Mme Laetitia Avia, rapporteure. Vous imaginez bien que si M. Le Fur n’a pas trouvé la solution idéale, j’aurai du mal moi aussi !

Mme la présidente. La parole est à M. Alexis Corbière.

M. Alexis Corbière. L’amendement de M. Le Fur sera sans doute repoussé par le Gouvernement et les membres du groupe La République en marche, qui sont majoritaires dans l’hémicycle.

Je souhaite néanmoins exprimer notre opinion en toute sincérité. La position défendue par M. Le Fur, dont les convictions sont souvent différentes des miennes, est tout à fait respectable. Je ne sais pas si, comme le dit M. Aubert, il est le représentant des agriculteurs : nous le sommes tous. Nous sommes des représentants de la Nation et je ne voudrais pas que cet hémicycle se fragmente en une multitude de représentations corporatistes – ce débat est sans fin.

Mme Cécile Untermaier. Très juste !

M. Alexis Corbière. J’appelle votre attention sur un point : arrêtons l’emploi de ce mot à la mode de « bashing », en anglais, ou de « haine », qui paralyse toute discussion.  

M. Thierry Benoit. M. Martinez a parlé de CGT-bashing !

M. Alexis Corbière. Je ne suis pas opposé à la police – nous avons besoin d’une police républicaine –, mais je porte un regard critique sur la police aujourd’hui.

M. Denis Masséglia. C’est du bashing aussi.

M. Alexis Corbière. Or il est devenu impossible de l’exprimer dans le débat public sans se faire accuser de haïr les policiers. L’utilisation du mot « bashing », qui ne veut rien dire, vise à empêcher tout débat.

On critique parfois les enseignants. Étant moi-même enseignant, j’aurais pu dire : « assez de l’enseignant-bashing ! »

M. Pierre Cordier. La République en marche-bashing !

M. Julien Aubert. Mélenchon-bashing !

M. Alexis Corbière. M. Martinez pourrait proposer un amendement pour mettre fin au « syndicat-bashing ». C’est absurde ! Je ne parle pas de « La France insoumise-bashing », qui se porte bien dans cet hémicycle. (Exclamations sur plusieurs bancs du groupe LaREM.)

Plus sérieusement, le débat fort intéressant…

M. Jean-Marc Zulesi. Passionnant !

M. Alexis Corbière. …et critique sur le modèle productiviste doit pouvoir avoir lieu. La sensibilité particulière à la cause animale doit pouvoir s’exprimer (M. Éric Diard applaudit) et être entendue.

Si certains agriculteurs s’estiment calomniés, si leurs biens sont détruits, s’ils sont victimes d’actes répréhensibles, qu’ils saisissent la justice ! Mais de grâce, ne créons pas un dispositif qui empêche ce débat nécessaire. Ce serait vraiment liberticide et cela ne rendrait pas service à la démocratie.  

Mme la présidente. La parole est à M. Marc Le Fur.

M. Marc Le Fur. Je suis toujours surpris : j’entends un ministre qui ne dit rien sur un sujet qui préoccupe nos concitoyens.

M. Alexis Corbière. C’est du ministre-bashing ! (Sourires)

M. Pierre Dharréville. Donc vous n’entendez pas ! (Sourires.)

M. Marc Le Fur. Un ministre qui n’entend pas, qui ne dit rien. La rapporteure, par ailleurs excellente juriste, trouve, comme tous les excellents juristes, des arguments en coupant les cheveux en quatorze pour nous expliquer que là n’est pas le sujet. C’est pourtant un sujet pour toute une profession !  

M. Corbière nous parle de la défense de la cause animale, mais celle-ci n’est qu’un  prétexte pour s’en prendre à une profession – vous le savez très bien : les choses sont on ne peut plus claires.

Puisque ce texte a pour objet de défendre certaines personnes victimes de la haine sur internet, je souhaite, en espérant que certains députés de la majorité me suivront, que la haine à l’encontre des agriculteurs puisse également être sanctionnée. Je souhaite que, comme les autres, ces victimes ne soient pas oubliées.

Pour une plus grande justice dans ce pays, il est indispensable de tirer quelques conséquences de cette haine, qui peut aboutir à la disparition d’un abattoir dans l’Ain ou à l’incendie de fermes dans l’Orne.

Mme Cécile Untermaier. Les amalgames font le lit du FN !

Mme la présidente. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Notre débat est intéressant, car il souligne le problème que pose le dispositif prévu par l’article 1er.

M. Alexis Corbière. Elle a raison !

Mme Frédérique Dumas. Ce problème tient à l’interprétation du caractère manifestement illicite. Vous considérez que celui-ci préserve de toute zone grise. Non : le contenu doit être manifestement illicite sur le plan juridique. Pour certains, l’appréciation relève du bon sens – vous avez vous-même donné un exemple tout à l’heure ; mais ce n’est pas parce que l’émotion ou le bon sens amène à penser qu’un contenu est manifestement illicite qu’il l’est.

La garde des sceaux l’avait dit, ce que nous pensons être manifestement illicite peut ne pas l’être juridiquement. Or vous laissez aux plateformes le soin d’interpréter cette notion, alors que celle-ci  est au cœur de la discussion. (Applaudissements sur les bancs du groupe FI. – Mme Agnès Thill applaudit aussi.)

Mme la présidente. La parole est à Mme Caroline Abadie, et nous en resterons là.

M. Thierry Benoit. Vous pourriez donner la parole à un orateur par groupe, madame la présidente !

Mme la présidente. Ce n’est pas un orateur par groupe, cher collègue. Cinq orateurs se sont déjà exprimés, parmi lesquels quatre en faveur de l’amendement. Je suis obligée de veiller à l’équilibre des débats.

Mme Caroline Abadie. Nous sommes tous sensibles à l’agribashing. À l’occasion des cérémonies de vœux dans nos territoires, nous passons de nombreuses soirées dans les villages ruraux. Nous en convenons, l’agribashing est un fléau.

M. Marc Le Fur. Et on ne fait rien !

Mme Caroline Abadie. Présentez une proposition de loi, monsieur Le Fur !

Votre amendement propose d’introduire dans l’alinéa 2 la diffamation envers les particuliers. D’une part, ce texte concerne les contenus manifestement illicites – Mme la rapporteure l’a bien expliqué. D’autre part, je ne vois pas en quoi votre suggestion résoudra le problème des agriculteurs qui se font insulter ou attaquer en raison de leur profession. Ce n’est pas de la diffamation de les traiter d’agriculteurs et de leur reprocher d’utiliser des pesticides !

Bref, je ne vois pas comment votre amendement permettra de protéger les agriculteurs.

Mme la présidente. Je mets aux voix l’amendement no 38.

M. Thierry Benoit. Nous voterons pour, bien que nous n’ayons pas pu nous exprimer ! (Sourires.)

Mme la présidente. Cinq orateurs, en plus de l’auteur de l’amendement, ont été entendus : il me semble donc que la parole n’a pas été censurée.

(Il est procédé au scrutin.)

Mme la présidente. Voici le résultat du scrutin :

        Nombre de votants                        68

        Nombre de suffrages exprimés                65

        Majorité absolue                        33

                Pour l’adoption                14

                Contre                51

(L’amendement no 38 n’est pas adopté.)

Mme la présidente. Je suis saisie de deux amendements identiques, nos 150 et 23.

La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 150, qui fait l’objet d’un sous-amendement no 158 de Mme Avia. 

M. Cédric O, secrétaire d’État. Il s’agit d’intégrer une partie des recommandations de la Commission européenne quant au champ d’application du texte, liées notamment aux obligations de moyens imposées par l’article 2.  

Si nous voulons assurer la conformité du texte au droit européen, le champ des infractions visées à l’article 1er s’avère trop large. Il semble en particulier nécessaire de le limiter aux seules infractions qui peuvent être caractérisées à raison du contenu lui-même – je ne ferai pas de lien avec le débat précédent. Il paraît difficile de caractériser un contenu constitutif de l’infraction de proxénétisme ou de traite des êtres humains.

Il ne s’agit pas de nier le caractère répréhensible de certains contenus ; mais compte tenu du cadre réglementaire européen et de la jurisprudence de la Cour de justice, aux termes desquels seule l’atteinte à la dignité humaine peut justifier de telles mesures, il est proposé de rationaliser le champ de l’article 1er en supprimant les visas des infractions relatives au harcèlement sexuel, à la traite des êtres humains et au proxénétisme.

(À vingt-trois heures cinq, M. Marc Le Fur remplace Mme Annie Genevard au fauteuil de la présidence.)

Présidence de M. Marc Le Fur

vice-président

M. le président. La parole est à M. Raphaël Gérard, pour soutenir l’amendement no 23.

M. Raphaël Gérard. Je souscris pleinement aux objectifs visés par cette proposition de loi. Je vous rejoins sur la nécessité d’obliger les plateformes à retirer les contenus illicites dans un délai de vingt-quatre heures. Pour autant, je m’interroge sur le périmètre retenu pour délimiter le champ des infractions visées par cette obligation de retrait. Il paraît très compliqué de qualifier rapidement des contenues relevant du proxénétisme ou de la traite des êtres humains. Pour pouvoir le faire, il faut prouver non seulement la réalité de la prostitution, mais aussi que celle-ci se pratique sans le consentement de la personne concernée. Or les plateformes ne disposent évidemment pas des moyens d’investigation nécessaires pour procéder à de telles vérifications.

Ma crainte, partagée par plusieurs acteurs du secteur associatif, est de voir des contenus à caractère sexuellement explicite, mais qui ne sont pas illicites, ou des contenus militants publiés par des associations de défense des droits des travailleurs du sexe, faire l’objet d’un retrait préventif hasardeux de la part des plateformes.

Pour ces raisons, il est préférable de traiter ces contenus dans le cadre de l’obligation administrative déjà faite aux plateformes de saisir promptement les services de police tels que l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication, comme cela est prévu à l’article 3 de la proposition de loi, pour d’autres infractions difficiles à caractériser, telles que le revenge porn.  

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour soutenir le sous-amendement no 158 et donner l’avis de la commission sur les amendements identiques.

Mme Laetitia Avia, rapporteure. La proposition de loi initiale visait uniquement les infractions à la loi de 1881. C’est à la suite de l’avis du Conseil d’État que nous avons élargi le champ à l’ensemble des infractions visées par le 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique, qui concernent les atteintes à la dignité humaine.

Dans ses observations, la Commission européenne valide l’assujettissement des plateformes à une responsabilité exacerbée sous réserve que le dispositif soit davantage ciblé et proportionné.

Dans le travail de ciblage et de recherche d’une proportionnalité des mesures, l’idée d’examiner l’ensemble des infractions visées en vérifiant la possibilité de les caractériser et de restreindre le champ des infractions me semble opportune, raison pour laquelle je suis favorable aux amendements du Gouvernement et de M. Gérard.

Toutefois, parmi les infractions qui sont exclues du champ, figure l’infraction de harcèlement sexuel définie par l’article 222-33 du code pénal. Il me semble que cette infraction doit demeurer dans le champ du texte, car c’est principalement de harcèlement sexuel que les jeunes sont victimes sur les réseaux sociaux. Bien sûr, un tweet ne permet pas en lui-même de caractériser l’infraction de harcèlement sexuel.

M. Erwan Balanant. Cela peut être le cas !

Mme Laetitia Avia, rapporteure. Non, cela ne l’est pas. En revanche, il existe des publications, des vidéos, des plateformes sur lesquelles certaines personnes s’adonnent à du harcèlement sexuel à l’égard de mineurs.

Le II de l’article 222-33 dispose qu’« est assimilé au harcèlement sexuel le fait, même non répété, d’user de toute forme de pression grave dans le but réel ou apparent d’obtenir un acte de nature sexuelle, que celui-ci soit recherché au profit de l’auteur des faits ou au profit d’un tiers. » Or de tels comportements à l’égard de mineurs ont pu être identifiés par des associations de protection de l’enfance sur certaines plateformes.

Il convient donc de maintenir le harcèlement sexuel dans le champ de l’article. C’est pourquoi j’émets un avis favorable aux amendements du Gouvernement et de M. Gérard, sous réserve de l’adoption de mon sous-amendement.  

M. le président. Quel est l’avis du Gouvernement sur le sous-amendement ?

M. Cédric O, secrétaire d’État. Sagesse.

M. le président. La parole est à M. Guillaume Larrivé.

M. Guillaume Larrivé. Nous assistons à du travail de commission. Nous débattons d’un amendement du Gouvernement qui a été déposé ce matin et d’un sous-amendement présenté par Mme Avia à titre personnel, et non au nom de la commission – pardon d’entrer dans ces détails du vieux monde. Tout cela ressemble à du travail de commission et non de séance, de surcroît après une commission mixte paritaire. Cela ne ressemble à rien, ce n’est pas sérieux.

J’ai une question très importante pour M. le secrétaire d’État : vous essayez de toiletter un peu l’article 1er parce que, j’imagine, le secrétariat général du Gouvernement vous a alerté sur des motifs d’inconstitutionnalité. Au nom du groupe Les Républicains, j’adresse une demande au Gouvernement. L’article 54 de la Constitution dispose que le Premier ministre, comme le Président de la République, les présidents des assemblées ou soixante parlementaires, a la faculté de saisir le Conseil constitutionnel de tout texte de loi pour vérifier que celui-ci ne contrevient à aucune disposition constitutionnelle. Il serait d’intérêt général que le Premier ministre lui-même saisisse le Conseil constitutionnel de cette proposition de loi pour s’assurer que les objectifs poursuivis ne sont pas atteints par des moyens qui contreviendraient au principe constitutionnel de liberté.

M. le président. La parole est à M. Erwan Balanant.

M. Erwan Balanant. Cet amendement, et surtout le sous-amendement, me semblent extrêmement importants. Supprimer le harcèlement sexuel du champ de cet article me semblerait en effet très dangereux pour la protection d’un certain nombre de nos jeunes. Je pense bien entendu aux mineurs, et plus particulièrement au harcèlement scolaire, sujet sur lequel je travaille actuellement.

L’alinéa 2 de l’article 222-33 du code pénal le dit : pour être caractérisé, le harcèlement sexuel ne nécessite pas d’être répété, la gravité avérée est suffisante. Il est donc possible d’inclure le harcèlement sexuel dans le champ d’application de l’article. Attester de la répétition du harcèlement est effectivement difficile sur les réseaux sociaux, et plus généralement en ligne.

En le faisant bien figurer, comme le souhaite Mme la rapporteure, nous pourrons incriminer, certes de manière détournée mais néanmoins de manière effective, la pratique du revenge porn. Cette dernière, vous le savez, se définit par la diffusion sur internet, par un ancien petit ami ou une ancienne petite amie, d’une photo de nu prise de manière consentante par vengeance à la suite d’une rupture. Cette pratique comporte des conséquences extrêmement graves ; j’estime pour ma part qu’elle représente une violation très grave de l’intimité de la personne qui se fait ainsi, disons-le, violer numériquement. Ne pas faire figurer le harcèlement sexuel dans le champ d’application de l’article serait particulièrement dommageable. Je salue donc le sous-amendement de Mme la rapporteure : je voterai en sa faveur, ce qui me permettra de voter également les amendements nos 150 et 23.

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. Je souhaiterais répondre à M. Larrivé, sans revenir sur son commentaire liminaire. La question que j’évoquais n’est pas une question de constitutionnalité, mais de conventionnalité. Cette discussion est en cours depuis le passage de la proposition de loi en Conseil d’État et vise à déterminer quels contenus représentent des atteintes à la dignité humaine. L’ensemble des contenus que nous citons sont manifestement illicites, là n’est pas la question. Nous cherchons à définir quels contenus peuvent déroger à la règle de la directive e-commerce, nous ne jugeons pas le caractère manifestement illicite, ou pas, des contenus. La question est de savoir si nous pouvons, compte tenu de l’atteinte à la dignité humaine que comportent ces contenus, déroger à la directive e-commerce. C’est dans ce cadre que nous avons saisi le Conseil d’État, qui a jugé qu’il existait une voie de passage et, à la suite des remarques de la Commission européenne, nous apportons des modifications afin de bien préciser que nous respectons l’exception définie par la Cour de justice de l’Union européenne.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. Au-delà de ces amendements identiques, en ce qui concerne l’article 1er dans son ensemble, je partage l’opinion selon laquelle il serait intéressant que le Gouvernement saisisse le Conseil constitutionnel, comme cela a été fait pour la loi anti-casseurs – loi visant à renforcer et garantir le maintien de l’ordre public lors des manifestations. En première lecture, le groupe Libertés et territoires, auquel j’appartiens, avait écrit au Président de la République et au Premier ministre pour le demander. J’estime qu’il serait normal, et dans l’intérêt de tous, de faire de même pour cet article.

M. le président. La parole est à Mme Laure de La Raudière.

Mme Laure de La Raudière. Je souhaiterais interroger Mme la rapporteure sur son sous-amendement. Je soutiens l’amendement, qui répond aux demandes de la Commission européenne, mais Mme la rapporteure souhaite ne pas retirer les infractions relatives au harcèlement sexuel du champ d’application de l’article, alors même que c’était là une des demandes de la Commission européenne. Lors de la présentation de votre sous-amendement, vous avez hésité, madame la rapporteure, dans la caractérisation du harcèlement sexuel. Alors qu’un tweet ne serait probablement pas suffisant, une vidéo pourrait peut-être l’être… Cette hésitation m’apparaît comme caractéristique du fait qu’en matière de harcèlement sexuel, il peut y avoir des contenus gris, des situations pour lesquelles on ne peut s’en remettre à un algorithme pour retirer le bon tweet ou le bon message Facebook.

Je ne soutiendrai bien évidemment pas le fait que l’on puisse harceler des jeunes sexuellement sur Facebook ou Twitter : il s’agit d’une horreur – je suis mère comme la plupart d’entre vous êtes parents. Mais nous nous apprêtons à donner à des acteurs privés le pouvoir de supprimer des contenus sur internet et de décider s’ils sont légaux ou illégaux. C’est pourquoi je me permets d’intervenir, car nous avons ici affaire à un cas typique de contenus gris. J’ajoute que ces contenus, signalés par des utilisateurs, seront supprimés sans que nous ayons réglé le fond du problème : les personnes qui commettent ces infractions ne seront pas poursuivies. Le problème persistera et sévira également sur d’autres réseaux sociaux. Je souhaiterais donc que le sous-amendement de Mme la rapporteure ne soit pas adopté.

(Le sous-amendement no 158 est adopté.)

(Les amendements identiques nos 150 et 23, sous-amendés, sont adoptés.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 41.

M. Erwan Balanant. Il s’agit d’un amendement d’appel visant à inclure dans le champ d’application de l’article les infractions de harcèlement moral, prévues à l’article 222-33-2 du code pénal, comme nous venons de le faire s’agissant du harcèlement sexuel. J’ai bien conscience que dans le cadre du texte et de la caractérisation de la haine et du manifestement haineux et illicite, nous nous trouvons ici sur une frontière délicate, mais j’évoque ce débat afin de répondre à la question sensible des jeunes et des mineurs victimes de harcèlement moral sur les réseaux sociaux. Nous faisons face à des situations extrêmement difficiles, avec des jeunes confrontés sans répit au harcèlement scolaire. Il convient d’avancer afin de trouver une solution et, pour ainsi dire, assainir les réseaux sociaux de toutes ces pratiques. Il sera certainement impossible de tout interdire, mais il importe que nous trouvions des solutions fortes et efficaces pour protéger nos jeunes. Il me semble que conserver les infractions de harcèlement moral dans le champ d’application du texte constituerait une piste intéressante.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Pour reprendre un argument excellemment développé précédemment, ce qui permettait d’intégrer le harcèlement sexuel au champ d’application de l’article était le caractère non obligatoire de la répétition. Or pour caractériser le harcèlement moral, cette répétition est nécessaire, raison pour laquelle je me vois contrainte de donner un avis défavorable à votre amendement.

Toutefois, je tiens à rappeler que ces débats, que nous avons également eus en première lecture, sont extrêmement importants et qu’il convient de trouver une solution à la question majeure du harcèlement scolaire. Je sais, cher collègue, que vous êtes pleinement engagé en la matière et qu’une mission vous a récemment été confiée par le Premier ministre. J’espère que vos préconisations seront fortes et qu’elles pourront déboucher sur un texte législatif.

M. Erwan Balanant. On me renvoie la patate chaude !

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Mme la rapporteure a tout dit. L’intégration de l’amendement de M. Balanant pose un problème juridique. Une mission est en cours et je vous propose que nous travaillions dans ce cadre sur cette question du harcèlement scolaire, y compris dans sa dimension numérique. Nous constatons en effet aujourd’hui que le harcèlement qui commence physiquement se poursuit de manière numérique : il n’existe plus d’interruption pour l’enfant ou le jeune lorsqu’il rentre chez lui. Cela pose de graves problèmes, qui peuvent déboucher sur des situations dramatiques. Je vous propose donc que nous travaillions plus précisément sur le sujet au cours des semaines et des mois à venir, et demande le retrait de cet amendement.

(L’amendement no 41 est retiré.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 48.

M. Erwan Balanant. Dans la mesure où il relève de la même logique que le précédent, je le retire.

(L’amendement no 48 est retiré.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 40.

M. Erwan Balanant. Cet amendement a pour objectif de faire entrer dans le champ d’application de l’article les actes d’incitation au suicide. S’il existe une action caractéristique de la haine, c’est bien d’inciter quelqu’un à se suicider – il pourrait même s’agir du paroxysme de l’incitation à la haine. Je m’étonne donc que cela ne figure pas dans le texte.

Aujourd’hui, un juge ne peut retenir l’infraction d’incitation au suicide qu’en cas de passage à l’acte ou de tentative de suicide. La situation est donc extrêmement problématique. C’est pourquoi je souhaite que l’on insère les dispositions de l’article 223-13 du code pénal, relatives à l’incitation au suicide, dans la liste des incriminations pénales visées par le texte.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il est défavorable. Pour être caractérisée, l’incitation au suicide doit avoir eu pour conséquence une tentative de suicide ou un passage à l’acte. Il ne s’agit malheureusement pas d’un acte manifestement illicite.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Erwan Balanant.

M. Erwan Balanant. Il conviendra de trouver un véhicule législatif pour aborder cette problématique relative à l’incrimination d’incitation au suicide. Si j’incite quelqu’un à se suicider, mais qu’il a la force morale ou se trouve en situation de ne pas passer à l’acte, l’incitation haineuse n’en demeure pas moins. J’estime donc qu’il nous faudra trouver un véhicule législatif pour affiner cette question de l’incitation au suicide.

(L’amendement no 40 n’est pas adopté.)

M. le président. La parole est à Mme Laetitia Avia, rapporteure, pour soutenir l’amendement no 162.

Mme Laetitia Avia, rapporteure. Toujours dans l’optique de préciser le champ d’application du texte, je vous propose de ne retenir parmi les contenus énumérés à l’article 227-24 du code pénal et initialement tous inclus que ceux à caractère pornographique. Pourquoi ? Car les contenus figurant à l’article 227-24 du code pénal et constituant des incriminations lorsqu’ils sont susceptibles d’être accessibles à des mineurs concernent aussi bien ceux portant atteinte à la dignité humaine que ceux qui sont violents ou pornographiques. Nous définirions ainsi un champ d’application bien plus restreint tout en conservant la volonté, je pense partagée sur l’ensemble de ces bancs, de protéger au maximum les mineurs vis-à-vis des contenus à caractère pornographique. Cela permettrait également de répondre à l’interpellation de notre collègue Alexis Corbière relative aux contenus violents, lesquels seraient donc exclus du champ d’application du texte par cet amendement.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Il s’agit d’un amendement de précision permettant de mieux paramétrer les contenus visés et renforçant la solidité juridique du texte et son application. Le Gouvernement y est donc favorable.

(L’amendement no 162 est adopté.)

M. le président. L’amendement no 36 de Mme Blandine Brocard est défendu.

(L’amendement no 36, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 44 de M. Philippe Latombe est défendu.

(L’amendement no 44, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. L’amendement no 73 de Mme Emmanuelle Ménard est défendu.

(L’amendement no 73, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 160.

M. Cédric O, secrétaire d’État. Il vise à préciser que les acteurs concernés seront ceux dont l’activité dépasse certains seuils, qui seront fixés par décret.

(L’amendement no 160, accepté par la commission, est adopté.)

M. le président. La parole est à M. Frédéric Reiss, pour soutenir l’amendement no 96.

M. Frédéric Reiss. En relisant l’alinéa 3 de l’article 1er, j’ai eu quelques doutes quant à sa signification. C’est pourquoi je propose le présent amendement de précision.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La proposition est opportune, mais il y a un problème de syntaxe. Pour que le dispositif fonctionne, il faudrait rédiger l’amendement comme suit : « à l’alinéa 3, substituer aux mots "ces mêmes contenus" les mots "les contenus visés à l’alinéa précédent" ». Je suis favorable à l’amendement, sous réserve de cette modification.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Il est également favorable, sous réserve de la modification proposée par Mme la rapporteure.

M. le président. La parole est à M. Guillaume Larrivé.

M. Guillaume Larrivé. Je ne souhaite pas prolonger les débats, mais permettez-moi de revenir un instant sur l’amendement no 160 du Gouvernement. Je me demande si nous ne sommes pas, en l’espèce, à la limite de l’incompétence négative. Nous traitons une matière particulière, les libertés. Or, en  renvoyant au pouvoir réglementaire la fixation de seuils, nous lui laissons le soin de définir une partie importante du champ de l’article 1er. Cela plaide à nouveau, monsieur le secrétaire d’État, pour une saisine du Conseil constitutionnel par le Gouvernement lui-même, ainsi que je l’ai demandé tout à l’heure. (Mme Frédérique Dumas applaudit.)

Mme Laure de La Raudière. Très juste !

M. le président. Êtes-vous d’accord avec la rectification proposée, monsieur Reiss ?

M. Frédéric Reiss. Oui, j’y suis favorable, monsieur le président.

(L’amendement no 96, tel qu’il vient d’être rectifié, est adopté.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 74.

Mme Emmanuelle Ménard. L’article 1er risque, je le répète, de provoquer censure et autocensure sur tous les sujets de société qui font polémique. En faisant peser une telle contrainte financière sur les plateformes, on leur accordera de facto le droit de pénétrer dans les consciences. On cède ainsi, avec une louable intention et de bons sentiments, aux nécessités d’un contrôle social de plus en plus rigoureux.

L’article 1er constituera, on le voit bien, un puissant encouragement à la censure et à l’autocensure, voire à la surcensure. Dans le doute, je le dis une fois encore, les plateformes privées préféreront toujours censurer plutôt que de voir leur responsabilité mise en cause et leur porte-monnaie ponctionné.

(L’amendement no 74, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. Stéphane Peu, pour soutenir l’amendement no 112.

M. Stéphane Peu. Il vise à créer un nouveau délit spécifique de retrait ou de déréférencement, par les opérateurs de plateformes en ligne, de contenus non manifestement haineux. Ce délit serait puni de la même peine que le délit de refus de retrait.

La situation est en effet assez paradoxale : la proposition de loi vise à ce que les plateformes ne respectant pas l’obligation de retirer des contenus manifestement haineux soient sanctionnées ; elle tend, en outre, à ce que les usagers soient pénalement sanctionnés en cas de notification abusive ou malveillante de contenus présentés comme illicites ; en revanche, aucune sanction n’est prévue en cas de retrait abusif d’un contenu. Le dispositif nous paraît donc tout à fait déséquilibré et de nature à favoriser la surcensure.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La proposition de loi vise à combler des vides juridiques, en traitant les cas dans lesquels il n’y a pas, actuellement, de régime de responsabilité efficient.

En ce qui concerne les retraits de contenus individuels jugés illégitimes, nous disposons déjà de mécanismes qui fonctionnent. Les retraits étant effectués au regard des conditions générales d’utilisation, la personne concernée peut engager la responsabilité civile de la plateforme pour un tel retrait. En outre, si elle estime que l’on a porté atteinte à sa liberté d’expression, elle peut saisir le juge des référés, sur le fondement de l’ancien article 809 du code de procédure civile, pour rechercher la responsabilité de la plateforme et solliciter une indemnisation.

Qui plus est, nous avons prévu un dispositif supplémentaire à l’article 4 du texte : si la plateforme a un comportement excessif, c’est-à-dire si elle procède à des retraits de manière structurelle, la sanction applicable pourra aller jusqu’à 4 % du chiffre d’affaires.

Je vous invite donc à retirer votre amendement, monsieur Peu. À défaut, j’émettrai un avis défavorable.

(L’amendement no 112, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 88.

Mme Laure de La Raudière. Je n’ai repris que quelques-uns des amendements que j’avais déposés en première lecture. Celui-ci vise à apporter une solution au problème des contenus gris, que plusieurs d’entre nous ont évoqué. Les auteurs de la proposition de loi considèrent que tous les contenus litigieux peuvent être traités en vingt-quatre heures. Or, dans les faits, un certain nombre de contenus ne peuvent faire l’objet d’une qualification aussi rapidement.

Aux termes de cet amendement, les plateformes pourraient saisir le juge lorsqu’elles ont un doute quant au caractère illicite d’un contenu. Dans ce cas, le délai de vingt-quatre heures serait suspendu. Bien évidemment, il courrait de nouveau dès que le juge aurait rendu sa décision.

L’amendement prévoit en outre que toute saisine abusive du juge judiciaire serait prise en compte par le Conseil supérieur de l’audiovisuel dans le cadre de son pouvoir de sanction. Le dispositif me paraît donc équilibré.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Je suis consciente que mon premier élément de réponse ne va guère vous satisfaire, madame de La Raudière, mais je me dois de vous en faire part : la proposition de loi ne vise pas les contenus gris. Conformément à ce qu’a indiqué M. le secrétaire d’État en première lecture, cette question sera traitée dans un autre cadre : des groupes de travail réunissant les différents acteurs et le régulateur seront mis en place pour avancer en la matière.

Mme Laure de La Raudière. Les contenus gris existent !

Mme Laetitia Avia, rapporteure. Je vais vous apporter des éléments de réponse concernant votre amendement, madame de La Raudière. Vous proposez qu’en cas de doute, une plateforme puisse saisir le juge pour qu’il porte une appréciation sur un contenu. Or notre droit le permet déjà.

Mme Laure de La Raudière. L’amendement prévoit aussi la suspension du délai !

Mme Laetitia Avia, rapporteure. Permettez-moi d’achever mon propos, chère collègue.

Une plateforme peut très bien saisir le juge pour obtenir des éléments sur un contenu. Nous avons adopté une rédaction, pardon, un alinéa – je bute sur certains mots, mais il ne faut pas surinterpréter la chose, surtout à cette heure tardive – relatif au caractère intentionnel de l’infraction. Or que dit-il en substance ? Que si une plateforme n’a pas retiré le contenu en cause dans les vingt-quatre heures ou qu’elle l’a fait passé ce délai, mais qu’elle a accompli un certain nombre de diligences nécessaires, par exemple si elle a saisi le juge des référés ou demandé à l’utilisateur des éléments de contextualisation, le caractère intentionnel du délit n’est pas constitué. Si jamais sa responsabilité est engagée, elle doit simplement prouver qu’elle a accompli ces diligences. Pour peu qu’elle soit légitime, la saisine du juge par une plateforme permet donc, de facto, d’éteindre le délai de vingt-quatre heures.

En réalité, votre amendement est satisfait par le droit existant et par la précision que nous avons apportée concernant le caractère intentionnel du délit. Je me risque donc à vous demander le retrait de votre amendement. À défaut, mon avis sera défavorable.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Il y a, depuis le début, un malentendu à propos des contenus gris. Vous considérez, madame la rapporteure, qu’ils ne sont pas visés par le projet de loi. Or beaucoup d’entre nous estiment qu’ils relèvent bien du champ du texte, et qu’il s’agit d’une question importante.

C’est pourquoi nous vous proposons des rédactions de nature à apaiser les choses ; nous essayons de trouver un équilibre. M. Peu a proposé un équilibre en sens inverse, si je puis dire : puisque le texte instaure une sanction financière, prévoyons une sanction financière également en cas de retrait abusif. Mme de La Raudière propose pour sa part que le délai de vingt-quatre heures soit interrompu en cas de saisine du juge par la plateforme, sachant qu’une plateforme ne pourrait pas saisir systématiquement le juge pour s’affranchir du délai.

Plusieurs personnes, notamment des associations et des juristes, vous disent que les contenus gris sont concernés par le texte. Nous pouvons certes acter un désaccord. Tel sera le cas si l’article 1er est soumis au vote en l’état.

Il y a manifestement une difficulté en ce qui concerne les contenus gris. Le Sénat vous l’a signalé, des personnes extérieures vous le répètent, nous vous exprimons de nouveau nos craintes à ce sujet ce soir. Les solutions proposées par Mme de La Raudière et par d’autres collègues ne sont pas destinées à détruire votre texte – nous partageons votre objectif. Nous voulons, au contraire, trouver une rédaction de nature à apaiser les choses.

M. le président. La parole est à Mme Frédérique Dumas.

Mme Frédérique Dumas. J’abonde dans le sens de M. Latombe. Il ne serait pas juste que les plateformes puissent saisir le juge quand elles le souhaitent, alors qu’il sera compliqué pour les citoyens de le faire.

S’agissant du caractère intentionnel du délit, madame la rapporteure, vous dites très clairement qu’il sera constitué dès lors que la plateforme n’aura pas accompli toutes les diligences nécessaires. Or le texte indique seulement que le caractère intentionnel « peut résulter » d’une telle situation. Dès lors, l’insécurité juridique est totale pour les plateformes. La précision que vous avez apportée concernant le caractère intentionnel a une portée réduite.

Par ailleurs, si vous remplacez « peut » par « doit », vous rendrez la disposition inefficiente, car il sera la plupart du temps très compliqué de prouver le caractère intentionnel.

Nous ne parvenons pas, on le voit bien, à trouver de rédaction garantissant l’efficience du dispositif, ce qui est problématique.

(L’amendement no 88 n’est pas adopté.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 75.

Mme Emmanuelle Ménard. Je vous propose, par cet amendement, un juste rééquilibrage du pouvoir exorbitant attribué aux plateformes par l’article 1er. Compte tenu des risques induits pour la liberté d’expression, qui est l’une de nos libertés fondamentales, il semble pour le moins normal, en retour, que la réparation d’un retrait abusif soit rapide et visible.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Cela relève déjà de la compétence du juge. Avis défavorable.

(L’amendement no 75, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 149.

M. Cédric O, secrétaire d’État. Il vise à supprimer une disposition qui a été ajoutée à la demande de Mme la rapporteure, mais qui nous semble redondante. Le droit commun prévoit déjà, sans qu’il soit nécessaire de le préciser de nouveau dans la loi, que tout citoyen s’estimant lésé peut avoir recours au juge des référés. L’alinéa 9 paraît donc superfétatoire. Peut-être Mme la rapporteure peut-elle exposer les raisons pour lesquelles elle a jugé nécessaire de rappeler le droit commun ?

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. La disposition en cause rappelle effectivement que le juge des référés peut être saisi aussi bien en vue de faire retirer un contenu qu’en cas d’atteinte à la liberté d’expression.

Je suis tout à fait consciente qu’il s’agit là de droit bavard, puisque le droit commun est applicable en l’espèce. Toutefois, les débats que nous avons ce soir à propos de la place du juge et de la possibilité de le saisir montrent qu’il convient d’énoncer les choses clairement. Le texte prévoit un nouveau dispositif, qui sera utilisé par un grand nombre de nos concitoyens. Or ceux-ci ne dorment pas nécessairement avec un code de procédure civile sur leur table de chevet… Pour assurer la lisibilité du dispositif, je pense nécessaire de rappeler qu’il est soumis au contrôle du juge.

Je me risque donc à demander au Gouvernement de retirer son amendement. À défaut, je le regrette, mon avis sera défavorable.

M. le président. La parole est à Mme George Pau-Langevin.

Mme George Pau-Langevin. Je comprends l’argument de redondance avancé par le Gouvernement. Néanmoins, je relève que de nombreuses critiques se fondent sur le constat que l’autorité judiciaire n’aurait pas le dernier mot et que le texte ne lui conférerait pas le rôle qui lui revient. Aussi cette mention a-t-elle une utilité, quand bien même elle est redondante : faire taire ce procès. (Mme la rapporteure applaudit.)

M. le président. La parole est à M. Philippe Latombe.

M. Philippe Latombe. Je rejoins les propos antérieurs de M. Larrivé : nous sommes malheureusement en train de recommencer le travail de la commission. En effet, nous y avons déjà eu cette discussion ; les mêmes arguments ont été avancés et nous avons décidé de conserver l’alinéa 9 pour les motifs que Mme Pau-Langevin vient de rappeler.

S’il s’agit effectivement de « droit bavard », l’alinéa vient apporter un apaisement en soulignant le rôle de l’autorité judiciaire. Plusieurs des sujets soulevés par les amendements à l’article 1er que nous examinons auraient pu l’être en commission : cela nous aurait évité cette discussion.

M. le président. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire d’État. J’entends les arguments exprimés par différents groupes ; compte tenu de la vertu pédagogique de l’alinéa ainsi défendue, je retire l’amendement du Gouvernement.

M. Frédéric Reiss. Très bien !

(L’amendement no 149 est retiré.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 76.

Mme Emmanuelle Ménard. Il vise à supprimer l’alinéa 10. Dans un contexte où de nombreuses associations sont déjà largement impliquées dans la vie politique de notre pays, il convient de ne pas allonger encore la liste de leurs prérogatives.

Trop souvent, les associations s’érigent en juges, en détentrices du bien, et font des actions en justice leur fonds de commerce. Elles s’affichent comme les défenseures de l’ordre établi et de la liberté d’expression, alors même qu’elles constituent parfois ses pires ennemies et les meilleurs instruments de la censure. Les gens en arrivent à les craindre et ont peur d’être poursuivis en justice s’ils exercent ce droit.

(L’amendement no 76, repoussé par la commission et le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements, nos 97 et 98, qui peuvent faire l’objet d’une présentation groupée.

La parole est à M. Frédéric Reiss, pour les soutenir.

M. Frédéric Reiss. Ils sont complémentaires. L’amendement no 97 vise à prendre en considération les associations : elles sont également susceptibles de signaler un contenu comme étant illicite, pour en obtenir le retrait ou en faire cesser la diffusion en sachant l’information inexacte. L’association encourrait alors les mêmes sanctions qu’une personne physique.

L’amendement no 98 tend à supprimer la peine d’emprisonnement pour les personnes ayant demandé un retrait à la faveur d’informations inexactes ; l’amende de 15 000 euros est maintenue.

M. le président. Quel est l’avis de la commission sur ces deux amendements ?

Mme Laetitia Avia, rapporteure. Je demande le retrait de l’amendement no 97, qui est déjà satisfait : la rédaction « toute personne » concerne aussi bien les personnes morales que physiques. À défaut, l’avis sera défavorable.

L’avis est également défavorable sur l’amendement no 98 : la peine d’emprisonnement se justifie concernant les personnes en cas de notification abusive. Un emprisonnement ferme ne sera évidemment jamais prononcé ; le sursis – trois ans d’emprisonnement avec sursis par exemple – est d’ailleurs généralement de règle dans les cas équivalents. Les peines prévues sont donc proportionnées et applicables.

M. le président. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire d’État. Même avis.

(Les amendements nos 97 et 98, successivement mis aux voix, ne sont pas adoptés.)

M. le président. La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 77.

Mme Emmanuelle Ménard. Il vise à rehausser le plafond de l’amende afin de décourager la délation. L’alinéa 11 punit le dénonciateur malhonnête d’une peine d’un an de prison et 15 000 euros d’amende ; afin de dissuader les auteurs de signalements abusifs, il me semble utile de renforcer les sanctions en prévoyant une amende dissuasive de 30 000 euros : les atteintes à la liberté d’expression ne sont pas anodines.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il est défavorable : les peines sont proportionnées.

(L’amendement no 77, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 39.

M. Erwan Balanant. La proposition de loi concerne les incitations à la haine et les injures fondées sur certains facteurs de discrimination, notamment le sexe. En revanche, le genre n’est pas mentionné.

Or, si le sexe et le genre correspondent à deux facteurs de discrimination souvent liés, ils sont différents et doivent être distingués. En effet, alors que le sexe renvoie à des caractères physiologiques, le genre est le produit d’une construction culturelle et subjective.

Pour autant, le genre et le sexe donnent lieu à des actes de discrimination qui doivent être combattus avec la même force. La convention du Conseil de l’Europe sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, ratifiée par la France, oblige à les placer sur le même plan.

M. Sébastien Leclerc. Je ne suis pas convaincu.

M. le président. Quel est l’avis de la commission ?

Mme Laetitia Avia, rapporteure. Il est défavorable : la loi de 1881 ne fait pas référence à la notion de genre, mais bien d’identité de genre.

(L’amendement no 39, repoussé par le Gouvernement, n’est pas adopté.)

M. le président. Je suis saisi de deux amendements identiques, nos 24 et 49.

La parole est à M. Raphaël Gérard, pour soutenir l’amendement no 24.

M. Raphaël Gérard. Il concerne justement la notion d’identité de genre et vise à rétablir la rédaction adoptée en première lecture par l’Assemblée nationale, qui mentionne explicitement parmi les infractions visées l’incitation à la haine à raison de l’identité de genre.

M. le président. La parole est à M. Erwan Balanant, pour soutenir l’amendement no 49.

M. Erwan Balanant. C’est un amendement de repli : j’espère que vous retiendrez la notion d’identité de genre. Comme M. Gérard vient de le rappeler, il s’agit de rétablir la version adoptée en première lecture, d’autant qu’il s’agit là d’un facteur de discrimination important.

M. le président. Quel est l’avis de la commission sur ces amendements identiques ?

Mme Laetitia Avia, rapporteure. Vous avez raison, chers collègues. Je regrette d’ailleurs d’être allée un peu vite en ne vous demandant pas de retirer l’amendement précédent au profit de ceux-ci.

La notion d’identité de genre est désormais inscrite dans la loi du 29 juillet 1881. L’avis de la commission est donc favorable : ces amendements rétablissent une version que le Sénat a supprimée pour des raisons incompréhensibles.

(Les amendements identiques nos 24 et 49, acceptés par le Gouvernement, sont adoptés.)

(L’article 1er, amendé, est adopté.)

M. le président. Le président de l’Assemblée nationale a reçu du ministre chargé des relations avec le Parlement une lettre l’informant que la discussion de la proposition de loi visant à lutter contre les contenus haineux sur internet se poursuivra demain, mercredi 22 janvier, après-midi et soir, après l’examen des projets de loi relatifs à l’application du cinquième alinéa de l’article 13 de la Constitution.

La suite de la discussion est renvoyée à la prochaine séance.

2

Ordre du jour de la prochaine séance

M. le président. Prochaine séance, demain, à quinze heures :

Projet de loi organique et projet de loi relatifs à l’application du cinquième alinéa de l’article 13 de la Constitution et prorogeant le mandat des membres de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet.

Suite de la nouvelle lecture de la proposition de loi visant à lutter contre les contenus haineux sur internet.

La séance est levée.

(La séance est levée à vingt-trois heures cinquante-cinq.)

Le Directeur du service du compte rendu de la séance

de l’Assemblée nationale

Serge Ezdra