XVe législature
Session ordinaire de 2019-2020

Séance du mardi 21 janvier 2020

L’ordre du jour appelle la suite de la discussion, en nouvelle lecture, de la proposition de loi, modifiée par le Sénat, visant à lutter contre les contenus haineux sur internet (nos 2534, 2583).
La parole est à M. Maxime Minot. Internet est capable du meilleur comme du pire. C’est un espace de liberté et il doit le rester, à plus forte raison dans un pays comme le nôtre, tellement attaché à son expression libre et impertinente, qui voit dans internet la possibilité de s’exprimer autrement que par des canaux traditionnels.
Si cet espace de liberté, comme tout l’espace public, implique une vigilance accrue, celle-ci ne doit pas être confondue avec de la surveillance. Néanmoins, un espace de liberté n’est pas une zone de non-droit et il implique des règles l’encadrant sans le restreindre, afin de garantir le respect de chacun et de ne jamais excuser l’inexcusable. Même si nous disposons d’un arsenal juridique, législatif ou jurisprudentiel, nous devons aller plus loin pour contrer cette haine, devenue parfois virale.
En commission, vous déjà largement modifié la rédaction issue travaux du Sénat, tout en prenant en compte certaines remarques des sénateurs et de la Commission européenne.
C’est vrai ! Toutefois, il reste certaines limites à l’effectivité de ce texte, pavé de bonnes intentions et sans doute nécessaire.
En effet, vous demandez à de nombreux parlements de chercher à réguler, à se faire les gardiens de notre liberté d’expression. Vous voulez ainsi leur confier un droit à la censure qui, si nous voulons éviter le risque d’une dictature de la pensée, organisée par des algorithmes, autrement dit par des machines pilotées par des intérêts privés, ne peut être détenu que par le peuple. En outre, il aurait été sans doute plus utile de défendre une position non pas franco-française mais européenne : une initiative commune forte aurait eu davantage de poids.
Chers collègues, des doutes subsistent donc encore sur un texte qui ne doit pas être considéré comme un énième engagement présidentiel mais comme un sujet ô combien important pour nos libertés individuelles et qui engage l’avenir de la société dans son ensemble.
(Mme Annie Genevard applaudit.) La parole est à Mme George Pau-Langevin. Je pense avoir dit l’essentiel lors de la discussion générale, mais je souhaite insister sur mon attachement à la possibilité de retirer les contenus concernés dans les vingt-quatre heures.
Nos amis sénateurs socialistes ont certes proposé une modification du texte qui rendrait ce retrait purement provisoire, dans l’attente de la saisine d’un juge chargé de qualifier les propos contestés. Doutant que les opérateurs saisissent réellement le juge, je penche plutôt pour la formulation qui a été rétablie : les propos incriminés doivent être retirés par l’opérateur pour qu’ensuite ceux qui veulent saisir le juge afin d’avoir un avis définitif puissent le faire. Ce dispositif me paraissant bien meilleur, je suis donc favorable au rétablissement du texte initial.
La parole est à Mme Frédérique Dumas. Comme je l’ai souligné lors de la discussion générale, avec cet article 1er, conjugué aux articles 2 et 4, vous proposez de remettre en cause ce sur quoi repose notre démocratie depuis deux cents ans et de compromettre l’efficience d’une régulation pourtant nécessaire.
Vous faites preuve d’une précipitation qui ne permettra ni de lutter efficacement contre ces contenus illégaux, ni de créer un environnement en ligne sécurisé pour les utilisateurs. Vous prenez la lourde décision de confier aux géants du numérique des quasi-pouvoirs de police ainsi que le pouvoir d’interprétation du juge.
Avec le Gouvernement, vous ne cessez de nous proposer à la dernière minute des modifications à ces trois articles. Pour démontrer l’équilibre de votre dispositif, vous invoquez l’alinéa 6 que vous avez introduit : « Le caractère intentionnel de l’infraction mentionnée à l’avant-dernier alinéa du présent I peut résulter de l’absence d’examen proportionné et nécessaire du contenu notifié. »
D’un côté, il sera très difficile de prouver l’intentionnalité, ce qui risque de rendre votre dispositif inefficient et, de l’autre, le verbe « pouvoir » laisse une très grande marge d’appréciation, pouvant donner lieu à des retraits excessifs ou à des contentieux sans fin. Dans tous les cas, on aboutit, j’y insiste, à l’inefficience.
La parole est à Mme Anissa Khedher. Cette proposition de loi est le résultat d’un long travail approfondi de Laetitia Avia, soutenu avec conviction par Caroline Abadie. Nos deux collègues ont toujours eu le souci de l’équilibre entre la lutte contre les propos haineux et le respect fondamental de la liberté d’expression.
Au cours des nombreuses réunions et auditions, nous avons pris le temps d’échanger avec nos concitoyens, les associations et les représentants des opérateurs, afin d’aboutir à une proposition de loi courageuse et ambitieuse. Elle est courageuse parce qu’elle s’attaque à un problème sur lequel nous avons fermé les yeux depuis trop longtemps ; elle est ambitieuse parce qu’elle témoigne de notre détermination à lutter contre tous les contenus haineux qui circulent, sans contrôle adapté, sur internet.
L’article 1er, tel que rédigé par la commission en nouvelle lecture, résume à lui seul une grande partie de cette ambition en rétablissant l’obligation pour les plateformes et moteurs de recherche de retirer dans les vingt-quatre heures les contenus heurtant la dignité humaine. Nous enjoignons aux opérateurs de modérer avec efficacité, sous peine de sanctions, les éléments haineux diffusés sur les sites et les réseaux sociaux.
Cependant, les opérateurs, les plateformes et les moteurs de recherche n’auront pas les pleins pouvoirs que certains nous accusent de leur donner : l’autorité judiciaire veillera toujours au respect des droits de chacun des internautes ; elle pourra prescrire, en référé, aux opérateurs d’agir pour faire cesser un dommage dû à un contenu ou occasionné par le retrait d’un contenu.
L’article 1er est à l’image de l’ensemble de la proposition de loi : il est adapté à la réalité de la haine en ligne ; il est protecteur pour les victimes ; il conserve un équilibre entre efficacité et liberté.
(Applaudissements sur quelques bancs du groupe LaREM.) La parole est à M. Stéphane Peu. L’article 1er impose aux opérateurs des plateformes en ligne à fort trafic, de retirer les contenus litigieux et de les rendre inaccessibles dans un délai de vingt-quatre heures. Malgré les précautions prises et les références à la liberté de la presse ou à des articles du code pénal, nous pensons que ces opérateurs auront du mal à déterminer aussi rapidement et surtout aussi sûrement le caractère manifestement illicite d’un contenu.
Nous craignons de ce fait un risque de sur-censure. Il est en effet assez probable que, dans ce délai très court, un principe de précaution ou de prévention conduira à une censure excessive, en l’absence de l’intervention d’un juge qui dise le droit. Le risque est d’aller au-delà de la censure de discours haineux et de censurer aussi des critiques à caractère idéologique qui ont toute leur place dans le débat démocratique.
C’est pourquoi cet article nous inquiète. Nous avons déposé des amendements qui, pour éviter la sur-censure, visent à sanctionner les retraits abusifs auxquels il risque de conduire, notamment en raison de la brièveté du délai imposé pour retirer les propos litigieux.
Je suis saisi de quatre amendements identiques, nos 1, 55, 66 et 122, tendant à supprimer l’article.
La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 1.
L’article 1er est problématique en ce qu’il instaure la privatisation de la liberté d’expression en contournant le juge et en confiant la police de l’expression sur internet aux grandes plateformes.
Les opérateurs sont-ils les mieux placés pour exercer cette mission de censure a priori, quand il est parfois si difficile pour les juges de le faire a posteriori ? Je ne le pense pas.
Mon inquiétude est vive, je le répète, de voir les plateformes se transformer en juge de la liberté d’expression car, en la matière, la liberté doit évidemment être la règle et les restrictions, l’exception. C’est ainsi depuis la loi sur la presse de 1881, et c’est ainsi que cela doit rester puisque la liberté d’opinion et d’expression est la plus importante de nos libertés.
Avec cet article 1er vous déléguez une autorisation de censure à des algorithmes : le volume des expressions sur les plateformes internet est tel qu’aucun humain ne peut raisonnablement en surveiller la totalité, tout cela dans un délai de vingt-quatre heures, ce qui crée, de facto, une sorte de délit de non-retrait qui sera sanctionné financièrement. Inutile de vous faire un dessin : face au risque de sanctions pécuniaires surgit le risque d’autocensure ou de sur-censure car aucun opérateur privé ne voudra se voir sanctionner à répétition.
L’avocat François Sureau, explique à propos de ce texte : « La société de liberté se définit par un climat général que chaque restriction dégrade, dépouillant peu à peu le citoyen de sa capacité de libre détermination. » Et de poursuivre : « Je partage le dégoût moral des auteurs de [ce texte]. Mais le dégoût comme l’indignation ne sont pas nécessairement les meilleurs soutiens de la liberté. »
Je partage également ce dégoût mais, vous l’avez compris, je suis farouchement opposée à ce texte. J’ai eu l’occasion de le dire à maintes reprises, votre proposition de loi est contraire à ma conception voltairienne de la liberté d’expression en France.
La parole est à Mme Danièle Obono, pour soutenir l’amendement no 55. Nous demandons la suppression de l’article 1er – cœur du dispositif proposé. Par manque de moyens humains pour l’appliquer, cette disposition ne sera pas opérationnelle, comme cela vous a été dit au cours des débats et des auditions par les nombreuses associations qui contestent ce texte et par les professionnels.
Surtout, ce texte passe à côté de l’essentiel : internet n’est que le reflet grossissant de ce qui se passe dans la réalité où il manque, je le répète, des moyens humains pour faire reculer les propos et les comportements racistes, sexistes ou homophobes. Il manque également des moyens financiers pour accompagner les victimes sur les plans judiciaire, social et psychologique, et pour former à ces sujets des professionnels de la justice, de la police et de la santé.
Rien dans cet article 1er ni dans le reste du texte ne répond fondamentalement aux demandes concrètes des associations de victimes pour faire reculer ces comportements dans la réalité et sur internet.
En réalité, tout en ayant la conviction d’œuvrer pour le bien commun, vous risquez de restreindre non seulement la liberté d’expression en général mais aussi les moyens de réagir dont disposent les victimes de ces agissements sur internet.
La parole est à M. Guillaume Larrivé, pour soutenir l’amendement no 66. Je ne voudrais pas être mal compris. Je partage bien sûr les finalités de ce texte. Je comprends que vous avez essayé de faire de votre mieux pour trouver la rédaction la mieux à même de lutter efficacement contre le déferlement sur les réseaux sociaux d’une haine dont nous sommes, nous députés, non seulement les témoins mais aussi les cibles directes : notre expression publique sur les réseaux est souvent contestée de manière polémique, ce qui est légitime, mais aussi parfois de manière très violente, ce qui n’est pas légitime. Je comprends donc l’objectif du texte, comme j’ai déjà eu l’occasion de le dire à Mme la rapporteure devant la commission des lois.
Toutefois, et c’est pourquoi je défends cet amendement de suppression, la rédaction que vous proposez n’est pas aboutie. Malgré les légères évolutions de ces dernières heures, je regrette vraiment que vous n’ayez pas considéré plus attentivement la version proposée par nos collègues sénateurs. En effet, tel qu’il sera sans doute adopté cette nuit, l’article 1er fait courir à la liberté d’expression un risque particulièrement grave.
Depuis la grande loi de 1881 sur la liberté de la presse, la République française, c’est son honneur, assume le fait que, en matière d’expression, la liberté est la règle. Il ne s’agit pas d’une règle absolue, bien entendu, car il y a des exceptions, mais celles-ci doivent être particulièrement restreintes.
Certes, à l’heure des réseaux sociaux, le contexte est différent, mais les évolutions techniques ne doivent pas nous faire oublier nos principes juridiques et politiques : la liberté d’expression doit l’emporter sur la censure. Et cela d’autant plus que le dispositif de censure que vous esquissez est en réalité une privatisation de la censure, confiée aux réseaux sociaux, c’est-à-dire, en fait, aux algorithmes, en dépit de votre tentative d’introduire un peu de conscience humaine dans cette affaire.  
Confier la censure aux algorithmes est une régression. Ce n’est pas, j’ai le regret de vous le dire, digne de la République française.
(Applaudissements sur plusieurs bancs du groupe LR.) La parole est à Mme Agnès Thill, pour soutenir l’amendement no 122. La question n’est évidemment pas de savoir si nous sommes pour ou contre la haine sur internet – nous sommes tous d’accord sur le fait qu’il faut la condamner –, mais de savoir comment lutter contre elle. Or si nous sacrifions l’État de droit dans ce combat, c’est la haine qui aura gagné.
Les contenus mentionnés dans l’article 1er sont pénalement répréhensibles. Qu’ils soient donc condamnés par la justice dans le cadre d’une procédure équitable. Il est impératif de conforter la place du juge judiciaire, gardien des libertés fondamentales, à tous les niveaux de la lutte contre les contenus illicites et de renforcer les moyens d’action de la justice.
L’article 1er n’apporte pas la bonne réponse au problème que nous cherchons à résoudre. Les opérateurs de plateformes en ligne, qui sont des sociétés privées, n’ont pas à se substituer au juge en matière de répression des crimes et délits. La justice ne peut être rendue que par un juge, dont les décisions s’inscrivent dans une procédure précise qui prévoit une instruction respectant le principe du contradictoire et les droits de la défense. Tout ce qui sort de ce cadre n’est pas conforme à l’État de droit. La haine ne peut être combattue qu’avec les instruments de l’État de droit.  
Par ailleurs, le harcèlement ne passe pas uniquement par les contenus, mais également par les signalements, qui ciblent parfois des utilisateurs en fonction de leurs opinions dans un objectif revendiqué de censure. Or nul n’a le monopole de la morale. Aucun député ni aucun membre du Gouvernement n’apprécierait de voir suspendu son compte Facebook ou Twitter à cause d’un signalement massif de groupes d’opposition structurés.
En matière de libertés publiques et de lutte contre la haine en ligne, force doit rester à la loi. La justice ne peut être rendue que par un juge. Je ne veux pas qu’avec les meilleures intentions, nous nous éloignions de l’État de droit.  
La parole est à Mme Laetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République, pour donner l’avis de la commission sur ces amendements de suppression. Il est défavorable et pour plusieurs raisons. J’ai entendu de nombreuses interrogations et inquiétudes concernant l’article 1er. Elles sont naturelles s’agissant d’un texte qui est, nous en avons tous conscience, inédit. Nous nous sommes efforcés de trouver le juste équilibre entre respect de la liberté d’expression et protection des individus sur les réseaux sociaux. C’est presque une question de santé publique : nous devons protéger nos concitoyens des déferlantes quotidiennes de haine sur les réseaux sociaux.
Certains orateurs ont estimé que la proposition de loi conduisait à une privatisation de la liberté d’expression. Soit. Mais imaginons que nous supprimions l’article 1er et que nous en restions au droit en vigueur : les plateformes auraient toujours la possibilité de supprimer les contenus illicites sans qu’on sache ni quand ni comment et sans qu’aucune sanction leur soit applicable. En somme, si l’article était supprimé, on en reviendrait au statu quo et les plateformes pourraient continuer d’agir comme bon leur semblerait. Vous soutenez que nous allons déléguer l’autorisation de censure aux plateformes mais nous n’allons rien déléguer puisque la loi de 2004 pour la confiance dans l’économie numérique dispose déjà que les plateformes ont la responsabilité de retirer les contenus illicites. C’est écrit noir sur blanc !
Alors maintenant que faisons-nous ? Nous décidons-nous à avancer, à définir et encadrer les contenus que les plateformes doivent retirer, cela en nous appuyant sur le socle de la loi de 1881 qui doit s’appliquer pleinement aux réseaux sociaux ? Ou bien laissons-nous faire ? Est-ce qu’on avance ou est-ce qu’on renonce ? Telle est la question que je vous pose, chers collègues.
Vous avancez ensuite que nous prévoyons de contourner le juge. Ce n’est pas le cas. Le Sénat, lui, a cherché à le contourner puisqu’il a supprimé le volet judiciaire du texte. Or le juge est bien présent dans la nouvelle version de l’article – lequel vise des contenus manifestement illicites au sujet desquels existe une jurisprudence –, juge chargé de veiller au respect des droits de chacun puisque, conformément au droit commun, il pourra être saisi en référé pour une atteinte à la liberté d’expression ou même pour obtenir le retrait de certains contenus, comme c’est déjà possible. Le texte accorde donc au juge toute sa place alors que jusqu’à présent la responsabilité d’une plateforme n’a jamais été engagée au titre de la loi de 2004 – c’est que le système en vigueur ne fonctionne tout bonnement pas.
La crainte d’une sur-censure a également été exprimée. Nous avons bien entendu pris ce risque en considération : les plateformes pourraient en effet céder à la facilité consistant, pour éviter des sanctions, à supprimer massivement des contenus. Nous avons donc prévu une mesure visant à sanctionner les plateformes en cas de sur-censure. Un délit judiciaire est prévu pour le non-retrait de contenus manifestement illicites, mais il ne s’applique pas aux « contenus gris », qui demandent plus de temps et de recherches, notamment de contextualisation.
Mais qui les détermine ? En revanche, si les plateformes retirent des contenus de manière excessive, ce n’est pas un délit qui s’applique, mais une sanction du Conseil supérieur de l’audiovisuel, le CSA, qui peut représenter jusqu’à 4 % du chiffre d’affaires mondial de la plateforme. La sanction prévue en cas de sur-censure est par conséquent bien plus élevée que la sanction prévue en cas de non-retrait de contenus illicites. Et elle est suffisamment dissuasive pour que les plateformes évitent de s’adonner à ce qu’on pourrait considérer comme une facilité ; 4 % du chiffre d’affaires mondial, c’est une épée de Damoclès suffisamment menaçante pour s’assurer que chacun fera son travail.
L’article 1er tel que nous vous le proposons est équilibré, il répond, je vous le garantis, à toutes les questions qui ont été soulevées, et il rétablit le juge dans le dispositif alors que le Sénat l’en avait fait disparaître.
(Applaudissements sur les bancs du groupe LaREM.) La parole est à M. le secrétaire d’État chargé du numérique, pour donner l’avis du Gouvernement. Je ne reviendrai pas dans le détail sur des questions que nous avons déjà largement débattues en première lecture et au Sénat. Je constate toutefois, comme la rapporteure, que les différents avis qui se sont exprimés reflètent une certaine méconnaissance de la situation actuelle : le retrait des contenus illicites est déjà à la seule initiative des plateformes ; aucune obligation ne s’impose à elles si ce n’est leurs conditions générales d’utilisation – CGU. D’ailleurs, si une plateforme décidait de se politiser ou d’appliquer des CGU particulièrement restrictives, elle pourrait retirer tous les contenus qu’elle voudrait : relevant du domaine privé, elle n’aurait à respecter que ses propres règles. Or nous voulons introduire le pouvoir de l’État, de la puissance publique dans cet espace.
Plusieurs députés ont regretté qu’il soit prévu que les plateformes procèdent au retrait des contenus illicites avant l’intervention du juge. Elles ne le feront cependant pas sans supervision de la puissance publique puisque le CSA joue un rôle de régulation. En outre, dès lors qu’on estime problématique que ce soient elles qui procèdent au retrait des contenus, il faut dire qui devrait le faire à leur place. La vidéo de la tuerie de Christchurch a été téléchargée 1,5 million de fois en vingt-quatre heures sur une plateforme. Qu’on nous explique donc comment le juge pourra ordonner le retrait de chacune de ces vidéos identiques postées à quelques micro-secondes d’intervalle… On peut s’indigner mais si l’on ne veut pas se payer de mots et faire preuve de responsabilité il faut proposer une solution.
Pour ce qui concerne la sur-interprétation, je note que plusieurs modifications du texte ont été proposées par le Sénat et acceptées par la commission des lois de l’Assemblée. Elles concernent notamment le retrait de la peine de prison et la précision du caractère intentionnel du délit le cas échéant. Une partie des inquiétudes ont donc été prises en compte.
Vous avez évoqué, monsieur Larrivé, la discussion du texte au Sénat. Je veux bien croire que la liberté d’expression soit aujourd’hui au cœur de vos préoccupations. Reste que je me suis demandé quelle était votre position sur d’autres textes relatifs aux libertés publiques – ou la position du président Retailleau, puisque vous avez évoqué le Sénat. Prenons la loi visant à renforcer et à garantir le maintien de l’ordre public lors des manifestations, dite loi anti-casseurs.
Ce n’est pas un bon exemple ! Quelle n’a pas été ma surprise de découvrir que non seulement vous étiez aux côtés du Gouvernement pour défendre ce texte, mais que vous jugiez que nous jouions petit bras. Si l’on a chevillé au corps le principe de la liberté publique, alors il faut faire preuve de cohérence pour l’ensemble des textes.
J’ai bien entendu l’argument du président Retailleau sur la liberté d’expression. Il serait légitime si le seul amendement qu’il avait déposé n’avait pas proposé la facilitation de la suppression de présumés faux comptes. Alors même qu’on nous reproche de prévoir les conditions d’une suppression d’un trop grand nombre de commentaires, le groupe Les Républicains du Sénat veut inciter les plateformes à supprimer largement les faux comptes. Il y a là une incohérence politique ; or si nous voulons avancer, il faut laisser les considérations politiciennes de côté et revenir au fond du débat.
Bonne idée ! Avis défavorable sur ces amendements de suppression. (Mme Caroline Abadie applaudit.) Chers collègues, nous touchons au cœur du débat. C’est pourquoi je ferai droit à vos différentes demandes de parole mais qu’il soit bien clair que cela ne fera pas jurisprudence pour la suite de la discussion.
La parole est à Mme George Pau-Langevin.
Je ne suis pas d’accord avec les arguments défendus par les auteurs de ces amendements identiques. Ils estiment, en particulier, que l’article 1er porte une atteinte considérable à la liberté d’expression – aujourd’hui la règle de notre système juridique et donc dans notre démocratie. Or cet article se réfère à des dispositions qui punissent déjà des délits et donc des comportements que le droit en vigueur n’autorise pas. C’est le cas de plusieurs articles de la loi du 29 juillet 1881 sur la liberté de la presse qui punissent les provocations, les diffamations et les injures à caractère raciste et homophobe. L’article 1er du présent texte fait également référence aux articles 225-1 et suivants du code pénal portant notamment sur la discrimination. Affirmer que notre droit autorise l’expression de propos racistes, sexistes ou homophobes est donc faux. La proposition de loi vise simplement à ce que les idées que nous n’acceptons pas de voir apparaître dans la presse ne soient pas non plus diffusées sur les réseaux sociaux. (Applaudissements sur quelques bancs du groupe LaREM.) La parole est à M. Éric Diard. Je tiens tout d’abord à saluer la nouvelle rédaction de l’article 1er qui, au lieu de la liste à la Prévert des contenus haineux présentée en première lecture, propose désormais une définition fondée exclusivement sur le droit.
Cependant, à mon avis, qui d’autre qu’un magistrat peut juger si un contenu mis en ligne contrevient à la loi, même si c’est manifeste, étant donné que la législation est de plus en plus complexe ? Il y a une chose que je ne comprends pas, monsieur le secrétaire d’État : vous nous dites que les plateformes peuvent supprimer des messages haineux, puis vous ajoutez qu’on ne peut pas compter que sur le juge car alors le retrait de la vidéo sur l’attentat de Christchurch aurait été impossible dans un délai raisonnable ; mais si les unes pourraient le faire pourquoi pas ce dernier ? Je ne comprends pas cette contradiction.
Enfin, madame la rapporteure, qui définit la zone grise que vous évoquez ?
Bonne question ! La parole est à M. Julien Aubert. Vous considérez le système existant comme la base d’un futur bon système,… Mais non ! …estimant que la bonne solution pour combattre la haine sur internet, c’est d’avoir recours aux seules plateformes. Pour ma part, je crois qu’il y a des solutions alternatives. Vous auriez pu par exemple choisir de responsabiliser les internautes par le biais d’un système de cartes d’identité numérique, autre manière d’atteindre votre objectif sur lequel notre groupe est d’accord. Notre première divergence, c’est que vous partez du principe qu’on ne peut passer que par la censure exercée par les plateformes pour l’atteindre.
Deuxième divergence, après avoir reconnu que le dispositif actuel ne fonctionnait pas, vous nous expliquez qu’il faut complexifier le système pour le rendre plus opérationnel… Une nouvelle loi n’est vraiment pas nécessaire pour obliger une plateforme à retirer une vidéo comme celle montrant l’attentat de Christchurch.
Enfin, il s’agit vraiment d’une usine à gaz. Vous nous annoncez fièrement que le CSA pourra infliger une amende de 4 % sur le chiffre d’affaires mondial d’une plateforme qui ne se conformerait pas à une mise en demeure.
Ce n’est pas sérieux ! J’en déduis que vous croyez très sincèrement que le CSA va infliger une amende record de quelque 5 milliards de dollars à Facebook comme l’a fait l’administration américaine… Je ne suis pas convaincu de votre argumentation. Votre tigre opérationnel me fait en effet davantage l’effet d’un tigre de papier.
De telles réponses de la part de la commission et du Gouvernement empêchent du coup d’avoir une vraie discussion sur le fond : est-ce, oui ou non, le rôle de ces plateformes de juger de la licéité des contenus par le biais d’algorithmes ? Il y a tout de même une différence avec la presse pour laquelle c’est un être humain qui sanctionne la liberté d’expression, alors qu’ici vous nous demandez de faire confiance à des algorithmes. Il s’agit d’une mécanisation qui pose problème et qui conduit à s’interroger sur le progrès politique que vous prétendez accomplir.
La parole est à Mme Danièle Obono. L’argumentation de la rapporteure et du secrétaire d’État contient une contradiction puisqu’ils reconnaissent qu’existe déjà un encadrement législatif, avec ses limites et ses faiblesses, et qu’ils prévoient, tout en donnant plus de prérogatives aux plateformes, de le complexifier en espérant ainsi résoudre le problème… Mais ils ne se posent pas la question de savoir pourquoi une partie de la législation ne peut pas s’appliquer. Est-ce parce que la définition du délit n’est pas assez précise, ce qui revient à mettre en cause le travail du juge, ou est-ce parce que les moyens donnés à la justice ne sont pas suffisants pour permettre, par exemple, aux personnes qui voudraient contester un retrait abusif par les plateformes – retrait déjà possible aujourd’hui – de le faire par la voie du référé, sachant qu’il faut disposer de certains moyens financiers pour payer les frais de procédure et rémunérer un avocat et de certaines compétences pour mener à bien tout un ensemble de démarches, moyens dont n’importe quel quidam ne dispose pas ? Comment comptez-vous donc résoudre ce problème de moyens ? Faut-il, comme vous le souhaitez, donner plus de pouvoirs aux plateformes afin qu’elles puissent pratiquer plus de retraits abusifs, ou bien faut-il donner les moyens à la justice de faire son travail et surtout aux justiciables d’avoir recours à la justice ? C’est sur la réponse que vous apportez que nous divergeons.
Par ailleurs, monsieur le secrétaire d’État, les conditions générales d’utilisation relèvent certes de l’initiative des plateformes, mais peuvent elles aussi constituer un motif de contestation du fait même qu’elles sont un contrat entre les parties, autre source de contentieux.
En réalité, le Gouvernement et la majorité passent encore une fois à côté de l’essentiel : il s’agit avant tout de donner des moyens à la justice.
La parole est à M. Guillaume Larrivé. Pour qui se souvient de ce qu’étaient autrefois les débats devant la 17e chambre du tribunal de grande instance de Paris, les débats sur la liberté d’expression étaient des plus ciselés, de la vraie dentelle, nourris qu’ils étaient à la fois du contradictoire et de la collégialité, et l’Autorité Judiciaire – avec un grand « A » et un grand « J » – prenait le temps nécessaire avant de décider de censurer au fond, ou pas, de réprimer pénalement, ou pas, un propos ou un écrit susceptible de contrevenir à nos règles d’ordre public et d’excéder la liberté d’expression. C’était fondamentalement, de 1881 aux années Macron, l’état du droit. C’est toujours le cas. Même si vous le démentez, vous introduisez ici une véritable privatisation de la censure… N’importe quoi ! …en modifiant considérablement le dispositif de la loi de 2004. J’entends bien qu’il n’était pas parfait et qu’il impliquait déjà une appréciation du contenu par les réseaux sociaux, mais il n’encadrait pas la procédure de retrait dans un délai de vingt-quatre heures et ne la cadenassait pas dans un processus pénal. On a donc un vrai désaccord.
Et je crains, monsieur le secrétaire d’État, que vous ne preniez nos arguments un peu à la légère en vous référant à des dispositions complètement inopérantes, en évoquant la loi anti-casseurs qui n’a, pardon de vous le dire, aucun rapport avec la choucroute. Le débat porte sur l’article 1er de ce texte, pas sur ce que nous avons dit ou non sur d’autres sujets qui n’ont rien à voir.
Je vous invitais à faire preuve de cohérence. Je pense tout de même que le fait que s’expriment des inquiétudes sur des bancs aussi divers, et ce n’est pas banal, que ceux du groupe La France insoumise, que ceux où se trouvent les députés membres du Rassemblement national, ou que ceux des groupes Mouvement Démocrate et apparentés – MODEM – (Exclamations sur plusieurs bancs du groupe MODEM) ,… Comment ça ? Pas le MODEM ! Il faut vous calmer, cher collègue ! …UDI-Agir et Les Républicains, sans compter certaines consciences du groupe LaREM – qui ne s’expriment pas car elles sont « tenues » mais qui n’en pensent pas moins –, devrait susciter dans l’esprit des députés macronistes et du membre du Gouvernement le petit début d’un léger doute. Il a raison ! La parole est à M. Philippe Latombe. Je vais réagir à ce qui vient d’être dit à l’instant en précisant deux points importants. Le premier, c’est que ce n’est pas le groupe MODEM qui s’oppose à ce texte, qu’il soutient, mais moi, à titre personnel. Le second a été évoqué par vous, monsieur le secrétaire d’État, quand vous avez pointé une certaine incohérence des sénateurs. Je partage votre point de vue selon lequel il y a eu très certainement, en partie tout au moins, une posture politicienne dans leur prise de position, je pense à l’amendement Retailleau, arrivé en séance, visant à rendre possible la suppression de comptes d’utilisateurs après plusieurs signalements concordants. C’était en effet une grosse erreur et nous avons quasiment tous voté la suppression en commission du nouvel alinéa qu’il introduisait.
En revanche, là où vous ne voyez qu’une posture politicienne, j’ai noté, pour en avoir discuté avec des sénateurs, même au sein du groupe Les Républicains, une vraie volonté de travailler sur ce texte.
Vous avez raison ! La commission des lois du Sénat s’y est attelée en ayant une vision différente de la vôtre. Ce n’était pas alors une posture politicienne mais bien une vision qui leur était propre et que certains partagent ici qui estiment que la rédaction finalement proposée ne permettra pas d’atteindre l’objectif poursuivi. Mais autant je peux partager votre point de vue sur l’amendement Retailleau, autant je ne suis pas d’accord avec votre analyse sur le reste. Je ne vais pas épiloguer – je pense que vous avez envie que l’article 1er soit voté tel quel et ce sera très certainement le cas. Je n’en déposerai pas moins des amendements destinés à le rééquilibrer tout de même encore un peu. C’est seulement dans cette perspective que je voterai les amendements de mes collègues. La parole est à Mme Caroline Abadie. Les opposants à ce texte pourraient aussi avoir au moins un tout petit doute parce que, en première lecture, des députés de tous les bancs l’ont voté, y compris ceux présents ce soir. Non ! Il y a aussi des députés de tous les bancs qui ont voté différemment ! Je vous ai retourné l’argument : balle au centre. (Sourires et mouvements divers.) Après ce petit point d’histoire sur ce qui s’est passé il y a six mois dans cet hémicycle, je rappelle aussi qu’il ne s’agit pas de donner aux plateformes un pouvoir supplémentaire puisqu’elles l’ont déjà. Ainsi, elles peuvent aujourd’hui supprimer le mot « rouge » des contenus si elles le souhaitent et personne ne pourra rien leur dire. En revanche, le texte leur impose un devoir, comme notre collègue George Pau-Langevin l’a très bien rappelé, celui de faire respecter sur internet la loi de 1881. Cela ne signifie pas que les auteurs ne seront plus responsables de leurs propos, ils le demeureront, mais que si ces derniers sont manifestement illicites au regard de la future loi, les plateformes devront les retirer. C’est bien la raison pour laquelle je n’arrive pas à comprendre pourquoi on parle de contenus gris : certains criant déjà au scandale quand on évoque des contenus manifestement illicites, imaginons ce qu’il en serait si l’on touchait ce soir aux contenus gris ! (Exclamations sur les bancs du groupe FI et sur plusieurs bancs du groupe LR.) Le texte ne concerne pas le contenu gris… Bien sûr que si ! …et il est question de « message manifestement illicite » quand il n’y a aucun doute. Et cela, le juge pourra… (Mme Obono continue de s’exclamer.) J’ai comme un écho dans l’oreille, excusez-moi, madame Obono. Vous ne vous êtes pas gênée pour intervenir quand je parlais et moi aussi j’avais un écho dans l’oreille ! Le juge, disais-je, pourra tout à fait intervenir en référé pour ordonner la remise en ligne du contenu litigieux puisque nous avons réintroduit cette disposition dans l’article 1er. (Applaudissements sur quelques bancs du groupe LaREM.) C’est la meilleure avocate du vote contre cette loi ! La parole est à Mme la rapporteure. Si Mme Abadie commence à me chercher… (Protestations sur les bancs du groupe LaREM.) Madame Obono, écoutons la rapporteure. Je reviens très rapidement sur trois points et je commencerai par le traitement algorithmique. Un amendement adopté par notre collègue Philippe Dunoyer en première lecture garantit que la modération s’effectuera toujours par une conjugaison de moyens humains et technologiques alors qu’aujourd’hui existe une modération 100 % algorithmique. L’Assemblée nationale a donc apporté des éléments de précision et de protection en la matière. Ce n’est pas vrai ! Ensuite, en ce qui concerne les moyens de la justice, imaginons que nous les ayons multipliés par cent dans le cadre de la réforme de la justice – dont j’ai été, vous vous en souvenez, la rapporteure –, pour les consacrer entièrement à la gestion des contenus haineux sur internet… Aurait-on pour autant résolu les problèmes ? Non. Ce n’est pas le sujet ! Pour information, le rapport de transparence de YouTube indique que la plateforme a supprimé, de juillet à septembre 2019, plus de huit millions de vidéos. J’ai bien dit huit millions de vidéos… Une plus petite plateforme, telle que Jeuxvideo.com, supprime tout de même 2 500 messages par jour. On pourrait multiplier le budget de la justice par 1 000, par 10 000 ou davantage encore qu’on ne parviendrait pas à avoir un juge derrière chaque contenu. Personne ne le propose ! Vous lancez un faux débat ! Madame Obono, nous vous avons écoutée ; c’est maintenant au tour de la rapporteure. Dernier point : les contenus gris. J’assume pleinement le fait de ne m’intéresser ici qu’à un sujet : les contenus manifestement illicites. On sait bien que ce texte ne réglera pas tout le problème, mais si l’on arrive déjà à supprimer ces contenus, internet sera un peu plus sain. Je viens de faire un exercice très simple sur Twitter que chacun de vous peut faire aussi. J’ai tapé les mots « sale noir » dans la barre de recherche. Qu’ai-je obtenu ? « Sale nègre, tu aimes les beurettes, hein ? Tu sais, les négresses sont moches. » Désolé, chers collègues, mais c’est tout de même un peu « manifestement illicite » ! Si cela peut disparaître, nous aurons fait notre job ! (Applaudissements sur les bancs du groupe LaREM. – M. Erwan Balanant applaudit également.) C’est déjà interdit par la loi ! Vous commettez un contresens absolu !
(Les amendements identiques nos 1, 55, 66 et 122 ne sont pas adoptés.) Nous sommes les défenseurs de la liberté ! Ce qu’il ne faut pas entendre ! Vous n’avez qu’à vous boucher les oreilles ! Vous étiez déjà aveugle, vous allez devenir sourd, mon cher collègue ! C’est l’hôpital qui se moque de la charité ! Comme si vos propos, monsieur Aubert, relevaient de la liberté ! Je suis saisi de deux amendements, nos 65 et 124, pouvant être soumis à une discussion commune.
La parole est à M. Guillaume Larrivé, pour soutenir l’amendement no 65.
Je me permets d’indiquer à notre excellent collègue Isaac-Sibille, particulièrement enjoué après le dîner, que si personne n’a le monopole de la liberté, nous essayons modestement d’apporter notre pierre au débat.
Madame la rapporteure, sachez que personne ici n’a envie que le contenu qu’elle a cité continue à prospérer sur internet.
Bravo ! Mais cela va de soi. Personne, sur aucun banc, n’est défavorable aux objectifs d’intérêt général que vous affichez. La question, et souffrez que nous ayons ce débat, est de savoir quelles sont les meilleures modalités juridiques pour atteindre ces objectifs. Et sans être péremptoire car je n’ai pas de certitude absolue, je soutiens que l’article 1er issu des travaux du Sénat est meilleur que le vôtre, et c’est l’objet de cet amendement que de rétablir sa rédaction de l’article 1er.
Enfin, monsieur le secrétaire d’État, si nous n’avions pas pris la mauvaise habitude, sous cette législature comme sous d’autres, de faire voter les textes selon la procédure dite accélérée, anciennement procédure d’urgence, sans doute pourrions-nous avoir des débats plus approfondis.
Exactement ! En procédure accélérée, vous vous contentez d’accepter ou de rejeter les amendements… Eh oui ! …et nous ne disposons pas des quelques semaines qui permettraient d’aboutir à une rédaction plus construite. Ce sera le cas lors de l’examen du projet de loi sur les retraites ! Nous ne sommes d’ailleurs pas les seuls à vous le dire : la Commission européenne, diverses instances consultatives et d’autres voix qui comptent dans le débat public vous le disent également. Souffrez donc que nous continuions à défendre ces amendements même si, comme vous, nous ne nous réjouissons pas de lire sur les réseaux sociaux des contenus qui insultent manifestement la dignité humaine. La parole est à Mme Frédérique Dumas, pour soutenir l’amendement no 124. Puisqu’il a été question de cohérence, permettez-moi d’en parler car je crois en avoir fait preuve… C’est vrai ! …non seulement à l’occasion de l’examen du projet de loi visant à renforcer et garantir le maintien de l’ordre public lors des manifestations, dite loi anti-casseurs, dont l’article 3 a été censuré par le Conseil constitutionnel parce qu’une fois de plus, vous entendiez faire passer l’autorité administrative avant le juge, mais aussi parce que je n’ai pas voté en faveur du présent texte en première lecture. Enfin, je ne propose pas de supprimer l’article 1er mais de le réécrire. Lorsqu’on invoque la cohérence, encore faut-il être exemplaire.
Vous affirmez respecter un équilibre – la ligne de crête – entre la liberté d’expression et la sécurité publique. Que vous en ayez l’intention, soit, mais le problème tient au fait que vous excluez tout autre chemin. La fameuse zone grise, par exemple, me semble donner lieu à un véritable déni intellectuel et psychologique. Je vous crois sincères lorsque vous dites ne pas viser la zone grise mais celle-ci, par essence, ne saurait être « visée » ou non puisqu’elle présente un problème d’interprétation. Or vous confiez ce pouvoir d’interprétation – qui devrait revenir au juge – à des plateformes privées, d’où la privatisation de la décision de retrait.
Outre la privatisation de l’interprétation, il existe un risque de censure. Pourquoi ? Parce que vous associez l’obligation de résultat figurant à l’article 1er avec la sanction du retrait excessif. Il va de soi qu’ainsi pris en étau on court un risque de censure car le retrait excessif n’est pas du tout sanctionné de la même manière.
En tout état de cause, ce dispositif n’est pas efficace et portera atteinte soit à la liberté d’expression, soit à la sécurité des personnes. Nous proposons quant à nous de réécrire l’article de manière plus claire et plus cohérente en rétablissant peu ou prou la rédaction adoptée par le Sénat tout en maintenant le rappel à la compétence du juge.
Quel est l’avis de la commission ? Ces amendements maintiennent le statu quo ; avis défavorable. Quel est l’avis du Gouvernement ? Même avis. La parole est à Mme Danièle Obono. Les exemples que cite la rapporteure confirment certains des propos tenus ici. Je partage rarement les idées des membres du groupe Les Républicains mais, en effet, si nous n’avions pas dû débattre suivant la procédure accélérée, peut-être aurions-nous pu explorer plus à fond le cas des recherches effectuées par mot-clé dans les moteurs de recherche. Quel est l’enjeu ? Les résultats que vous citez ont en grande partie pour origine des algorithmes et les associations auxquelles ils procèdent. Or votre texte ne prévoit strictement aucun outil tel que ceux que nous proposons – preuve qu’il existe des solutions alternatives – afin d’assurer une forme de transparence des algorithmes. Leur utilité s’est d’ailleurs vérifiée au cours du débat, puisque les associations indignes que j’avais citées ont été rectifiées.
Par l’exemple que vous donnez, vous prouvez qu’il existe une autre manière d’intervenir face à ces contenus, notamment lorsque les résultats d’une recherche par moteur produisent des associations tout à fait indignes. Pourtant, vous avez refusé cette méthode alternative comme vous avez refusé d’aller au bout du débat en posant la question structurelle de la viralité de certains contenus, qui sont à la source même d’internet. Au fond, l’exemple que vous citez est particulièrement emblématique de votre courte vue sur le sujet !
La parole est à Mme Emmanuelle Ménard. Une fois n’est pas coutume, je suis d’accord avec Mme Obono. (Rumeurs ironiques.) Cela vous arrive de plus en plus souvent ! Non, pas très souvent, mais lorsqu’un argument est intelligent, je ne vois pas de raison de m’y opposer. Vous êtes bien d’accord avec Macron, cher collègue ! En effet, madame la rapporteure, le résultat de la recherche que vous avez effectuée vous a été fourni par des algorithmes. C’est bien ce que nous dénonçons ! Vous nous dites que huit millions de vidéos ont été retirées sur YouTube : elles l’ont été par des algorithmes ! Revenons à l’exemple que vous venez de citer : quelqu’un, nous dites-vous, aurait publié un commentaire déclarant en substance – je n’ai plus les termes exacts en tête – que les Noirs sont moches. Chacun convient que ce commentaire est complètement stupide. Toutefois, si la justice et, a fortiori, la Cour européenne des droits de l’homme – la CEDH – s’en saisissent, je vous fiche mon billet qu’il ne sera pas jugé illicite en raison de son caractère général. Encore une fois, c’est un commentaire complètement débile, mais il ne s’agit pas d’une attaque ad hominem. Non, mais c’est une attaque contre un groupe de personnes qui tombe sous le coup de la loi ! Ce que vous dites est tout simplement horrible ! Non, ce n’est pas une attaque contre une personne et la CEDH ne le jugera pas illicite. Vous le voyez, il existe donc d’emblée une différence d’interprétation. Cela vous fait peut-être rire… Non, je ne ris pas ; je suis sidérée ! Eh bien, réagissez ! Et consultez la jurisprudence de la CEDH – je vous la ferai passer – puisque vous et votre majorité n’avez que le mot « Europe » à la bouche.
(Les amendements nos 65 et 124, successivement mis aux voix, ne sont pas adoptés.) La parole est à M. le secrétaire d’État, pour soutenir l’amendement no 161. Cet amendement vise à mettre le présent texte, qui prévoit l’obligation de retrait dans les vingt-quatre heures sur notification des usagers, en cohérence avec l’obligation préexistante de retrait après notification par les autorités publiques concernant les contenus terroristes, dont le délai est abaissé à une heure.
Cette modification est conforme à l’ambition politique à l’œuvre depuis l’appel de Christchurch du 15 mai 2019 qui vise à contenir la viralité d’images obscènes et violentes, dont le caractère illicite est manifeste. Elle s’inscrit également dans le prolongement des discussions européennes, dans le cadre desquelles la France défend le principe d’une réaction immédiate des opérateurs afin de veiller à ce que la communication sur les attentats terroristes n’augmente pas l’écho donné aux contenus terroristes.
En clair, il s’agit de préciser que le retrait de contenus terroristes, prévu dans les vingt-quatre heures en cas de notification des usagers, serait ramené à une heure sur notification des autorités publiques aux plateformes.
On n’y comprend rien ! Lui-même semble perdu ! En outre, lors du débat relatif à la loi Avia, la Commission européenne nous a demandé de préciser l’articulation entre les règles applicables aux notifications par les usagers et celles qui relèvent d’une notification par les autorités publiques. Tel est l’objet de cet amendement. Quel est l’avis de la commission ? Cet amendement présente l’intérêt d’instaurer une gradation dans le traitement des contenus, conformément à ce que j’ai entendu au cours de notre débat dans l’hémicycle, certains contenus plus graves, en particulier les contenus terroristes, nécessitant une attention plus aiguë, notamment de la part des plateformes. Il permet également d’instaurer une gradation entre les contenus signalés par un utilisateur lambda et les contenus signalés par l’autorité administrative compétente, la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements – PHAROS.
Grâce à cette mesure, on peut espérer que les contenus à caractère terroriste identifiés par PHAROS et signalés aux plateformes étant promptement retirés, il n’y ait plus de cas de tels contenus à retirer dans les vingt-quatre heures parce qu’ils auraient été signalés par des usagers. Nous resserrerons ainsi l’étau sur ces contenus qui exigent une vigilance particulière. Avis favorable.
La parole est à M. Philippe Latombe. Sur le fond, j’approuve l’amendement mais sur la forme, je regrette, monsieur le secrétaire d’État, que nous n’ayons pas été saisis de cet amendement en commission des lois et qu’il arrive aujourd’hui, en nouvelle lecture – alors même que vous avez déjà évoqué ce sujet au Sénat et que nous aurions pu en débattre en commission. Le MODEM se rebelle ! Je le dis d’autant plus que vous étendez la mesure demandée par la Commission européenne au-delà des contenus terroristes pour englober les contenus à caractère pédopornographique. Sur le plan légistique, j’aurais préféré que nous puissions en débattre sereinement en commission des lois, et que nous ne soyons pas saisis de l’amendement en nouvelle lecture, le jour même de l’examen en séance. Il a raison ! La parole est à M. Guillaume Larrivé. Je vous prie de croire, monsieur le secrétaire d’État, que mon argumentation n’est pas de circonstance. Voilà quinze ans que je travaille, dans de modestes fonctions exécutives et dans des fonctions législatives, sur des textes relatifs à la lutte antiterroriste. J’aurais aimé pouvoir voter une mesure telle que celle que vous venez de proposer. Néanmoins, j’ai un regret lié à la procédure – car ainsi fonctionne le Parlement – qui nous empêche de fabriquer un bon texte. Selon moi, dans un bon texte, votre amendement n’aurait pas été greffé sur l’article 1er mais aurait fait l’objet d’un article autonome. J’admets parfaitement qu’aux seules fins de la lutte antiterroriste, on impose un dispositif ad hoc ultra-contraignant assorti d’un délai extrêmement court d’une heure – à condition qu’il cible exclusivement la lutte antiterroriste.
Je ne pourrai pourtant pas voter en faveur de votre amendement, non seulement, comme l’indiquait M. Latombe, parce qu’il nous est présenté de manière improvisée et qu’on prend le Parlement par-dessus la jambe – sans doute l’amendement nous est-il balancé ainsi à la suite d’une réunion interministérielle, empêchant tout travail en commission un tant soit peu sérieux. De ce fait, nous ne pouvons parvenir à une rédaction consensuelle. Encore une fois, j’aurais accepté votre amendement s’il avait figuré dans un article autonome. En l’état, je ne peux pas le voter car, ce faisant, je me rattacherai à l’ensemble du dispositif de l’article 1er, que je ne peux pas accepter par ailleurs.
Sur les questions antiterroristes, les gouvernements socialistes de la précédente législature avaient su bâtir un consensus avec Les Républicains. Avec Éric Ciotti, j’ai passé des heures au cabinet de Manuel Valls et à celui de Bernard Cazeneuve pour élaborer des dispositions qui faisaient consensus à l’Assemblée. Je regrette que la nouvelle méthode de M. Macron ne permette pas d’aboutir à de tels consensus d’intérêt général en matière de lutte antiterroriste.
La parole est à M. Frédéric Reiss. Comme M. Latombe et comme je l’ai dit lors de la discussion générale, je regrette le recours à la procédure accélérée pour ce texte. En effet, l’amendement qui nous est présenté pourrait faire consensus car il a beaucoup de sens. Le problème d’un contenu haineux répréhensible tient surtout à sa viralité, qui est le véritable danger et que l’amendement permettrait d’enrayer. Très bien ! La parole est à Mme Frédérique Dumas. J’irai dans le même sens que mes collègues : cet amendement très important nous est présenté au dernier moment, alors que son importance aurait justifié qu’il arrive plus tôt. D’autre part, pourquoi ne fait-il pas l’objet d’un article séparé ? Vous qui recherchez un accord transpartisan et consensuel, vous savez bien qu’un article distinct l’aurait permis. En l’insérant dans l’article premier comme vous le faites, vous piégez en fait ceux qui ne sont pas d’accord avec ledit article.
Par ailleurs, je ne comprends pas pourquoi, avec cet amendement, vous tenez compte, monsieur le secrétaire d’État, du fait que l’interprétation des contenus – vous l’avez très bien dit, madame la rapporteure – ne sera pas laissée aux plateformes, ni à quiconque. C’est bien leur interprétation par la plateforme PHAROS qui permettra de les signaler.
Non ! C’est bien un signalement par la plateforme PHAROS qui permettra de justifier la gravité du contenu, en procédant à une interprétation en amont. Ainsi, dans cet amendement, vous respectez l’équilibre de l’interprétation ; or tel n’est pas le cas dans les autres.
(L’amendement no 161 est adopté.) La parole est à Mme Emmanuelle Ménard, pour soutenir l’amendement no 70. Lutter contre la haine sur internet uniquement en fonction du seuil d’activité de quelques plateformes me semble une gageure assez risquée. Il est difficile de comprendre la logique d’une telle précision, qui reviendrait à considérer qu’insulter quelqu’un sur Facebook, par exemple, serait plus grave que le faire sur une autre plateforme, ou sur un site internet dont la fréquentation serait en deçà de ces seuils. En outre, ceux-ci seront fixés par décret. Par définition, nous ne les connaissons pas encore. Tout cela ne me semble pas souhaitable. Quel est l’avis de la commission ? Avis défavorable. La question des seuils est importante, précisément parce qu’il s’agit d’un dispositif exigeant, qui suppose des moyens significatifs, sans pour autant encourager, pour les plateformes, des situations d’oligopole. L’objectif est véritablement de faire preuve d’exigence vis-à-vis de celles dont l’audience est massive, et d’atteindre ce niveau d’exigence pour les nouvelles plateformes lorsqu’elles atteignent un certain seuil d’activité.
(L’amendement no 70, repoussé par le Gouvernement, n’est pas adopté.) La parole est à Mme Laure de La Raudière, pour soutenir l’amendement no 95. J’aimerais que le décret fixant les seuils d’activité soit pris en Conseil d’État. En effet, nous allons fixer des seuils en matière de nombre de connexions et d’adhérents aux plateformes, au-delà desquels ces dernières subiront les contraintes prévues par la présente proposition de loi, ce qui leur permettra de décider du caractère licite ou non des contenus qu’elles publient, et de les supprimer le cas échéant. J’estime que le Conseil d’État, qui est le juge administratif par excellence, devrait au moins être consulté sur le niveau de ces seuils.
Par ailleurs, nous avons sur ce point un raisonnement bien métropolitain. Nous allons fixer pour tout le territoire français un seuil d’activité unique, évalué à l’aune de la métropole. Je rappelle qu’il existe dans les territoires d’outre-mer des plateformes locales, dont l’effet sur les populations est bien supérieur à celui de Twitter ou de Facebook. Or leur activité sera certainement sous le seuil précité. Sur ce point, le texte n’est donc pas très bien rédigé.
En tout état de cause, il semble normal et justifié que le décret fixant les seuils d’activité soit, j’y insiste, pris en Conseil d’État.
Quel est l’avis de la commission ? L’avis de la commission est défavorable, pour deux raisons. Tout d’abord, il y va de la cohérence de la proposition de loi avec d’autres textes que nous avons adoptés, notamment la loi relative à la lutte contre les fausses informations, qui ne prévoit pas que les seuils d’activité sont fixés en Conseil d’État. Par ailleurs, s’agissant des seuils territoriaux, nous avons remplacé, lors de la première lecture du texte, le singulier par le pluriel, afin de pouvoir faire preuve d’agilité et de pouvoir traiter certaines situations susceptibles de se produire de façon pertinente. Justement ! Quel est l’avis du Gouvernement ? En ce qui concerne les seuils d’activité, je ne reviens pas sur l’argumentaire de la rapporteure, fondé sur le remplacement du singulier par le pluriel lors de la première lecture du texte. Très bonne évolution ! De mémoire, cette modification a été adoptée à l’issue d’un débat sur les problèmes spécifiques des plateformes actives en outre-mer.
Pour ce qui est de la nature du décret – décret simple ou décret en Conseil d’État –, nous souhaitons que la fixation des seuils puisse évoluer de façon souple. Or le pouvoir réglementaire a déjà pris des décrets pour fixer des seuils applicables aux plateformes, notamment en matière de protection des consommateurs, sans que nul n’exige l’avis du Conseil d’État.
Cette réponse n’est pas satisfaisante ! Par conséquent, il n’apparaît pas forcément opportun que le décret précité soit soumis à un avis obligatoire du Conseil d’État. En tout état de cause, cela ne privera pas les acteurs concernés de la possibilité de contester cet acte réglementaire dans les conditions de droit commun. Madame de la Raudière, je vous invite à retirer votre amendement, et émettrai à défaut un avis défavorable.
(L’amendement no 95 n’est pas adopté.) Les amendements nos 54 et 43 peuvent être soumis à une discussion commune.
La parole est à Mme Blandine Brocard, pour soutenir l’amendement no 54.
De toute évidence, nous sommes tous d’accord sur la définition de la maladie. En revanche, nous ne sommes pas d’accord sur les remèdes à y apporter. Nous voulons tous limiter l’exposition des internautes aux contenus haineux. J’en veux pour preuve que nous limitons l’effet des mesures prévues par le texte aux contenus publiés sur les plateformes les plus importantes.
Or ce qui provoque l’exposition à un contenu donné n’est pas sa simple publication. Un contenu publié sur Twitter ou Facebook n’a pas en lui-même plus d’audience qu’un propos haineux publié sur un site n’ayant que quelques centaines de visiteurs. Le véritable danger, nous en sommes d’accord, c’est la viralité des contenus. Les outils viraux, en offrant des possibilités de partage du contenu et d’interaction, en diffusant celui-ci au-delà de l’auditoire naturel de son auteur, créent la surmultiplication de l’exposition.
Le vrai problème que nous voulons traiter, en fin de compte, c’est sa diffusion à grande échelle. Chacun sait pertinemment qu’un contenu peut faire trois fois le tour de la Terre en vingt-quatre heures, et infecter les mobiles des élèves d’un lycée en une heure à peine. Monsieur le secrétaire d’État, vous avez vous-même rappelé tout à l’heure les 1,5 million de vues, en vingt-quatre heures, de la tuerie de Christchurch, ajoutant qu’il était nécessaire de proposer une solution alternative.
Dès lors, je me permets de vous proposer un mécanisme simple, respectueux de la liberté d’expression à laquelle nous sommes tous attachés. Un contenu signalé par un utilisateur identifiable devra être examiné sous vingt-quatre heures ; en attendant son examen, la plateforme devra désactiver les mécanismes permettant de le rendre viral. Si elle estime le contenu contraire à la loi, elle alerte le juge, qui prend éventuellement une décision de suppression. Si elle le juge licite, elle informe l’auteur du signalement de sa possibilité de saisir le juge, et l’auteur du contenu de son droit de poursuivre en justice l’auteur du signalement abusif.
Certains objecteront qu’une telle disposition risque d’empêcher un tweet licite d’être diffusé immédiatement à grande échelle. Je réponds par la question suivante : croyez-vous vraiment, alors même qu’on sait la peine encourue pour signalement abusif, que de nombreux internautes cliqueront sur le bouton « signaler » sans raison valable ?
Quant à l’amendement du Gouvernement que nous venons d’adopter, il démontre bien que, dès lors qu’on laisse un contenu se propager pendant vingt-quatre heures, le mal est fait. Grâce à son adoption, nous avons raccourci les délais d’intervention pour les contenus terroristes et pédopornographiques. Monsieur le secrétaire d’État, je vous demande si une injure raciste ou homophobe ne mérite pas également que l’on restreigne rapidement sa diffusion.
La parole est à M. Philippe Latombe, pour soutenir l’amendement no 43. Je défendrai simultanément les amendements nos 43 et 44. En effet, ils forment un tout, mais la légistique impose de les examiner séparément, dès lors que le premier porte sur l’alinéa 2, et que le second vise à insérer un alinéa après celui-ci.
Tous deux visent – comme celui présenté à l’instant par notre collègue Brocard – à proposer une solution alternative. Nous les avons élaborés avec les associations opposées à votre texte, madame la rapporteure, en tâchant de rédiger des amendements de repli. Nous avons repris la rédaction proposée par le Conseil national des barreaux, car elle constitue une solution intéressante, que j’aimerais verser au débat.
Elle consiste à retirer le contenu visé, non pas définitivement mais provisoirement – tel est l’objet de l’amendement no 43. L’amendement no 44 prévoit pour sa part que la plateforme ayant provisoirement supprimé le contenu visé saisit le juge des référés pour qu’il puisse statuer, ce qui permet d’échapper au reproche qui vous est adressé sur plusieurs bancs et hors de cette enceinte, madame la rapporteure, selon lequel le juge n’est plus dans la boucle.
Adopter l’un de ces amendements de repli permettrait de parvenir à une position peut-être plus acceptable sur tous les bancs et au-delà.
Quel est l’avis de la commission ? Mes chers collègues, je suis au regret de vous dire que vos propositions sont inopérantes, l’une comme l’autre.
En ce qui concerne celle que vient de défendre notre collègue Philippe Latombe, si chaque contenu retiré faisait l’objet d’une saisine du juge, nous nous trouverions dans la situation que j’évoquais tout à l’heure – huit millions de vidéos supprimées par YouTube en trois mois et 2 500 contenus supprimés par jeuxvidéo.com par jour : c’est tout bonnement impossible !
Le dispositif proposé par Blandine Brocard est également inopérant. Il repose sur le présupposé selon lequel l’examen d’un contenu a lieu en deux temps, ce qui n’est pas le cas dans un système de modération. Il n’y a pas d’abord un signalement et un traitement du contenu, ensuite la décision de le retirer ou non. Une fois que le contenu passe dans le viseur de la modération, celle-ci a lieu dans un délai de vingt-quatre heures, mais pas en deux temps.
Surtout, la mesure proposée est attentatoire à la liberté d’expression des nombreuses personnes qui ne profèrent pas de contenus haineux. Pour un contenu licite donné, le seul fait de le signaler permettrait d’empêcher son partage, son retweet, sa rediffusion. Or le partage de contenu sur internet est constitutif de la liberté d’expression, à laquelle on ne peut porter atteinte que de façon proportionnée, en présence d’infractions prévues par la loi du 29 juillet 1881, et non de façon préventive et généralisée, ce qui serait inconstitutionnel.
Quel est l’avis du Gouvernement ? Même avis. La parole est à Mme Blandine Brocard. En ce qui concerne le dernier point évoqué par Mme le rapporteur et cette fameuse liberté d’expression, j’avais pris soin de mentionner que personne ne s’amusera – compte tenu des peines encourues – à signaler de façon abusive des tweets ou des publications. Pour moi, il ne s’agit vraiment pas d’un argument.
Par ailleurs, la question de fond – soit dit pour élever un peu le débat – est de savoir s’il est absolument nécessaire que tout contenu soit publié et retweeté en vingt-quatre heures ? Ne pouvons-nous pas accepter d’attendre un peu, et d’ainsi assainir la sphère des réseaux sociaux ?
La parole est à M. Julien Aubert. Je soutiens l’amendement de notre collègue Brocard qui, fondamentalement, respecte la liberté d’expression. Je conteste l’argument selon lequel le retweet fait partie intégrante de la liberté d’expression.
Je serais ravi que nous ayons une forme de débat juridique pour le savoir, et peut-être ne suis-je pas au fait de toutes les décisions du Conseil constitutionnel, mais je conteste le fait que partager un propos sur internet fasse partie intégrante de la liberté d’expression. Ce que je souhaite préserver, c’est la possibilité de dire ce que l’on souhaite sur les plateformes.
S’attaquer à la viralité permet de régler en partie le problème du nombre. Quand Mme Avia évoque des millions de vidéos, ce sont souvent une même vidéo partagée des millions de fois. Ce n’est pas parce que l’on désactive automatiquement sa diffusion – ce qui au demeurant ne constitue pas une double modération – qu’on porte atteinte à la liberté d’expression.
En lisant votre amendement, chère collègue Brocard, j’imagine la situation suivante : je poste un contenu sur internet, et, si quelqu’un le juge manifestement illicite et le signale, la plateforme bloque automatiquement sa diffusion. On peut toujours me lire, ma liberté d’expression est donc intacte ; en revanche, on ne peut plus partager mes propos, ce qui permet d’éviter l’incendie.
Exactement ! S’il s’agit d’une vidéo ou d’un propos injurieux, on évite qu’un million de personnes en prennent connaissance, ce qui permet de surcroît de régler en partie le problème de l’algorithme, car un énorme algorithme balayant des millions de messages n’est plus nécessaire, au profit d’une modération peut-être plus précise.
Cette disposition me semble respectueuse de la liberté d’expression, et permet l’intervention du juge. Elle est proposée par quelqu’un qui n’est pas de ma famille politique, et me semble bien plus proche de l’objectif et bien mieux proportionnée que celle retenue par le texte, notamment parce qu’elle prévoit l’intervention d’un juge. De façon générale, il me semble nécessaire d’approfondir la distinction entre viralité des contenus et liberté d’expression.
La parole est à Mme Caroline Abadie. Avec cet amendement, la victime qui a reçu un message ou été l’objet d’un commentaire sous un post reste victime ; le fait que ce contenu ne soit pas partagé ne met pas fin à cet état de fait. Or l’objet de cette proposition de loi est aussi de protéger les victimes.
Je comprends bien l’idée qu’avec un retweet ou un partage, il y aurait plus de vues. Mais il y a des journalistes, ou des gens en général, qui ont énormément de followers, et qui peuvent lancer des insultes. On peut alors se sentir victime dès la première vue.
Cet amendement ne répond pas à l’attente des victimes, qui veulent un retrait. Je rappelle par ailleurs que le juge intervient en cas de recours.
Le groupe La République en marche votera contre ces amendements.
La parole est à Mme la rapporteure. J’avais oublié le troisième point de mon argumentation… Dans le cadre de l’article 4, nous prévoyons différentes mesures pour limiter la viralité. C’est une régulation administrative : le CSA encourage notamment les plateformes à mettre en œuvre « des dispositifs techniques proportionnés facilitant, dans l’attente du traitement de la notification d’un contenu signalé comme illicite, la désactivation ou la limitation temporaire des fonctionnalités qui permettent de multiplier ou d’accélérer l’exposition du public à ce contenu, et notamment les possibilités de partage, d’interaction ou d’envoi de messages liés à ce contenu ». Il n’y a donc pas d’automaticité, mais un travail au plus près des besoins, comme il se doit pour une obligation de moyens.
Non, nous ne mettons pas la question de la viralité de côté ; nous l’inscrivons à sa juste place.
(Les amendements nos 54 et 43, successivement mis aux voix, ne sont pas adoptés.) Sur l’amendement no 38, que nous examinerons un peu plus loin, je suis saisi par le groupe Les Républicains d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
On n’est jamais mieux servi que par soi-même ! (Sourires) Je suis saisi de deux amendements, nos 72 et 94, pouvant faire l’objet d’une discussion commune.
La parole est à Mme Emmanuelle Ménard, pour les soutenir.
Il s’agit d’amendements de repli.
L’amendement no 72 vise à préférer au délai de vingt-quatre heures, beaucoup trop court pour permettre aux plateformes d’apprécier convenablement les propos mis en cause, un « délai proportionné permettant d’apprécier le caractère haineux du propos jugé haineux ». Nous parlions tout à l’heure d’une zone grise ; j’ai bien compris que pour vous, madame la rapporteure, celle-ci n’était pas concernée par le texte. Mais elle le sera de facto, puisqu’elle ne peut pas être définie ! Si l’on comprend votre objectif de célérité, votre texte risque néanmoins de porter dangereusement atteinte au principe de liberté d’expression, qui est le socle même de notre démocratie.
J’ajoute que cet article prévoit la possibilité de recourir à un juge des référés, soit pour faire retirer un contenu jugé haineux mais qui ne l’aurait pas été par la plateforme qui accueille ce propos, soit, à l’inverse, pour se plaindre de ce que l’on considère comme une atteinte à sa liberté d’expression. Cette disposition me dérange : vous inversez l’ordre normal des choses. Avec vous, la règle, c’est la censure, et nous devrions être heureux de pouvoir recourir à un juge pour voir rétablir notre liberté d’expression. C’est sans compter les frais de justice que cela impliquera pour le particulier censuré. C’est là une raison supplémentaire pour juger hautement problématique cet article 1er – et à tout le moins pour laisser aux plateformes un délai raisonnable, afin qu’elles n’agissent pas à la hâte mais prennent le temps d’apprécier le caractère véritablement haineux d’un propos avant de le censurer.
Quant aux 8 millions de contenus retirés de YouTube que vous évoquiez, il va sans dire qu’il n’y aurait pas dans ce cadre 8 millions de procédures judiciaires, puisque seules les personnes qui auront l’impression d’avoir été censurées abusivement iront devant la justice.
Quant à l’amendement no 94, il porte le délai pour retirer un contenu de vingt-quatre à soixante-douze heures. Vingt-quatre heures, je le redis, c’est très insuffisant, car un tel délai implique l’utilisation d’algorithmes ; or, qui dit algorithme dit absence de nuances. Que se passera-t-il quand des propos se situent dans cette fameuse zone grise, que par définition on ne peut pas circonscrire ?
Je voudrais rappeler ici la jurisprudence constante de la Cour européenne des droits de l’homme en matière de liberté d’expression : « la liberté d’expression vaut non seulement pour les informations ou idées accueillies avec faveur ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’État ou une fraction quelconque de sa population ». Comment une plateforme privée, et pire encore un algorithme, pourront-ils juger si un propos qui heurte, qui choque, qui inquiète, reste néanmoins dans les limites acceptables de la liberté d’expression ? Il est impossible qu’il n’y ait pas d’erreur, et votre dispositif ne me paraît décidément pas souhaitable.
Quel est l’avis de la commission ? Avis défavorable. L’amendement no 72, c’est le maintien du statu quo.
Le délai de vingt-quatre heures ne sort pas du chapeau ! Nous nous appuyons sur des données connues, des résultats concrets ; c’est le délai qui figure dans le code de conduite européen comme dans les rapports de transparence transmis par quelques-unes des plateformes.
Quel est l’avis du Gouvernement ? Même avis.
(Les amendements nos 72 et 94, successivement mis aux voix, ne sont pas adoptés.)
(À vingt-deux heures cinquante, Mme Annie Genevard remplace M. Marc Le Fur au fauteuil de la présidence.) Présidence de Mme Annie Genevard
vice-présidente
La parole est à Mme Blandine Brocard, pour soutenir l’amendement no 37. Cet amendement a pour but de limiter l’obligation d’examen aux signalements effectués par des personnes qu’il serait possible d’identifier, afin d’écarter les signalements effectués par de faux comptes cachés derrière des adresses IP anonymes. Vous aviez vous-même exprimé vos réticences sur ce point, madame la rapporteure. En effet, sans cette précision, les plateformes devront examiner tous les signalements effectués par des utilisateurs ayant déclaré lors de leur inscription un nom, un prénom et une adresse électronique. Or il n’y a rien de plus simple, vous l’avez dit et les trolls le savent bien, que de créer un compte sur Twitter ou sur Facebook avec un mail anonyme en masquant son identité derrière un proxy.
Il suffit même d’utiliser le navigateur Opera qui propose à tous ses utilisateurs, sans aucune manipulation particulière, un proxy et des adresses anonymes suédoises !
Quel est l’avis de la commission ? Demande de retrait ou, à défaut, avis défavorable, car la proposition me paraît satisfaite. Le texte prévoit en effet que pour que la responsabilité des plateformes soit engagée par la notification, celle-ci doit répondre aux dispositions du 5 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dite LCEN – article que nous complétons d’ailleurs à la suite des observations de la Commission européenne, afin que tous les éléments qui permettent d’identifier le notifiant et donc d’engager la responsabilité de la plateforme soient bien présents. Je vous renvoie à l’article 1er ter A de la proposition de loi. Quel est l’avis du Gouvernement ? Même avis.
(L’amendement no 37 n’est pas adopté.) La parole est à M. Marc Le Fur, pour soutenir l’amendement no 38. Chacun ici en conviendra : il faut lutter contre toutes les formes de haine, quelles qu’en soient les victimes – il n’y a pas de victime qui mériterait moins d’attention que d’autres – et quelles qu’en soient les formes. Il n’y a pas de haine tolérable !
Or ce texte oublie certaines victimes potentielles de la haine sur internet, et notamment de la haine diffusée sur les réseaux sociaux. Je pense à celle, organisée, qui frappe certaines professions, en particulier le monde de l’agriculture et de l’élevage. On entend des mots terribles à l’égard de nos éleveurs : on parle de camps de concentration, de tortionnaires, de miradors… Ce sont là des propos très largement diffusés, et qu’il faut combattre !
En effet. Très bon exemple ! Absolument ! Ces propos sont horribles ! Oui, ils sont criminels ! Nous en serons tous d’accord. Je salue votre engagement sur ce texte, madame la rapporteure. Mais celui-ci doit intégrer ces haines-là ! Je vois ici ce soir nos collègues Berville, Kerlogot, Le Peih, Bothorel… qui, tous, connaissent bien ces préoccupations – très fortes, en particulier, dans notre région de Bretagne. Cette haine est d’autant plus injuste qu’elle frappe des gens qui font leur travail, qui respectent des normes très exigeantes ; or ils sont attaqués, et leurs enfants sont parfois attaqués, puisqu’ils observent cette diffusion sur internet. Très bien ! Je souhaite donc, et c’est la condition que je mets pour voter votre texte, madame la rapporteure, que ce type de haine contre certaines professions, et en particulier la profession agricole, soit clairement sanctionnable, et sanctionné. (Applaudissements sur les bancs du groupe LR, ainsi que sur plusieurs bancs du groupe LT et sur quelques bancs du groupe LaREM.) Excellent ! Très bien ! C’est ridicule ! Quel est l’avis de la commission ? Monsieur Le Fur, je suis, vous le savez, très sensible au sujet que vous évoquez ; je crois, comme vous, que nos agriculteurs ont besoin du soutien de la représentation nationale. Nous devons leur envoyer un message en ce sens.
Mais vous êtes un fin juriste, et je vous pose la question : la formulation de cet amendement est-elle adéquate ? Je crains que non. Il me semble important d’utiliser ce terme d’agribashing, comme vous le faites, pour faire prendre conscience à nos concitoyens qu’il existe une forme de discrimination à l’endroit de nos agriculteurs. Mais, pour traiter cette question, vous proposez d’inscrire dans le champ de la proposition de loi la diffamation envers les particuliers.
Or, si la diffamation n’est pas dans le champ du texte, c’est parce que celui-ci doit prévoir des mesures proportionnées et raisonnables – je l’entends depuis les débuts de nos débats. Nous demandons aux plateformes d’appliquer la loi, rien que la loi, pas plus que la loi. Leur demander d’apprécier le caractère diffamatoire d’un propos, ce serait leur confier des prérogatives exorbitantes : la diffamation ne peut en effet s’apprécier que dans son contexte.
Ce texte avance donc sur une ligne de crête. La diffamation n’est pas manifeste, et il est dès lors difficile d’intégrer à l’article 1er les agissements punis par l’article 32 de la loi du 29 juillet 1881. C’est pourquoi j’émets un avis défavorable.
Quel est l’avis du Gouvernement ? Même avis. La parole est à M. Julien Aubert. Plutôt que d’agribashing, je préférerais que l’on parle d’agri-dénigrement ou d’agri-stigmatisation. C’est mieux, c’est vrai ! J’entends bien l’argument juridique – et vous êtes sans doute fine juriste vous aussi, madame la rapporteure. Ce n’est pas une démagogue, elle ! Mais il me semble que notre collègue Marc Le Fur avait déjà proposé un tel amendement ; on aurait pu penser que, si vous étiez de bonne foi, vous auriez proposé, éventuellement avec M. le secrétaire d’État, un sous-amendement qui viserait le même objectif tout en contournant la difficulté que vous soulignez.
Nous aurions pu ainsi inscrire dans le texte que quelqu’un qui partage sur les réseaux sociaux des vidéos manifestement hostiles à la profession agricole ou qui se fait l’écho d’actes de haine ou d’intrusions violentes, bref quelqu’un qui incite la population à participer au dénigrement généralisé d’une profession, doit faire l’objet d’une suspension.
J’entends votre argument sur la diffamation ; mais rien ne nous oblige à emprunter ce sentier, certes périlleux. Je