Fabrication de la liasse

Amendement n°1770

Déposé le vendredi 15 janvier 2021
Discuté
Déposé par : Le Gouvernement

I. – La loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifiée :

1° Le quatrième alinéa du 7 du I de l’article 6 est ainsi modifié :

a) La première phrase est complétée par les mots et une phrase ainsi rédigés : « et rendre publics les moyens qu’elles consacrent à la lutte contre ces activités illicites. Ces obligations ne sont pas applicables aux opérateurs mentionnés au premier alinéa de l’article 6‑5 pour la lutte contre la diffusion des contenus mentionnés au même alinéa. » ;

b) Au début de la seconde phrase, le mot : « Elles » est remplacé par les mots : « Les personnes mentionnées aux 1 et 2 » ;

c) À la même seconde phrase, les mots : « , d’une part, » et les mots : « , et, d’autre part, de rendre publics les moyens qu’elles consacrent à la lutte contre ces activités illicites » sont supprimés.

2° Après l’article 6‑4, il est inséré un article 6‑5 ainsi rédigé : 

« Art. 6‑5. – Les opérateurs de plateformes en ligne définis à l’article L. 111‑7 du code de la consommation qui proposent un service de communication au public en ligne reposant sur le classement, le référencement ou le partage de contenus mis en ligne par des tiers et dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret, qu’ils soient ou non établis sur le territoire français, concourent à la lutte contre la diffusion publique des contenus contrevenant aux dispositions mentionnées au troisième alinéa du 7 du I de l’article 6 de la présente loi ainsi qu’à l’article 24 bis et aux troisième et quatrième alinéas de l’article 33 de la loi 29 juillet 1881 sur la liberté de la presse. À ce titre : 

« 1° Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :

« a) D’informer, dans les meilleurs délais, les autorités judiciaires ou administratives des actions qu’ils ont mises en œuvre à la suite des injonctions émises par ces dernières relatives aux contenus mentionnés au premier alinéa du présent article ;

« b) D’accuser réception sans délai des demandes des autorités judiciaires ou administratives tendant à la communication des données dont ils disposent de nature à permettre l’identification des utilisateurs qui ont mis en ligne des contenus mentionnés au premier alinéa, et d’informer ces autorités dans les meilleurs délais des suites données à ces demandes ;

« c) De conserver temporairement les contenus qui leur ont été signalés comme contraires aux dispositions mentionnées au premier alinéa et qu’ils ont retirés ou rendus inaccessibles, aux fins de les mettre à disposition de l’autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ; la durée et les modalités de conservation de ces contenus sont définies par décret en Conseil d’État, après avis de la Commission nationale de l’informatique et des libertés.

« 2° Ils désignent un point de contact unique chargé de la communication avec les autorités publiques pour la mise en œuvre des dispositions du présent article, auquel pourront notamment être adressées par voie électronique les demandes présentées par le Conseil supérieur de l’audiovisuel en application de l’article 62 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication ;

« 3° Ils mettent à la disposition du public, de façon facilement accessible, les conditions générales d’utilisation du service qu’ils proposent ; ils y intègrent des dispositions prévoyant l’interdiction de mettre en ligne les contenus mentionnés au même premier alinéa ; ils y décrivent en termes clairs et précis leur dispositif de modération visant à détecter, identifier et traiter ces contenus, en détaillant les procédures et les moyens humains ou automatisés employés à cet effet ainsi que les mesures qu’ils mettent en œuvre affectant la disponibilité, la visibilité et l’accessibilité de ces contenus ; ils y indiquent les mesures qu’ils mettent en œuvre à l’égard des utilisateurs qui ont mis en ligne ces contenus, ainsi que les recours internes et judiciaires dont disposent ces utilisateurs ;

« 4° Ils rendent compte au public des moyens mis en œuvre et des mesures adoptées pour lutter contre la diffusion des contenus mentionnés audit premier alinéa, par la publication, selon des modalités et une périodicité fixées par le Conseil supérieur de l’audiovisuel, d’informations et d’indicateurs chiffrés définis par celui-ci, portant notamment sur le traitement des notifications reçues et des recours internes des utilisateurs ainsi que, le cas échéant, les critères de sélection des tiers de confiance dont les notifications font l’objet d’un traitement prioritaire et les modalités de coopération avec ces tiers ;

« 5° Ils mettent en place un dispositif aisément accessible et facile d’utilisation permettant à toute personne de porter à leur connaissance, par voie électronique, un contenu qu’elle considère comme contraire aux dispositions mentionnées au premier alinéa, en lui permettant de préciser clairement son emplacement ainsi que les raisons pour lesquelles elle estime que ce contenu doit être considéré comme illégal et de fournir les informations permettant de la contacter, et en l’informant des sanctions encourues en cas de notification abusive ;

« 6° Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :

« a) D’accuser réception sans délai des notifications relatives aux contenus mentionnés au premier alinéa, sous réserve de disposer des informations nécessaires pour contacter leur auteur ;

« b) De garantir leur examen approprié dans un prompt délai ;

« c) D’informer leur auteur des suites qui y sont données ainsi que des voies de recours internes et judiciaires dont il dispose, sous réserve de disposer des informations nécessaires pour le contacter ;

« d) Lorsqu’ils décident de retirer ou de rendre inaccessible un contenu pour un motif tiré de la méconnaissance des dispositions mentionnées audit premier alinéa, d’en informer l’utilisateur à l’origine de sa publication, sous réserve de disposer des informations nécessaires pour le contacter :

« – en indiquant les raisons qui ont motivé cette décision ;

« – en précisant si cette décision a été prise au moyen d’un outil automatisé ;

« – en l’informant des voies de recours internes et judiciaires dont il dispose ;

« – et en l’informant que des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ;

« 7° Ils mettent en œuvre des dispositifs de recours interne permettant :

« a) À l’auteur d’une notification relative à un contenu mentionné au premier alinéa, de contester la décision adoptée par l’opérateur en réponse à cette notification ;

« b) À l’utilisateur à l’origine de la publication d’un contenu ayant fait l’objet d’une décision mentionnée au d du 6° , de contester cette décision ;

« c) À l’utilisateur ayant fait l’objet d’une décision mentionnée au a ou au b du 8° , de contester cette décision.

« Ils veillent à ce que ces dispositifs soient aisément accessibles et faciles d’utilisation et à ce qu’ils permettent un traitement approprié des recours dans les meilleurs délais, qui ne soit pas uniquement fondé sur l’utilisation de moyens automatisés, une information sans délai de l’utilisateur sur la décision adoptée, et l’annulation sans délai des mesures relatives au contenu en cause ou à l’utilisateur mises en œuvre par l’opérateur lorsque le recours le conduit à considérer que la décision contestée n’était pas justifiée ;

« 8° Lorsqu’ils décident de mettre en œuvre de telles procédures, ils exposent dans leurs conditions d’utilisation, en des termes clairs et précis, les procédures conduisant :

« a) À suspendre ou, dans les cas les plus graves, à résilier le compte des utilisateurs qui ont mis en ligne de manière répétée des contenus contraires aux dispositions mentionnées au même premier alinéa ;

« b) À suspendre l’accès au dispositif de notification à l’égard des utilisateurs qui ont soumis, de manière répétée, des notifications manifestement infondées relatives aux contenus mentionnés audit premier alinéa.

« Lorsque de telles procédures sont mises en œuvre, elles prévoient un examen au cas par cas visant à caractériser de façon objective l’existence d’un comportement mentionné au a ou au b en tenant compte notamment :

« – du nombre de contenus illicites mentionnés au premier alinéa, ou de notifications manifestement infondées, dont l’utilisateur a été à l’origine au cours de l’année écoulée, à la fois en valeur absolue et en proportion du nombre total de contenus ou de notifications dont il a été à l’origine ;

« – et de la gravité et des conséquences de ces abus.

« Lorsqu’elles sont mises en œuvre, ces procédures prévoient que les mesures mentionnées au a et au b sont proportionnées, dans leur nature, à la gravité des agissements en cause et, dans le cas d’une suspension, que celle-ci est prononcée pour une durée raisonnable. Elles prévoient l’avertissement préalable de l’utilisateur et son information sur les voies de recours internes et juridictionnelles dont il dispose.

« 9° Les opérateurs mentionnés au premier alinéa dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret et supérieur à celui mentionné au premier alinéa :

« a) Procèdent chaque année à une évaluation des risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion des contenus mentionnés au premier alinéa et en matière d’atteinte aux droits fondamentaux, notamment à la liberté d’expression ;

« b) Mettent en œuvre des mesures raisonnables, proportionnées et efficaces visant à atténuer les risques de diffusion de ces contenus, qui peuvent notamment porter sur les procédures et les moyens humains et technologiques mis en œuvre pour détecter, identifier et traiter ces contenus, tout en veillant à prévenir les risques de retrait non justifié au regard du droit applicable et de leurs conditions générales d’utilisation ;

« c) Rendent compte au public, selon des modalités et une périodicité fixées par le Conseil supérieur de l’audiovisuel, de l’évaluation de ces risques systémiques et des mesures d’atténuation des risques mises en œuvre ;

« 10° Les opérateurs mentionnés au premier alinéa rendent compte au Conseil supérieur de l’audiovisuel des procédures et des moyens mis en œuvre pour l’application du présent article dans les conditions prévues à l’article 62 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication. »

II. – La loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication est ainsi modifiée :

1° Au troisième alinéa du 1° du I de l’article 19, les mots : « ainsi que des plateformes de partage de vidéos » sont remplacés par les mots : « , des plateformes de partage de vidéos ainsi que des opérateurs de plateformes en ligne mentionnés à l’article 62 de la présente loi » ;

2° Au premier alinéa de l’article 42‑7, les mots : « et 48‑3 » sont remplacés par les mots :« 48‑3 et 62 ».

3° Le titre IV est complété par un chapitre III ainsi rédigé :

« Chapitre III

« Dispositions applicables aux plateformes en ligne en matière de lutte contre les contenus haineux

« Art. 62. – I. – Le Conseil supérieur de l’audiovisuel veille au respect, par les opérateurs de plateformes en ligne mentionnés au premier alinéa de l’article 6‑5 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, des dispositions de cet article, en prenant en compte, pour chacun des services qu’ils proposent, les caractéristiques de ce service et l’adéquation des moyens mis en œuvre par l’opérateur pour lutter contre la diffusion sur celui-ci des contenus mentionnés au premier alinéa de l’article 6‑5 tout en évitant les retraits injustifiés au regard du droit applicable et de ses conditions générales d’utilisation.

« Il recueille auprès de ces opérateurs, dans les conditions fixées à l’article 19 de la présente loi, les informations nécessaires au suivi de leurs obligations. À ce titre, les opérateurs mentionnés au 9° de l’article 6‑5 de la même loi n° 2004‑575 du 21 juin 2004 lui donnent accès aux principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l’évaluation et l’amélioration de leur performance, ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles. Ils lui permettent d’accéder au moyen d’outils automatisés à toute donnée pertinente pour évaluer leur efficacité, dans le respect de ces mêmes dispositions.

« Il définit les informations et les indicateurs chiffrés que ces opérateurs sont tenus de publier en application du 4° de l’article 6‑5 de ladite loi n° 2004‑575 du 21 juin 2004, ainsi que les modalités et la périodicité de cette publication.

« Il publie chaque année un bilan de l’application des dispositions de l’article 6‑5 de la même loi n° 2004‑575 du 21 juin 2004.

« II. – Le Conseil supérieur de l’audiovisuel peut mettre en demeure un opérateur de se conformer, dans le délai qu’il fixe, aux dispositions de l’article 6‑5 de ladite loi n° 2004‑575 du 21 juin 2004.

« Lorsque l’opérateur ne se conforme pas à la mise en demeure qui lui est adressée, le Conseil supérieur de l’audiovisuel peut, dans les conditions prévues à l’article 42‑7 de la présente loi, prononcer une sanction pécuniaire dont le montant prend en considération la gravité des manquements ainsi que, le cas échéant, leur caractère réitéré, sans pouvoir excéder 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial total de l’exercice précédent, le montant le plus élevé étant retenu. Lorsque le même manquement a fait l’objet, dans un autre État, d’une sanction pécuniaire calculée sur la base de cette même assiette, le montant de cette sanction est pris en compte pour la détermination de la sanction prononcée en application du présent alinéa. 

« Par dérogation au précédent alinéa, le montant de la sanction prononcée en cas de refus de communiquer les informations demandées par le régulateur au titre du deuxième alinéa du I ou en cas de communication d’informations fausses ou trompeuses ne peut excéder 1 % du chiffre d’affaires annuel mondial total de l’exercice précédent.

« Le Conseil supérieur de l’audiovisuel peut rendre publiques les mises en demeure et sanctions qu’il prononce. Il détermine dans sa décision les modalités de cette publication, qui sont proportionnées à la gravité du manquement. Il peut également ordonner leur insertion dans des publications, journaux et supports qu’il désigne, aux frais des opérateurs faisant l’objet de la mise en demeure ou de la sanction.

« Les sanctions pécuniaires sont recouvrées comme les créances de l’État étrangères à l’impôt et au domaine. »

III. – Les dispositions du présent article s’appliquent à compter de la date d’entrée en vigueur de la présente loi et jusqu’au 31 décembre 2023.

Exposé sommaire

Le dispositif envisagé repose sur des obligations procédurales et des obligations de moyens supervisées par le régulateur en matière de lutte contre certaines catégories de contenus illicites.

Les plateformes en ligne visées par le texte sont les plateformes de partage de contenus - notamment les réseaux sociaux et les plateformes de partage de vidéos ou d’images - et les moteurs de recherche, dont l’audience sur le territoire français dépasse un seuil en nombre de connexions déterminé par décret ; les places de marché ainsi que les acteurs techniques tels que les fournisseurs d’accès à internet ou les hébergeurs de « cloud » ne sont pas visés.

Il est indispensable, pour assurer l’effet utile du dispositif, que celui-ci soit applicable aux plateformes établies à l’étranger, notamment dans d’autres États-membres de l’Union européenne. Ceci suppose de déroger au principe du pays d’origine prévu par la directive sur le commerce électronique. Une telle dérogation peut être justifiée par l’objectif de protection de la dignité humaine, à condition que le dispositif cible des contenus qui y portent atteinte. Ainsi, le présent texte est ciblé sur une liste exhaustive de catégories de contenus illicites, qui reprend celle figurant au 7 du I de l’article 6 de la loi du 21 juin 2004 sur la confiance dans l’économie numérique[1] auxquelles sont ajoutées les injures racistes ou homophobes et les propos négationnistes.

Le dispositif prévoit un socle d’obligations applicables à toutes les plateformes concernées, et des obligations supplémentaires applicables au-delà d’un seuil plus élevé.

Au titre du socle de base, les plateformes devront informer les autorités publiques des suites données à leurs injonctions portant notamment sur le retrait de contenus illicites, et sur la communication des éléments d’identification de leurs auteurs dont elles disposent. Elles devront conserver temporairement les contenus signalés comme illicites et retirés, pour faciliter les poursuites pénales. Elles devront désigner un point de contact unique chargé de la communication avec les autorités publiques.

Ces plateformes devront aussi publier des conditions générales d’utilisation claires et transparentes, qui prévoient l’interdiction de mettre en ligne des contenus illicites, qui exposent les moyens humains et automatisés mis en œuvre pour détecter, identifier et traiter ces contenus, et qui précisent leurs modalités de modération. Les plateformes seront tenues à des obligations de transparence envers le public sur leur politique de modération et sur ses résultats. Elles devront proposer aux utilisateurs un dispositif de notification des contenus haineux illicites. Elles devront également mettre en place une procédure de recours interne permettant aux utilisateurs de contester leurs décisions de modération.

Les plateformes devront mettre en place des moyens humains et technologiques proportionnés leur permettant de garantir un traitement approprié des notifications dans un prompt délai. L’appréciation de ce délai pourra être différenciée notamment au regard de la gravité de l’infraction ou de la nécessité éventuelle d’un examen approfondi, par exemple pour tenir compte du contexte. Le manquement à cette obligation sera apprécié de façon globale. Si elles mettent en œuvre des mesures de suspension ou, dans les cas les plus graves, de résiliation des comptes des utilisateurs qui ont mis en ligne de manière répétée des contenus illicites, ou de suspension d’accès aux dispositifs de notification à l’encontre des auteurs de notifications abusives répétées, la procédure devra être strictement encadrée : la suspension ou la résiliation devra être prononcée au terme d’un examen au cas par cas fondé sur des critères précis ; l’avertissement préalable de l’utilisateur sera requis et ses voies de recours seront précisées ; en cas de suspension, sa durée devra être proportionnée à la gravité des agissements en cause. Le fait de suspendre un compte ou, a fortiori, de le résilier, est en effet un acte qui porte une atteinte à la liberté d’expression telle qu’elle doit nécessairement s’accompagner de garanties procédurales claires, précises, transparentes et contestables par les utilisateurs en interne, sous la supervision globale du régulateur et le contrôle, au cas par cas, du juge.

Les plus grandes plateformes déterminées par un seuil plus élevé, en plus des obligations précédentes, devront procéder chaque année à une évaluation des risques systémiques engendrés par leurs services en matière de dissémination des contenus illicites mais aussi, plus largement, d’atteintes aux droits fondamentaux, et notamment à la liberté d’expression. Dans le respect de l’interdiction de soumettre les plateformes à une obligation générale de surveiller les informations qu’elles transmettent ou stockent, énoncée à l’article 6, paragraphe 7 de la loi du 21 juin 2004 sur la confiance dans l’économie numérique, les plus grandes plateformes seront tenues d’adopter des mesures visant à atténuer ces risques, qui pourront notamment porter sur les procédures et les moyens humains et technologiques mis en œuvre pour détecter, identifier et traiter ces contenus, tout en veillant à prévenir les risques de retrait non justifié au regard du droit applicable et de leurs conditions générales d’utilisation.

Toutes ces plateformes devront rendre des comptes au régulateur sur leur politique de lutte contre les contenus haineux illicites. Ce régulateur aura accès aux données nécessaires à ses missions de supervision, notamment en ce qui concerne les outils algorithmiques de modération. Il précisera le contenu des rapports publics de transparence des plateformes. Il sera chargé d’évaluer le respect par les plateformes de leurs obligations en matière de modération des contenus, en tenant compte des caractéristiques et des risques spécifiques à chaque service. Il pourra prononcer des mises en demeure et, si nécessaire, des sanctions pouvant atteindre 6 % du chiffre d’affaires mondial de la plateforme. Ce rôle est confié au Conseil supérieur de l’audiovisuel, qui est déjà chargé de la supervision, d’une part, des opérateurs de plateforme en ligne au sens de l’article L. 111‑7 du code de la consommation aux fins de l’application de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information[2], et d’autre part, des plateformes de partage de vidéos aux fins de l’application des dispositions transposant la directive sur les services de médias audiovisuels révisée, dite « SMA »[3].

Il est proposé d’insérer la majeure partie de ces dispositions dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique[4] (LCEN), dont les articles 6 et 6‑1 déterminent le droit français actuellement applicable en matière de lutte contre les contenus illicites en ligne. Le présent amendement crée un article 6‑5, à la suite de l’article 6‑2 créé par la loi visant à encadrer l’exploitation commerciale de l’image d’enfants en ligne[5] et des articles 6‑3 et 6‑4 créés par l’article 19 du présent projet de loi. L’autre partie des dispositions sera insérée dans la loi du 30 septembre 1986 relative à la liberté de communication[6], dès lors qu’elle a pour objet principal d’instaurer un régime de supervision de la fonction de modération par le CSA. L’ordonnance de transposition de la directive SMA a regroupé les dispositions relatives à la supervision des plateformes dans un titre IV intitulé « Dispositions applicables aux plateformes en ligne », dont le chapitre I concerne l’application de la loi « infox » et le chapitre II la supervision des plateformes de partage de vidéos en application de la directive SMA. Il est proposé de le compléter par un chapitre III intitulé « Dispositions applicables aux plateformes en ligne en matière de lutte contre les contenus haineux » comprenant l’article 62 créé par le III du présent amendement. Enfin, le IV élargit aux plateformes en ligne les pouvoirs d’accès aux données du CSA prévus à l’article 19 de la loi du 30 septembre 1986.   

Il convient de signaler que l’article 6 de la LCEN comporte déjà certaines dispositions en matière de lutte contre les contenus illicites, applicables aux fournisseurs d’accès à internet et aux hébergeurs, et soumises à sanction pénale, qui recoupent partiellement les dispositions envisagées : dispositif de notification, transparence sur les moyens consacrés à la politique de modération, signalement aux autorités publiques des contenus illicites notifiés. Le I modifie donc légèrement cet article pour éviter la coexistence de sanctions pénales et administratives pour les mêmes opérateurs au titre des mêmes obligations, au titre du principe « non bis in idem ».

Le V prévoit l’échéance des dispositions de l’article à compter du 1er janvier 2024, pour tenir compte des négociations en cours sur l’adoption d’un règlement européenne sur les services numériques (« Digital Services Act ») dont l’adoption devrait intervenir avant cette date, et qui a vocation à se substituer à terme au présent dispositif.



[1] « l’apologie des crimes [d’atteintes volontaires à la vie, à l’intégrité de la personne, ou au vol], des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage » ; les provocations à la « discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée » ; les provocations « à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou auront provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225‑2 et 423‑7 du code pénal » ; et le harcèlement sexuel, la traite d’êtres humains, le proxénétisme, la pédopornographie, le fait de donner accès aux mineurs à des messages violents ou pornographiques, l’apologie ou provocation au terrorisme.
[2] Loi n° 2018‑1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information
[3] Directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive « Services de médias audiovisuels »), compte tenu de l’évolution des réalités du marché
[4] Loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique
[5] Loi n° 2020‑1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d’enfants de moins de seize ans sur les plateformes en ligne
[6] Loi 1086‑67 du 30 septembre 1986 relative à la liberté de communication