N° 4916 rectifié

______

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 19 janvier 2022.

RAPPORT D’INFORMATION

DÉPOSÉ

PAR LA COMMISSION DES AFFAIRES EUROPÉENNES (1)

Pour une amélioration de la proposition de règlement concernant la législation
sur les services numériques (Digital Services Act),

ET PRÉSENTÉ

PAR Mmes Aude BONOVANDORME et Constance LE GRIP,

Députées

——

 

(1)   La composition de la commission figure au verso de la présente page.


 

La Commission des affaires européennes est composée de : Mme Sabine THILLAYE, présidente ; MM. Pieyre-Alexandre ANGLADE, Jean-Louis BOURLANGES, Bernard DEFLESSELLES, Mme Liliana TANGUY, vice‑présidents ; M. André CHASSAIGNE, Mme Marietta KARAMANLI, M. Christophe NAEGELEN, Mme Danièle OBONO, secrétaires ; MM. Patrice ANATO, Philippe BENASSAYA, Mme Aude BONO-VANDORME, MM. Éric BOTHOREL, Vincent BRU, Mmes Yolaine de COURSON, Typhanie DEGOIS, Marguerite DEPREZ‑AUDEBERT, M. Julien DIVE, Mmes Coralie DUBOST, Frédérique DUMAS, MM. Pierre‑Henri DUMONT, Jean-Marie FIEVET, Alexandre FRESCHI, Mmes Maud GATEL, Valérie GOMEZ‑BASSAC, Carole GRANDJEAN, Christine HENNION, MM. Michel HERBILLON, Alexandre HOLROYD, Mme Caroline JANVIER, MM. Christophe JERRETIE, Jérôme LAMBERT, Jean-Claude LECLABART, Mmes Constance Le GRIP, Martine LEGUILLE-BALOY, Nicole Le PEIH, MM. David LORION, Ludovic MENDES, Thierry MICHELS, Jean-Baptiste MOREAU, Xavier PALUSZKIEWICZ, Damien PICHEREAU, Jean‑Pierre PONT, Dominique POTIER, Didier QUENTIN, Mme Maina SAGE, M. Benoit SIMIAN, Mme Michèle TABAROT.

 


—  1  —

SOMMAIRE

___

Pages

introduction

PREMIÈRE PARTIE : Le digital services act actualise les principes du marché intérieur du numérique pour prendre en compte les nouveaux risques liés à l’évolution des services en ligne

I. L’évolution de l’environnement des services numériques a rendu nécessaire une réflexion pour une meilleure régulation

A. les risques liés à l’évolution des services numériques depuis vingt ans sont à l’origine de la volonté d’étoffer le cadre de la régulation

1. La forte croissance des services numériques a fait naître de nouveaux risques pour les citoyens

a. La viralité des contenus

b. Les risques systémiques pour les citoyens et la démocratie

i. La désinformation en ligne

ii. L’utilisation des données personnelles des citoyens

c. Le modèle économique des plateformes

2. La Commission européenne et les États membres partagent une volonté commune de mieux réguler les services numériques

a. Les États ont adopté diverses initiatives en faveur de la régulation de l’utilisation des services numériques

i. La France

ii. L’Allemagne

iii. L’Autriche

iv. Les États-Unis

b. L’échelon européen est le plus adéquat pour la régulation des services numériques

c. Le projet de règlement Digital Services Act s’inscrit dans le cadre d’une stratégie européenne plus vaste

II. malgré des incontestables progrès dans la lutte contre les contenus illicites, Le dsa reste encore favorable aux fournisseurs de services en ligne

A. le DSA a pour objectif de renforcer les obligations de diligence de l’ensemble des fournisseurs de services en ligne

1. Le projet de règlement de la Commission doit renforcer la régulation d’une diversité d’acteurs et de contenus

a. Les acteurs

b. Les contenus

2. Le projet de règlement renforce les obligations de diligence selon les catégories d’acteurs et le mécanisme de contrôle

a. Les obligations de diligence

b. Le mécanisme de contrôle des obligations du DSA

3. Le projet de règlement a pour ambition d’être efficace sur la durée

B. le maintien des principes fondamentaux posés par la directive e-commerce, limite toutefois l’ambition du texte

1. L’opportunité du maintien de la responsabilité limitée des fournisseurs de service en ligne

a. Le principe

b. La question de l’opportunité du maintien du principe

2. L’absence d’harmonisation de la définition des contenus illicites

3. L’essentiel respect de la place du juge

III. En raison de son ambition et de son ampleur, le DSA fait l’objet d’un travail suivi au sein des instances européennes et nationales depuis plus d’un an

A. Au niveau européen

1. La Commission européenne

2. Le Parlement européen

3. Le Conseil de l’Union européenne

B. En France

DEUxième partie : le dsa doit porter des objectifs encore plus ambitieux pour responsabiliser les fournisseurs de services INTERMÉDIAIRES à hauteur de leur rôle dans la diffusion de contenus illicites

I. L’articulation du DSA avec les autres législations sectorielles doit être précisée

A. l’articulation avec le règlement général sur la protection des données

B. L’articulation avec la directive « services de medias audiovisuels »

C. L’articulation avec la directive droits d’auteurs

II. Les obligations de diligence incombant aux fournisseurs de services numÉriques et leur périmètre doivent être mieux définis

A. Les obligations de diligence à la charge des plateformes DOIVENT être renforcées dans un objectif de protection DES citoyens

1. L’équilibre entre la nécessité de lutte contre les contenus illicites et la protection de la liberté d’expression des utilisateurs

a. Le contrôle des conditions générales d’utilisation des fournisseurs de services en ligne

b. L’atténuation du principe du « bon samaritain »

c. L’intégration d’une obligation de « stay down »

d. Instaurer une voie rapide pour le retrait des contenus haineux

2. La consolidation des obligations relatives à la publicité ciblée

B. Le pÉrimÈtre des acteurs concernÉs doit être précisÉ et Élargi

1. L’inclusion des moteurs de recherche et des plateformes de streaming dans le champ du DSA

a. La consolidation de l’obligation d’identifier les partenaires commerciaux

b. La possibilité d’engager la responsabilité de la plateforme dans l’hypothèse où le tiers n’a pas de représentant dans l’Union

c. La qualification des très grandes places de marché en ligne

d. L’absence de distinction trop marquée entre les obligations des places de marché et celles des autres plateformes

III. le CONTRÔLE DES OBLIGATIONS DU DSA DOIT ÊTRE RENDU PLUS EFFICACE

A. LE CONTRÔLE DES OBLIGATIONS DU DSA IMPLIQUE UNE éVOLUTION de l’architecture institutionnelle existante

1. La création d’un réseau d’autorités pour le contrôle du DSA ne doit pas conduire à construire une structure parallèle aux autorités existantes

a. La création du coordinateur pour les services numériques

b. L’appui sur les réseaux européens existants

2. Le renforcement des pouvoirs de la Commission pour le contrôle des obligations des très grandes plateformes en ligne

B. Le principe du pays d’origine doit Être aménagé pour permettre l’efficacité du contrÔle des coordinateurs des services numériques

1. Les nécessaires aménagements à l’application du principe du pays d’origine

2. L’accès aux informations nécessaires au contrôle doit être assuré, notamment la transparence du fonctionnement des algorithmes

a. L’accès aux données utiles

b. La transparence du fonctionnement des algorithmes

3. Les autorités chargées du contrôle doivent être dotées de moyens humains pour assurer efficacement leur mission

C. En parallèle du système de contrÔle des obligations imposées par le DSA, la place du juge doit toujours Être préservée

ConClusion

TRAVAUX DE LA COMMISSION

proposition de résolution européenne

Synthèse des RECOMMANDATIONS

annexes

Annexe  1 : TABLEAU DES OBLIGATIONS DE DILIGENCE  IMPOSÉES par le dsa par catégorie d’acteurs

annexe  2 : Liste des personnes auditionnées par les rapporteurEs

Annexe  3 : LISTE DES CONTRIBUTIONS ÉCRITES AUX RAPPORTEURES

Annexe  4 : Glossaire des termes anglais et traduction


—  1  —

   introduction

 

 

 

 

Mesdames, Messieurs,

Le marché des services numériques de l’Union européenne est en évolution constante et rapide, tandis que le cadre réglementaire actuel date de la directive e-commerce de 2000 ([1]). En plus de vingt ans, les services de la société de l’information se sont fortement développés, transformant les modes de communication, notamment avec l’apparition des plateformes numériques. Les réseaux sociaux et les places de marché en ligne ont pris une place croissante dans la vie quotidienne de nos concitoyens. Si les apports de ce changement sont indéniables, la conséquence est néanmoins la multiplication des contenus illicites et désinformatifs en ligne.

L’Union européenne fait ainsi face à un « Far West numérique » ([2]) : ce qui est illégal dans le monde réel peut être trouvé avec une facilité déconcertante en ligne. Face à ce constat, la Commission européenne a publié le 15 décembre 2021, une proposition de règlement relatif à un marché intérieur des services numériques ([3]), ou Digital Services Act (DSA). L’ambition de la Commission européenne est double : prendre en compte les évolutions survenues dans l’espace numérique depuis l’adoption de la directive e-commerce et établir des obligations claires et harmonisées à l’égard des fournisseurs de services intermédiaires dans toute l’Union européenne.

Si l’on peut s’interroger sur le maintien du régime atténué de responsabilité des fournisseurs de services intermédiaires, le DSA procède ainsi à un ajustement nécessaire des obligations de diligence des acteurs du numérique, selon leur nature et leur taille.


Le rapport de la commission des affaires européennes de l’Assemblée nationale intervient à un moment charnière pour ce texte, à un double titre. D’une part, après un examen fourni et très rapide du texte au Parlement européen et au Conseil, le stade du trilogue entre les institutions européennes devrait débuter dès le mois de février 2022. D’autre part, la France assure la présidence tournante du Conseil de l’Union européenne depuis le 1er janvier 2022 et a érigé la régulation des géants du numérique en priorité. Le DSA est ainsi l’un des textes phares pour lequel le pouvoir exécutif français souhaite boucler les négociations d’ici au 1er juillet 2022.

Le travail de vos rapporteures, concomitant à celui de la commission des affaires européennes du Sénat ([4]), a ainsi impliqué tout au long de l’année 2021, un suivi des débats du Parlement européen et des négociations du Conseil. Le rapport qui vous est présenté est ainsi à jour des dernières actualités, au 10 janvier 2022, avant l’adoption du texte en session plénière par le Parlement européen.

Vos rapporteures ont fait le choix de ne pas reproduire le travail conduit par le Parlement européen et le Conseil, qui examinent le texte article par article. Le rapport qui vous est présenté se concentre ainsi sur l’équilibre global du DSA et pointe des pistes d’amélioration des articles les plus importants.

Vos rapporteures vous proposent ainsi, dans une première partie, de présenter les principales évolutions induites par le DSA, avant de proposer dans une seconde partie des points de vigilance et des pistes de d’évolution du texte, qui pourraient être utilement reprises au stade des trilogues.

 

    


—  1  —

   PREMIÈRE PARTIE : Le digital services act actualise les principes du marché intérieur du numérique pour prendre en compte les nouveaux risques liés à l’évolution des services en ligne

 

I.   L’évolution de l’environnement des services numériques a rendu nécessaire une réflexion pour une meilleure régulation

A.   les risques liés à l’évolution des services numériques depuis vingt ans sont à l’origine de la volonté d’étoffer le cadre de la régulation

1.   La forte croissance des services numériques a fait naître de nouveaux risques pour les citoyens

Les services numériques, en particulier les plateformes en ligne, ont connu une forte croissance depuis leur création au début des années 2000. À titre d’exemple, la plateforme Twitter, créée en 2006, enregistre 211 millions d’utilisateurs journaliers actifs monétisables en 2021 ([5]) , soit des internautes qui se sont connectés sur une journée donnée et qui ont été exposés à une publicité. Ce chiffre représente une augmentation de 13 % en un an. Le nombre d’utilisateurs mensuels actifs, estimé à 366 millions fin 2018 ([6]), n’est plus rendu public par la plateforme depuis 2019. Il y aurait 12,8 millions d’utilisateurs actifs mensuels sur Twitter en France en 2021 ([7]) .

De façon plus marquante encore, Facebook, créé en 2004 et ensuite devenu le premier réseau social à l’échelle mondiale, représente 2,91 milliards d’utilisateurs actifs mensuels au troisième trimestre 2021, soit une augmentation de 6 % en un an ([8]) . En France, Facebook recense 40 millions d’utilisateurs actifs mensuels.

L’utilisation de plus en plus fréquente et de plus en plus large des plateformes induit des risques en termes de viralité des contenus, de désinformation, et de captivité des utilisateurs.

a.   La viralité des contenus

Les utilisateurs des réseaux sociaux peuvent poster des messages publics, ou télécharger des contenus (images et vidéos) : d’autres internautes peuvent alors partager ces contenus en les repostant sur leur propre profil. Même sans partage, le simple fait de réagir ou de commenter une publication, peut également contribuer à en augmenter la visibilité. D’utilisateurs en utilisateurs, un contenu peut alors faire l’objet d’une « cascade », soit une très large diffusion à l’échelle internationale par viralité.

Or les algorithmes des plateformes ne tiennent pas compte, ou pas suffisamment, du contenu même des publications devenues virales. Ainsi, la vidéo en direct de l’auteur de l’attentat de Christchurch perpétré contre deux mosquées en Nouvelle-Zélande, d’une durée de dix-sept minutes, a été partagée par près de deux millions d’utilisateurs, exposant les internautes de tous âges à des images d’horreur. Si Facebook a pu supprimer le compte du tireur peu après le début de la diffusion des images en direct après avoir été alerté par la police, les vidéos ont été visibles sur le réseau social pendant plusieurs heures, du fait des partages.

L’entreprise Facebook a souscrit de nouveaux engagements, répondant à « l’appel de Christchurch » contre la violence en ligne, consistant à restreindre l’usage de la fonction Facebook Live. Toutefois, les errances liées à la viralité des contenus n’ont pas disparu et ne disparaîtront pas : le fonctionnement en cascade reste au cœur de l’utilisation des réseaux sociaux, dont la finalité est de donner l’opportunité à plusieurs utilisateurs de réagir à un même contenu. Les fournisseurs de services en ligne restent à ce titre dans une position de réaction face au comportement des utilisateurs, et ne garantissent pas l’impossibilité pour un internaute de télécharger un contenu illégal, illicite ou haineux.

Sixième bilan de la mise en œuvre du code de conduite
sur la lutte contre les discours haineux en ligne ([9])

En 2021, l’orientation sexuelle et la xénophobie, y compris la haine anti-migrants, sont les contenus haineux les plus fréquemment signalés (respectivement à 18,2 % et 18 %).

 

Le taux de retrait des contenus signalés est, en 2021, inférieur à 2020. 81 % des contenus signalés dans les 24 heures seraient supprimés, contre 90,4 % en 2020. De même, 62 % des contenus considérés comme des discours de haine illégaux seraient supprimés en 2021, également en baisse par rapport à 2020. Ces taux marquent néanmoins une forte progression par rapport à la date de lancement du code en 2016.

 

Évolution du taux de retrait de contenus haineux
depuis le lancement du code de conduite

b.   Les risques systémiques pour les citoyens et la démocratie

i.   La désinformation en ligne

L’utilisation de services en ligne à grande échelle contribue à faire des plateformes numériques un lieu de débat, où les citoyens se forgent et partagent une opinion sur des sujets divers. Les plateformes sont désormais devenues une enceinte privilégiée pour le débat public : les dérives liées à leur utilisation doivent ainsi être contenues, afin de ne pas mettre en péril les systèmes démocratiques.

Le premier risque tient d’abord à la lutte contre les fausses informations. La communication de la Commission de 2018 sur la désinformation en ligne ([10])  considère ainsi que l’exposition des citoyens à la désinformation à grande échelle constitue un défi majeur pour l’Europe. En 2020, les réseaux sociaux, et les moteurs de recherche ont été les principaux moyens de lecture de l’actualité en ligne pour 51 % des utilisateurs de l’Union européenne ([11]) .

En 2021, Internet est la source d’information principale pour 67 % de la population en France. Les réseaux sociaux seuls représentent la principale source d’information pour 38 % de la population.

Source : Digital News Report 2021, 10ème édition, Reuters Institute

Dans ce contexte, 80 % des Européens ont fait face, au moins une fois par mois, à des informations qu’ils considéraient fausses ou trompeuses. Si elles s’intéressent à de nombreux sujets, les campagnes de désinformation touchent particulièrement les questions écologiques, en ce qu’elles nient le réchauffement climatique. Récemment, une étude indépendante démontre par exemple que les publications colportant des informations erronées sur le dérèglement climatique ont fait l’objet en moyenne de 818 000 à 1,36 million de vues par jour sur Facebook ([12]).

Le modèle économique des plateformes en ligne, qui repose sur l’économie de l’attention, accroît mécaniquement la diffusion de contenus clivants ou douteux ([13]), renforçant de ce fait la désinformation. Les services numériques en ligne s’appuient ainsi sur les sciences comportementales pour générer des mécanismes d’addiction et garder les utilisateurs captifs : dans ce but, les algorithmes proposent des contenus similaires à ceux déjà consultés par l’utilisateur. Avec ce système de fonctionnement, la consultation de contenus contenant de fausses nouvelles conduit l’usager à consulter davantage de contenus désinformatifs. Sans réelle surprise, les Facebook Files, soit les révélations récentes par Frances Haugen sur le fonctionnement des algorithmes de l’entreprise Facebook, ont démontré que les contenus clivants sont davantage mis en avant que les autres publications, en raison du nombre de réactions suscitées.

Les instances européennes ont d’ores-et-déjà pris en compte ces risques nouveaux pour la démocratie, en publiant un code de bonnes pratiques contre la désinformation en ligne en 2018. Toutefois, les dispositions apparaissent insuffisantes à plusieurs égards : la Commission a annoncé en mai 2021 une révision de ce code afin de remédier aux lacunes recensées par un rapport d’évaluation de la Commission en 2020 ([14]) . En outre, malgré la signature du code par la plupart des entreprises délivrant des services numériques dans l’Union européenne, le respect de ses dispositions reste facultatif, en particulier pour les entreprises non-signataires.

La lutte contre la désinformation doit à tout prix se poursuivre en prenant appui sur les nouveaux éléments publiés avec les Facebook Files, afin de prendre en compte l’évolution des pratiques en ligne et de garantir que dans les démocraties européennes, l’opinion de chacun soit librement éclairée.

Le code européen contre la désinformation ([15])

Annoncé par le commissaire au Marché intérieur Thierry Breton, et la vice-présidente chargée des valeurs et de la transparence, Věra Jourová, le code est un jalon du grand plan de l’exécutif européen sur la démocratie en ligne avec le règlement sur la publicité politique et le futur acte attendu fin juillet 2022 sur la liberté des médias.

Le DSA prévoit en outre que la Commission soutiendra et encouragera l’élaboration de codes de conduite (article 35) pour faire face aux risques systémiques, notamment la désinformation. La nouvelle version du code européen sur la désinformation s’inscrirait ainsi dans ce cadre : son succès ou son échec déterminera la solidité du contrôle de l’exécutif européen sur les très grandes plateformes.

La Commission souhaite réorienter le code sur un retrait des financements à la désinformation en intégrant toute la chaîne des intermédiaires qui contribuent à monétiser ces contenus.

L’exécutif européen a néanmoins annoncé le report de la présentation de la nouvelle version de ce code de décembre 2021 à mars 2022. Des différends de fond se nouent en raison de la volonté des plateformes de maintenir le principe de l’autorégulation et de ne pas intégrer de modèle de sanctions avant l’arrivée du DSA. La société civile insiste de son côté pour obtenir un droit de regard dans l’activité des plateformes.

ii.   L’utilisation des données personnelles des citoyens

L’extraction de données à caractère personnel des utilisateurs de réseaux sociaux de l’Union européenne et à leur utilisation à des fins politiques ou électorales est un autre risque pour les démocraties.

Tristement célèbre, l’affaire Cambridge Analytica a démontré qu’une société de conseil pouvait récolter les données de plus de 80 millions d’usagers du réseau social Facebook, afin de mieux cibler les utilisateurs sensibles aux messages politiques favorables au Brexit au Royaume-Uni, ou à la candidature de Donald Trump aux États-Unis.

Sans consentement de l’usager, l’extraction de ces données personnelles est contraire aux termes de l’article 9 du règlement général sur la protection des données (RGPD) ([16]). Toutefois, la catégorisation d’une publicité selon sa nature politique ou commerciale est parfois ardue : les dispositions du RGPD n’annihilent ainsi pas les risques pour les citoyens de voir leurs données numériques utilisées sans leur consentement dans les processus électoraux.

c.   Le modèle économique des plateformes 

Les entreprises du numérique font preuve d’une certaine opacité quant aux modalités de fonctionnement de leurs services en ligne. Les asymétries d’information entre le régulateur et la société privée limitent, à l’heure actuelle, la possibilité pour les pouvoirs publics de s’assurer du respect du cadre légal dans lequel l’entreprise opère.

Le manque de transparence est notamment dû à l’idée selon laquelle, dans le monde informatique, « code is law ». L’opacité du code informatique engendre, de fait, une opacité du système de régulation ([17]) . De façon plus inquiétante encore, les Facebook Files ont révélé que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs. Les ingénieurs des différents départements de l’entreprise développent en effet des solutions d’amélioration de l’algorithme sans qu’il n’existe de vision systémique unifiée, contribuant aux difficultés de compréhension de l’ensemble.

L’opacité est également due à une volonté de protection de la part des entreprises du numérique. L’algorithme est en effet l’actif immatériel sur lequel la plupart des plateformes en ligne fondent leurs activités. Au regard de leur valeur commerciale, les algorithmes sont protégés par le secret des affaires. Leur communication et leur contrôle sont ainsi impossibles pour toute personne non accréditée par l’entreprise.

La directive européenne dite « Secret d’affaires »([18]) doit toutefois permettre de lever certains obstacles à l’accès par les pouvoirs et autres instances de contrôle et de régulation publiques, aux informations commerciales non divulguées.

2.   La Commission européenne et les États membres partagent une volonté commune de mieux réguler les services numériques

a.   Les États ont adopté diverses initiatives en faveur de la régulation de l’utilisation des services numériques

Face aux risques induits par l’utilisation massive des plateformes en ligne, plusieurs États ont adopté des législations nationales imposant aux prestataires de services numériques des obligations pour le retrait des contenus illégaux ou illicites en ligne. Ces textes de lois représentent à la fois un geste politique fort et un signal adressé aux partenaires européens.

i.   La France

Le Parlement français a adopté le 24 juin 2020 la proposition de loi visant à lutter contre les contenus haineux sur Internet, dite « loi Avia » ([19]) . Ce texte obligeait les opérateurs de plateforme en ligne et les moteurs de recherche à retirer dans un délai de 24 heures après notification par un utilisateur, des contenus manifestement illicites, comme les incitations à la haine, les injures à caractère racistes ou antireligieuses. Pour les contenus terroristes ou pédopornographiques, le délai de retrait était réduit à une heure. Toutefois, le Conseil constitutionnel ([20]) a déclaré ces dispositions contraires à la liberté d’expression ([21]), en raison de l’impossibilité de recours préalable à un juge dans le délai prescrit, et de l’incitation pour la plateforme à retirer largement les contenus afin d’échapper aux sanctions.

Ceci dit, afin de marquer l’urgence, le Parlement français a adopté le 23 juillet 2021 le projet loi confortant le respect des principes de la République ([22]), dont l’article 42 impose des obligations concernant le contrôle des contenus illicites. Ces dispositions imposent la mise en place d’un dispositif de notification des contenus par les tiers et obligent les plateformes à informer l’utilisateur en cas de retrait de contenus publiés en lui transmettant les motifs de la décision. Les obligations de transparence sont également renforcées, notamment avec la mise à disposition du public des conditions générales d’utilisation qui doivent comporter des informations sur le dispositif de modération et, pour les plus grandes plateformes, la présentation d’une évaluation annuelle des risques systémiques en matière de diffusion des contenus.

Les dispositions de la loi confortant les principes républicains relatives au retrait des contenus illicites en ligne sont inspirées de la logique du règlement DSA : une attention particulière a été portée à ce que le dispositif s’inscrive pleinement dans la logique et les dispositions du DSA. Le texte a ainsi une vocation transitoire, garantie par l’insertion d’une clause d’extinction : dès l’entrée en vigueur du DSA et au plus tard le 31 décembre 2023, ces dispositions cesseront d’être applicables. Le texte de loi adopté a par ailleurs été notifié à la Commission.

Enfin, l’Assemblée nationale a adopté le 25 novembre une proposition de loi visant à renforcer la lutte contre les produits contrefaits ([23]). Un amendement a été adopté en séance publique ([24]) , afin de permettre aux douanes de solliciter les intermédiaires en ligne pour mettre en œuvre un dispositif de sanction gradué, avec des mesures de plus en plus fortes, en cas de manque de coopération des sites visés. L’amendement adopté prévoit explicitement que le dispositif « aura vocation à être adapté afin de tirer les conséquences » du DSA. Par ailleurs, le texte définitif ne prévoit plus l’obligation de notifier aux utilisateurs de ses services les comptes et pages suspendus ou supprimés, au motif que la mesure pourrait figurer dans le DSA.

L’objectif poursuivi est ainsi que la France conserve un rôle moteur sur le sujet et stimule l’ambition européenne, à l’instar d’autres pays comme l’Allemagne.

ii.   L’Allemagne

La loi Netzwerkdurchsetzungsgesetz, ou NetzDG, entrée en vigueur le 1er octobre 2017, est la réponse du législateur à la gestion des signalements de contenus illicites. Ses dispositions, applicables aux plateformes de plus de deux millions d’utilisateurs inscrits en Allemagne, font obligation à l’intermédiaire de supprimer localement tout contenu « manifestement illégal » dans les 24 heures suivant son signalement. Pour justifier une suppression, le contenu doit relever de l’une des 21 dispositions du Code pénal allemand auxquelles se réfère la loi NetzDG. Si l’illégalité n’est pas manifeste, la plateforme dispose de sept jours pour prendre une décision. Contrairement à ce que prévoyait la loi française visant à lutter contre la haine en ligne, censurée par le Conseil constitutionnel, le texte allemand ne prévoit pas de sanctions pour chaque cas de non-retrait, mais seulement pour des défaillances systémiques (jusqu’à 50 millions d’euros pour les personnes morales).

Depuis son entrée en vigueur, les fournisseurs de services numériques concernés par la loi, respectent quasi-systématiquement le délai de 24 heures. Par exemple, sur la période de janvier à juin 2019, Google a supprimé ou bloqué 285 des 547 contenus signalés, la plupart du temps dans un délai inférieur à 24 heures.

Source : Rapport sur la transparence des informations de Google (https://transparencyreport.google.com/netzdg/googleplus?hl=fr)

La version initiale de la loi a néanmoins révélé certaines insuffisances. Ainsi, les plateformes ont fait coexister le dispositif de signalement au titre de leurs propres conditions générales d’utilisation avec celui de la loi NetzDG, de sorte que les signalements et les retraits au titre de la loi Netz DG restent très minoritaires. Cette situation a conduit l’Office fédéral de la justice à infliger une amende de 2 millions d’euros à Facebook au motif, notamment, que son dispositif de signalement était « dissimulé ».

iii.   L’Autriche

L’Autriche a également adopté en 2020 une loi fédérale relative aux mesures de protection des utilisateurs des plateformes (Kommunikationsplattformen-Gesetz ou KoPl-G), dont les dispositions sont très proches de la loi NetzDG. La loi KoPl-G, s’applique à l’ensemble des plateformes de mise en relation de plus de 10 000 utilisateurs par trimestre et dont le chiffre d’affaires est supérieur à 500 000 €.

Les dispositions de la loi prévoient une obligation pour les grandes plateformes de communication de créer une procédure efficace de signalement de contenu illégal, garantissant que les utilisateurs puissent signaler le contenu facilement et en permanence. Le contenu doit être rapidement vérifié et bloqué si nécessaire, dans un délai de 24 heures pour un contenu clairement illégal. L’utilisateur à l’origine du signalement et l’utilisateur dont le contenu a été bloqué peuvent demander un réexamen de la décision de blocage ou de suppression par la plateforme.

Cette loi a été notifiée à la Commission européenne : l’Autriche a justifié l’adoption de cette loi par la nécessité de prendre des mesures juridiques dès que possible pour plus de transparence, de responsabilité et de redevabilité de la part des plateformes, en attendant l’adoption du DSA[25].

iv.   Les États-Unis

La question de la régulation des contenus sur Internet ne saurait se cantonner aux États membres de l’Union européenne et s’étend outre-Atlantique. Les pouvoirs publics ont exprimé à plusieurs reprises aux États-Unis leur volonté d’une régulation plus sévère des services numériques, alors même que la plupart des entreprises championnes au niveau mondial dans ce secteur sont aujourd’hui américaines (Google, Amazon, Facebook par exemple).

La réglementation aux États-Unis sur les contenus est particulièrement favorable aux entreprises du numérique. La section 230 du Communications Decency Act de 1996 offre en effet une protection juridique pour les fournisseurs de service en ligne en les exonérant de la responsabilité du contenu publié par les utilisateurs sur leurs sites, même dans l’hypothèse où la plateforme a été tenue informée de l’illicéité d’une publication.

La révision de cette section semble susciter un consensus de plus en plus large, pour permettre une lutte plus efficace contre la désinformation. Dès 2013, les procureurs généraux de 47 États ont envoyé au Congrès une lettre demandant l’évolution de la régulation des contenus, par une suppression de la section 230 ([26]) . En 2019, le candidat M. Joe Biden a ainsi annoncé sa volonté de réviser le Communications Decency Act ([27]).

Face à la demande d’une régulation plus stricte et pour anticiper les attendus d’une nouvelle législation, Mark Zuckerberg, directeur général et fondateur de Facebook, a également proposé le 25 mars 2021 devant la chambre des représentants une révision de la section 230, en défendant notamment une obligation pour les plateformes de démontrer qu’elles disposent de systèmes permettant d’identifier les contenus illicites et de les supprimer.

Des solutions plus ambitieuses et plus efficaces pour lutter contre les contenus illicites en ligne que celles proposées par M. Zuckerberg, dont l’entreprise peut être à la fois juge et partie, doivent néanmoins être proposées dans l’Union européenne : le règlement Digital Services Act s’inscrit dans cette logique.

b.   L’échelon européen est le plus adéquat pour la régulation des services numériques

L’échelon européen permet de garantir l’uniformité de l’application de la réglementation du marché des services numériques dans le marché numérique européen, et présente plusieurs avantages par rapport aux diverses réglementations nationales.

L’Union européenne envoie en premier lieu un signal fort aux acteurs privés et aux États tiers sur les valeurs qu’elle souhaite défendre dans le monde digital : la garantie que tout ce qui est illégal hors ligne le soit aussi en ligne, la liberté pour les citoyens de disposer de leurs données, l’affirmation d’un double principe de confiance et de transparence. L’Union européenne dispose en outre d’une influence suffisante pour imposer aux plateformes en ligne des règles d’exploitation de leurs services. L’application uniforme d’un texte européen dans les vingt-sept États membres permet de renforcer le poids de la législation au niveau mondial par rapport à des législations nationales.

La mobilisation de l’échelon européen permet en second lieu d’éviter une fragmentation du marché intérieur du numérique. La réglementation unique permet d’éviter l’écueil, particulièrement préjudiciable aux entreprises digitales opérant sur le marché européen, de vingt-sept législations différentes qui imposeraient des obligations diverses selon l’État membre concerné. L’analyse d’impact de la Commission européenne sur le DSA prévoit qu’une intervention législative de l’Union destinée à lutter contre des approches réglementaires et jurisprudentielles divergentes pourrait aboutir à une augmentation du commerce numérique transfrontalier de 1, à 1,8 %, soit l’équivalent d’une augmentation du chiffre d’affaires de 8,6 à 15,5 milliards d’euros.

Cet enjeu plaide d’ailleurs pour une réglementation stricte des fournisseurs de services numériques. Une régulation a minima des contenus haineux pourrait en effet inciter certains États membres à compléter les textes européens par une législation nationale. Pour se prémunir contre ce risque de fragmentation, la proposition de règlement DSA doit ainsi être suffisamment ambitieuse, en garantissant la mise en œuvre de dispositifs efficaces.

c.   Le projet de règlement Digital Services Act s’inscrit dans le cadre d’une stratégie européenne plus vaste

Les enjeux du numérique ont été définis comme l’une des deux priorités fortes de la Commission européenne présidée par Mme Ursula von der Leyen, avec le Pacte Vert pour l’Europe en matière environnementale et climatique. La Commission souhaite ainsi faire des dix années à venir la « décennie numérique » de l’Europe.

L’action de l’Union européenne en matière numérique repose sur deux piliers principaux : la création d’un écosystème pour les citoyens et les entreprises favorable au développement du numérique dans l’Union européenne, et la réglementation. La stratégie du numérique, amorcée dans le cadre de l’agenda pour un marché numérique (MUN de 2015), qui se poursuit depuis 2019 avec le programme « Une Europe adaptée à l’ère du numérique » ([28]) de février 2020, reprend ces deux principaux leviers d’action.

Concernant la création et la promotion d’un véritable écosystème du numérique, la Commission a présenté le 9 mars 2021 la boussole numérique pour l’Europe ([29]), dont les quatre points cardinaux sont le renforcement des compétences, l’acquisition d’infrastructures numériques sûres et durables, la transformation numérique des entreprises et la numérisation des services publics. Au cours du premier semestre 2022, la Commission européenne devrait proposer un « Digital package », composé de trois textes : une proposition des principes pour la décennie numérique, un Data Act proposant une révision de la directive sur la protection juridique des bases de données ([30]), ainsi qu’une proposition de création d’un espace européen des données de santé.

Outre le Digital Services Act, la Commission a également présenté depuis 2019 plusieurs textes en faveur d’une régulation du numérique ([31]), s’inscrivant dans le cadre plus général de la stratégie européenne pour les données ([32]) :

-         le Digital Market Act (DMA), présenté le même jour que le Digital Services Act, vise à instaurer un nouveau modèle de régulation du comportement des grandes plateformes sur le marché unique européen. Ce texte, dont le calendrier d’adoption par le Parlement européen et le Conseil devrait coïncider avec celui du DSA, a aussi fait l’objet d’un rapport d’information de la commission des affaires européennes de l’Assemblée nationale ([33]) ;

-         le Digital Governance Act (DGA), présenté le 25 novembre 2020 par la Commission européenne, a pour objectif de favoriser le partage et de créer un espace européen des données, d’établir une relation de confiance avec les citoyens européens et de maintenir une relation étroite avec le RGPD. Le DGA doit ainsi permettre d’accroître la confiance dans le partage de données à caractère personnel ou non personnel, en définissant des règles applicables à l’activité des prestataires de services de partages de données entre acteurs privés ;

-         la proposition de règlement sur l’intelligence artificielle, présentée par la Commission le 21 avril 2021, doit permettre d’encourager et d’encadrer le développement de l’intelligence artificielle. La proposition repose sur deux axes : le soutien à l’innovation et le respect des droits fondamentaux de l’usager. La Commission a adopté une approche pyramidale, en intensifiant les obligations selon le niveau de risque créé par les différentes utilisations possibles de l’intelligence artificielle. La proposition distingue ainsi les utilisations créant un risque inacceptable pour les valeurs de l’Union (qui sont interdites), celles qui créent un risque élevé (avec des obligations renforcées), celles qui créent un risque faible et celles qui comportent un risque minime.

 

Infographie « catégorisation des risques ». Source : Commission européenne, europa.eu.

 

II.   malgré des incontestables progrès dans la lutte contre les contenus illicites, Le dsa reste encore favorable aux fournisseurs de services en ligne

Lors de son audition au Parlement européen([34]), la lanceuse d’alerte sur les pratiques des plateformes en ligne, Mme Frances Haugen, a plaidé pour le vote d’un texte ambitieux. L’ancienne employée de Facebook a ainsi souligné que « Le DSA pourrait être l’étalon-or pour l’ensemble de la planète, une source d’inspiration pour tous les pays, y compris le mien, les États-Unis, avec de nouvelles règles ». Mme Haugen a également rappelé la nécessité de mettre en place un système « dynamique et évolutif », afin d’éviter que la barrière ne soit contournée par les plateformes.

A.   le DSA a pour objectif de renforcer les obligations de diligence de l’ensemble des fournisseurs de services en ligne

1.   Le projet de règlement de la Commission doit renforcer la régulation d’une diversité d’acteurs et de contenus

a.   Les acteurs

Le DSA est une réglementation transversale, qui s’applique à l’ensemble des fournisseurs de services en ligne. Les services de simple transport, les services de mise en cache, les services d’hébergement et les plateformes en ligne sont ainsi inclus dans le champ de cette réglementation. L’article 25 du DSA prévoit par ailleurs une distinction entre les plateformes et les très grandes plateformes en ligne, de manière à leur imposer des obligations supplémentaires.

Plusieurs acteurs ne sont toutefois pas concernés par la réglementation du DSA : les moteurs de recherche, les plateformes de livestreaming et les messageries privées sont ainsi exclus de la proposition initiale de la Commission. L’orientation générale du Conseil a toutefois étendu les obligations du DSA aux moteurs de recherche en ligne.

Les différentes catégories de services intermédiaires

Le point d de l’article 2 du DSA définit les trois différentes catégories de services intermédiaires en ligne.

Un service de « simple transport » consiste à transmettre, sur un réseau de communication, des informations fournies par un bénéficiaire du service ou à fournir un accès au réseau de communication.

Un service de « mise en cache » consiste à transmettre, sur un réseau de communication, des informations fournies par un bénéficiaire du service, impliquant le stockage automatique, intermédiaire et temporaire de cette information dans le seul but de rendre plus efficace la transmission ultérieure de l’information à la demande d’autres bénéficiaires.

Un service « d’hébergement » consiste à stocker des informations fournies par un bénéficiaire du service à la demande de ce dernier. Définies au point h de l’article 2, les plateformes en ligne sont des services d’hébergement qui, à la demande d’un bénéficiaire du service, stockent et diffusent au public des informations.

Le système est ainsi organisé en « poupées russes ». Le terme « prestataires de services intermédiaires » renvoie à l’ensemble des prestataires techniques intervenant dans l’espace numérique, et recouvre ces trois grandes catégories. Au sein des services « d’hébergement » se trouvent les plateformes en ligne, qui n’épuisent toutefois pas cette catégorie : tous les hébergeurs ne sont pas des plateformes en ligne.

b.   Les contenus

La proposition de règlement DSA a pour objectif de lutter contre tout type de contenu illicite, quel qu’en soit le format. Un contenu illicite peut ainsi être une publication d’un usager sur une plateforme, une marchandise contrefaite mise en vente sur une place de marché en ligne, ou encore une utilisation non autorisée de contenus protégés, par exemple par le droit d’auteur ou le droit de la propriété intellectuelle.

La diversité des contenus illicites est par ailleurs accrue par la volonté de la Commission de ne pas limiter l’obligation de retrait aux contenus illégaux, tels que définis par le droit national et européen. Les plateformes ont également la possibilité de qualifier un contenu illicite au regard de leurs conditions générales d’utilisation et de le retirer. L’article 12 du DSA prévoit en effet que les fournisseurs de services intermédiaires peuvent indiquer dans leurs conditions générales les renseignements relatifs aux éventuelles restrictions qu’ils imposent dans l’utilisation de leur service. Les restrictions doivent alors être énoncées clairement, sans ambiguïté et être publiquement disponibles. Dans l’application de ces restrictions, les fournisseurs de services intermédiaires doivent agir de manière diligente, objective et proportionnée, en proscrivant toute mesure discriminatoire.

Le DSA est ainsi une législation transversale, qui a pour objectif de lutter contre tout type de contenu illicite, contraire au droit national, européen ou aux conditions générales d’utilisation des plateformes.

2.   Le projet de règlement renforce les obligations de diligence selon les catégories d’acteurs et le mécanisme de contrôle

a.   Les obligations de diligence

La première innovation du DSA repose sur le renforcement des obligations mises à la charge des fournisseurs de services numériques, afin de garantir la licéité des contenus.

Au regard de la diversité des services numériques (fournisseurs de services en ligne au sens large, hébergeurs et plateformes), la proposition de règlement repose sur une approche asymétrique et différenciée selon la catégorie et la taille des acteurs visés. Ainsi, un système d’obligations graduées est proposé, selon l’acteur concerné. Les hébergeurs ont ainsi des obligations supplémentaires par rapport au reste des prestataires de services intermédiaires et les plateformes en ligne ont des obligations supplémentaires par rapport au reste des hébergeurs. L’annexe 4 du rapport présente les obligations par catégories d’acteurs.

À l’article 25, le DSA crée une nouvelle catégorie d’acteur, selon un critère de taille : les très grandes plateformes en ligne, soit les plateformes dont le nombre mensuel moyen de bénéficiaires actifs du service au sein de l’Union est égal ou supérieur à 45 millions, selon une méthodologie qui sera établie par actes délégués de la Commission.


L’ensemble des prestataires de services intermédiaires doit ainsi établir un point de contact unique et remplir un devoir de transparence, au travers d’un rapport annuel indiquant notamment le nombre d’injonctions de retrait reçues des autorités des États membres. Les hébergeurs font face à des obligations supplémentaires, notamment de notification et d’action, au fondement du fonctionnement du DSA (cf. encadré ci-dessous). Les plateformes en lignes doivent, en sus, remplir d’autres obligations, notamment liées à la transparence de la publicité en ligne ou à la mise en place de mécanismes de recours et de règlements extrajudiciaires des litiges. Les très grandes plateformes en ligne doivent en outre évaluer les risques systémiques, assurer une transparence renforcée de la publicité en ligne et garantir aux régulateurs nationaux un accès à leurs données.

Système de notification et d’action

En vertu de la directive e-commerce, la société d’hébergement doit agir promptement pour supprimer ou désactiver l’accès aux contenus illicites lorsqu’elle prend effectivement connaissance des contenus illicites. Toutefois, plusieurs lacunes ont été décelées([35]).

D’une part, il n’existe pas de notion de connaissance effective : selon les modalités de mise en œuvre retenues par les États, les intermédiaires bénéficiaient de dérogations pour des motifs différents (par exemple, si la connaissance de contenus illicites résulte d’une notification, ou s’il s’agit d’une connaissance générale).

D’autre part, il existe des différences considérables pour la définition et le fonctionnement de la notification et du retrait dans l’ensemble de l’Union. Certains États membres ont par exemple opté pour un système de « double notification », dans lequel l’hébergeur est uniquement contraint de transmettre la notification de l’infraction au contrevenant présumé. L’hétérogénéité des modèles conduit à une grande insécurité juridique pour les intermédiaires. Concernant la mise en œuvre des mécanismes de retrait, certains États membres exigent une procédure formelle et une notification officielle par les autorités judiciaires, tandis que d’autres estiment que la notification du titulaire du droit suffit pour considérer que le fournisseur de services a connaissance du contenu illicite.

Enfin, le délai d’intervention varie considérablement : le code de conduite de l’Union sur les discours de haine en ligne exige une action de la plateforme dans un délai inférieur à 24 heures après la notification, tandis que le code de conduite néerlandais sur la notification et le retrait fixe le délai à 5 jours ouvrables à compter de la notification, à condition que le contenu ne soit pas manifestement illégal ou punissable.

Le DSA vise à combler ces lacunes. La forme juridique de l’acte permet en effet de limiter la marge de manœuvre des États dans la mise en œuvre du texte : contrairement à une directive, un règlement ne nécessite pas de texte de transposition. Le règlement permet ainsi une harmonisation des modalités de notification et de retrait entre les États membres.

Si les hébergeurs n’ont pas d’obligation générale de surveillance des contenus publiés, l’article 14 du DSA prévoit ainsi que les fournisseurs d’hébergement établissent des mécanismes permettant à tout individu de leur signaler la présence au sein de leur service de contenus illicites. Les hébergeurs traitent ces notifications dans les meilleurs délais et prennent une décision de retrait. Dans l’hypothèse où un contenu illicite qui lui aurait été signalé ne serait pas retiré promptement, l’hébergeur perdrait son exemption conditionnelle de responsabilité.

b.   Le mécanisme de contrôle des obligations du DSA

La seconde innovation du DSA repose sur la création d’un nouveau mécanisme de contrôle des obligations.

Le principe fixé par le chapitre IV de la proposition de règlement est un contrôle au niveau national des obligations de diligence. La proposition de règlement prévoit que chaque État membre désigne un coordinateur des services numériques, responsable de toutes les questions afférant au contrôle des obligations du DSA. Le coordinateur dispose de pouvoir d’enquêtes et d’exécution (amendes, astreintes), pouvant aller jusqu’à une sanction de 6 % des revenus ou du chiffre d’affaires annuel de la plateforme.

Par exception, les très grandes plateformes peuvent faire l’objet d’une procédure spécifique de contrôle, dans la mesure où le coordinateur national conclut à la violation des obligations spécifiques du DSA à leur égard. La Commission peut alors intervenir et prendre le relais du coordinateur national pour les mesures d’enquête, de contrôle et de sanction. Cette possibilité est justifiée par le fait que les infractions des très grandes plateformes au DSA toucheront en effet plusieurs États membres. Or, pour traiter de ce sujet, la Commission dispose d’une vision européenne globale plus efficace que les États, contraints par une focale nationale. Les mesures de contrôle à disposition de la Commission sont par ailleurs renforcées par rapport à celles des États membres : l’article 57 du DSA prévoit la possibilité d’ordonner à la plateforme d’accorder à des experts homologués un accès à ses bases de données et à ses algorithmes.

Un comité européen des services numériques est également établi, composé de l’ensemble des coordinateurs nationaux pour appuyer l’organisation des enquêtes transfrontalières, émettre des avis, et conseiller la Commission pour le déclenchement de la procédure de surveillance en relais de l’État-membre.

Le réseau de coordinateurs de services numériques nationaux, complété par le comité européen des services numériques et la Commission, doit ainsi permettre un contrôle des obligations du DSA. Toutefois, afin d’en renforcer l’efficacité, l’orientation générale du Conseil du 25 novembre 2021 a proposé de confier à la Commission le contrôle des obligations du DSA pour les très grandes plateformes, avec le soutien des autorités nationales. Le coordinateur des services numériques du pays d’établissement de la très grande plateforme resterait néanmoins responsable des questions administratives et des plaintes individuelles.

3.   Le projet de règlement a pour ambition d’être efficace sur la durée

L’objectif de la Commission européenne est en premier lieu d’obtenir la mise en œuvre rapide du DSA, face à l’urgence de régulation des services numériques. Cet objectif est partagé par le Conseil qui a adopté, le 25 novembre 2021, une orientation générale, après moins d’un an de négociations. Le Parlement européen a également fait preuve de célérité dans des débats de qualité, avec l’adoption le 14 décembre du texte par la commission du marché intérieur et de la protection des consommateurs, la commission parlementaire saisie au fond.

La régulation des géants du numérique est en outre une priorité de la présidence française du Conseil de l’Union européenne qui souhaite une adoption définitive du DSA sous sa présidence. Toutefois, tenir cet objectif nécessitera une opiniâtreté particulière de la présidence, alors que le vote en séance plénière du texte au Parlement européen en janvier ne permettra aux trilogues de débuter qu’au début du mois de février. Vos rapporteures insistent sur la nécessité d’aboutir rapidement à l’adoption de ce texte sous présidence française.

En second lieu, l’objectif de la Commission est d’ancrer le texte dans la durée, et d’éviter que les avancées technologiques ou les pratiques ne puissent conduire à contourner rapidement les nouvelles obligations imposées par le DSA aux plateformes en ligne. L’exemple du règlement général sur la protection des données([36]) est à ce titre marquant : malgré son application sur le sol européen depuis bientôt 4 ans, les entreprises du numérique tentent de contourner la législation pour s’assurer du consentement des internautes.

Afin de contourner cet écueil, le DSA doit pouvoir s’adapter aux évolutions technologiques et aux nouvelles pratiques. Une option utile qui respecterait les prérogatives du Parlement européen et des États membres, serait ainsi de transformer la clause d’évaluation prévue à l’article 73 en clause de revoyure cinq ans après l’entrée en vigueur du DSA. Le cas échéant, la clause permettrait de prendre en compte les évolutions intervenues, pour renforcer l’efficacité du dispositif (par exemple en revenant sur l’exemption conditionnelle de responsabilité des fournisseurs de services en ligne) et de mieux garantir l’effectivité des contrôles.

Recommandation 1 : Prévoir une flexibilité suffisante dans le règlement pour permettre une adaptation du règlement aux pratiques du marché des services numériques en ligne, en transformant la clause d’évaluation prévue à l’article 73 en véritable clause de revoyure.

B.   le maintien des principes fondamentaux posés par la directive e-commerce, limite toutefois l’ambition du texte

La proposition de règlement DSA a pour objectif de permettre une essentielle actualisation des principes posés par la directive e-commerce du 8 juin 2000 ([37]). Les institutions européennes ont ainsi insisté sur une volonté de tenir compte des évolutions du marché des services numériques et notamment de l’apparition des très grandes plateformes.

Si elle est sans conteste une avancée souhaitable, la proposition de la Commission reste toutefois très favorable aux fournisseurs de services en ligne, avec un maintien des principes préexistants de la directive e-commerce. Le décalage entre la volonté de réguler un « Far West numérique » (selon le mot du commissaire Thierry Breton) et la reprise du principe de responsabilité limitée des fournisseurs de services en ligne, est à ce titre regrettable.

L’ambition de protection des citoyens et des entreprises européennes aurait pu conduire à une limitation du champ d’application de ce principe, voire à sa disparition, sans pour autant conduire les plateformes à assumer une responsabilité éditoriale qui incombe aux médias « classiques ».

1.   L’opportunité du maintien de la responsabilité limitée des fournisseurs de service en ligne

a.   Le principe

Les articles 3, 4 et 5 du DSA reprennent le régime d’exonération conditionnelle de responsabilité (safe harbor) attribué aux services de transport d’information, aux services de mise en cache et aux hébergeurs par les articles 12, 13 et 14 de la directive e-commerce.

Le principe général posé par ces articles est que le fournisseur de services en ligne ne peut pas être tenu responsable d’un contenu illicite qu’il transmet, stocke ou héberge, uniquement dans la mesure où il n’a aucune influence sur ce contenu.

L’article 3 du DSA prévoit que le fournisseur de service de transmission sur un réseau de communication (ou service de simple transport) n’est pas responsable des informations transmises, sous réserve qu’il ne soit pas à l’origine de la transmission, qu’il ne sélectionne pas le destinataire de la transmission et qu’il ne modifie pas les informations faisant l’objet de la transmission. L’article 4 prévoit que le fournisseur du service de mise en cache en ligne n’est pas responsable du stockage sous cinq conditions, parmi lesquelles l’absence de modification de l’information et d’une action prompte de retrait du contenu illicite après en avoir eu connaissance. L’article 5 prévoit que l’hébergeur n’est pas responsable des informations stockées à la demande d’un bénéficiaire du service, sous réserve du respect d’une double condition : que le fournisseur n’ait pas connaissance du contenu illicite et qu’il agisse promptement pour retirer le contenu.

Le corollaire de l’exemption conditionnelle de responsabilité est prévu à l’article 7 du DSA, qui indique que les fournisseurs de services intermédiaires ne sont soumis à aucune obligation générale de surveiller ou de rechercher activement les informations qu’ils transmettent ou stockent.

b.   La question de l’opportunité du maintien du principe

Les plateformes exercent en effet aujourd’hui une modération active, des contenus mis en ligne par des utilisateurs, reposant notamment sur la détection algorithmique. Si la masse des contenus concernés doit être prise en compte (plus de 500 heures de vidéos téléchargées chaque minute sur YouTube), les plus grands fournisseurs de services en ligne disposent des moyens techniques suffisants pour détecter rapidement un contenu illicite, avant même son signalement par les utilisateurs.

Un système de régulation des contenus plus ambitieux aurait pu revenir sur ce principe et tenir les plateformes responsables des contenus publiés par leurs utilisateurs, afin d’aboutir à une très forte incitation au retrait de publications illicites. La régulation des plateformes fonctionnerait ainsi selon des règles proches de la responsabilité éditoriale. Vos rapporteures prennent acte du choix fait par la Commission de ne pas remettre en cause l’exemption conditionnelle de responsabilité, mais regrettent que le débat n’ait pas été plus ouvert sur ce point.

L’article 73 du DSA prévoit une clause d’évaluation, selon laquelle au plus tard cinq ans après sa date d’entrée en vigueur, puis tous les cinq ans, la Commission évalue le règlement et remet un rapport au Parlement européen, au Conseil et au Comité économique et social européen. À l’occasion de cette évaluation et dans l’hypothèse où la lutte contre les contenus illicites et contre la désinformation en ligne demeurerait insuffisante, un débat devrait s’ouvrir sur l’opportunité du maintien du principe de responsabilité limitée des fournisseurs de services en ligne.

Recommandation 2 : Porter une attention particulière lors de l’évaluation du règlement prévue à l’article 73 du DSA, à l’opportunité de maintenir la responsabilité limitée des fournisseurs de services en ligne, au regard de l’évolution du marché des services numériques en ligne.

2.   L’absence d’harmonisation de la définition des contenus illicites

Le point g de l’article 2 du DSA définit un contenu illicite comme toute information qui, en soi ou par sa référence à une activité, y compris la vente de produits ou la prestation de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre, quel qu’en soit l’objet précis ou la nature précise.

Le DSA ne procède donc pas à une définition des contenus illicites, mais renvoie au droit européen et aux droits nationaux : la création au niveau européen d’une liste de contenus illicites reviendrait à la rédaction d’un code pénal européen. Si le droit pénal est une compétence partagée de l’Union ([38]), la définition des infractions demeure sensible au niveau national. Les États membres pourraient ainsi fermement s’opposer à l’ouverture d’un débat sur la définition d’un contenu illicite au Conseil de l’Union. Au regard de la nécessité d’adoption rapide de ce texte sous présidence française, le DSA ne propose donc pas de définition de l’illicéité d’un contenu.

Toutefois, e, application de l’article 83 du TFUE, certaines infractions sont harmonisées au niveau européen, par exemple en matière de terrorisme, de pédopornographie, de contenus racistes ou xénophobes. D’autres enceintes au niveau européen, notamment la formation « justice et affaires intérieures » du Conseil travaillent actuellement à compléter la liste des infractions harmonisées. L’objectif serait ainsi d’y ajouter les crimes et les discours appelant à la haine sur la base du sexe, de l’orientation sexuelle, du handicap ou de l’âge.

Les infractions harmonisées concernent également les places de marché en ligne : par exemple, la directive relative à la sécurité générale des produits ([39]), veille à ce qu’uniquement des produits sûrs soient vendus sur le marché de l’Union. Cette directive doit par ailleurs être révisée, avec la présentation par la Commission d’une proposition de règlement sur la sécurité générale des produits ([40]) renforçant la lutte contre les produits dangereux.

Ainsi, le contenu peut être illicite soit au regard du droit européen, dans les domaines harmonisés du droit de l’Union européenne, soit au regard du droit national dans les domaines où l’Union n’a pas légiféré. Force est de constater que la proposition de règlement DSA n’œuvre ni pour une harmonisation plus poussée, ni pour un rapprochement des législations nationales pour la qualification des contenus illicites.

3.   L’essentiel respect de la place du juge

Le DSA, pour lutter contre les contenus illicites en ligne, renforce les pouvoirs de plusieurs catégories d’acteurs en préservant toutefois la place du juge.

En premier lieu, le DSA renforce les obligations de modération des prestataires de services en ligne et par là-même accroît leur contrôle sur la liberté d’expression des utilisateurs. En deuxième lieu, le DSA donne en outre au régulateur national ad hoc un droit de regard sur les systèmes de modération des plateformes. En troisième lieu, le DSA impose des garanties pour les utilisateurs, comme des voies de recours internes ([41])  et des systèmes de règlement des différends par un arbitre indépendant ([42]) .

Le DSA préserve par ailleurs explicitement la place des juridictions nationales. Les articles 8 et 9 prévoient en effet l’obligation pour un fournisseur de services intermédiaires de répondre à une injonction émise par les autorités judiciaires pour le retrait d’un contenu illicite ou pour l’accès à des informations spécifiques. Ces injonctions se fondent sur le droit national.

La proposition de règlement ne fait ainsi pas obstacle à la possibilité de saisir le juge, qui reste ouverte à tout instant.

III.   En raison de son ambition et de son ampleur, le DSA fait l’objet d’un travail suivi au sein des instances européennes et nationales depuis plus d’un an

A.   Au niveau européen

1.   La Commission européenne

La proposition de règlement européen DSA relève du travail de plusieurs directions de la Commission européenne, conduit et coordonné par la vice-présidente exécutive chargée de l’adaptation de l’Europe à l’ère du numérique, Margarethe Vestager et par le commissaire français en charge du marché intérieur, Thierry Breton.

Après avoir envisagé une seule et vaste législation, qui porterait sur la régulation tant du comportement concurrentiel des plateformes que des contenus, la Commission a finalement opté pour la présentation de deux textes distincts, le DSA portant sur le contrôle des contenus numériques, et le DMA portant sur la réglementation concurrentielle de l’activité économique des plateformes.

La Commission européenne a lancé, du 2 juin au 8 septembre 2020, une consultation publique destinée à recueillir les avis des Européens sur la future législation relative aux services numériques. La consultation, qui portait tant sur le DSA que sur le DMA, a donné lieu à plus de 3000 réponses, provenant de l’ensemble des acteurs de l’économie numérique et du monde entier.

Source : Commission européenne


Le 15 décembre 2020, la Commission européenne a publié le projet de règlement DSA, dont l’objectif est la modification et l’actualisation des principes de la directive e-commerce. Depuis le début de l’année 2021, le Parlement européen et les États membres examinent ce texte conformément à la procédure législative ordinaire ([43]).

Avis du Comité économique et social européen

Le Comité économique et social européen a rendu un avis sur la proposition de règlement DSA, dont le rapporteur était Gonçalo Lobo Xavier ([44]). Le comité invite les institutions européennes à adopter rapidement le DSA.

Le comité plaide pour un aménagement du principe du pays d’origine (soit l’État membre dans lequel la plateforme a son siège), en plaidant notamment pour un renforcement des pouvoirs de contrôle des obligations du DSA par le pays de destination (l’État membre où le service est produit). Le comité plaide également pour un renforcement des obligations incombant aux places de marché en ligne.

2.   Le Parlement européen

Eu égard à l’importance politique du DSA et à son caractère transversal pouvant engendrer de potentiels conflits de compétences, la Conférence des présidents du Parlement européen a décidé de confier l’examen du texte à plusieurs commissions.

La commission du marché intérieur et de la protection des consommateurs (IMCO) a été désignée comme responsable de l’examen du texte et Mme Christel Schaldemose du groupe socialiste et démocrate (S&D) a été nommée rapporteure le 27 janvier 2021. La Conférence des Présidents a décidé d’associer trois autres commissions, au titre de l’article 57 du règlement du Parlement européen :

-         La commission des affaires juridiques (JURI) a désigné Geoffroy Didier (groupe PPE). Le rapport adopté par la commission sur le DSA([45]) propose un élargissement du champ d’application aux moteurs de recherche, aux services de streaming en direct et aux services de messagerie. Le rapport propose également la création d’une obligation de transmission systématique aux autorités compétentes des contenus manifestement illicites bloqués ou retirés par les plateformes. Enfin, le rapport propose de clarifier les obligations des places de marché en ligne ;

-         La commission de l’industrie, de la recherche et de l’énergie (ITRE), a désigné comme rapporteure Henna Virkkunen du groupe PPE. Le rapport de la commission sur le DSA et les amendements proposés ([46]) portent essentiellement sur la charge administrative et les exigences imposées aux grandes et petites entreprises. La rapporteure propose également de créer une obligation plus forte de transparence et de responsabilité pour les plateformes en ligne ;

-         La commission des libertés civiles, de la justice et des affaires intérieures (LIBE) a désigné Patrick Breyer du groupe Les Verts/Alliance libre européenne (ALE) comme rapporteur sur le DSA. Le rapport adopté par la commission ([47]) porte sur l’amélioration de la protection des droits fondamentaux à l’ère numérique et fait seize propositions principales, comme la suppression progressive du ciblage comportemental et personnalisé des publicités non commerciales et politiques.

Trois autres commissions ont été saisies pour avis, au titre de l’article 56 du règlement du Parlement européen : la commission des affaires économiques et monétaires (ECON) ([48]), la commission des droits des femmes et de l’égalité des genres (FEMM) ([49]) et la commission de la culture et de l’éducation (CULT) ([50]) . Contrairement aux commissions associées, les rapporteurs des commissions saisies pour avis ne participent pas aux réunions avec les rapporteurs fictifs (qui représentent le point de vue de leur groupe politique sur le sujet et jouent un rôle important dans la recherche de compromis), ni aux trilogues avec le Conseil de l’Union et la Commission.

La commission IMCO, responsable de l’examen du texte, a adopté le 14 décembre la proposition de règlement DSA. Le vote en séance plénière est attendu au mois de janvier 2022.

 

La position de la commission IMCO sur le DSA

Le 15 décembre 2021, la commission IMCO du Parlement européen a adopté les amendements de compromis et le projet de rapport de la rapporteure Mme Christel Schadelmose (S&D). Le texte de la Commission comprend plusieurs ajouts, tels que :

-          l’obligation pour les fournisseurs de service en ligne d’adapter le délai de traitement des demandes en fonction du type de contenu illégal notifié ;

-          le renforcement des actions spécifiques en matière de traçabilité des produits achetés en ligne ;

-          l’introduction d’un choix plus vaste sur le classement basé sur les algorithmes : les très grandes palteformes en ligne devraient fournir au moins un système de recommandation qui ne soit pas fondé sur le profilage ;

-          l’obligation pour les plateformes de procéder à des évaluations obligatoires pour limiter les risques de diffusion de contenus illicites ;

-          la transparence accrue en matière de publicité ciblée, notamment sur la façon dont les données sont utilisées et monétisées. Les débats au Parlement européen se sont longtemps cristallisés autour de l’opportunité d’interdiction stricte de la publicité ciblée ;

-          l’introduction de mécanismes de compensation pour permettre aux utilisateurs de pouvoir demander réparation en cas de non-respect des règles du DSA par les plateformes ;

-          le recours aux interfaces truquées (dark patterns) a été interdit.

La commission IMCO a rejeté l’amendement adopté par la commission JURI d’interdiction pour les plateformes de modérer les contenus des médias. Cette question devrait toutefois être à nouveau débattue lors de la séance plénière au mois de janvier 2022.

3.   Le Conseil de l’Union européenne

Le Conseil de l’Union européenne s’est saisi du DSA dès le mois de janvier 2021. Son examen a été confié au groupe « compétitivité et croissance », qui prépare la législation, les conclusions et les recommandations du Conseil dans les domaines de la compétitivité de l’Union et du marché unique.

Le 25 novembre 2021, sous présidence slovène, le Conseil compétitivité a adopté à l’unanimité son orientation générale. Conscient de la nécessité d’une régulation rapide des services numériques sur le marché européen, le Conseil a adapté son rythme de travail, pour permettre l’adoption de la position commune des États membres sur le DSA moins d’un an après sa publication par la Commission.

 

La position du Conseil sur le DSA

Les États membres ont complété la proposition de règlement de la Commission. Issu d’une proposition française, l’apport le plus marquant est le choix de confier à la Commission le contrôle des obligations du DSA pour les très grandes plateformes, avec le soutien des autorités nationales (le pays d’établissement restant responsable de ces plateformes pour les questions administratives et les plaintes individuelles).

Le Conseil a également complété la proposition initiale de la Commission, en prévoyant notamment :

-          L’inclusion des moteurs de recherche dans le champ d’application du règlement ;

-          L’insertion d’une partie spécifique sur les places de marché en ligne, de manière à renforcer leurs obligations. Le Conseil a notamment prévu qu’au lieu de fournir des efforts « raisonnables » pour la traçabilité des vendeurs professionnels, les plateformes devront produire les « meilleurs efforts ». Les Etats-membres ont également introduit un concept d’interfaces trompeuses, en interdisant aux places de marché de tromper le consommateur lorsqu’il utilise ces plateformes. Le Conseil a enfin prévu une obligation pour les places de marché en ligne d’informer les utilisateurs en cas de marchandise illégale ou contrefaite ;

-          L’insertion d’une partie spécifique sur les risques systémiques pour la protection des mineurs ;

-          L’introduction d’une fonction de conformité forte au sein des plateformes : les services chargés du contrôle seront strictement séparés des services chargés de l’exploitation du service numérique. Ce modèle de séparation est issu de la régulation bancaire.

B.   En France

En raison de la multiplicité des sujets abordés, la proposition de règlement DSA présente un caractère transversal qui appelle un travail interministériel.

Dès mars 2020, une Task Force commune aux propositions de règlements DSA et au DMA est créée, sous le pilotage de la direction générale des entreprises (DGE). L’objectif est de mutualiser les compétences des différentes administrations, afin de définir des positions communes et acceptables sur trois grands sujets : la régulation de la fonction de modération de contenus, la régulation concurrentielle et la protection des consommateurs sur les places de marché en ligne.

Tous les quinze jours, une réunion de la Task Force associe environ 90 participants. Le ministère de l’économie des finances et de la relance est représenté par la DGE, la direction générale du trésor (DGT) et la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Le ministère de la culture est principalement représenté par la direction générale des médias et des industries culturelles (DGMIC). Le ministère de l’intérieur, le ministère de la justice, le ministère de l’Europe et des affaires étrangères avec le secrétariat général aux affaires européennes (SGAE) sont également représentés. En outre, plusieurs autorités administratives indépendantes participent à ce travail préparatoire, comme l’autorité de la concurrence, la commission nationale de l’informatique et des libertés (CNIL), le conseil supérieur de l’audiovisuel (CSA) et l’autorité de régulation des communications électroniques, des postes et de la distribution de presse (ARCEP).

La Task Force permet ainsi de concilier les différents points de vue au sein d’analyses, qui peuvent ensuite servir aux autorités françaises pour se positionner dans le cadre des négociations sur le DSA et sur le DMA. L’expérience de la Task Force a ainsi permis d’affiner les positions françaises au niveau européen sur ces deux textes.

Il est toutefois regrettable que le Parlement n’ait pas été plus associé à ces travaux. Sans empiéter sur le droit exclusif du Gouvernement de négociation au sein du Conseil de l’Union européenne, il aurait toutefois été opportun que les représentants de la Nation aient été entendus au moment de la définition de la position française sur ces textes, qui devraient avoir un impact très important sur la vie des citoyens.

Recommandation 3 : Réitérer la création d’une Task Force pour les textes européens impliquant des enjeux globaux et nécessitant une coordination au niveau national, en prenant toutefois garde à associer le Parlement à ces débats.


   DEUxième partie : le dsa doit porter des objectifs encore plus ambitieux pour responsabiliser les fournisseurs de services INTERMÉDIAIRES à hauteur de leur rôle dans la diffusion de contenus illicites

I.   L’articulation du DSA avec les autres législations sectorielles doit être précisée

La proposition de règlement DSA est une législation transversale et introduit un cadre horizontal applicable à toutes catégories de contenus, de produits, de services et d’activités sur les services intermédiaires. Le règlement complètera ainsi les législations sectorielles existantes, notamment celles portant sur la protection générale des données, sur les services de médias audiovisuels et sur les droits d’auteurs.

Il est essentiel, pour la cohérence des politiques européennes entre elles, ainsi que pour la bonne application du droit de l’Union, de garantir l’absence d’effets de bord du DSA sur les législations européennes préexistantes.

A.   l’articulation avec le règlement général sur la protection des données

La proposition de règlement de la Commission est « sans préjudice » du règlement général sur la protection des données([51]) (RGPD), comme le prévoit le point (f) du paragraphe 5 de l’article premier du DSA.

Dans l’exposé des motifs du DSA, la Commission précise ainsi que « les mesures concernant la publicité sur les plateformes en ligne complètent mais ne modifient pas les règles existantes sur le consentement et le droit d’opposition au traitement des données à caractère personnel ». Le RGPD consacre en effet son troisième chapitre aux droits des personnes concernées par le traitement des données personnelles, en posant un principe de droit à la transparence des informations et des communications relatives au traitement des données à caractère personnel. Les règles du DSA imposent des obligations complémentaires de transparence à l’égard des utilisateurs de plateformes en ligne, et permettent également aux autorités et aux chercheurs autorisés de contrôler la manière dont les publicités sont affichées et ciblées.

De même, le considérant 52 du DSA prévoit que « Les exigences du présent règlement concernant la fourniture d’informations relatives à la publicité sont sans préjudice de l’application des dispositions pertinentes du règlement (UE 2016/679), en particulier des dispositions relatives au droit d’opposition à la prise de décision individuelle, automatisée, y compris le profilage, et en particulier à la nécessité d’obtenir le consentement de la personne concernée, avant de traiter des données à caractère personnel à des fins de publicité ciblée ». Le DSA ne peut ainsi être lu comme affaiblissant les dispositifs mis en place par le RGPD en matière de publicité. L’objectif de la Commission est ainsi de ne pas revenir sur les acquis de la législation sectorielle en matière de protection des données personnelles.

Vos rapporteures partagent pleinement cet objectif, mais plaident pour une clarification de l’articulation entre les différents règlements. Le DSA intervient en effet dans le champ d’application du RGPD, et malgré les précautions prises par la Commission, la notion de « complément » n’est pas claire. Il est en effet essentiel de s’assurer de l’absence d’effet de bord : un complément ne peut opérer que pour une plus grande efficacité de la législation européenne. Il est ainsi indispensable de ne pas introduire des lourdeurs supplémentaires et inutiles, notamment en raison d’un cumul de conditions ou de restrictions.

Au moment des trilogues entre le Parlement européen, la Commission et le Conseil, une attention particulière devra ainsi être portée à l’articulation du RGPD avec le DSA. Des garanties doivent être apportées pour s’assurer que le cumul de l’application des deux textes permette une efficacité renforcée de la législation sur la protection des données des citoyens.

B.   L’articulation avec la directive « services de medias audiovisuels »

La portée horizontale du DSA conduit également à un chevauchement en termes de services couverts par la directive « services de médias audiovisuels »([52]) : les plateformes de partage de vidéos relèvent ainsi autant de la directive SMA que du DSA([53]). Là encore, il est nécessaire de préciser pour ces catégories d’acteurs, quelles règles s’appliquent, dans quelles conditions, et sous le contrôle de quelles autorités, sous peine de créer de vastes zones de flou et d’insécurité juridique préjudiciables à l’efficacité de la régulation.

Le point b du paragraphe 5 de l’article premier du DSA prévoit que l’application de ce texte est sans préjudice des règles établies par la directive SMA. Comme dans le cas du RGPD, il est toutefois essentiel de s’assurer que la directive SMA continue de s’appliquer dans les cas où elle prévoit des obligations plus strictes ou plus détaillées pour certains acteurs relevant à la fois de son champ d’application et de celui du DSA. Ainsi, lorsque des dispositions similaires sont prévues par les deux textes dans certains domaines (par exemple, en ce qui concerne les obligations qui visent les conditions générales d’utilisation des plateformes), la clause la plus exigeante devrait l’emporter. Faute de clarification sur cette question, le risque est que certains acteurs puissent adopter des stratégies de contournement et acceptent uniquement de se conformer à la moins contraignante de ces règles.

En outre, pour des raisons de clarté et d’efficacité de la régulation, il pourrait être utile que les autorités en charge de l’application des dispositions relatives aux plateformes de partage de vidéo issues de la directive SMA soient les mêmes que celles chargées de réguler les dispositions relatives à la modération des contenus en ligne dans le cadre du DSA.

Malgré les précisions apportées à l’article premier du DSA, l’articulation avec la directive SMA pourrait être mieux précisée. Vos rapporteures plaident ainsi pour l’apport de garanties, avec l’inscription dans le DSA de la logique d’application de la clause la plus exigeante aux acteurs concernés par les deux textes.

C.   L’articulation avec la directive droits d’auteurs

En raison de son caractère horizontal, le DSA interfère enfin avec la législation sur les droits d’auteurs, dont le cadre a récemment évolué, avec l’adoption d’une directive européenne en 2019([54]).

La législation sur le droit d’auteur définit les actes d’exploitation de contenus relevant du droit d’auteur qui nécessitent pour leur réalisation une autorisation de la part des titulaires de droits([55]). En cas d’absence d’autorisation, le contenu ne peut être exploité, sous peine d’engagement de la responsabilité de l’exploitant. La directive sur les droits d’auteurs de 2019 transposée en droit français en 2021([56]), prévoit à son article 17 qu’une plateforme de partage de contenus qui donne un accès public à une grande quantité d’œuvres téléversées par ses utilisateurs, réalise des actes d’exploitation du droit d’auteur. La plateforme ne peut alors pas invoquer l’exemption de responsabilité des hébergeurs (safe harbor) prévue par la directive e-commerce et reprise à l’article 5 du DSA. L’article 17 vise ainsi à contrer toute interprétation de la législation selon laquelle un service responsable au titre du droit d’auteur aurait pu bénéficier du safe harbor. Cet article prévoit en effet que dans l’hypothèse où la plateforme donnerait accès à un contenu contrefaisant, elle ne pourrait écarter sa responsabilité que si elle parvient à démonter avoir fourni en amont ses meilleurs efforts pour éviter cette situation (notamment par la recherche de la conclusion d’une licence avec les ayants-droit et la mise en place d’outils préventifs([57])).

Le risque de l’interférence entre la législation sur le droit d’auteur et le DSA est que le safe harbor s’applique et que les services n’aient pas l’obligation de fournir leurs meilleurs efforts pour échapper à leur responsabilité. Il importe en outre que le DSA ne crée pas de nouveaux mécanismes d’exonération de responsabilité ayant un impact sur l’effectivité du droit d’auteur.

Vos rapporteures relèvent que, contrairement au RGPD et à la directive SMA, la directive du 17 avril 2019 sur le droit d’auteur n’est pas explicitement citée au paragraphe 5 de l’article premier, qui prévoit que l’application du DSA est sans préjudice du « droit de l’Union sur les droits d’auteurs et les droits voisins ». La mention explicite de ce texte paraît ainsi essentielle et, comme pour le RGPD et la directive SMA, la notion de « complément » du DSA doit être précisée. L’objectif poursuivi est que les exploitants de services numériques ne bénéficient pas du concours de législations pour se dédouaner de leurs responsabilités.

Recommandation 4 : Garantir dans le texte du règlement l’absence d’effets de bord sur les législations sectorielles, en inscrivant dans l’article premier la logique d’application systématique de la clause la plus exigeante aux services concernés par plusieurs textes.

En outre, l’inclusion des moteurs de recherche dans le champ d’application du DSA, que vos rapporteures soutiennent, pose la question de l’articulation de la proposition de règlement avec la législation sur le droit voisin. Avec la consécration de ce droit, l’Union a fait preuve d’innovation, en obligeant les moteurs recherche à rémunérer les éditeurs de journaux et de magazines dont les contenus sont recensés et réutilisés. Il est là encore nécessaire, au stade du trilogue, de veiller à ce que l’obligation de paiement des moteurs de recherche à la presse ne soit pas menacée par l’application du DSA à cette catégorie de services numériques.

II.   Les obligations de diligence incombant aux fournisseurs de services numÉriques et leur périmètre doivent être mieux définis

A.   Les obligations de diligence à la charge des plateformes DOIVENT être renforcées dans un objectif de protection DES citoyens

1.   L’équilibre entre la nécessité de lutte contre les contenus illicites et la protection de la liberté d’expression des utilisateurs

Pour lutter plus efficacement contre les contenus illicites, la proposition de règlement DSA renforce les obligations des plateformes, notamment en matière de transparence et de régulation. Ce choix présente toutefois un caractère paradoxal : la régulation des contenus implique de donner davantage de prérogatives aux plateformes, alors même que l’objectif de la Commission européenne est d’encadrer leur pouvoir de marché et leur influence.

Les institutions européennes doivent ainsi porter une attention toute particulière à l’équilibre entre d’une part, le renforcement des obligations et des prérogatives des plateformes dans un objectif d’efficacité de la lutte contre les contenus illicites, et d’autre part, la protection des droits des citoyens dans l’utilisation de ces services numériques. La remise en cause des droits et libertés des citoyens, au nom de la lutte contre les contenus illicites ne saurait évidemment pas être tolérée. Par exemple, les utilisateurs doivent continuer à bénéficier de leur liberté d’expression sur les réseaux sociaux, malgré le contrôle accru des plateformes sur la licéité des contenus.

a.   Le contrôle des conditions générales d’utilisation des fournisseurs de services en ligne

La proposition de règlement n’évoque pas seulement la régulation des contenus illicites, au sens du droit européen pour les domaines de législation harmonisés, ou des droits nationaux. L’article 12 du DSA prévoit ainsi l’obligation pour tous les fournisseurs de services en ligne, d’énoncer dans leurs conditions générales les restrictions qu’ils sont susceptibles d’imposer à l’utilisation de leurs services.

En creux, cet article autorise donc les fournisseurs de services numériques à retirer les contenus qui seraient contraires à leurs conditions d’utilisation. L’exploitant d’un service numérique peut ainsi restreindre volontairement l’expression des utilisateurs sur sa plateforme. Cette possibilité doit dès lors être très strictement encadrée, pour ne pas conduire à une atteinte massive et notoire à la liberté d’expression par les modérateurs des plateformes.

L’article 12 pose ainsi des exigences pour que les intermédiaires puissent censurer des contenus non conformes à leurs conditions d’utilisation. Les fournisseurs de services numériques doivent en effet indiquer clairement et sans ambiguïté, dans un fichier facilement accessible au public, les renseignements relatifs aux éventuelles restrictions. Le paragraphe 2 de l’article 12 précise en outre que dans l’application des restrictions définies dans leurs conditions d’utilisation « les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée, en tenant dûment compte des droits et intérêts légitimes de toutes les parties concernées, et notamment des droits fondamentaux applicables des bénéficiaires du service, tels que consacrés dans la Charte ». Il ressort de ce paragraphe, et notamment de la référence à la Charte des droits fondamentaux, que la modération des contenus conformément aux conditions d’utilisation ne peut être discriminatoire.

La proposition de règlement prévoit également une supervision globale de la fonction de modération exercée par les plateformes, que celle-ci s’attache aux contenus illicites, ou aux contenus contraires aux conditions générales d’utilisation édictées par les plateformes.

Néanmoins, afin de ne pas porter une atteinte disproportionnée à la liberté d’expression des utilisateurs, il est essentiel d’encadrer encore davantage la possibilité pour les fournisseurs de services numériques de censurer des contenus non conformes à leurs conditions d’utilisation. Trois précisions peuvent être apportées à l’article 12 du DSA dans cet objectif.

En premier lieu, vos rapporteures plaident pour l’interdiction explicite de toute restriction dans l’utilisation du service qui s’apparenterait à une condition discriminatoire. Dans la version du texte de la Commission, l’exigence de non- discrimination n’existe que de façon implicite, par une référence à la Charte des droits fondamentaux, au stade de l’application des conditions d’utilisation. Les restrictions posées par les conditions générales doivent en effet être transparentes et non discriminatoires, dès leur édiction, même si le principe de non-discrimination doit continuer de s’appliquer au moment de l’application des restrictions. Le DSA pourrait également préciser expressément que les conditions générales d’utilisation des plateformes en ligne doivent être conformes à la législation nationale interdisant les contenus illicites dans chaque État membre.

En deuxième lieu, vos rapporteures souhaitent que des garanties soient apportées par l’existence d’une supervision publique indépendante des conditions générales d’utilisation. Ces conditions doivent en effet faire l’objet d’un contrôle, notamment pour garantir qu’aucune des restrictions imposées n’est discriminatoire : les modalités de cette supervision doivent être précisées par la proposition de règlement, en mentionnant le contrôle des autorités de régulation compétentes (notamment de la Commission européenne pour les très grandes plateformes en ligne).

En troisième et dernier lieu, l’orientation générale du Conseil du 25 novembre 2021 a ajouté un paragraphe à l’article 12 selon lequel, lorsqu’un service est principalement destiné aux mineurs, son exploitant doit expliquer les restrictions prévues dans les conditions d’utilisation dans des termes intelligibles pour les jeunes utilisateurs. Vos rapporteures soutiennent cet ajout, qui doit permettre une meilleure protection des mineurs sur Internet.

Recommandation 5 : Encadrer les possibilités pour les fournisseurs de services en ligne de supprimer les contenus non conformes à leurs conditions d’utilisation, en inscrivant explicitement des exigences de non-discrimination et en garantissant une supervision publique indépendante de ces conditions générales d’utilisation.

b.   L’atténuation du principe du « bon samaritain »

L’article 6 de la proposition de règlement prévoit que les exemptions de responsabilité doivent continuer à s’appliquer lorsque les intermédiaires en ligne ouvrent des enquêtes de leur propre initiative ou se conforment à la loi. Cette clause vise à inciter les fournisseurs de services numériques à jouer un rôle actif et à faire tous les efforts pour déterminer si le contenu qu’ils hébergent est illégal. Dans l’hypothèse d’une application stricte de l’exonération conditionnelle de responsabilité, un intermédiaire qui jouerait un rôle actif dans la lutte contre les contenus illicites (en menant des actions volontaires allant au-delà des obligations imposées par le règlement), serait ainsi davantage informé de la circulation de ces contenus. Or, selon les articles 3 à 5 du DSA, la connaissance effective de l’activité ou du contenu illicite fait perdre au fournisseur de services numériques le bénéfice de l’exemption de responsabilité. La clause du bon samaritain doit ainsi limiter le caractère désincitatif d’une application rigoriste de l’exemption conditionnelle de responsabilité, en encourageant les fournisseurs de services en ligne à conduire des d’enquêtes volontaires, tout en conservant le bénéfice du safe harbor.

L’introduction explicite de cette clause constitue une nouveauté par rapport à la directive e-commerce([58]) et se fonde sur le modèle de la loi américaine sur la protection des communications, le Communications Decency Act de 1995. La directive e-commerce avait fait l’objet d’une interprétation de la Commission européenne en 2017([59]), selon laquelle les hébergeurs ne seraient pas sanctionnés s’ils prenaient des mesures proactives pour détecter, supprimer ou désactiver l’accès aux contenus illicites (actions de « bon samaritain »). L’interprétation de la Commission était néanmoins confuse, les intermédiaires en ligne ne peuvent pas bénéficier de l’exonération s’ils ne suppriment pas le contenu illicite : une étude de 2018([60]) souligne qu’en l’absence d’une défense de type « bon samaritain », les hébergeurs s’exposent à un risque de responsabilité plus élevé s’ils décident d’être plus actifs dans la lutte contre les contenus illicites de manière proactive. L’article 6 du DSA a ainsi pour objectif de rassurer les intermédiaires sur le fait qu’ils ne seront pas tenus responsables de l’hébergement de contenus illicites dont ils ont eu connaissance grâce à leurs efforts de surveillance volontaire et proactive.

Si cette clause doit permettre d’éviter l’écueil d’un sous-investissement dans la mise en place de mécanismes appropriés pour trouver des contenus illicites, le calibrage du principe du « bon samaritain » ne doit pas permettre aux intermédiaires de se dégager des obligations du DSA([61]). Vos rapporteures estiment en effet nécessaire de préciser la formulation de l’article 6 du DSA pour indiquer explicitement que si les mesures volontaires déployées par les plateformes leur permettent d’obtenir une connaissance effective de contenus illicites, elles sont alors contraintes de les retirer promptement. Dans le cas contraire, les intermédiaires pourraient voir leur responsabilité engagée. Cet aspect est évoqué dans le considérant 22 du texte mais devrait faire partie intégrante de l’article 6, en tant qu’élément essentiel du règlement.

La modification de la clause du bon samaritain en ce sens permettrait de renforcer l’efficacité de la lutte contre l’illicéité en ligne, en supprimant toute distinction entre les contenus notifiés par un utilisateur et ceux détectés par une enquête volontaire. Dans les deux cas, les fournisseurs de services en ligne ne pourront conserver le bénéfice de leur exemption de responsabilité qu’à condition de promptement retirer ou bloquer l’accès à ces contenus.

Il paraît également important d’inclure dans le corps de l’article 6 du DSA la précision figurant au considérant 22, selon laquelle les intermédiaires doivent retirer rapidement le contenu ou en rendre l’accès impossible dans le respect de la liberté d’expression. Cette incise doit permettre de rappeler la nécessité de ne pas sur-bloquer les contenus, pour respecter les droits et libertés des utilisateurs.

Recommandation 6 : Préciser à l’article 6 du DSA que si les mesures volontaires déployées par les intermédiaires leur permettent d’obtenir une connaissance effective de contenus illicites, les plateformes sont contraintes de retirer ceux-ci, pour éviter de voir leur responsabilité engagée.

c.   L’intégration d’une obligation de « stay down »

Le mode de fonctionnement des services numériques en ligne, fondé sur des principes de liberté de publication et de partage entre utilisateurs, implique qu’un contenu illicite retiré, peut rapidement réapparaître. À titre d’exemple, dans le domaine de l’offre illégale de contenus musicaux en ligne (écoute et téléchargement illicites), 88 % des avis envoyés par la fédération internationale de l’industrie phonographique (IFPI) font référence à des œuvres qui ont déjà été notifiées au même service en ligne. Le simple retrait d’un contenu illicite ne suffit donc pas à empêcher sa remise à disposition à grande échelle. Pourtant, la proposition de règlement de la Commission ne remet pas en cause l’exemption conditionnelle de responsabilité des fournisseurs de services en ligne en cas de réapparition d’un contenu déjà signalé.

Les plateformes numériques disposent aujourd’hui de technologies de reconnaissance automatique de contenus, pour détecter des publications ayant déjà été bloquées ou supprimées au motif de leur illicéité. Au niveau national, plusieurs tribunaux ont reconnu une obligation de maintenir hors ligne une publication déjà bloquée (« stay down »), notamment pour les contenus diffamatoires ou portant atteinte au droit d’auteur([62]) : il en va ainsi de la cour suprême italienne([63]), et de la cour fédérale de justice allemande([64]). De même, en matière de propriété intellectuelle, la Cour de Justice de l’Union européenne a reconnu une obligation de « stay down » dans un arrêt de 2011([65]) : la Cour indique qu’il revient aux juridictions nationales d’enjoindre aux places de marché en ligne de « prendre des mesures qui contribuent de façon effective, non seulement à mettre fin aux atteintes portées au moyen de cette place de marché, mais aussi à prévenir de nouvelles atteintes ».

La commission IMCO du Parlement européen s’est également prononcée en faveur d’une obligation de « stay down », limitée toutefois aux seules places de marché en ligne, de manière à lutter plus efficacement contre les produits contrefaits.

Vos rapporteures soutiennent l’instauration d’une obligation générale de maintien hors ligne des contenus illicites, s’appliquant au-delà des seules places de marché en ligne. La proposition de règlement pourrait ainsi être complétée en précisant que pour bénéficier du régime d’exemption conditionnelle de responsabilité, l’intermédiaire doit agir rapidement pour retirer le contenu, mais également toutes ses copies. Le texte doit également préciser que le fournisseur de services numériques ne doit pas seulement veiller à ce que l’accès au contenu soit rendu impossible, mais garantir qu’il ne réapparaisse pas.

Vos rapporteures tiennent à souligner que dans l’équilibre entre le renforcement des obligations de diligence des intermédiaires d’une part et la protection des droits et libertés des citoyens d’autre part, cette disposition ne porte pas atteinte à la liberté d’expression des utilisateurs. Les contenus ont en effet été bloqués une première fois, en raison de leur caractère illicite : l’obligation de « stay down » ne vise qu’à assurer l’effectivité de cette mesure, sans brider la liberté d’expression des utilisateurs au-delà de l’obligation de licéité des publications.

Recommandation 7 : Pour éviter la réapparition de contenus illicites déjà supprimés, inclure une obligation de « stay down » pour les fournisseurs de services en ligne.

d.   Instaurer une voie rapide pour le retrait des contenus haineux

Les contenus illicites sont très divers et peuvent prendre différentes formes : discours de haine en ligne, publication ne respectant pas les droits d’auteur ou les droits voisins, annonce faisant la promotion d’un produit contrefait. Si l’ensemble de ces contenus doit être retiré, les publications haineuses doivent faire l’objet d’un traitement prioritaire, en raison du danger qu’elles impliquent pour les droits et libertés des utilisateurs de services en ligne.

Mme Christel Schaldemose, rapporteure sur le DSA pour la commission IMCO au Parlement européen a déposé des amendements en faveur de l’instauration d’une voie rapide pour le retrait de contenus. Ces amendements faisaient coexister deux procédures. La première voie concernait le traitement des contenus classiques, nécessitant un blocage ou un retrait sous sept jours. La seconde voie, accélérée, concernant les contenus à « fort impact » impliquait un blocage ou un retrait du contenu sous 24 heures, un délai inspiré de la loi allemande NetzDG. Les amendements de la rapporteure ont toutefois été rejetés et, lors de sa session plénière de janvier 2022, le Parlement européen ne devrait pas réintroduire la voie de retrait rapide de contenu.

L’orientation générale du Conseil de l’Union européenne du 25 novembre 2021 intègre néanmoins une obligation de modération rapide des contenus haineux pour les très grandes plateformes à l’article 26 du DSA. La proposition initiale de la Commission prévoyait que ces acteurs devaient mettre en place des mesures d’atténuation raisonnables, proportionnées et efficaces. Le Conseil a procédé à deux ajouts :

Les très grandes plateformes en ligne doivent tenir compte de l’incidence de ces mesures sur les droits fondamentaux ;

Ces mesures peuvent comprendre « l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des avis relatifs à des types spécifiques de contenus illicites et, le cas échéant, la suppression rapide ou le blocage de l’accès aux contenus signalés, en particulier pour la majorité des discours de haine illégaux […] ».

L’orientation générale du Conseil n’inclut pas de délai spécifique dans l’article 26. Le considérant 46 du texte prévoit néanmoins que « A titre de référence indicative actuelle, en vertu du code de conduite de 2016 pour la lutte contre les discours haineux en ligne, les fournisseurs participants s’engagent à examiner en moins de 24 heures la majorité des notifications valides soumises par des signaleurs de confiance en vue du retrait des discours de haine illégaux. Le traitement d’autres types de contenus illicites peut nécessiter un délai plus long, en fonction des faits et circonstances spécifiques et des types de contenus illicites en cause ». La mention du code de conduite de 2016([66]) permet ainsi une référence au délai de 24 heures, qui n’est pas reprise dans les articles du DSA. La fixation d’un délai précis inciterait en effet les très grandes plateformes à l’épuiser, et pourrait créer un retard dans la suppression du contenu. En outre, avec le progrès technique, le délai de 24 heures pourrait sembler long dans quelques années, alors même que le DSA a pour ambition de s’inscrire dans la durée. La position du Conseil retient ainsi, à l’article 26 du texte, la nécessité de retirer avec « rapidité » les discours de haine illégaux.

Vos rapporteures soutiennent pleinement l’idée d’instaurer une voie de retrait rapide, sans préciser de délai maximal, pour les contenus en ligne présentant un risque particulier. À ce titre, l’option retenue par le Conseil doit être reprise au stade des trilogues, et intégrée dans le texte final. Vos rapporteures s’interrogent toutefois sur la possibilité d’étendre l’obligation de retrait rapide de certains contenus à l’ensemble des hébergeurs, alors que la position du Conseil ne cantonne ce devoir qu’aux très grandes plateformes en ligne.

Recommandation 8 : Instaurer une voie de retrait des contenus « à fort impact », pour lesquels le fournisseur de services en ligne a une obligation de retrait ou de blocage rapide.

2.   La consolidation des obligations relatives à la publicité ciblée

La proposition de règlement de la Commission propose de renforcer les obligations de transparence des plateformes et des très grandes plateformes en ligne en matière de publicité. L’article 24 du DSA, applicable à toutes les plateformes, vise à ce que les bénéficiaires du service puissent, pour chaque publicité :

Se rendre compte que les informations affichées sont de la publicité ;

Identifier la personne physique ou morale pour le compte de laquelle la publicité est affichée ;

Obtenir des informations utiles concernant les principaux paramètres utilisés pour déterminer le bénéficiaire auquel la publicité est présentée.

L’article 30 du DSA pose des obligations supplémentaires de transparence renforcée de la publicité en ligne pour les très grandes plateformes. Ces acteurs doivent ainsi tenir et mettre à disposition du public, pendant un an, un registre contenant plusieurs informations, notamment la période au cours de laquelle la publicité était affichée. La très grande plateforme doit également indiquer si la publicité était destinée à être présentée spécifiquement pour un ou plusieurs groupes particuliers de bénéficiaires du service et les principaux paramètres de ciblage utilisés. La Commission européenne a également annoncé une proposition de règlement complémentaire sur la publicité politique.

Proposition de règlement de la Commission
sur la transparence et le ciblage de la publicité politique

Le 25 novembre 2021, la Commission a présenté un projet de règlement([67]) sur la transparence de la publicité politique en ligne. Ce texte interdit par défaut le ciblage des publicités politiques fondé sur des données sensibles, sauf consentement explicite ou lien préalable avec l’organisation. L’objectif est de lutter contre les techniques de ciblage automatisé, à l’origine de l’affaire Cambridge Analytica.

Si aucune modification substantielle n’a été apportée par le Conseil aux articles 24 et 30 du DSA, la question de la publicité en ligne a fait l’objet de nombreux débats au Parlement européen. Certains eurodéputés (notamment du groupe La Gauche) plaidaient pour une suppression progressive de la publicité ciblée, estimant que le simple consentement de l’utilisateur n’est pas suffisamment protecteur. Cette position s’appuie notamment sur l’avis du comité européen de la protection des données sur le DSA([68]), qui plaide pour une interdiction de la publicité ciblée reposant sur un suivi omniprésent, ainsi que sur des restrictions en ce qui concerne les catégories de données pouvant être traitées à des fins de ciblage. À l’inverse, la plupart des députés européens membres du groupe PPE ont rappelé que la publicité ciblée était un moyen essentiel pour les petites et moyennes entreprises de toucher leur clientèle, plaidant pour un renforcement des obligations de transparence et non une interdiction. Le groupe Les Verts/ALE a plaidé pour la désactivation par défaut de la publicité ciblée, le choix final revenant aux utilisateurs.

In fine, le texte adopté par la commission IMCO ne retient pas la suppression progressive de la publicité ciblée. Le texte prévoit en revanche des choix plus transparents pour tous les bénéficiaires de services, notamment sur la façon dont leurs données seront monétisées, ainsi qu’une meilleure protection des mineurs en ce qui concerne le marketing direct, le profilage et la publicité comportementale ciblée à des fins commerciales. Vos rapporteures soutiennent le renforcement des obligations de transparence des fournisseurs de services numériques tel qu’il résulte du vote au Parlement européen. Ces nouvelles obligations doivent être reprises au stade du trilogue avec le Conseil et la Commission européenne.

En complément, vos rapporteures se prononcent en faveur d’une possibilité simplifiée pour l’utilisateur de désactiver le ciblage publicitaire. Le fournisseur de services numériques doit notamment indiquer de façon claire et intelligible comment interrompre ce ciblage, après que l’utilisateur a donné son accord lors de la première visite sur le site Internet. En outre, dans l’hypothèse d’un refus, le fournisseur de services en ligne ne doit pas l’inciter à activer le ciblage, en formulant une demande d’autorisation à chaque visite.

Recommandation 9 : Reprendre, au stade du trilogue, les obligations de transparence en matière de publicité telles que consolidées par le Parlement européen et faciliter pour l’utilisateur la possibilité de désactiver le ciblage publicitaire.

 

La nécessaire protection des annonceurs
contre l’association de leur publicité à un contenu illicite

Si les obligations de transparence sont bien prises en compte par le DSA, la question de la protection des images de marque n’est pas explicitement incluse dans la proposition de règlement.

Les annonceurs ne choisissent pas explicitement la liste des sites sur lesquels leurs publicités vont apparaître, mais font appel à des services d’intermédiation proposant des espaces publicitaires([69]). La valeur ajoutée de ces services d’intermédiation est de placer des publicités pertinentes en fonction du visiteur et du site qu’il visite, sans intervention de l’annonceur à chaque affichage publicitaire.

Un site promouvant ou proposant des contenus illicites peut dès lors s’inscrire à un service d’intermédiation et afficher des publicités. Ce site pourra être retiré par le service s’il est repéré, mais tant qu’il ne l’est pas, des publicités seront affichées et il en tirera des profits. L’annonceur n’a en général pas d’intérêt économique à afficher ses publicités sur un site avec des contenus illégaux, justement pour des raisons d’image de sa marque.

Le même type de phénomène est constaté sur les grandes plateformes, qui proposent aux annonceurs des solutions technologiques d’affichage de leurs publicités. Les annonceurs n’ont toutefois pas le choix de l’emplacement précis de leur publicité sur la plateforme. Ils doivent donc s’en remettre aux outils déployés par les très grandes plateformes pour qu’elles garantissent le respect de leur image de marque. Il peut ainsi arriver qu’un contenu illicite posté par un utilisateur, comme une vidéo, soit associé à une publicité (en début, milieu ou fin de vidéo), sans que l’annonceur l’ait choisi et au détriment de son image de marque.

Ainsi, le DSA pourrait contribuer au à l’instauration de pratiques permettant de s’assurer que la marque d’un annonceur n’apparaît pas dans des environnements qui pourraient présenter un risque pour son image. En complément du renforcement des obligations de transparence des plateformes, le règlement pourrait également inclure les enjeux de protection des marques en donnant aux annonceurs le pouvoir de choisir leurs encarts publicitaires en ligne.

B.   Le pÉrimÈtre des acteurs concernÉs doit être précisÉ et Élargi

1.   L’inclusion des moteurs de recherche et des plateformes de streaming dans le champ du DSA

Les moteurs de recherches ne sont pas inclus dans la proposition de règlement DSA de la Commission.

Le DSA définit les services intermédiaires et les services d’hébergement à au point f de l’article 2. Ainsi, au sens de la Commission, un service d’hébergement consiste à « stocker des informations fournies par un bénéficiaire du service à la demande de ce dernier ». Or, les moteurs de recherche n’effectuent pas de stockage d’informations ce qui constitue un premier élément d’exclusion de la définition.

En outre, les sites référencés par les moteurs de recherche ne le sont pas à la demande d’un « bénéficiaire du service » au sens de l’article 2(b), défini comme « toute personne morale ou physique utilisant le service intermédiaire concerné ». Dans le cas d’un moteur de recherche, les bénéficiaires du service ne sont pas les sites référencés mais sont les internautes qui effectuent des recherches. La demande de stockage d’information n’émane donc pas des bénéficiaires du service, ce qui constitue un second élément d’exclusion de la définition.

L’orientation générale adoptée par le Conseil le 25 novembre 2021 inclut explicitement les moteurs de recherche en ligne dans le périmètre de réglementation du DSA, afin de leur imposer le socle commun d’obligations applicables à tous les services intermédiaires. Le Conseil définit les moteurs de recherche comme un service permettant à ses destinataires de saisir des requêtes afin d’effectuer des recherches sur tous les sites web. Ces requêtes peuvent traiter de n’importe quel sujet et ce sous différentes formes (mot-clé, demande vocale, phrase, etc.). Ces requêtes renvoient ensuite les résultats dans n’importe quel format sur les informations relatives au contenu demandé qui peuvent être trouvées.

Vos rapporteures soutiennent cette proposition, au regard de l’importance des moteurs de recherche dans la diffusion des contenus illicites. Les moteurs de recherche annexent en effet de manière automatique tout ce qui est présent sur Internet sans avoir la main sur le contenu. Ils sont ainsi une porte d’entrée vers l’information qu’il est important de superviser, notamment au regard des risques croissants de désinformation et de l’impact qu’ils peuvent avoir sur les citoyens européens. En outre, une exclusion des moteurs de recherche du champ du DSA conduirait les États membres à adopter une législation nationale pour réguler leur activité, avec un risque de fragmentation du marché unique. Les moteurs de recherche bénéficieront par ailleurs de l’exonération de responsabilité dans les mêmes conditions que l’ensemble des prestataires de services en ligne.

Vos rapporteures soutiennent également la proposition du Conseil d’ajout d’une catégorie de « très grands moteurs de recherche en ligne ». Sur le modèle des « très grandes plateformes », les moteurs de recherche qui comptabilisent plus de 45 millions d’utilisateurs actifs dans l’Union européenne devront assumer des obligations supplémentaires, définies à la section IV du chapitre III du règlement. Au regard de leur activité spécifique, les très grands moteurs de recherche devront par exemple procéder à une évaluation des risques, prendre des mesures d’atténuation de ces risques et se soumettre à un audit indépendant. L’objectif est de limiter l’impact systémique de l’algorithme de classement des résultats et leur ordre d’apparition.

Recommandation 10 : Inclure dans le périmètre du DSA les moteurs de recherche et des obligations supplémentaires pour les très grands moteurs de recherche.

Le périmètre de réglementation du DSA n’inclut pas non plus les plateformes de streaming en ligne, qui sont des intermédiaires de diffusion en direct de contenus audio ou vidéo mis en ligne par les utilisateurs. À ce jour, la plupart des plateformes qui proposent cette fonctionnalité à titre principal (Twitch) ou à titre accessoire (Facebook) relèvent de la catégorie des hébergeurs, puisqu’elles stockent des contenus. Toutefois, une plateforme qui proposerait exclusivement la diffusion en direct de ces contenus, sans donner accès à des enregistrements, ne serait pas un hébergeur. Elle serait dès lors entièrement exemptée des obligations du DSA, à l’exception éventuelle du socle minimal applicable aux services intermédiaires de type « cache » ou « pur transport ». Cette exemption serait problématique au regard des enjeux s’attachant à la modération des contenus retransmis en direct, qui peuvent être d’une gravité particulière, à l’image des attentats de Halle ou de Christchurch, diffusés par Facebook. De plus, par contraste avec le DSA, les plateformes de streaming en direct de vidéos sont couvertes par la directive « Services de médias audiovisuels » (SMA)([70]) applicable aux plateformes de partage de vidéos, dès lors que cette directive ne se réfère pas au concept d’hébergeur.

Ces plateformes pouvant être utilisées comme porte d’entrée de contenus illégaux, vos rapporteures proposent de les inclure dans le périmètre du DSA afin que les obligations de transparence et de suppression des contenus illicites dans un délai rapide puissent leur être applicables.

Recommandation 11 : Inclure dans le périmètre du DSA les plateformes de streaming en ligne.

Le commerce en ligne, par l’intermédiaire de places de marché numériques, concerne un nombre croissant d’utilisateurs : en 2020, 73 % de la population de l’Union avait déjà bénéficié des services d’une place de marché en ligne, pour un volume de ventes de plus de 757 milliards d’euros. Les États dont les habitants ont le plus recours au commerce en ligne sont l’Allemagne (88 % de e-shoppers), la France (79 %) et l’Espagne (70 %).

Source : Infographie du Conseil de l’Union européenne – Statista

Les bénéfices attendus de la lutte contre les contenus illicites sur le marché numérique européen([71])

La diminution des produits contrefaits dans les ventes en ligne pourrait entraîner un gain de consommation de 2,8 milliards d’euros pour les films, la musique et les jeux, et 300 millions d’euros pour les livres numériques.

Le marché numérique européen doit permettre une augmentation de 13,5 % des consommateurs transfrontaliers. Les petites et moyennes entreprises pourraient économiser 15,5 milliards d’euros en coûts de transaction en ligne.

La proposition de règlement de la Commission européenne vise ainsi à réglementer l’ensemble des fournisseurs de services numériques, dont les places de marché en ligne. Le texte publié le 15 décembre 2020 par la Commission ne différencie toutefois pas les places de marché des autres plateformes numériques : les obligations qui leur incombent sont ainsi les mêmes. La distinction entre les plateformes et les très grandes plateformes en ligne, induisant des obligations supplémentaires pour les très grandes plateformes, est également applicable aux places de marché en ligne. Ainsi, les très grandes places de marché en ligne, qui comptent un nombre d’utilisateurs actifs supérieur à 45 millions par mois, sont soumises à des exigences renforcées, notamment en matière de transparence.

Les négociations, tant au Parlement européen qu’au Conseil de l’Union européenne, se sont concentrées sur la question de renforcer davantage encore la responsabilité des places de marché en ligne, en leur imposant des obligations spécifiques. L’approche purement transversale du DSA a ainsi évolué au cours des négociations, afin de couvrir le sujet spécifique et sectoriel du commerce électronique.

Le Parlement européen a, au cours des négociations, renforcé les obligations spécifiques des places de marché en ligne. Le texte de la commission IMCO, adopté le 15 décembre 2021, vise à garantir que les places de marché en ligne qui ne remplissent pas d’obligations de diligence suffisantes, ne bénéficient pas de l’exemption de responsabilité lorsqu’elles vendent des produits et services illicites. Le Parlement européen a également débattu de l’opportunité d’introduire une exigence de « Stay Down » pour les produits et services illicites.

L’orientation générale du Conseil de l’Union européenne du 25 novembre 2021 précise la définition des places de marché en ligne. Ainsi, au sens du Conseil, une place de marché en ligne est « une plateforme en ligne permettant aux consommateurs de conclure des contrats à distance avec des vendeurs ». La position du Conseil inclut également une nouvelle section III bis intitulée « Dispositions applicables aux fournisseurs de place de marché en ligne », imposant des obligations spécifiques à cette catégorie d’acteurs, comme le renforcement de la traçabilité des professionnels, l’interdiction de concevoir une interface trompeuse, et le droit à l’information des utilisateurs clients.

a.   La consolidation de l’obligation d’identifier les partenaires commerciaux

La proposition de règlement DSA de la Commission manque d’obligations concrètes pour garantir la responsabilité des partenaires commerciaux et empêcher la prolifération de contenus illégaux, en particulier de produits contrefaits.

L’article 22 du DSA instaure une obligation de traçabilité des professionnels (ou Know Your Business Customer – KYBC). Cet article impose aux plateformes et aux très grandes plateformes en ligne de recueillir des informations sur les professionnels qui utilisent leur plateforme notamment le nom, l’adresse, le numéro de téléphone, le courriel, un exemplaire du document d’identification du professionnel ou les coordonnées bancaires. Cet article exige également des plateformes qu’elles vérifient la validité de ces informations : lorsque les renseignements sont incomplets, la plateforme devra suspendre ses prestations en ligne.

Les positions du Parlement européen et du Conseil ont conduit à renforcer l’obligation de traçabilité des professionnels à la charge des places de marché en ligne. Le texte de la commission IMCO prévoit ainsi la vérification de certaines informations fournies par le vendeur et l’obligation pour les plateformes d’une interface en ligne : les vendeurs pourraient ainsi saisir toutes les informations qu’ils doivent partager avec les consommateurs avant une mise en vente.

De son côté, l’orientation générale du Conseil du 25 novembre 2021 ainsi que les intermédiaires doivent fournir leurs « meilleurs efforts » pour identifier les vendeurs professionnels, alors que le texte initial de la Commission prévoyait la fourniture d’efforts « raisonnables ».

Vos rapporteures soutiennent l’idée d’un renforcement de l’obligation de traçabilité des vendeurs: sans vérification de leur identité, les consommateurs peuvent être privés de mécanismes de recours effectifs. Ainsi, vos rapporteures plaident pour un double élargissement du périmètre de cette obligation. D’une part, il paraît nécessaire pour l’effectivité du texte que les obligations de traçabilité concernent à la fois les nouveaux vendeurs et les vendeurs déjà présents sur la plateforme. D’autre part, pour garantir une sécurité du commerce en ligne, les petites et moyennes entreprises doivent également être incluses dans le périmètre de l’obligation. Cette seconde piste d’évolution nécessite une dérogation à l’article 16 du DSA, qui prévoit que la section portant sur les obligations des plateformes en ligne ne s’applique pas aux microentreprises ou aux petites entreprises([72]).

Recommandation 12 : Étendre le périmètre de l’obligation de traçabilité des vendeurs professionnels aux petites entreprises et aux vendeurs existants.

Néanmoins, afin de ne pas imposer de charges trop lourdes aux plateformes et notamment à celles pouvant être qualifiées de microentreprises ou de petites entreprises, une harmonisation avec les législations existantes doit être envisagée. À titre d’exemple, plusieurs places de marché en ligne, comme eBay, opèrent également comme prestataires de services de paiement et doivent ainsi respecter la législation spécifique, notamment la directive sur la lutte contre le blanchiment de capitaux([73]) qui implique le relevé de différentes informations du vendeur.

Vos rapporteures relèvent ainsi l’importance d’aligner le système de traçabilité des vendeurs professionnels sur les législations existantes, afin de concentrer les efforts sur les données pertinentes d’identification sans créer d’obligations inutiles. Par exemple, le DSA prévoit la collecte systématique de la copie du document d’identité des vendeurs, tandis que la plupart des législations existantes ne prévoient pas la communication de ce document. La législation sur le blanchiment de capitaux prévoit par exemple une communication de l’identité du vendeur sans copie de la pièce d’identité : les plateformes vérifient ensuite les données communiquées sur les bases publiques ou privées. En cas d’échec de la vérification seulement, la copie du document officiel est demandée([74]).

Vos rapporteures proposent que la liste des informations requises soit harmonisée avec les législations déjà en vigueur, notamment la directive sur le blanchiment de capitaux, la directive sur la coopération administrative 7([75]) et le règlement sur la sécurité des produits, en cours de révision([76]). En suivant un principe de minimisation de collecte des données, il serait préférable que le recours à la vérification de copie de documents soit effectué en dernier ressort, comme prévu dans la législation actuelle.

Recommandation 13 : Harmoniser la liste d’informations requises pour la traçabilité des vendeurs avec celles des législations déjà existantes.

b.   La possibilité d’engager la responsabilité de la plateforme dans l’hypothèse où le tiers n’a pas de représentant dans l’Union

Dans un objectif de protection des consommateurs, la rapporteure du DSA pour la commission IMCO au Parlement européen, Mme Christel Schaldemose, a proposé un nouvel article qui énonce des conditions plus strictes pour les exemptions de responsabilité visant spécifiquement les places de marché en ligne. Le principe du safe harbor est d’ailleurs renversé : une plateforme ne bénéficie pas de l’exemption de responsabilité en ligne, sauf si elle remplit des obligations de diligence particulières, dont la traçabilité des vendeurs professionnels.

L’article prévoyait en outre que la place de marché en ligne ne bénéficie pas de l’exemption de responsabilité si elle permet aux consommateurs de conclure des contrats à distance avec des professionnels de pays tiers, lorsqu’aucun opérateur économique au sein de l’Union n’est responsable de la sécurité des produits, ou lorsque l’opérateur économique est disponible, mais ne répond pas aux réclamations. Dans cette hypothèse, selon les voies de recours du droit civil propres à chaque État membre, les consommateurs seront en mesure de déposer un recours contre la plateforme en ligne, laquelle pourra alors dans ce cas se retourner contre le professionnel.

Vos rapporteures soutiennent l’insertion de cet article, de manière à assurer une responsabilité pour tout produit vendu à des consommateurs européens par voie électronique. L’absence de représentant du professionnel dans l’Union européenne pourrait en effet dissuader le consommateur d’introduire une réclamation ou un recours : substituer la responsabilité de la place de marché à celle du vendeur est, dans cette hypothèse, une solution efficace pour lutter contre cet écueil.

Cette protection des consommateurs existe déjà dans l’hypothèse où la place de marché en ligne est elle-même venderesse de produits. D’une part, la directive sur la responsabilité du fait des produits défectueux([77]) offre un recours fondé sur le défaut de sécurité des produits contre tout fournisseur, dans l’hypothèse où il est impossible d’identifier le producteur. D’autre part, le droit de la consommation ([78]) permet à tout consommateur de former un recours fondé sur la garantie de conformité des produits contre un vendeur professionnel. Toutefois, toutes les places de marché en ligne ne revêtent pas la qualification de fournisseur ou de vendeur professionnel, certaines d’entre elles n’opérant qu’une mise en relation entre les consommateurs et les tiers.

Vos rapporteures soutiennent ainsi un élargissement de la protection prévue par le droit de la consommation, en rendant systématiquement les places de marché responsables dans l’hypothèse où le tiers n’a pas de représentant légal dans l’Union européenne.

Recommandation 14 : Rendre systématiquement les places de marché responsables dans l’hypothèse où le tiers n’a pas de représentant légal dans l’Union européenne

c.   La qualification des très grandes places de marché en ligne

L’article 25 de la proposition de règlement de la Commission définit les très grandes plateformes comme des « plateformes en ligne fournissant leurs services à un nombre mensuel moyen de bénéficiaires actifs du service au sein de l’Union égal ou supérieur à 45 millions », calculé conformément à une méthodologie établie par la Commission, au moyen d’actes délégués. La distinction entre les plateformes et les très grandes plateformes en ligne est également applicable aux places de marché. Ainsi, une place de marché comptabilisant un nombre égal ou supérieur à 45 millions de bénéficiaires du service par mois, est une très grande plateforme. La conséquence de cette qualification est que la place de marché devra remplir les obligations de diligence prévues à la section IV du chapitre III du DSA, notamment en matière de transparence et d’évaluation des risques.

Or, le point b de l’article 2 de la proposition de règlement DSA définit un bénéficiaire du service comme « toute personne morale ou physique utilisant le service intermédiaire concerné ». Le concept « d’utilisation d’un service intermédiaire » est cependant flou, et peut différer de l’intermédiaire en ligne, selon la nature du service fourni.

La comptabilisation d’un utilisateur ne peut en effet pas être la même pour une plateforme de réseau social et pour une place de marché en ligne. Sur un réseau social, une simple visite du site internet suffit pour accéder au contenu principal et déclencher une rémunération de la plateforme, le plus souvent au moyen des publicités apparaissant sur l’écran de l’utilisateur. En revanche, comptabiliser un bénéficiaire du service au regard des seules visites du site internet est problématique pour les places de marché en ligne. L’essentiel de la rémunération des places de marché en ligne n’est en effet pas lié à l’apparition de publicités touchant les visiteurs, mais aux commissions réalisées sur chaque transaction d’un acheteur.

De fait, imposer aux places de marché en ligne les obligations spécifiques aux très grandes plateformes en ligne à partir de 45 millions de visites paraît sévère. Une visite sans identification de l’utilisateur, n’équivaut en effet pas à un achat : de nombreux utilisateurs visiteront le site sans acheter de produits, limitant ainsi la rémunération de l’intermédiaire.

Afin de tenir compte de cette différence, vos rapporteures proposent de définir la notion de « bénéficiaire du service » en fonction du type de plateforme et en l’adaptant pour les places de marché en ligne. Ainsi, pour les réseaux sociaux, un visiteur doit être qualifié de bénéficiaire du service. À l’inverse, le bénéficiaire d’un service de places de marché en ligne, doit être défini comme l’utilisateur ayant effectué une transaction. La simple consultation d’un service sans achat, connexion ou autre identification active d’un utilisateur ne doit pas être considérée comme un utilisateur actif. La qualification de « très grande place de marché en ligne » interviendrait donc lorsque la plateforme enregistre plus de 45 millions de transactions par mois.

L’orientation générale du Conseil du 25 novembre 2021 prévoit une définition très large de l’utilisateur actif au considérant 54 du DSA, et procède dans l’article 2 du texte à une distinction entre le bénéficiaire actif d’une plateforme en ligne et le bénéficiaire actif d’un moteur de recherche en ligne. Le bénéficiaire d’une plateforme en ligne est « le bénéficiaire du service qui a été en contact avec une plateforme en ligne en lui demandant d’héberger du contenu ou en étant exposé au contenu hébergé par la plateforme en ligne et diffusé par son interface en ligne ». Le bénéficiaire d’un moteur de recherche en ligne est « un bénéficiaire du service qui a été en contact avec le moteur de recherche en ligne en l’interrogeant et en étant exposé au contenu indexé et présenté sur son interface en ligne ». La distinction de définition du bénéficiaire du service selon le type de service en ligne doit néanmoins être encore étendue aux places de marché en ligne.

Recommandation 15 : Définir dans le texte la notion de bénéficiaire du service en tenant compte du type de plateforme et de la façon dont la plateforme monétise ses utilisateurs (acheteurs pour les places de marché en ligne, visiteurs pour les autres plateformes)([79]).

En retenant le critère de la transaction pour qualifier le bénéficiaire d’un service de place de marché en ligne, le seuil de 45 millions pour qualifier une très grande place de marché semble trop élevé. Il est nécessaire d’abaisser ce seuil afin que les places de marché les plus importantes ne puissent échapper aux obligations incombant aux très grandes plateformes en ligne.

Recommandation 16 : Abaisser le seuil de 45 millions de bénéficiaires du service pour la qualification de très grandes places de marché en ligne.

d.   L’absence de distinction trop marquée entre les obligations des places de marché et celles des autres plateformes

Le DSA est un instrument à vocation horizontale, qui a pour ambition d’imposer une régulation des contenus à l’ensemble des fournisseurs de services numériques. Par conséquent, le règlement ne doit pas devenir une régulation sectorielle qui régulerait chaque catégorie d’intermédiaire en ligne de manière spécifique. Le risque serait alors celui de fragmentation, de complexité et de perte de cohérence de la législation.

En outre, depuis 2017, un phénomène d’hybridation caractérise le marché numérique. De plus en plus, les réseaux sociaux et les places de marché en ligne se confondent, créant de nouveaux modèles de développement. Plusieurs plateformes relèvent ainsi, selon la branche du service considéré, à la fois de la qualification de réseau social et de place de marché en ligne.

Il en va ainsi des entreprises Facebook et Instagram. L’entreprise Facebook a importé sa fonction Marketplace en 2017 en France et dans d’autres pays européens. Cette plateforme permet aux commerçants et aux particuliers de proposer des marchandises à la vente. Dans un rapport du premier trimestre de 2021([80]) publié le 28 avril, le président-directeur général de l’entreprise avait annoncé que la section Marketplace attirait 250 millions d’utilisateurs par mois dans le monde. Le modèle d’Instagram Shopping, plateforme lancée par Instagram en 2018 diffère de celui de Facebook, en ce qu’il permet seulement aux commerçants professionnels de vendre leurs produits par le biais de boutiques en ligne sur la plateforme et de publications d’achat. En 2019, 130 millions d’utilisateurs par mois cliquaient sur une publication d’achat pour se renseigner sur les produits ([81]).

Vos rapporteures soulignent ainsi que les obligations qui s’imposent aux places de marché en ligne et aux réseaux sociaux doivent rester relativement homogènes. À l’heure de l’hybridation du marché numérique, les réseaux sociaux et les places de marché se confondent de plus en plus. Faire une distinction trop marquée entre ces acteurs dans la législation sur les services numériques reviendrait à ne pas tenir compte de ce risque d’hybridation. Le premier risque serait ainsi de faciliter les possibilités pour les intermédiaires hybrides d’échapper aux obligations de diligence imposées par le DSA. Le second risque est celui de l’obsolescence rapide du règlement, au regard des évolutions du marché numérique.

Recommandation 17 : Éviter de créer une distinction trop marquée entre les réseaux sociaux et les places de marché en ligne, pour prendre en compte le phénomène d’hybridation existant entre ces deux catégories d’acteurs.

 

III.   le CONTRÔLE DES OBLIGATIONS DU DSA DOIT ÊTRE RENDU PLUS EFFICACE

A.   LE CONTRÔLE DES OBLIGATIONS DU DSA IMPLIQUE UNE éVOLUTION de l’architecture institutionnelle existante

Le chapitre IV de la proposition de règlement de la Commission prévoit la création de nouvelles autorités pour le contrôle des obligations du DSA. Chaque État membre disposera ainsi d’un coordinateur pour les services numériques. Au niveau européen, un comité européen des services numériques doit également être créé, regroupant l’ensemble des coordinateurs nationaux. Enfin, la Commission a également un rôle spécifique à jouer pour le contrôle des obligations des très grandes plateformes en ligne.

1.   La création d’un réseau d’autorités pour le contrôle du DSA ne doit pas conduire à construire une structure parallèle aux autorités existantes

a.   La création du coordinateur pour les services numériques

La responsabilité de la mise en œuvre du DSA est dévolue en premier lieu aux États membres, avec la nomination dans chacun d’eux, d’une ou plusieurs autorités compétentes, qui peuvent être chargées de la supervision de certains aspects. En sus, les États doivent désigner un coordinateur pour les services numériques, responsable de tous les sujets relevant de l’application du règlement par les plateformes établies dans État, et représentant ce dernier au sein du comité européen des services numériques. La création des coordinateurs de services nationaux crée ainsi une strate supplémentaire de coordination au niveau national, entre plusieurs autorités sectorielles.

En France, la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), pourrait ainsi être chargée du contrôle des obligations des places de marché découlant du DSA. L’autorité de régulation de la communication audiovisuelle et numérique (Arcom), née au 1er janvier 2022 de la fusion du conseil supérieur de l’audiovisuel (CSA) et de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi)([82]),  pourrait être chargée du respect du contrôle des autres obligations de diligence imposées aux plateformes de contenus en ligne.

Pouvoirs des coordinateurs pour les services numériques et sanctions

Les pouvoirs des coordinateurs nationaux se rapprochent des pouvoirs des autorités nationales compétentes en matière de concurrence.

Selon l’article 41 du DSA, le coordinateur pour les services numériques dispose de pouvoirs d’enquêtes à l’égard des fournisseurs de services intermédiaires relevant de la compétence de leur Etat-membre. Ils ont notamment le pouvoir d’exiger de ces fournisseurs la communication d’informations et de procéder à des inspections sur place. Les coordinateurs nationaux disposent également de pouvoir d’exécution à l’égard des fournisseurs de services numériques, avec la possibilité d’imposer des amendes ou des astreintes.

Lorsque l’infraction persiste et entraîne un préjudice grave impliquant une menace pour la vie ou la sécurité des personnes, le coordinateur peut demander à l’autorité judiciaire compétente de l’État membre d’ordonner la limitation temporaire de l’accès des bénéficiaires du service concerné par l’infraction.

Selon l’article 42 de la proposition de règlement, les États membres déterminent le régime de sanctions applicables aux violations du règlement par les fournisseurs de services relevant de leur compétence. Les sanctions ne peuvent excéder 6 % des revenus ou du chiffre d’affaires annuel de l’intermédiaire en ligne en cas de manquement aux obligations établies dans le règlement. La sanction maximale pour la fourniture d’informations inexactes est de 1 % du chiffre d’affaires annuel et les astreintes sont fixées à un montant maximal de 5 % du chiffre d’affaires quotidien moyen.

 

La création des coordinateurs des services numériques répond à un souhait de simplicité de la part de la Commission. Les institutions européennes disposeraient en effet d’un guichet unique de contact pour les questions relatives à l’application de la législation sur les services numériques, sans avoir à rechercher dans chaque État membre quelle est l’autorité compétente.

Cette simplicité du point de vue européen peut néanmoins être source de confusion au niveau des États([83]). Vos rapporteures plaident ainsi pour une clarification et une précision du rôle du coordinateur des services numériques. La création de cette nouvelle strate de régulation pourrait en effet être porteuse de deux écueils. Dans certains domaines d’abord, les obligations du DSA pourraient se cumuler à celles imposées par d’autres législations (la directive SMA par exemple, pour les plateformes de streaming en direct). Dès lors, la création du coordinateur national ne doit pas être une menace pour l’indépendance de la régulation sectorielle. Ensuite, le DSA ne doit pas empêcher une mise en œuvre efficace et rapide des règles en raison de l’obligation de se coordonner avec d’autres autorités nationales. Le rôle de la nouvelle autorité doit ainsi se limiter aux cas de besoins avérés de coordination.

Recommandation 18 : Donner au niveau national un seul rôle de coordination à la nouvelle autorité pour les services numériques, afin de ne remettre en cause ni l’indépendance ni l’efficacité des institutions existantes.

b.   L’appui sur les réseaux européens existants

L’article 47 de la proposition de règlement DSA prévoit la création d’un comité européen des services numériques, composé des coordinateurs de tous les États membres et présidé par la Commission. Ce comité est chargé de conseiller les coordinateurs nationaux pour l’application cohérente du règlement, de les assister dans l’analyse des rapports et résultats des audits réalisés auprès des très grandes plateformes en ligne et de soutenir l’organisation d’enquêtes communes. Il assiste également la Commission pour la régulation des très grandes plateformes. Les avis du Comité sont facultatifs : les coordinateurs nationaux ont toutefois l’obligation de motiver un choix qui divergerait de la position du Comité.

Vos rapporteures considèrent que la création du Comité avec des fonctions opérationnelles, ne doit pas conduire à écarter l’expertise développée par les réseaux européens de coopération existants. À titre d’exemple, pour la régulation des plateformes de contenus en ligne, le European regulators group for audiovisual media (ERGA) est un organe consultatif de la Commission européenne créé en 2014, qui rassemble les dirigeants des autorités de régulation de l’audiovisuel des vingt-sept États membres de l’Union. Son rôle est d’apporter une contribution coordonnée et opérationnelle des régulateurs sur toute question relative aux services de médias audiovisuels et le cadre réglementaire européen. Il est essentiel que le Comité s’appuie sur l’expertise développée par l’ERGA depuis plus de huit ans, afin de tenir compte des spécificités de ce domaine de régulation sectorielle.

Recommandation 19 : Privilégier le renforcement de réseaux européens de coopération existants, comme l’ERGA en matière de régulation des plateformes de contenus en ligne, à la création d’un comité européen des services numériques.

2.   Le renforcement des pouvoirs de la Commission pour le contrôle des obligations des très grandes plateformes en ligne

La proposition de règlement initiale DSA prévoit que la Commission européenne est chargée de publier des lignes directrices ou des codes de conduite (pour contribuer à la bonne application du règlement, par exemple en matière de publicité en ligne ou de lutte contre les risques systémiques), de rendre des avis sur les rapports d’audit des très grandes plateformes, et d’aider à l’organisation d’enquêtes conjointes.

La Commission européenne se voit également confiés des pouvoirs de supervision directe des très grandes plateformes et peut intervenir de sa propre initiative ou à la demande du Comité. L’article 50 du règlement prévoit ainsi que la procédure de surveillance renforcée peut être ouverte dans trois hypothèses :

Si la très grande plateforme est soupçonnée d’avoir enfreint les obligations du DSA et que le coordinateur de l’État membre d’établissement n’a adopté aucune mesure d’enquête ou de coercition, malgré la demande de la Commission ;

Si la très grande plateforme est soupçonnée d’avoir enfreint les obligations du DSA alors que le coordinateur de l’État membre d’établissement a demandé à la Commission d’intervenir ;

Si la très grande plateforme est considérée comme ayant enfreint l’une des obligations spécifiques prévues pour ce type d’intermédiaires (à la section IV du chapitre III), à l’expiration d’un délai permettant à la plateforme de se conformer à ces obligations.

La Commission dispose alors du pouvoir de demander des renseignements à la très grande plateforme concernée, de mener des entretiens et de recueillir des déclarations, d’effectuer des inspections sur place, d’ordonner des mesures provisoires et de rendre obligatoires les engagements pris par la plateforme.

En cas de non-respect continu des dispositions pertinentes du règlement, des mesures provisoires ou des engagements, la Commission peut prendre une décision de manquement. Sur le modèle des pouvoirs des coordinateurs nationaux, elle peut alors infliger à la très grande plateforme des amendes jusqu’à 6 % du chiffre d’affaires. La Commission peut également contraindre l’intermédiaire numérique par voie d’astreinte, d’un montant maximal de 5 % du chiffre d’affaires journalier, par exemple pour l’obtention de renseignements, la soumission à une inspection sur place, ou le respect d’engagements obligatoires.

L’orientation générale du Conseil du 25 novembre 2021 a toutefois modifié la répartition des compétences entre le coordinateur national pour les services numériques de l’État membre d’établissement et la Commission. La position du Conseil prévoit en effet que la Commission « dispose de pouvoirs exclusifs en matière de supervision et de contrôle de l’application des obligations qui incombent aux très grandes plateformes en ligne ou aux très grands moteurs de recherche en ligne ». Les obligations visées sont à la fois celles spécifiques à cette catégorie d’intermédiaires, mais aussi l’ensemble des obligations que les très grandes plateformes doivent respecter (communes aux fournisseurs de services en ligne, aux hébergeurs, et aux plateformes).

De son côté, l’État membre d’établissement dispose « de compétences exclusives pour la supervision et le contrôle de l’application, par les coordinateurs pour les services numériques, des obligations fixées par le présent règlement », pour l’ensemble des fournisseurs de services numériques, en dehors des très grandes plateformes en ligne. Ce n’est que dans la mesure où la Commission n’a pas engagé de procédure concernant une violation supposée de la même obligation, que l’État membre d’établissement est habilité à superviser et à contrôler le respect des obligations fixées par le DSA pour les très grandes plateformes, autres que celles visées au chapitre III, section IV (obligations spécifiques aux très grandes plateformes).

En pratique, la Commission peut exercer ses pouvoirs, notamment d’enquête, à l’égard des très grandes plateformes en ligne, soit de sa propre initiative, soit à la demande d’un coordinateur pour les services numériques. Un système de partage d’informations entre les coordinateurs nationaux et la Commission est ainsi établi. L’engagement d’une procédure par la Commission relève du coordinateur pour les services numériques de ses compétences de surveillance et de coercition, même si la Commission peut demander l’aide individuelle ou conjointe de ces autorités nationales.

Les modalités de contrôle des obligations du DSA sont ainsi proches du mécanisme à double détente existant en droit de la concurrence, avec une compétence des autorités nationales pour les acteurs de taille nationale, et une compétence exclusive de la Commission pour les acteurs de taille européenne ou mondiale. Le renforcement par le Conseil des prérogatives d’inspection de la Commission opère par ailleurs un rapprochement avec ses pouvoirs en matière de concurrence : accès aux locaux, possibilité de contrôle des livres et documents en rapport avec l’activité, possibilité d’apposer des scellés…

Vos rapporteures soutiennent le choix du Conseil de donner un pouvoir exclusif à la Commission européenne pour le contrôle des obligations des très grandes plateformes. Ce mécanisme permet d’atténuer l’application du principe d’origine, qui donnait un pouvoir important à l’État membre d’établissement pour la régulation des géants du numérique. Le coordinateur national aurait ainsi pu retarder le lancement de la procédure. Ce choix permet en outre d’éviter une imprécision sur la répartition des compétences entre le pays d’établissement de la plateforme, et le pays de destination (où les utilisateurs de la plateforme se situent). Au regard de la puissance des très grandes plateformes en ligne, confier l’observation du respect de ces obligations à la Commission doit permettre un meilleur respect du DSA.

Vos rapporteures tiennent par ailleurs à souligner que cette évolution vient du Conseil, où siègent les représentants de l’exécutif des Etats-membres. Ce sont donc les autorités nationales qui ont fait le choix volontaire d’un dessaisissement au profit de la Commission, qui centralisera les prérogatives de contrôle à l’égard des très grandes plateformes. Ce choix du Conseil est ainsi un signal fort envoyé aux acteurs du numérique, et un marqueur de la nécessité de se donner les moyens d’un contrôle efficace des obligations du règlement DSA.

Recommandation 20 : Donner par principe le pouvoir de contrôle des obligations du DSA pour les très grandes plateformes à la Commission européenne, afin de garantir une meilleure efficacité du contrôle des obligations du DSA.

B.   Le principe du pays d’origine doit Être aménagé pour permettre l’efficacité du contrÔle des coordinateurs des services numériques

L’efficacité du contrôle du respect par les fournisseurs de services numériques des obligations que leur impose le DSA, ne repose pas seulement sur la qualité de l’architecture institutionnelle des autorités chargées de la supervision, mais aussi sur les moyens mis à la disposition de ces autorités.

1.   Les nécessaires aménagements à l’application du principe du pays d’origine

La proposition de règlement de la Commission repose sur le principe du pays d’origine. Ce principe est la clé de voûte de la construction du marché intérieur de l’Union et du marché des services numériques. Il s’agit, pour les services, de l’équivalent du principe de reconnaissance mutuelle en matière de marchandises. Il permet à une entreprise de service numérique, qui respecte la réglementation de l’État membre dans lequel elle est établie, de produire son service dans tous les autres États de l’Union, avec une présomption de conformité à l’ensemble des législations nationales.

Un retour sur le principe du pays d’origine donnerait à chaque État la possibilité d’interdire la prestation du service d’une entreprise établie dans un autre Etat-membre, au motif qu’elle ne respecterait pas le droit national. Une alternative serait de procéder à l’adoption de dizaines de directives sectorielles pour réaliser une harmonisation des activités de prestations de services dans l’Union : plusieurs années seraient nécessaires pour aboutir à ce résultat. Le renversement du principe du pays d’origine reviendrait ainsi à une dislocation du marché intérieur de l’Union.

Pour éviter cet écueil, l’article 40 du DSA reprend ce principe et donne à l’État membre dans lequel se situe l’établissement principal du fournisseur de services intermédiaires, la compétence pour le contrôle des obligations posées par le règlement. Si un fournisseur de services intermédiaires ne dispose pas d’un établissement au sein de l’Union, l’État membre compétent est celui dans lequel son représentant légal réside ou est établi. Si l’entreprise n’a pas désigné de représentant légal, tous les États membres sont compétents.

Toutefois, une application trop rigoureuse du principe du pays d’origine favorise l’écueil de voir quelques autorités nationales devenir les seules autorités habilitées à agir pour faire appliquer le DSA. Plusieurs plateformes ont par exemple leur siège en Irlande : le coordinateur des services numériques irlandais serait ainsi compétent pour un nombre important de fournisseurs de services intermédiaires. Le risque est alors celui d’un engorgement, avec une accumulation de demandes auprès de ces autorités nationales, qui ne disposeraient pas à elles seules des moyens ad hoc pour assurer cette mission. En outre, l’application du pays d’origine ne permet pas de prendre en compte la situation politique locale, qui est pourtant parfois primordiale pour la compréhension de la nécessité de supprimer ou non des contenus considérés comme illicites.

Vos rapporteures soulignent par ailleurs qu’une application stricte de ce principe pourrait remettre en cause l’acquis communautaire, par exemple en matière de protection des consommateurs (en matière de sécurité/conformité des produits). Une autorité nationale en charge de la protection des consommateurs devrait pouvoir intervenir directement vis-à-vis de toute place de marché dont les vendeurs ont ciblé son marché national. Vos rapporteures soutiennent ainsi un aménagement du principe du pays d’origine, en dotant les autorités du pays de destination de prérogatives d’intervention en lien avec le coordinateur des services numériques du pays d’établissement.

Le premier aménagement d’ampleur que vos rapporteures soutiennent, est le choix fait par l’orientation générale du Conseil du 25 novembre 2021, de confier à la Commission le contrôle des obligations des très grandes plateformes.

Le second aménagement en faveur duquel vos rapporteures plaident, est le renforcement des modalités concrètes d’association du régulateur de l’État de destination (dans lequel le service est produit) à la conduite des enquêtes et à l’instruction des dossiers, pour une meilleure efficacité opérationnelle. Cet aménagement concernerait tous les fournisseurs de services intermédiaires, à l’exception des très grandes plateformes dont la régulation serait le monopole de la Commission. La proposition de règlement DSA prévoit seulement un pouvoir d’avis du pays de destination auprès du coordinateur de services numériques de l’État d’établissement. Ce pouvoir pourrait être renforcé, en permettant à l’État de destination d’accéder aux données. Une option utile pourrait également être la possibilité pour le pays d’établissement de déléguer l’exécution de la procédure au pays de destination.

Recommandation 21 : Instaurer une délégation par le pays d’établissement vers le pays de destination pour la conduite de la procédure d’infraction au DSA, si le pays d’établissement ne souhaite pas la mener lui-même.

2.   L’accès aux informations nécessaires au contrôle doit être assuré, notamment la transparence du fonctionnement des algorithmes

Le succès du DSA dépend de la capacité pour les régulateurs de disposer des informations nécessaires pour contrôler l’application des obligations imposées par le règlement aux fournisseurs de services intermédiaires.

a.   L’accès aux données utiles

La proposition de règlement de la Commission vise d’abord à obtenir une transparence de la part des fournisseurs de services intermédiaires sur leur activité vis-à-vis des contenus illicites, en dehors de toute procédure de contrôle. L’article 23 du DSA, applicable aux plateformes et aux très grandes plateformes en ligne, leur impose ainsi de publier des rapports sur leurs activités relatives aux informations considérées comme des contenus illicites ou contraires à leurs conditions générales et qui ont été retirées ou dont l’accès a été rendu impossible. L’article 31, uniquement applicable aux très grandes plateformes en ligne, prévoit les conditions dans lesquelles ces acteurs donnent accès aux données au coordinateur de l’État membre d’établissement pour les services numériques ou à la Commission et aux chercheurs agréés, pour la compréhension des risques systémiques.

Plusieurs articles de la proposition de règlement visent ensuite à garantir l’accès par les autorités de régulation aux informations nécessaires dans le cadre de la procédure de contrôle. L’article 41 prévoit les pouvoirs spécifiques des coordinateurs pour les services numériques à l’égard de l’ensemble des fournisseurs de services en ligne. L’article 52 prévoit que, dans le cadre de la procédure de surveillance renforcée, la Commission peut mener des enquêtes, y compris sous la forme de demande d’informations. Ces informations peuvent également être collectées par voie d’entretien avec les responsables des entreprises fournisseurs de services intermédiaires (article 53) ou au moyen d’inspections sur place (article 54).

Vos rapporteures relèvent l’importance de ces mesures pour garantir la transparence de l’action des fournisseurs de services intermédiaires sur les contenus illicites, dont l’efficacité peut toutefois être améliorée.

D’une part, le périmètre de l’obligation de publication de rapports sur les activités relatives aux contenus illicites retirés pourrait être étendu. Ainsi, l’article 23 n’est pas applicable aux plateformes en ligne qui sont des microentreprises ou des petites entreprises, conformément aux prévisions de l’article 16 du règlement. Il est pourtant nécessaire que les autorités régulatrices puissent accéder à l’ensemble des données qui leur sont utiles, notamment vis-à-vis des petites plateformes numériques. Au-delà des seules plateformes en ligne, quelle que soit leur taille, l’obligation de fournir des informations sur les actions menées contre les contenus en ligne pourrait être étendue à l’ensemble des fournisseurs de services intermédiaires, notamment aux hébergeurs.

D’autre part, la transmission des informations ne doit pas se limiter à l’État membre d’établissement : le coordinateur des services numériques de l’État de destination doit également être informé.

Enfin, le DSA prévoit, notamment à son article 31, la possibilité pour une très grande plateforme en ligne de ne pas fournir l’accès aux données demandées, si cet accès est susceptible d’entraîner d’importantes vulnérabilités pour la sécurité de son service ou la protection d’informations confidentielles, en particulier le secret des affaires. Le règlement DSA doit distinguer d’une part, les obligations de transparence à l’égard du public et d’autre part, celles à l’égard du régulateur. S’agissant de la transparence à l’égard du public, il convient de veiller à ce qu’aucune information confidentielle, relevant du secret des affaires ne soit publiée. En revanche, le régulateur doit, quelle que soit la disposition du DSA en cause, être en mesure de demander à la plateforme des justifications pour pouvoir exercer ses missions de supervision, sans se voir opposer le secret des affaires. L’invocation du secret des affaires par les plateformes doit, selon l’avis de vos rapporteures, être très strictement encadré, en rappelant les obligations prévues dans la directive « Secret d’affaires »([84]) afin de garantir le plein respect des modalités de contrôle du DSA.

Recommandation 22 : Clarifier et consolider la capacité effective pour les autorités régulatrices, y compris dans les pays de destination, d’accéder à l’ensemble des données qui leur sont utiles, notamment en limitant strictement les possibilités pour les plateformes d’opposer le secret des affaires.

b.   La transparence du fonctionnement des algorithmes

L’article 57 de la proposition de règlement DSA prévoit la possibilité pour la Commission d’ordonner aux très grandes plateformes en ligne, de donner accès à ses bases de données et à ses algorithmes. La très grande plateforme doit également fournir des explications sur leur fonctionnement. Des experts et auditeurs externes indépendants peuvent assister la Commission pour lui apporter des connaissances spécifiques.

Vos rapporteures se prononcent fermement en faveur de cette disposition, dans la mesure où les algorithmes des plateformes sont à l’origine du classement de l’ordre d’apparition des contenus, et peuvent contribuer à la mise en avant de contenus haineux. Il est également essentiel que le suivi soit le plus continu possible. Le moteur de recherche Google a par exemple modifié 3000 fois son algorithme en 2018 : un ou deux contrôles isolés seraient ainsi inefficaces pour garantir la régulation des contenus illicites proposés par le service.

La plupart des acteurs auditionnés dans le cadre de ce rapport soulignent qu’il est toutefois nécessaire, afin de ne pas porter une atteinte disproportionnée à la liberté d’entreprendre des plateformes, que les modalités d’accès aux algorithmes soient précisément définies. En effet, les algorithmes sont devenus d’une complexité telle que très peu d’experts sont capables de les contrôler. Comme l’a souligné la lanceuse d’alerte Mme Frances Haugen dans le cadre de ses auditions au Parlement européen([85]) et à l’Assemblée nationale([86]),: « Le nombre d’experts capables d’expliquer les algorithmes est très faible, car ils sont souvent formés sur le tas par les entreprises elles-mêmes ». Il est ainsi nécessaire de garantir l’indépendance des personnes qui auront accès aux algorithmes des entreprises contrôlées. Le règlement DSA pourrait par exemple prévoir que les experts mandatés par la Commission doivent être affiliés à un centre de recherche indépendant.

Recommandation 23 : Garantir la transparence sur le fonctionnement des algorithmes des très grandes plateformes en ligne vis-à-vis des autorités régulatrices, en protégeant toutefois ces intermédiaires des risques de divulgation au grand public.

Par ailleurs, la rapporteure au Parlement européen, Mme Christel Schaldemose, a proposé de prévoir un moyen d’engagement de la responsabilité juridique des très grandes plateformes dans l’hypothèse où le paramétrage de leurs algorithmes favoriserait la mise en avant de contenus haineux. Vos rapporteures soutiennent cette proposition, qui n’est qu’un approfondissement de la logique d’exemption conditionnelle de responsabilité des fournisseurs de services numériques. Les intermédiaires en ligne sont en effet exemptés de responsabilité, seulement dans la mesure où ils n’exercent aucune influence sur le contenu illicite. En procédant à la mise en avant de contenus illicites (permettant souvent d’obtenir un nombre élevé d’interactions), les très grandes plateformes ont, d’une certaine manière, une influence sur le contenu et doivent de ce fait être tenues responsables. La mise en jeu de la responsabilité de la très grande plateforme interviendrait ainsi à la suite du contrôle par les experts des algorithmes, dans la mesure où les contenus haineux seraient favorisés.

Recommandation 24 : Ouvrir la possibilité d’engager la responsabilité juridique des très grandes plateformes en ligne dans l’hypothèse où le paramétrage de leurs algorithmes favorise la mise en avant de contenus haineux.

3.   Les autorités chargées du contrôle doivent être dotées de moyens humains pour assurer efficacement leur mission

Outre les moyens légaux et techniques, les autorités chargées du contrôle des obligations du DSA doivent disposer des moyens humains suffisants pour assurer le respect par les fournisseurs de services numériques de leurs obligations de diligence. Au niveau national, il est dès lors nécessaire que les autorités qui participent au contrôle du DSA, aient des effectifs suffisants et qualifiés pour assurer leurs nouvelles missions : il en va ainsi de l’Arcom en France.

Au niveau européen, seulement 50 emplois à temps plein sont aujourd’hui prévus parmi les services de la Commission pour la vérification des contenus sur les réseaux sociaux et les places de marché en ligne([87]). Au regard de la charge de travail importante que représentera le contrôle des obligations des très grandes plateformes en ligne, les effectifs doivent être largement renforcés. Une dotation supplémentaire en moyens humains se justifie d’autant plus si la compétence de principe de la Commission pour la régulation des très grandes plateformes est reprise au stade des trilogues. Les synergies avec les institutions nationales pourraient également être développées pour le suivi par des engagements des très grandes plateformes au niveau des États membres par les autorités compétentes([88]).

En parallèle de la question du nombre d’emplois à temps plein, la compétence des personnels chargés du contrôle est également d’une importance primordiale : la présence d’informaticiens parmi ces effectifs est indispensable. La direction générale des entreprises a créé en septembre 2020 le pôle d’expertise de la régulation numérique (PEReN). Ce service à compétence nationale fournit, à la demande des administrations ayant des compétences de régulation des plateformes du numérique, une expertise technique, notamment en mettant à leur disposition des moyens informatiques, des moyens humains et des codes informatiques. Le PEReN pourrait ainsi être mobilisé au niveau national, tandis qu’une structure similaire pourrait être créée au niveau européen, en appui des services de la Commission, afin de développer la capacité à comprendre les algorithmes, de suivre leurs évolutions et de proposer aux opérateurs des modifications.

Recommandation 25 : Garantir aux autorités nationales et aux services de la Commission, les ressources techniques et humaines suffisantes pour assurer le contrôle des obligations de diligence des fournisseurs de services numériques.

C.   En parallèle du système de contrÔle des obligations imposées par le DSA, la place du juge doit toujours Être préservée

Si le DSA prévoit des modalités de règlement des litiges avec les utilisateurs en dehors de tout recours judiciaire, la possibilité de saisir le juge reste sans restriction.

La proposition de règlement de la Commission impose aux plateformes l’existence d’un système de traitement des plaintes et réclamations concernant les décisions prises en rapport avec des informations ou des contenus présumés illicites incompatibles avec leurs conditions générales d’utilisation (article 17). L’article 18 leur impose également de s’associer à des organismes de règlement extrajudiciaire des litiges certifiés afin de résoudre tout litige avec les utilisateurs de leurs services. Selon vos rapporteures, ces deux articles sont bienvenus, en ce qu’ils peuvent encourager les recours et permettre à l’utilisateur qui obtiendrait gain de cause de réclamer la réparation de son préjudice en justice([89]).

L’existence d’un système interne de traitement des réclamations et la possibilité de règlement extrajudiciaire des litiges ne remet en effet pas en cause la possibilité pour les utilisateurs de saisir le juge à tout instant, notamment pour des questions relatives à la protection de la liberté d’expression. Par ailleurs, le juge peut prononcer des injonctions d’agir contre des contenus illicites, ou des injonctions de fournir des informations à l’encontre des fournisseurs de services intermédiaires. Ces injonctions, prévues aux articles 8 et 9 du DSA, se fondent sur le droit national.

Vos rapporteures souhaitent néanmoins que la coopération des plateformes avec les autorités pénales soit précisée. Il serait ainsi opportun de compléter le DSA sur l’identification des auteurs de contenus illicites : la modération mécanique des plateformes se matérialise par la suppression automatique des contenus, pouvant gêner les autorités pénales dans la recherche des auteurs. Le texte doit donc prévoir une obligation de transmission systématique aux autorités répressives de certains contenus illicites, selon une liste d’infractions définies. Ces infractions seraient celles considérées comme particulièrement graves, par exemple en lien avec le terrorisme ou la pédopornographie. Corrélativement, le texte doit prévoir une obligation pour les plateformes de conserver ces contenus et les données de connexion afférentes.

Recommandation 26 : Introduire une obligation de transmission systématique aux autorités répressives de certains contenus manifestement illicites.

La coopération des fournisseurs de services intermédiaires avec les autorités pénales doit également être renforcée sur un point particulier, lié à la suspension d’un compte d’intérêt général. Plusieurs de ces comptes ont en effet été suspendus, de façon temporaire ou permanente : le 9 janvier 2021 à la suite de l’invasion du Capitole par des manifestants, le réseau social Twitter a ainsi suspendu de manière permanente le compte personnel de M. Donald Trump en raison des risques d’incitation à la violence. Le 1er janvier 2022, à la suite de plusieurs suspensions temporaires, le compte de l’élue républicaine à la chambre des représentants Mme Marjorie Taylor Greene, a été suspendu définitivement, en raison du caractère désinformatif de ses publications sur la crise sanitaire. Si les motifs peuvent parfaitement se comprendre, il n’appartient pas à un fournisseur de services intermédiaires de décider de la suspension d’un compte. Vos rapporteures reprennent ainsi la proposition de Mme Christel Schaldemose, rapporteure pour la commission IMCO au Parlement européen, de subordonner la suppression d’un compte d’intérêt général à une décision de justice.

Recommandation 27 : Subordonner la suspension d’un compte d’intérêt général, comme celui de personnalités publiques et politiques, à une décision de justice.


—  1  —

   ConClusion

Le DSA est, sans aucun doute, un texte nécessaire pour permettre l’adaptation de la réglementation aux évolutions du marché des services numériques depuis plus de vingt ans.

La régulation asymétrique et le renforcement des obligations de diligence doivent en effet permettre de renforcer le processus de contrôle des contenus illicites. Il paraît particulièrement urgent de lutter contre la prolifération des discours de haine en ligne, des publications à caractère terroriste ou pédopornographique, particulièrement dommageables pour notre démocratie. Vos rapporteures insistent ainsi sur la nécessité d’aboutir rapidement à l’adoption de ce texte, sous présidence française du Conseil de l’Union européenne.

Recommandation 28 : Prévoir un calendrier d’adoption du DSA sous présidence française, afin de garantir une régulation rapide du marché des services numériques.

La principale interrogation de vos rapporteures porte néanmoins sur l’opportunité de maintien dans la durée du régime atténué de responsabilité des fournisseurs de services intermédiaires. Aujourd’hui déjà, les nouvelles technologies permettent en effet de détecter et d’agir rapidement sur les contenus illicites, sans nécessité de signalement de la part des utilisateurs. Vos rapporteures prennent acte qu’en l’état actuel des négociations, le DSA ne prévoit pas un retour sur le safe harbor, qui bousculerait l’équilibre du texte. Il peut néanmoins être utile de lancer le débat dès à présent sur ce sujet crucial, qui permettrait une responsabilisation forte des fournisseurs de services intermédiaires vis-à-vis des contenus qu’ils hébergent.

Au-delà de cet aspect, vos rapporteures formulent vingthuit recommandations, classées en trois catégories :

-         L’articulation du DSA avec les autres législations européennes ;

-         La définition du périmètre d’application du texte et des obligations de diligence des fournisseurs de services intermédiaires ;

-         Les modalités de contrôle de ces obligations.

Ces recommandations, qui ménagent un équilibre entre la protection des utilisateurs et la liberté d’entreprendre des plateformes, pourraient être reprises au stade des trilogues par les institutions européennes.

 

 


—  1  —

   TRAVAUX DE LA COMMISSION

La Commission s’est réunie le mardi 18 janvier 2022, sous la présidence de Mme Sabine Thillaye, Présidente, pour examiner le présent rapport d’information.

 

Mme la Présidente Sabine Thillaye. Notre premier point à l’ordre du jour porte sur le sujet très complexe de la régulation des contenus en ligne. L’objectif poursuivi par le DSA est de réviser la directive « commerce électronique » de 2000 afin de rendre illégal en ligne ce qui l’est hors ligne. Il s’agit d’une part de prendre en compte les évolutions survenues dans l’espace numérique depuis 2000, comme l’émergence des grandes plateformes ou de systèmes de publicité fondé sur des algorithmes et d’autre part de fournir un cadre harmonisé pour la régulation des « contenus sensibles », comme les propos haineux.

Le rapport très complet inclut 28 orientations, reprises dans une proposition de résolution européenne.

Mme Aude Bono-Vandorme, rapporteure. La proposition de règlement de la Commission sur les services numériques part d’un constat simple : ce qui est illégal hors ligne, ne l’est pas forcément en ligne. Nous avons tous en tête de multiples contenus illicites devenus viraux sur Internet : l’un des exemples les plus marquants est la diffusion en direct des attentats de Christchurch sur Facebook. Mais les contenus illicites recèlent une diversité qui va bien au-delà des seules publications à caractère terroriste.

Pédopornographie en ligne, téléchargement illégal de musiques et de films, produits contrefaits : nous sommes en 2022, comme le relevait le commissaire Thierry Breton lors de la présentation du DSA, face à un Far West numérique.

Le sixième bilan de la mise en œuvre du Code de conduite sur la lutte contre les discours haineux en ligne de la Commission relève que 81 % des contenus signalés dans les 24 heures sont supprimés par les plateformes : si ce chiffre reste en forte progression par rapport à 2016, il est en retrait par rapport à 2020. L’orientation sexuelle et la xénophobie sont les contenus haineux les plus fréquemment signalés : ce constat illustre à la fois le caractère abject de certaines publications, et l’urgence d’agir.

Mme Constance Le Grip, rapporteure. Face aux risques induits par l’utilisation massive des plateformes en ligne, plusieurs États ont ainsi adopté des législations nationales imposant aux prestataires de services numériques des obligations pour le retrait des contenus illégaux ou illicites en ligne. Le Parlement français a adopté en 2021 un amendement sur la régulation des prestataires de services intermédiaires dans la loi confortant le respect des principes de la République. L’Allemagne en 2017, puis l’Autriche en 2020 ont également adopté des lois sectorielles. Ces textes nationaux représentent à la fois un geste politique fort et un signal adressé aux partenaires européens.

La Commission von der Leyen, qui a érigé la régulation des géants du numérique en priorité forte de son mandat, a ainsi présenté le 15 décembre 2020 la proposition de règlement sur les services numériques, ou Digital Services Act. Le premier objectif est de prendre en compte les évolutions survenues sur Internet depuis 2000, afin de purger l’espace numérique de la prolifération de contenus haineux. Le second est d’introduire un régime d’obligations harmonisées dans toute l’Union européenne vis-à-vis des fournisseurs de services, pour éviter l’écueil d’une fragmentation du marché intérieur induit par l’existence de différentes législations nationales.

La proposition de règlement DSA fait ainsi le choix de renforcer les obligations de diligence des différents acteurs du numérique, en fonction de leur nature et de leur taille. Les obligations sont croissantes, selon l’importance du fournisseur de services intermédiaires dans la diffusion de contenus illicites : le système est ainsi organisé en poupées russes. Les hébergeurs ont moins d’obligations que les plateformes en ligne, qui ont elles-mêmes des obligations allégées par rapport aux très grandes plateformes en ligne, qui regroupent plus de 45 millions d’utilisateurs actifs par mois. Ce système nous semble particulièrement adéquat, afin de prendre en compte la diversité des acteurs des services numériques et de leur imposer des obligations justes, sans lourdeur excessive.

La Commission a néanmoins fait le choix de maintenir les principes essentiels préexistants dans la directive « commerce électronique » et notamment le régime atténué de responsabilité : une plateforme n’est pas tenue responsable d’un contenu illicite publié sur son réseau, sauf en cas d’inaction à la suite du signalement d’un utilisateur. Ni l’orientation générale du Conseil du 25 novembre 2021, ni le texte de la commission marché intérieur (IMCO) du Parlement européen du 15 décembre 2021, ne sont revenus sur ce principe.

Nous avons toutefois pu constater, notamment lors des auditions que nous avons menées, que les très grandes plateformes en ligne disposent de moyens techniques suffisants pour détecter rapidement une publication illicite, avant même son signalement par les utilisateurs. Or, je le répète, tout l’objectif du DSA est là : actualiser la réglementation de la directive commerce électronique, en fonction des avancées technologiques. Nous avons relevé, et nous le regrettons, un décalage entre le maintien de principes datant d’une vingtaine d’années et la volonté de réguler, selon le mot du commissaire français M. Thierry Breton, un « Far West numérique » qui repose sur un écosystème d’acteurs toujours plus puissants.

Nous comprenons les raisons (technologique, économique, sociologique et autres) qui ont mené au choix de maintenir l’exemption de responsabilité des plateformes, notamment la nécessité politique d’aboutir à un compromis entre les Etats-membres sur cette proposition de règlement. Toutefois, et c’est l’une des recommandations majeures de notre rapport, il nous paraît nécessaire de prévoir une possibilité, dans les années à venir, de revenir sur ce principe, au cas où la régulation des contenus illicites en ligne demeurerait insuffisante.

Mme Aude Bono-Vandorme, rapporteure. Je tiens à préciser à ce stade que nous n’avons pas, en tant que rapporteures de la commission des Affaires européennes, reproduit le travail du Conseil ou du Parlement européen, en menant un travail d’examen du texte article par article. Nous avons fait le choix de concentrer nos recommandations sur les grands équilibres du texte et sur les articles les plus importants.

Les vingt-huit recommandations du rapport peuvent ainsi être classées en trois grandes catégories.

La première grande famille de recommandations vise à garantir que l’application du DSA n’entraînera pas d’effets de bord sur les législations sectorielles existantes. Le domaine du numérique a en effet fait l’objet de textes ambitieux au niveau européen, avec le RGPD adopté en 2016, la directive sur les services de médias audiovisuels de 2019 ou la directive sur les droits d’auteur, également de 2019. Il est essentiel que l’articulation entre les différentes législations ne permette pas aux fournisseurs de services intermédiaires d’échapper à leurs obligations ou à leur responsabilité.

La seconde grande catégorie de recommandations tient à l’élargissement du périmètre d’application du texte et à l’approfondissement des obligations de diligence, en particulier des places de marché en ligne. La proposition de la Commission n’est en effet applicable ni aux moteurs de recherche ni aux plateformes de streaming en ligne : la soumission de ces deux catégories d’intermédiaires en ligne à une régulation stricte des contenus nous apparaît pourtant essentielle.

La proposition de la Commission pourrait par ailleurs être plus ambitieuse concernant les obligations de diligence imposées aux acteurs : le texte ne prévoit ainsi aucune obligation de « stay down », soit de maintien hors ligne de contenus déjà bloqués. Pourtant, en matière musicale par exemple, dans le domaine de l’offre illégale de musique en ligne, 88 % des contenus signalés font référence à des œuvres qui ont déjà été notifiées au même service en ligne.

Un autre exemple, qui a par ailleurs provoqué des débats très houleux en commission au Parlement européen, concerne la publicité en ligne. Le texte prévoit des obligations de transparence renforcées pour les plateformes et les très grandes plateformes en ligne. Nous estimons toutefois que la mise en place d’une procédure simplifiée pour l’utilisateur, en particulier pour les mineurs, de désactiver le ciblage publicitaire est nécessaire afin d’éviter une monétisation involontaire des données. Notre recommandation est très simple, et pourrait se traduire très concrètement par une obligation pour les plateformes d’indiquer de façon claire et intelligible comment interrompre le ciblage, même après que l’utilisateur a donné son accord lors de la première visite sur le site Internet.

La troisième catégorie de recommandations concerne la consolidation des modalités de contrôle des obligations imposées par le DSA. Nous avons fait le choix de soutenir la volonté du Conseil de confier à la Commission européenne un monopole pour la régulation des très grandes plateformes en ligne. Ce choix permet ainsi d’éviter une imprécision sur la répartition des compétences entre les autorités des différents Etats membres, voire un engorgement des autorités compétentes de certains Etats où les plateformes ont leur siège. Au regard de la puissance des très grandes plateformes en ligne, nous sommes convaincues que confier l’observation du respect de ces obligations à la Commission doit permettre un meilleur respect du DSA.

Nous recommandons également de garantir la transparence des algorithmes visàvis du régulateur : les algorithmes des plateformes sont à l’origine du classement de l’ordre d’apparition des contenus et peuvent contribuer à la mise en avant de discours illicites. Les possibilités pour les intermédiaires d’invoquer le secret professionnel doivent ainsi être réduites à la portion congrue. En compensation, le DSA doit également garantir qu’aucune information confidentielle, relevant du secret des affaires, ne soit diffusée au grand public.

Mme Constance Le Grip, rapporteure. Le sujet de la transparence est en effet essentiel, surtout après les révélations de la lanceuse d’alerte Mme Frances Haugen.

Le projet de règlement de la Commission européenne est satisfaisant, même s’il pourrait être un peu plus ambitieux. Il y a des dispositifs précis avec des mécanismes de contrôle importants : c’est une avancée majeure unique au monde. Quelques questions restent également en suspens : quand le règlement sera-t-il adopté et quand sera-t-il appliqué ? Le calendrier est accéléré, puisque le Conseil a donné sa position en moins d’un an, et le Parlement européen a également été rapide dans son examen. Chacun a pris la conscience de l’urgence d’agir.

Chers collègues, vous l’aurez compris : même si son ambition peut être revue à la hausse, la Commission européenne nous propose une solution efficace pour lutter contre les contenus illicites. Parmi les questions restant en suspens figure néanmoins la suivante : quand ce règlement sera-t-il adopté et quand sera-t-il applicable ?

Au moment où débutent les trilogues, nous partageons pleinement ce sentiment : l’adoption du DSA se doit d’être rapide. La présidence française de l’Union européenne est ainsi une occasion de clore ce dossier, en façonnant le compromis pour obtenir une position commune entre le Parlement et le Conseil d’ici à la fin du moins de juin 2022.

L’exposé des rapporteures a été suivi d’un débat.

Mme la Présidente Sabine Thillaye. Ce sujet est au cœur de l’actualité à deux titres : le vote demain au Parlement européen, bien sûr, et le fait qu’il figure parmi les priorités de la présidence française. J’ai l’impression qu’on retrouve les mêmes difficultés qu’avec le DMA : des notions mal définies, par exemple celle de « contenus illicites » dont la définition est renvoyée aux Etats membres. N’y a-t-il pas un risque de divergences entre les différents Etats membres dont les grandes plateformes pourraient tirer profit ? De même, les pouvoirs de contrôle de la Commission – notamment par rapport à l’algorithme – seront-ils effectifs ?

M. Thierry Michels. Votre rapport rappelle à juste titre l’importance de construire un monde digital régulé. La régulation des contenus en ligne repose actuellement sur une directive de 2000, la directive 2000/31/CE sur le commerce électronique, qui date d’une époque que n’ont pas connue les jeunes de moins de vingt ans !

Je souhaiterais avoir votre avis sur trois points. D’abord, comme vous l’avez dit, certains États membres ont déjà adopté une législation nationale sur la régulation des contenus numériques : l’Allemagne en 2017 ; l’Autriche en 2020 ; en France la problématique des contenus haineux est abordée par le projet de loi confortant les principes républicains. L’existence de ces différentes législations est-elle de nature à compliquer l’application du DSA ?

Second point : dans le rapport que j’ai présenté en juillet dernier avec ma collègue Marietta Karamanli, nous avons mis en exergue les graves conséquences sur la situation sanitaire de fausses informations sur l’épidémie. Pensez-vous que le DSA vienne apporter une réponse suffisante à ces phénomènes notamment en matière de santé publique ?

Enfin, les GAFAM sont en position d’imposer leurs règles, tout particulièrement dans le secteur du cloud, à tous les autres acteurs de l’économie numérique. L’émergence d’un acteur européen – et même français – comme OVH cloud montre que cela n’est pas une fatalité. Le DSA va-t-il suffisamment loin pour promouvoir une « souveraineté numérique européenne » ?

M. Didier Quentin. J’approuve vos propositions relatives à la « clause de revoyure », à l’élargissement du périmètre et à la question des publicités ciblées.

J’aurais deux questions. Comment combattre le piratage des données personnelles, bien souvent réalisé dans des États périphériques à l’Union européenne ? Et quel sera l’impact du DSA sur les entreprises françaises et européennes ?

M. André Chassaigne. Le DSA est un pas vers la responsabilité juridique des grandes entreprises de média sociaux, qui jouent un rôle d’amplification des extrémismes politiques à des fins économiques. Par ailleurs, les groupes de pression, les entreprises de la publicité et les entreprises du numérique se battent farouchement pour le droit d’évaluer comment les gens se comportent sur Internet afin de leur infliger ensuite la publicité la plus ciblée possible. C’est un capitalisme de la surveillance numérique mondialisée, d’ailleurs anticipée par Orwell, qui doit être encadré le plus possible. Je me réjouis donc de la création d’un cadre de transparence qui permette au régulateur de voir comment l’algorithme fonctionne.

Il faut néanmoins veiller à protéger la liberté d’expression. La suppression des contenus dans un temps limité de 24 heures est souvent l’action la plus facile pour les entreprises qui veulent éviter le risque juridique qu’impliquerait une véritable analyse des contenus ainsi supprimés. Comme vous l’avez dit dans le rapport, il faut éviter que le DSA ne suive les dérives inconstitutionnelles de la « loi Avia ».

C’est désormais l’utilisateur qui porte la responsabilité de signer les contenus contestables. C’est donc un « consomacteur ». Mais est-il réaliste d’attendre ce comportement de la part des consommateurs ? Il ne s’agit pas de faire un nouveau marché pour les avocats et les sociétés de conseil.

Le risque, c’est aussi que les actes de modération des grandes plateformes soient soustraits à tout contrôle d’instances indépendantes qui n’ont pas la capacité d’être réactives 24 heures sur 24. Pour assurer un contrôle indépendant et permanent, il faut donc donner aux autorités publiques des ressources suffisantes pour assurer le contrôle des obligations de diligence des grandes plateformes. Comment ce contrôle va-t-il avoir lieu concrètement ? Comment réagissent les entreprises concernées ?

Mme Nicole Le Peih. Le DSA a pour but de lutter contre les « contenus illégaux », y compris les contrefaçons, qui représentent un manque à gagner estimé à près de 3 milliards d’euros. Auriez-vous une estimation du bénéfice économique global que l’on peut attendre du DSA ?

Concernant le contrôle des infractions : quelle autorité indépendante pourrait assurer la mission de coordinateur national des services numériques ? On ne va quand même pas créer encore une autorité administrative dédiée. Pourrait-on confier cette mission à la nouvelle Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) ?

Mme Constance Le Grip, rapporteure. La base juridique du DSA est le marché intérieur. Elle ne permet pas d’aller vers une harmonisation totale des définitions des « contenus illicites ». Le DSA fait référence à la fois au droit européen et aux droits nationaux. Néanmoins, certaines infractions spécifiques font déjà l’objet de définitions harmonisées (terrorisme, pédocriminalité), ce qui montre qu’il est possible d’avance.

Mme la Présidente Sabine Thillaye. N’est-ce pas contradictoire avec ce que vous disiez dans le rapport, à savoir que cela reviendrait à créer un droit pénal européen ?

Mme Constance Le Grip, rapporteure. Le DSA n’a pas vocation à créer un droit pénal européen. L’harmonisation de la définition des infractions pénales ne peut être engagée que sur la base des dispositions pertinentes des traités. C’est là toute la difficulté des exercices législatifs et réglementaires européens.

L’empilement des législations et des réglementations pourrait également se cannibaliser, ou s’autodétruire, par exemple au regard de la directive Services de médias audiovisuels (SMA), ou du règlement général sur la protection des données (RGPD). Cette inquiétude est partagée avec certains membres du gouvernement français. Il faut donc faire en sorte que ce processus soit le plus cohérent possible.

Mme Aude Bono-Vandorme, rapporteure. La question suivante portait sur l’articulation des législations nationales avec le DSA. Son objectif est d’empêcher une fragmentation du marché intérieur, en créant des obligations harmonisées dans tous les États membres, pour l’ensemble des fournisseurs. Dans notre texte, des précautions ont été prises pour ne pas nuire à l’application du DSA. Une attention particulière a été portée à ce que le dispositif français s’inscrive pleinement dans la logique du dispositif européen, et il en ressort que le coût et le temps d’adaptation des plateformes au DSA après son entrée en vigueur seront moindres. En ce sens, le texte a une vocation provisoire, avec une clause d’extinction.

Notre volonté était également d’avoir un DSA ambitieux, car sinon des réglementations nationales viendront le compléter, toujours avec le même risque de fragmentation du marché intérieur.

Mme Constance Le Grip, rapporteure. Concernant le sujet du contrôle, le DSA confie des pouvoirs importants à la Commission, qui coordonnera, mais également chapeautera le réseau des coordinateurs nationaux. Cette architecture est proche du mécanisme qui prévaut en matière de droit de la concurrence. La Commission est la seule autorité en matière de droit de la concurrence au niveau européen : le schéma national est entremêlé avec le schéma européen. C‘est donc ce fonctionnement qui est envisagé, pour des raisons d’efficacité. Il pourrait, par exemple, y avoir un risque d’engorgement des autorités de régulation nationales qui concentreraient une forte proportion de filiales européennes d’entreprises du net.

Confier des pouvoirs accrus à la Commission permet également de contourner le principe du pays d’origine. Pour la France, il ne faudra créer aucune structure, car c’est l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) qui aura cette compétence. Il faudra donc qu’elle procède à des recrutements, pour partie déjà en cours.

Mme Aude Bono-Vandorme, rapporteure. Concernant les retombées économiques du DSA, ce dernier aboutira à une augmentation du commerce numérique transfrontalier de 1 à 1,8 %, représentant une augmentation des chiffres d’affaires de 8,6 à 15,5 milliards. Le marché numérique européen augmente de 13,5 % de consommateurs transfrontaliers et les petites et moyennes entreprises pourraient économiser 15,5 milliards d’euros en coûts de transactions en ligne. Au niveau sectoriel, la diminution des produits contrefaits en ligne pourrait entraîner un gain de consommation de 2,8 milliards pour les films, la musique et les jeux et de 300 millions d’euros pour les livres numériques.

Mme Constance Le Grip, rapporteure. Sur la transparence des algorithmes, notre expertise est nécessairement plus limitée car nous ne sommes pas des informaticiens. Mais il s’agit d’un défi, qu’il faut clarifier. Il s’agirait de préciser la capacité effective pour les autorités régulatrices de pouvoir avoir accès à l’ensemble des données utiles et aux algorithmes. Je suis attaché à la protection du secret des affaires, mais déjà dans la directive concernant le secret des affaires, il était mentionné que son invocation ne peut être faite face à des services publics dans le cadre de leur action de contrôle. Toutefois, l’article 57 donne déjà la possibilité à la Commission d’ordonner aux grandes plateformes d’accéder à leurs bases de données. Ce sujet de la transparence des algorithmes ne doit pas être ignoré lors des trilogues.

Nous avons déjà travaillé sur la transparence des algorithmes concernant les données de connexion. Travailler sur des algorithmes reste donc au cœur de nombreux sujets, et il nous faut savoir jusqu’où on pourra aller, et quelles limites on ne pourra pas dépasser

Concernant la publicité ciblée, les obligations ont été progressivement renforcées. Nous avons pris notre risque sur ce sujet, en préconisant la possibilité de désactivation, notamment pour les mineurs. Nous espérons que cette idée pourra prospérer dans les négociations.

Sur le risque de professionnalisation des utilisateurs qui signaleront des contenus indésirables, rappelons que tout un chacun peut déjà signaler des contenus haineux. Toutefois, des « signaleurs de confiance » sont prévus par le DSA, dont les signalements seront traités prioritairement. Des garanties sont prévues pour garantir l’indépendance de ces signaleurs de confiance.

 

*

*    *

 

La Commission adopte ensuite l’article unique de la proposition de résolution européenne.

L’ensemble de la proposition de résolution européenne est ainsi adopté.

La Commission autorise le dépôt du rapport d’information en vue de sa publication.

 

 


—  1  —

   proposition de résolution européenne

 

 

Article unique

 

 

LAssemblée nationale,

 

Vu larticle 88-4 de la Constitution ;

 

Vu larticle 151-5 du règlement de lAssemblée nationale ;

 

Vu l’article 114 du Traité sur le fonctionnement de l’Union européenne (TFUE) ;

 

Vu la directive sur la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique dans le marché intérieur ;

 

Vu la proposition de règlement COM(2020) 825 du 15 décembre 2020 relative à un marché intérieur des services numériques, connue sous le nom de « Digital Services Act » ;

 

Vu la résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur la législation relative aux services numériques : améliorer le fonctionnement du marché unique (2020/2018(INL)) ;

 

Vu la résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission concernant une législation sur les services numériques : adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne (2020/2019(INL)) ;

 

Considérant les évolutions du marché des services numériques depuis l’adoption de la directive dite « e-commerce » du 8 juin 2000 et notamment l’apparition de très grandes plateformes en ligne ou de systèmes de publicité fondés sur des décisions algorithmiques complexes ;

Considérant les nouveaux risques pour les citoyens induits par l’utilisation des services numériques, notamment l’exposition accrue à des discours de haine en ligne ou à des contenus désinformatifs ;

Considérant que plusieurs États membres ont déjà adopté différentes normes en faveur de la régulation des contenus illicites ;

Considérant que pour éviter la fragmentation du marché intérieur, il est nécessaire d’établir des obligations de diligence renforcées et harmonisées dans toute l’Union européenne vis-à-vis des fournisseurs de services intermédiaires ;

Considérant que la proposition de règlement DSA maintient l’exemption conditionnelle de responsabilité des fournisseurs de services intermédiaires, créée par la directive e-commerce ;

Considérant que l’adoption de la proposition de règlement DSA ne doit pas nuire à l’application d’autres législations sectorielles, comme le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 sur les services de médias audiovisuels et la directive (UE) 2019/790 du Parlement européen et du Conseil sur le droit d’auteur et les droits voisins dans le marché unique numérique ;

Considérant que les obligations de diligence incombant aux fournisseurs de services intermédiaires et leur périmètre doivent être mieux définis dans le DSA ;

Considérant que le contrôle des obligations du DSA doit être rendu plus efficace, notamment grâce à un rôle renforcé de la Commission européenne vis-à-vis des très grandes plateformes en ligne et à un aménagement du principe du pays d’origine ;

Souhaite que le règlement contienne une véritable clause de revoyure, afin de permettre son adaptation aux pratiques futures du marché des services numériques en ligne et, en regard, d’évaluer l’opportunité de maintenir le principe de responsabilité limitée des fournisseurs de services en ligne ;

Plaide pour l’insertion d’une logique d’application systématique de la clause la plus exigeante, afin d’éviter que le DSA ne crée des effets de bords sur les législations sectorielles et permette aux fournisseurs de services intermédiaires de se dégager de leurs obligations ;

Sur l’équilibre entre la nécessité de lutte contre les contenus illicites et la protection de la liberté d’expression des utilisateurs ;

Demande un encadrement des possibilités pour les fournisseurs de services en ligne de supprimer les contenus non conformes à leurs conditions d’utilisation ;

Invite à préciser à l’article 6 du DSA que si les mesures volontaires déployées par les intermédiaires leur permettent d’obtenir une connaissance effective de contenus illicites, les plateformes sont contraintes de les retirer pour éviter de voir leur responsabilité engagée ;

Salue le choix du Conseil, dans son orientation générale sur le DSA du 25 novembre 2020, d’instaurer une voie de retrait des contenus à fort impact, pour lesquels le fournisseur de services intermédiaires a une obligation de retrait ou de blocage rapide ;

Soutient l’instauration d’une obligation de maintien hors ligne des contenus illicites déjà supprimés ou bloqués ;

Souhaite faciliter la possibilité pour les utilisateurs de désactiver le ciblage publicitaire ;

Sur la précision et l’élargissement du périmètre des acteurs concernés :

Plaide pour l’inclusion des moteurs de recherche dans le périmètre du DSA et pour la définition d’obligations spécifiques à l’égard des très grands moteurs de recherche ;

Demande l’inclusion explicite dans le périmètre du DSA des plateformes de streaming en ligne ;

Sur le renforcement des obligations spécifiques aux places de marché en ligne

Insiste sur la nécessité d’étendre le périmètre de l’obligation de traçabilité des vendeurs professionnels prévu à l’article 22 de la proposition de règlement DSA, aux petites entreprises et aux vendeurs existants ;

Souhaite une harmonisation de la liste d’informations requises pour la traçabilité des vendeurs avec celle des législations déjà existantes ;

Demande l’inclusion dans le DSA de la possibilité d’engager la responsabilité des places de marché dans l’hypothèse où le vendeur professionnel tiers n’a pas de représentant légal dans l’Union européenne ;

Invite à définir les bénéficiaires du service en tenant compte du type de plateforme et de la façon dont la plateforme monétise ses utilisateurs ;

Soutient l’abaissement du seuil de quarante-cinq millions de bénéficiaires du service pour la qualification de très grandes places de marché en ligne ;

Exclut la création d’une distinction trop marquée entre les réseaux sociaux et les places de marché en ligne, afin de prendre en compte le phénomène d’hybridation existant entre ces deux catégories ;

Sur le renforcement de l’efficacité des mécanismes de contrôle du DSA 

Souligne la nécessité de donner au niveau national un seul rôle de coordination à la nouvelle autorité pour les services numériques, afin de ne remettre en cause ni l’indépendance ni l’efficacité des institutions existantes ;

Privilégie le renforcement des réseaux européens de coopération existants, notamment en matière de régulation des plateformes de contenus en ligne ou de lutte contre la contrefaçon, à la création d’un comité européen des services numériques ;

Salue l’orientation générale du Conseil adoptée le 25 novembre 2020, qui donne par principe le pouvoir de contrôle des obligations du DSA, pour les très grandes plateformes à la Commission européenne, afin de garantir une meilleure efficacité du contrôle des obligations ;

Demande une clarification et une consolidation de la capacité effective pour les autorités régulatrices, y compris dans les pays de destination, d’accéder à l’ensemble des données qui leur sont utiles, notamment en limitant les possibilités pour les plateformes d’opposer le secret des affaires ;

Plaide pour une transparence accrue du fonctionnement des algorithmes des très grandes plateformes en ligne vis-à-vis des autorités régulatrices, en protégeant toutefois ces intermédiaires des risques de divulgation au grand public ;

Souhaite l’ouverture de la possibilité d’engager la responsabilité juridique des très grandes plateformes en ligne dans l’hypothèse où le paramétrage de leurs algorithmes favorise la mise en avant de contenus haineux ;

Invite les autorités nationales et les services de la Commission à s’assurer de disposer de ressources techniques et humaines suffisantes pour assurer le contrôle des obligations de diligence imposées aux fournisseurs de services intermédiaires ;

Souligne la nécessité d’introduire une obligation de transmission systématique aux autorités répressives de certains contenus manifestement illicites ;

Invite les institutions européennes à prévoir dans le DSA que la suspension d’un compte d’intérêt général, comme celui de personnalités publiques et politiques, doit être subordonnée à une décision de justice.

 

 


—  1  —

   Synthèse des RECOMMANDATIONS

Recommandation 1 : Prévoir une flexibilité suffisante dans le règlement pour permettre une adaptation du règlement aux pratiques du marché des services numériques en ligne, en transformant la clause d’évaluation prévue à l’article 73 en véritable clause de revoyure.

Recommandation 2 : Porter une attention particulière lors de l’évaluation du règlement prévue à l’article 73 du DSA, à l’opportunité de maintenir la responsabilité limitée des fournisseurs de services en ligne, au regard de l’évolution du marché des services numériques en ligne.

Recommandation 3 : Réitérer la création d’une Task Force pour les textes européens impliquant des enjeux globaux et nécessitant une coordination au niveau national, en prenant toutefois garde à associer le Parlement à ces débats.

Recommandation 4 : Garantir dans le texte du règlement l’absence d’effets de bord sur les législations sectorielles, en inscrivant dans l’article premier la logique d’application systématique de la clause la plus exigeante aux services concernés par plusieurs textes.

Recommandation 5 : Encadrer les possibilités pour les fournisseurs de services en ligne de supprimer les contenus non conformes à leurs conditions d’utilisation, en inscrivant explicitement des exigences de non-discrimination et en garantissant une supervision publique indépendante de ces conditions générales d’utilisation.

Recommandation 6 : Préciser à l’article 6 du DSA que si les mesures volontaires déployées par les intermédiaires leur permettent d’obtenir une connaissance effective de contenus illicites, les plateformes sont contraintes de retirer ceux-ci, pour éviter de voir leur responsabilité engagée.

Recommandation 7 : Pour éviter la réapparition de contenus illicites déjà supprimés, inclure une obligation de staydown pour les fournisseurs de services en ligne.

Recommandation 8 : Instaurer une voie de retrait des contenus « à fort impact », pour lesquels le fournisseur de services en ligne a une obligation de retrait ou de blocage rapide

Recommandation 9 : Reprendre, au stade du trilogue, les obligations de transparence en matière de publicité telles que consolidées par le Parlement européen et faciliter pour l’utilisateur la possibilité de désactiver le ciblage publicitaire.

Recommandation 10 : Inclure dans le périmètre du DSA les moteurs de recherche et des obligations supplémentaires pour les très grands moteurs de recherche.

Recommandation 11 : Inclure dans le périmètre du DSA les plateformes de streaming en ligne.

Recommandation 12 : Étendre le périmètre de l’obligation de traçabilité des vendeurs professionnels aux petites entreprises et aux vendeurs existants.

Recommandation 13 : Harmoniser la liste d’informations requises pour la traçabilité des vendeurs avec celles des législations déjà existantes.

Recommandation 14 : Rendre les places de marché systématiquement responsables dans l’hypothèse où le tiers n’a pas de représentant légal dans l’Union européenne

Recommandation 15 : Définir dans le texte la notion de bénéficiaire du service en tenant compte du type de plateforme et de la façon dont la plateforme monétise ses utilisateurs (acheteurs pour les places de marché en ligne, visiteurs pour les autres plateformes).

Recommandation 16 : Abaisser le seuil de 45 millions de bénéficiaires du service pour la qualification de très grandes places de marché en ligne.

Recommandation 17 : Éviter de créer une distinction trop marquée entre les réseaux sociaux et les places de marché en ligne, pour prendre en compte le phénomène d’hybridation existant entre ces deux catégories d’acteurs.

Recommandation 18 : Donner au niveau national un seul rôle de coordination à la nouvelle autorité pour les services numériques, afin de ne remettre en cause ni l’indépendance ni l’efficacité des institutions existantes.

Recommandation 19 : Privilégier le renforcement de réseaux européens de coopération existants, comme l’ERGA en matière de régulation des plateformes de contenus en ligne, à la création d’un comité européen des services numériques.

Recommandation 20 : Donner par principe le pouvoir de contrôle des obligations du DSA pour les très grandes plateformes à la Commission européenne, afin de garantir une meilleure efficacité du contrôle des obligations du DSA.

Recommandation 21 : Instaurer une délégation par le pays d’établissement vers le pays de destination pour la conduite de la procédure d’infraction au DSA, si le pays d’établissement ne souhaite pas la mener lui-même.

Recommandation 22 : Clarifier et consolider la capacité effective pour les autorités régulatrices, y compris dans les pays de destination, d’accéder à l’ensemble des données qui leur sont utiles, notamment en limitant strictement les possibilités pour les plateformes d’opposer le secret des affaires.

Recommandation 23 : Garantir la transparence sur le fonctionnement des algorithmes des très grandes plateformes en ligne vis-à-vis du régulateur, en protégeant toutefois ces intermédiaires des risques de divulgation au grand public.

Recommandation 24 : Ouvrir la possibilité d’engager la responsabilité juridique des très grandes plateformes en ligne dans l’hypothèse où le paramétrage de leurs algorithmes favorise la mise en avant de contenus haineux.

Recommandation 25 : Garantir aux autorités nationales et aux services de la Commission, les ressources techniques et humaines suffisantes pour assurer le contrôle des obligations de diligence des fournisseurs de services numériques.

Recommandation 26 : Introduire une obligation de transmission systématique aux autorités répressives de certains contenus manifestement illicites.

Recommandation 27 : Subordonner la suspension d’un compte d’intérêt général, comme celui de personnalités publiques et politiques, à une décision de justice.

Recommandation 28 : Prévoir un calendrier d’adoption du DSA sous présidence française, afin de garantir une régulation rapide du marché des services numériques.

 


—  1  —

   annexes

   Annexe n° 1 :
TABLEAU DES OBLIGATIONS DE DILIGENCE
IMPOSÉES par le dsa par catégorie d’acteurs

   annexe n° 2 :
Liste des personnes auditionnées par les rapporteurEs

I-    AUDITIONS ORGANISÉES PAR LA COMMISSION DES AFF. EUROPÉENNES

Réunion conjointe avec la commission des affaires européennes du Bundestag du 11/02/2021

 

Délégation française au comité économique et social européen (CESE)

 

 

II- AUDITIONS ORGANISÉES PAR VOS RAPPORTEURES

Administration française

Ministère de la culture

 


Secrétariat d’État chargé de la transition numérique et des communications électroniques

 

Secrétariat d’État chargé des affaires européennes

 

Secrétariat général aux affaires européennes (SGAE)

 

Autorités de régulation

Conseil supérieur de l’audiovisuel (CSA)

 

Conseil national du numérique (CNNum)

 

Institutions européennes

Parlement européen

 

Commission européenne

 

Représentation permanente de la France auprès de l’Union européenne

 

Entreprises du numérique

Facebook

 

Google

 

Amazon

 

TikTok France

 

eBay

 

Vinted

 

Booking

 

Associations, syndicats et Think Tank

Bureau européen des unions de consommateurs (BEUC)

 

Institut des droits fondamentaux numériques (IDFRights)

 

Union des fabricants (Unifab)

 

Syndicat national de l’édition phonographique (SNEP)


   Annexe n° 3 :
LISTE DES CONTRIBUTIONS ÉCRITES AUX RAPPORTEURES

 

 


   Annexe n° 4 :
Glossaire des termes anglais et traduction

 

 


([1]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur

([2]) Expression du commissaire européen français M. Thierry Breton, responsable du marché intérieur

([3]) Proposition de règlement COM(2020)825 du Parlement européen et du Conseil relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE

([4]) Rapport d’information fait au nom de la commission des affaires européennes du Sénat sur la proposition de législation européenne sur les services numériques (DSA) par Mmes Florence Blatrix Contat et Catherine Morin-Desailly, 8 décembre 2021, n° 274

([5]) Lettre aux actionnaires de Twitter, 3ème trimestre 2021

([6]) Lettre aux actionnaires de Twitter, 4ème trimestre 2018

([7]) Etude Harris Interactive – Social Life 2020

([8]) Rapport de Facebook sur les résultats du troisième trimestre 2021

([9]) Commission européenne, 6ème bilan de la mise en œuvre du code de conduite sur la lutte contre les discours de haine en ligne, 7 octobre 2021

([10]) Communication de la Commission au Parlement européen, au Conseil, au comité économique et social européen et au comité des régions, Lutter contre la désinformation en ligne : une approche européenne, 26 avril 2018

([11]) Digital News Report 2020, 9e édition, Reuters Institute

([12]) In denial – Facebook’s growing friendship with climate misinformation - Real Facebook Oversight Board et Stop Funding Heat, 4 novembre 2021

([13])  Avis politique du 18 mars 2021 de la commission des affaires européennes du Sénat sur la désinformation en ligne et les atteintes aux processus électoraux

([14]) Évaluation du code de bonnes pratiques sur la désinformation – réalisations et domaines de poursuite de l’amélioration, Commission européenne, 10 septembre 2020

([15]) Guénaël Pépin, Le plan pour sortir le code européen contre la désinformation de l’impasse, Contexte numérique, 13 décembre 2021

([16]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016

([17]) Joëlle Toledano, GAFA - Reprenons le pouvoir !, Odile Jacob, 2020

([18]) Directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites

([19]) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet

([20])  Décision n° 2020-801 DC du 18 juin 2020

([21]) La liberté d’expression est constitutionnellement garantie par l’article 11 de la Déclaration des droits de l’Homme et du citoyen

([22]) Loi n° 2021-1 109 du 24 août 2021 confortant le respect des principes de la République

([23]) Proposition de loi visant à moderniser la lutte contre la contrefaçon, n° 4555, déposée le mardi 12 octobre 2021 par MM. Pierre-Yves Bournazel et Christophe Blanchet et plusieurs de leurs collègues

([24]) Amendement n° 12 déposé le 24 novembre 2021 par MM. Pierre-Yves Bournazel et Christophe Blanchet

[25] Notification 2020/544/A du projet de loi fédérale sur les mesures de protection des utilisateurs des plateformes de communication, 1er septembre 2020

([26]) Lettre du 1er août 2013 intitulée “New proposal could singlehandedly cripple free speech online”

([27]) Interview du candidat M. Joe Biden par le New York Times du 16 décembre 2019, publiée le 17 janvier 2020

([28]) Communication de la Commission du 19 février 2020, COM(2020)67 final, Façonner l’avenir numérique de l’Europe

([29]) Communication de la Commission du 9 mars 2021, COM(2021)118 final, Une boussole numérique pour 2030 : l’Europe balise la décennie numérique.

([30]) Directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données

([31]) Le rapport de la mission d’information de la conférence des présidents de l’Assemblée nationale n° 4299 « Bâtir et promouvoir une souveraineté numérique nationale et européenne » présenté par M. Philippe Latombe procède à une présentation complète de ces textes

([32]) Communication de la Commission du 19 février 2020, COM(2020)66 final, Une stratégie européenne pour les données

([33]) Rapport d’information n° 4409 de Mme Christine Hennion, Régulation des marchés numériques : rendre la proposition de la Commission plus claire et plus efficace

([34]) Audition du 8 novembre 2021 par la commission IMCO

([35]) Analyse approfondie du service de recherche du Parlement européen sur la réforme du régime européen de responsabilité des intermédiaires en ligne – mai 2020

([36]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016

([37]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur

([38]) Article 4 du TFUE qui fait de l’espace de liberté, de sécurité et de justice un domaine de compétence partagée

([39]) Directive 2001/95/CE du Parlement européen et du Conseil du 3 décembre 2001 relative à la sécurité générale des produits

([40]) Proposition de règlement de la Commission du 30 juin 2021 COM(2021)436 final sur la sécurité générale des produits

([41]) Article 17 de la proposition de règlement DSA

([42]) Article 18 de la proposition de règlement DSA

([43]) Prévue à l’article 289 du traité sur le fonctionnement de l’Union européenne (TFUE)

([44]) Avis INT/929 sur la législation sur les services numériques du comité économique et social européen

([45]) Avis 2020/0361 (COD) de la commission JURI du 11 octobre 2021

([46]) Avis 2020/0361 (COD) de la commission ITRE du 29 septembre 2021

([47]) Avis 2020/0361(COD) de la commission LIBE du 28 juillet 2021

([48]) Avis 2020/0361 (COD) de la commission ECON du 26 octobre 2021, sur le rapport de M. Mikuláš PEKSA

([49]) Avis 2020/0361 (COD) de la commission FEMM du 13 octobre 2021 sur le rapport de Mme Jadwiga WIŚNIEWSKA

([50]) Avis 2020/0361 (COD) de la commission CULT sur le rapport de Mme Sabine VERHEYEN

([51]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE

([52]) Directive (UE) 2010/13 du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, modifiée et actualisée par la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018

([53]) Réponse du conseil supérieur de l’audiovisuel (CSA) au questionnaire de vos rapporteures

([54]) Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE

([55]) Réponse du cabinet de la ministre de la Culture au questionnaire de vos rapporteures

([56]) La transposition de la directive de 2019 est effectuée en droit français par l’ordonnance n° 2021-580 du 12 mai 2021

([57]) Paragraphe 4 de l’article 17 de la directive (UE) 2019/790 sur le droit d’auteur

([58]) Analyse approfondie du service de recherche du Parlement européen sur la réforme du régime européen de responsabilité des intermédiaires en ligne – mai 2020

([59]) Communication de la Commission COM(2017)555 sur la lutte contre le contenu illicite en ligne – Pour une responsabilité accrue des plateformes en ligne du 28 septembre 2017

([60]) Étude réalisée par l’Institut du droit de l’information (IViR) pour la Commission, Hosting intermediary services and illegal content online, 2018, p. 30-31

([61]) Réponse du secrétariat général aux affaires européennes (SGAE) au questionnaire de vos rapporteures

([62]) Réponse du syndicat national de l’édition phonographique (SNEP) au questionnaire de vos rapporteures

([63])Italian Supreme Court, 19 March 2019, RTI v Yahoo!, No. 9133/2015

([64]) Federal Court of Justice, 15 August 2013, GEMA v Rapidshare, No. I ZR 80/12

([65]) Cour de Justice de l’Union européenne, 12 July 2011, L’Oreal v eBay, C-324/09

([66]) Commission européenne, Code de conduite de l’Union européenne visant à combattre les discours illégaux en ligne, mai 2016

([67]) Proposition de règlement COM(2021731/2 du Parlement européen et du Conseil sur la transparence et le ciblage de la publicité politique

([68]) Avis n° 01/2021 concernant la proposition de législation sur les services numériques du comité européen de la protection des données, 10 février 2021

([69]) Réponses de secrétariat d’État au numérique au questionnaire de vos rapporteures

([70]) Directive (UE) 2010/13 du Parlement européen et du Conseil du 10 mars 2010

([71]) Infographie du Conseil de l’Union européenne sur le Digital services act, mis à jour le 17 décembre 2021

([72]) Ces entreprises sont définies au sens de l’annexe de la recommandation 2003/361/CE

([73]) Directive (UE) 2018/843 du Parlement européen et du Conseil de 30 mai 2018

([74]) Réponse de l’entreprise eBay au questionnaire de vos rapporteures

([75]) Directive (UE) 2021/514 du Conseil du 22 mars 2021, modifiant la directive 2011/16/UE relative à la coopération administrative dans le domaine fiscal

([76]) Proposition de règlement de la Commission du 30 juin 2021 COM(2021)436 final sur la sécurité générale des produits

([77]) Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux

([78]) Notamment la directive (UE)2019/771 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de vente de biens, modifiant le règlement 2017/2394 et la directive 2009/22/CE et abrogeant la directive 1999/44/CE

([79]) Recommandation reprise du rapport d’information n° 4409 de Mme Christine Hennion, Régulation des marchés numériques : rendre la proposition de la Commission plus claire et plus efficace

([80]) Facebook Reports First Quarter 2021 Results, Facebook Inc, avril 2021

([81]) Comment planifier du contenu pour les fêtes sur Instagram, Instagram Business, octobre 2019

([82]) La fusion est issue de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l'accès aux œuvres culturelles à l'ère numérique

([83]) Réponse du CSA au questionnaire de vos rapporteures

([84]) Directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites

([85]) Audition du 8 novembre 2021 par la commission IMCO

([86]) Audition du 10 novembre 2021 conjointement par la commission des affaires économiques et par la commission des lois

([87]) Selon le Conseil national du numérique (CNNum), auditionné par vos rapporteures

([88]) Rapport d’information fait au nom de la commission des affaires européennes du Sénat sur la proposition de législation européenne sur les services numériques (DSA) par Mmes Florence Blatrix Contat et Catherine Morin-Desailly

([89]) Réponse de l’institut des droits fondamentaux numériques (IDFRights) au questionnaire de vos rapporteures