- Texte visé : Texte de la commission sur la proposition de loi de Mme Laure Miller et plusieurs de ses collègues visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux (2107)., n° 2341-A0
- Stade de lecture : 1ère lecture (1ère assemblée saisie)
- Examiné par : Assemblée nationale (séance publique)
La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigé :
« Art. 6‑9-1. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.
« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.
« III. – Sont considérées comme « mises en avant », au sens du présent article, les informations présentées au public autrement que dans un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications, ou de toute fonctionnalité équivalente. »
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.