- Texte visé : Texte de la commission sur la proposition de loi de Mme Laure Miller et plusieurs de ses collègues visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux (2107)., n° 2341-A0
- Stade de lecture : 1ère lecture (1ère assemblée saisie)
- Examiné par : Assemblée nationale (séance publique)
La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9-1 ainsi rédigé :
« Art. 6‑9-1. – Les fournisseurs de services de réseaux sociaux en ligne qui utilisent des systèmes de recommandation à destination d’utilisateurs mineurs, mettent en œuvre des mesures proportionnées visant à prévenir la mise en avant de contenus manifestement illicites ou portant atteinte à la protection des mineurs au sens de l’article 6‑9. Le manquement à ces obligations peut engager la responsabilité du fournisseur au titre de ses choix de mise en avant, indépendamment du régime applicable à l’hébergement des contenus. »
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.