- Texte visé : Proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, n° 2107
- Stade de lecture : 1ère lecture (1ère assemblée saisie)
- Examiné par : Commission des affaires culturelles et de l'éducation
I. – Après l’alinéa 5, insérer l’alinéa suivant :
« Les services de réseaux sociaux en ligne ne peuvent exposer les usagers mineurs à des contenus auxquels ils n’ont pas explicitement souscrit. »
II. – En conséquence, à la première phrase de l’alinéa 6, après le mot :
« finaux »,
insérer les mots :
« , ou qu’il permet l’accès pour les mineurs à un fil de contenus présentant d’autres contenus que leurs abonnements volontaires ».
Les algorithmes addictogènes et dangereux des plateformes sont la source de biens des maux causés par les réseaux sociaux. Le rapport de la Commission d’enquête relatif à TikTok présente ainsi les choses :
« TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible ».
Puisque la méthode algorithmique qui conduit à cette enfermement dans des bulles anxiogènes particulièrement problématique pour les mineurs, plus vulnérables, il est nécessaire d’interdire l’utilisation d’algorithme de cette façon.
L’exposition à des contenus non sollicités peut exposer plus facilement les mineurs à des contenus qui peuvent atteindre leur sensibilité (nudité, softporn, mutiliations, violences, racisme, antisémitisme …). Aucune mesure d’auto-régulation ne peut contre-carrer la proposition de contenus non sollicités et limiter les risques d’exposition à des contenus choquants et le caractère addictogène de cette fonctionnalité. Ces propositions sont strictement déléguées aux préférences algorithmiques des plateformes ne laissant aucune place aux utilisateurs pour contrôler les contenus qui leur sont exposés.
Cet amendement a pour vocation de traduire la recommandation n°1 du Président de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.