- Texte visé : Proposition de résolution, tendant à la création d'une commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, n° 783
- Stade de lecture : Lecture unique
- Examiné par : Commission des affaires sociales
Après l’alinéa 2, insérer l’alinéa suivant :
« 1° bis D’évaluer les effets potentiellement nocifs sur la santé mentale des utilisateurs, notamment des mineurs, de l’usage d’interfaces truquées qui renforcent leur exposition à des contenus dangereux ; ».
Par cet amendement, le groupe LFI-NFP souhaite interroger plus fondamentalement un aspect essentiel de la lutte contre les effets psychologiques néfastes induits par l’usage des plateformes comme TikTok : leur modèle économique fondé sur la captation de l’attention, et dans lequel l’usage des « darks patterns » (ou interfaces truquées) jouent un rôle prépondérant.
Un « dark pattern » est une interface utilisateur qui a été volontairement conçue pour tromper ou manipuler un utilisateur, en usant notamment des biais cognitifs. L’objet d’une « interface truquée » est d’orienter l’utilisateur vers des choix qu’il n’aurait probablement pas faits en connaissance de cause, et qui sont dans l’intérêt de la plateforme. Alors même que les plateformes utilisent déjà des algorithmes de recommandation de plus en plus sophistiqués, capables de jouer avec les biais psychologiques des utilisateurs afin de proposer les contenus les plus « proches » des centres d’intérêts de chacun de leurs utilisateurs et qui tend à les enfermer dans des « bulles de filtre » - des individus en difficultés pouvant être enfermés dans des « bulles de filtre » de contenus néfastes pour leur santé - la mise en place de nombreux éléments de « darks patterns » n’a qu’un seul but : retenir l’attention des utilisateurs le plus longtemps possible (pour pouvoir vendre par exemple toujours plus d’espaces publicitaires, qui représentent l’essentiel des recettes des plateformes numériques).
TikTok utilise par exemple le « scroll infini » (ou défilement infini) de la page. Son usage a tendance à faire augmenter le temps passé sur l’application : en effet, en utilisant le biais de clôture et le mécanisme de récompenses aléatoire, il pousse l’utilisateur à rester sur le service afin de découvrir, hypothétiquement, une information intéressante. Le risque est ainsi d’être toujours plus exposés à des contenus inappropriés et/ou dangereux, uniquement car le modèle économique des plateformes en dépend : par conséquent, si on souhaite s’attaquer à la toxicité des plateformes numériques comme TikTok, des mesures plus ambitieuses de lutte contre l’usage des « darks patterns » qui sont au coeur de leur modèle économique doivent être envisagées. Elles sont d’autant plus indispensables que ces acteurs ont très souvent une position quasi-monopolistique, ce qui les rend pratiquement impossible à contourner par les utilisateurs et relance la nécessité de réfléchir à des mesures pour lutter contre la concentration du secteur.