Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition de MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes              2

– Audition commune réunissant :.........................12

• Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux

• Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable

 Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5

 M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur de l’ouvrage Le biberon numérique : Le défi éducatif à l’heure des enfants hyper-connectés

– Présences en réunion................................27

 


Mercredi
23 avril 2025

Séance de 14 heures 30

Compte rendu n° 5

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à quatorze heures dix.

La commission auditionne MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes.

M. le président Arthur Delaporte. Nous accueillons MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes.

Avant de vous laisser la parole pour un court exposé liminaire, je vous remercie de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité et rien que la vérité.

(MM. Serge Abiteboul et Gilles Dowek prêtent successivement serment.)

M. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Inria. En préambule, je n’ai pas de compte TikTok ni l’intention d’en créer un. Si j’en crois mes amis, cela me fait gagner plusieurs heures par jour car TikTok est extrêmement addictif. Le côté négatif, c’est que je suis exclu de certaines conversations – un peu comme l’étaient dans le temps les gens qui refusaient d’avoir la télévision.

J’ai présidé la mission « Régulation des réseaux sociaux - expérimentation Facebook » créée à la demande du secrétaire d’État chargé du numérique. Notre rapport, intitulé « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », a été remis en 2019. D’une certaine façon, il a préfiguré le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital Services Act (DSA). Avec M. Jean Cattan, secrétaire général du CNNUM (Conseil national du numérique), j’ai aussi écrit Nous sommes les réseaux sociaux, publié en 2022 chez Odile Jacob.

Nous pourrons revenir sur les algorithmes des réseaux sociaux, et en particulier ceux de recommandation et de modération qui vous intéressent probablement le plus – même si d’autres algorithmes sont utilisés pour la publicité. Mais, avant cela, il est plus intéressant de s’attarder un peu sur la particularité de TikTok.

TikTok est basé sur des échanges de vidéos. En général assez courtes – quelques secondes, parfois plus –, elles sont proposées par les utilisateurs, auxquels la plateforme fournit des outils pour les éditer. Au départ, c’était plutôt une plateforme de divertissement entre amis. Désormais, on y partage de plus en plus des vidéos avec le monde entier et c’est devenu une plateforme d’information et de médias. On y trouve des entreprises et des personnalités politiques.

Pour beaucoup de jeunes – mais pas seulement –, elle est devenue l’un des premiers moyens d’information. Elle est aussi utilisée comme moteur de recherche. Je connais des jeunes qui regardent des vidéos sur TikTok pour préparer leurs voyages. C’est un outil d’accès à la connaissance et à l’information qui est vraiment primordial, surtout pour les jeunes.

TikTok est un réseau social un peu comme les autres, qui suit de très près les modèles dominants américains tels que Facebook et Instagram, et qui fait un tabac. C’est déjà un point intéressant, car il taille des croupières aux grands réseaux américains.

Cependant, il présente deux différences principales.

Tout d’abord, ce n’est pas un réseau social étasunien. Pour les États-Unis, il représente la perte d’un monopole critique qu’ils détenaient en Occident. La très grande majorité des réseaux étaient jusque-là américains. Pour les Européens, cela signifie que la masse des données personnelles mises par les utilisateurs sur les réseaux – nous pourrons revenir sur ce point si vous le voulez – passe sous le contrôle d’un pays qui n’est pas forcément ami. Les lois en Chine permettent au gouvernement d’accéder à toutes ces données. Personne n’a vraiment de doute à ce sujet. Cela étant, depuis le Clarifying lawful overseas use of data act ou Cloud Act (H.R. 4943) américain de 2018, il ne faut pas se faire d’illusions : toutes les données recueillies par le biais des réseaux sociaux américains, tels que Facebook ou Instagram, ainsi que par l’intermédiaire de Google peuvent être utilisées par un pays dont on peut se demander s’il est encore un ami.

TikTok est au cœur d’un véritable conflit commercial, avec toutes les plateformes américaines, mais aussi géopolitique. On pourrait donc se dire qu’il n’est pas juste que TikTok ne soit pas autorisé dans certains pays et que les États-Unis veuillent le bloquer sur leur territoire. Mais il faut aussi constater que le marché chinois est extrêmement fermé et n’a pas laissé des entreprises comme Google et Facebook s’y installer.

Du point de vue européen et de la souveraineté numérique, il n’est pas forcément mauvais de disposer d’une alternative aux réseaux américains. D’un autre côté, on peut se dire que, si on ne peut pas vivre sans les systèmes d’exploitation des téléphones, sans les logiciels du cloud et sans l’IA (intelligence artificielle), on pourrait vivre sans les réseaux sociaux. Ce n’est pas d’une importance stratégique.

La deuxième différence, plus difficile à cerner, c’est que TikTok est le réseau social le plus populaire chez les jeunes – enfants et jeunes adolescents. Il y a de nombreuses raisons à cela. Tout d’abord, les vidéos sont des choses qui leur plaisent. Ensuite, ils ont voulu s’inscrire sur un autre réseau qu’Instagram ou Facebook, où se trouvent leurs parents. Les jeunes sont d’ailleurs en train d’amener leurs parents vers TikTok.

Le fait d’être un réseau très populaire chez les enfants donne une énorme responsabilité, parce que c’est le moment où se forment un caractère et une identité. Le faire en passant beaucoup de temps sur TikTok peut poser quelques problèmes et avoir des effets psychologiques, quels qu’ils soient. Je ne suis pas du tout un spécialiste en la matière et je pense qu’il faudrait des études plus poussées.

M. le président Arthur Delaporte. Nous auditionnerons des psychologues et des psychiatres.

M. Serge Abiteboul. Je me contenterai de dire qu’il y a des effets négatifs, qu’on mesure mal. On sait grâce à Mme Francs Haugen et aux Facebook Files que les réseaux sociaux n’ont pas naturellement tendance à laver leur linge sale.

Je termine par les algorithmes de recommandation. Ils permettent de choisir parmi les millions d’informations et de contenus publiés sur le réseau ceux que l’on va présenter à l’utilisateur. C’est critique et c’est à ce niveau que les réseaux ont un rôle d’édition, puisqu’ils choisissent ce que l’utilisateur va voir. Et ils le choisissent d’abord pour que ça lui plaise, pour le fidéliser et pour pouvoir monnayer son attention. Ils privilégient donc les informations récentes, celles qui concernent son cercle d’amis, celles qui entraînent le plus de réactions, les sujets qui l’intéressent, etc.

Suivant quels critères ? On ne sait pas car c’est un secret industriel. C’est en outre quelque chose de très peu stable. On sait que la recette du Coca-Cola ne bouge pas, mais les algorithmes de recommandation des réseaux sociaux peuvent être modifiés presque au jour le jour.

Les biais de recommandation sont destinés à bénéficier à l’utilisateur, mais ils finissent par être des choix éditoriaux, commerciaux, voire politiques, de la plateforme. L’effet de bulle est une conséquence des algorithmes. Il confine l’utilisateur dans des domaines qu’il apprécie plutôt que de l’ouvrir à des contenus qui pourraient l’enrichir. C’est un biais naturel, mais il est extrêmement renforcé avec les réseaux sociaux.

Je suis obnubilé par un problème. Lorsque l’on choisit un journal, on sait qu’il présente une vision biaisée, ou en tout cas politique, de la situation dans le monde. Devant un réseau social, on a l’impression qu’on vous présente quelque chose d’universel, puisqu’il y a plus de 1 milliard d’utilisateurs. Or ce n’est pas du tout le cas, car la vision qui vous est proposée est vraiment biaisée selon vos goûts et vos choix sur la plateforme. Si vous avez tendance à croire que la Terre est plate, ou si simplement vous vous posez la question, vous allez d’un seul coup être inondé de vidéos « platistes » qui vont vous maintenir dans l’erreur – et sans que vous en ayez conscience.

Quelles sont les spécificités propres à TikTok ? Encore une fois, son modèle est très classique. Il existe des modèles de réseaux sociaux qui ne sont pas dominants et qui sont très intéressants, mais celui de TikTok est finalement très classique.

Son algorithme de recommandation est réputé être extrêmement bon et il arrive à bien cerner les goûts à partir du comportement de l’utilisateur, de ses interactions, de ses recherches et de sa manière de regarder une vidéo. La valeur de TikTok – et je suis obligé d’utiliser le conditionnel – tiendrait à cet algorithme. ByteDance, la maison mère, serait réticente à vendre TikTok à une société étasunienne car elle risquerait de perdre l’avantage que lui donne son algorithme de recommandation.

Ce dernier encourage les nudges, peut être encore plus que les autres réseaux, afin que l’utilisateur reste connecté le plus longtemps possible. On parle d’addiction. Je ne sais pas si c’est le cas, mais mes amis disent que lorsqu’on est sur TikTok on a envie d’y rester.

Se pose aussi la question de la manipulation politique. Dans le passé, TikTok a bloqué des contenus désapprouvés par les autorités chinoises – par exemple des vidéos de soutien aux Ouïghours. TikTok a fait marche arrière devant la levée de boucliers, mais il est très probable qu’au minimum il limite la propagation de tels contenus. C’est une façon de les éditorialiser.

Plus perturbant encore, ByteDance a développé en Chine un système de notation sociale. Il n’est évidemment pas proposé en Europe ou aux États-Unis, parce que ce serait interdit – en tout cas, c’est illégal en Europe en vertu du règlement sur l’intelligence artificielle. Cependant, il faut bien mesurer que cette même entreprise qui possède TikTok propose cela en Chine.

M. Gilles Dowek, informaticien et logicien, chercheur à l’Inria. Je vais commencer par déclarer que je ne possède pas d’actions TikTok ni de compte sur ce réseau – je vais expliquer pourquoi.

Une remarque au préalable sur la formulation étrange d’une question qui nous a été posée par écrit et qui porte sur les effets psychologiques de TikTok sur les mineurs : il est peu vraisemblable que ce réseau ait des effets que n’auraient pas d’autres plateformes de présentation de vidéos. Je me suis donc dit que la question concernait plutôt les effets psychologiques sur les mineurs des plateformes de diffusion de vidéos.

Ces dernières ne sont qu’un des éléments du paysage, avec les réseaux sociaux et les plateformes de microblogage. On a tendance à tout désigner sous l’appellation de réseaux sociaux, mais, dans une acception plus restreinte, ces derniers sont constitués par les plateformes qui permettent aux utilisateurs d’organiser leur vie sociale, hors ligne et en ligne.

Les plateformes de microblogage – comme X, Truth Social ou Mastondon – nous aident à transmettre des messages à destination du monde entier, et pas seulement de nos amis, connaissances ou collègues.

Enfin, les plateformes de diffusion de vidéos – comme TikTok ou YouTube – sont un peu du même type que celles de microblogage, mais elles s’appuient sur des vidéos amateurs et non sur du texte.

L’ensemble de ces structures forme le web symétrique, ou web 2.0. C’est une rupture avec l’ensemble des moyens de communication utilisés lors de la période de 5 000 ans qui débute avec l’invention de l’écriture et se termine avec le premier web.

Les moyens de communication étaient alors limités. Le premier web permettait certes à ceux qui avaient une certaine connaissance technique d’envoyer des messages universels, mais eux seuls le pouvaient. Ce n’était pas à la portée de tout le monde, car il fallait pouvoir créer son site. De très nombreuses personnes se connectaient à des sites, notamment pour lire la presse, mais peu y écrivaient. Il y avait donc encore une dissymétrie entre le récepteur du message et son émetteur, lequel était soit savant soit puissant – M. Bernard Arnault ne sait pas créer un site web, mais des gens dans son entreprise savent le faire.

Tout cela a complètement changé avec le web symétrique. Désormais, tout le monde peut parler et tout le monde peut entendre ce que tout le monde dit – et n’importe quand. C’est un changement radical des moyens de communication et il entraîne un certain nombre de transformations qui sont assez visibles.

Cela a tout d’abord permis un échange des connaissances sans précédent. Nous connaissons tous Wikipédia, mais il ne faut pas oublier que cette encyclopédie comprend 9 millions d’entrées dans l’ensemble des langues du monde, soit un contenu cent fois plus important que celui de l’Encyclopédie de Diderot et d’Alembert ou de l’Encyclopædia Britannica. Grâce aux contributions que chacun peut apporter à Wikipédia, on assiste à un changement de la nature même du partage de la connaissance.

Cette situation bouleverse également les institutions politiques, parce qu’il est difficile de concevoir une démocratie, à savoir un régime dans lequel le peuple gouverne, sans que celui-ci puisse parler. Entre le XVIIe et le XXe siècle, des compromis ont été trouvés pour pallier l’impossibilité de donner la parole publique à chacun, dont l’un des plus vertueux fut la démocratie représentative, appelée initialement « régime représentatif ». Ce système arrive à bout de souffle puisque tout le monde peut dorénavant prendre la parole pour donner son avis sur les questions politiques. Cette nouvelle configuration, qui n’en est qu’à ses débuts, transforme profondément le rôle du représentant politique.

Le premier internet exigeait de posséder certaines connaissances pour pouvoir s’y exprimer, ce qui n’est pas le cas du web 2.0, celui-ci intéressant par conséquent moins les informaticiens. Je n’ai aucun compte TikTok ou Facebook, en revanche, j’administre un site web et peux m’y exprimer sans utiliser les services des réseaux sociaux.

Le web symétrique présente deux avantages principaux : le partage de connaissances et la démocratisation. Néanmoins, tout progrès technique emporte des effets secondaires négatifs. Parmi ceux-ci figure le changement du statut de l’injure, évolution qui appelle une réflexion éthique et un contrôle des citoyens et des institutions. Jusqu’à récemment, il n’était pas possible pour tout un chacun de s’adresser à la foule entière. Ce privilège était réservé à trois catégories : les hommes politiques, les enseignants et les hommes d’Église. Les premiers prononcent des discours, dont certains sont parvenus jusqu’à nous, que l’on songe à ceux de Danton ou de Robespierre ; les seconds parlent publiquement dans des amphithéâtres de plusieurs centaines d’étudiants ; quant aux troisièmes, ils prennent la parole devant plusieurs dizaines de fidèles. Le changement tient au fait que, depuis vingt ou trente ans, les gens qui s’énervaient dans un café en injuriant d’autres clients ont eu accès à la parole publique : seules deux ou trois personnes assistaient autrefois à ces débordements, dorénavant, grâce au web symétrique, le monde entier est témoin des injures ou des accusations lancées sans preuve. Cette nouveauté modifie totalement le statut de l’injure, à tel point que certaines personnes estiment que l’action judiciaire est devenue inutile. Si quelqu’un vous nuit, il suffit de l’injurier ou de l’incriminer publiquement : la sanction sera alors prononcée par le peuple, non par la justice. Nous devons nous montrer vigilants sur cette évolution.

L’un des autres problèmes tient à l’absence de contrôle des messages passés. L’un de mes amis a posté, à l’âge de 16 ans, une vidéo dans laquelle il mangeait du Nutella en public : plusieurs années plus tard, la première question qu’on lui posait à chaque entretien d’embauche portait sur le Nutella. Il a voulu supprimer la publication, mais il n’y est parvenu qu’après plusieurs années d’efforts car toutes les vidéos sont copiées et republiées dans d’autres applications et sur d’autres sites internet.

Le troisième risque a trait à la logorrhée. Jean Racine a consacré sa vie au théâtre, mais il n’a écrit qu’une douzaine de pièces ; en revanche, il a très longuement ciselé chaque alexandrin. Sur les réseaux sociaux, l’approche est exactement inverse : on peut publier une heure de vidéo chaque jour et produire ainsi en douze jours autant que ne l’a fait Racine dans toute sa carrière. En 1975, Jacques Besnard a réalisé un film au titre prophétique, Ce n’est pas parce qu’on a rien à dire qu’il faut fermer sa gueule. Film oubliable, mais dont le titre illustre parfaitement le fonctionnement du microblogage et des plateformes de vidéos. Lorsque l’on n’a pas grand-chose à dire, l’une des facilités consiste à parler de soi : certains auteurs de vidéos sur TikTok, YouTube ou d’autres plateformes parlent de sciences, d’histoire ou d’arts, d’autres racontent les fictions qu’ils ont créées, mais la plupart d’entre eux racontent leur vie. Ces vidéos ne présentent aucun intérêt, mais elles sont devenues un mode d’expression à la première personne, qui prend le pas sur tout le reste. D’ailleurs, au-delà d’internet, de nombreuses œuvres littéraires contemporaines ne sont rien d’autre que des témoignages de scènes vécues.

Le dernier risque résulte de la captation de données personnelles. Contrairement au premier web, géré par une instance publique internationale, le World Wide Web Consortium (W3C), le web symétrique est géré par des entreprises privées : pour les réseaux sociaux, Facebook, pour le microblogage, X, Mastodon, Truth Social, et pour les plateformes de diffusion de vidéos, Instagram, TikTok, YouTube, etc. Ces entreprises ont pour but de générer des profits, qu’elles tirent de l’exploitation des données personnelles de leurs utilisateurs. La plupart de ces derniers n’imaginent pas la quantité de données qu’ils transmettent sur eux. Un adolescent qui publie une vidéo dans laquelle il annonce redoubler sa terminale fera penser à la plupart des personnes qui la regarderont qu’il est paresseux. Le public déduira d’une vidéo d’une personne évoquant ses angines à répétition qu’elle fume, d’une autre visitant la cathédrale de Chartres qu’elle est catholique, d’une autre qui a une entorse à la cheville qu’elle pratique le volley-ball, ou d’une autre aimant Émile Zola qu’elle est socialiste : ces conclusions peuvent être individuellement erronées, mais elles sont statistiquement probables. Ces éléments, qui semblent anecdotiques, constituent des informations pleines d’intérêt.

M. le président Arthur Delaporte. Ma collègue Laure Miller, rapporteure de la commission d’enquête, a lu Émile Zola mais elle n’est pas socialiste.

M. Gilles Dowek. Cela peut arriver en effet ! L’algorithme n’a pas raison à l’échelle individuelle, mais il a raison statistiquement. Il fonctionne aussi sur le croisement d’informations : si une personne a lu Zola et Karl Marx, la probabilité qu’elle soit socialiste augmente.

M. Serge Abiteboul. Des études, réalisées à partir de Facebook et non de TikTok, montrent que l’on peut détecter, avec un taux de réussite très élevé, proche de 100 %, les positions politiques, les croyances religieuses et l’orientation sexuelle des personnes très actives sur la plateforme. On y parvient en croisant les informations et en regardant les préférences, par exemple politiques, des membres de leur réseau.

M. Gilles Dowek. Si une personne compte une majorité d’amis socialistes, elle donne en effet une indication sur ses propres idées.

Ces informations sont très utiles aux recruteurs, qui veulent savoir si vous êtes paresseux, aux vendeurs de cigarettes, qui souhaitent savoir si vous êtes fumeur, mais aussi aux églises, aux vendeurs de ballons de volley-ball, aux partis politiques, etc. Toutes ces structures sont prêtes à acheter ces informations à un prix élevé : la vente de ces éléments rapporte de l’argent aux plateformes comme TikTok. Le montant total du chiffre d’affaires ainsi constitué rapporté au nombre d’inscrits actifs donne le revenu moyen généré par chaque utilisateur de la plateforme. Il s’élève à quelques euros. Par conséquent, faire payer un abonnement mensuel de 5 euros ou de 10 euros à chaque utilisateur apporterait le même revenu aux plateformes sans que celles-ci revendent les données personnelles. Certaines structures ont choisi ce modèle et affirment, probablement sans mentir, qu’elles ne revendent pas les données qu’elles collectent. Il n’y a donc aucune fatalité à la revente des données des utilisateurs.

Le risque d’être injurié ou accusé sans preuve, la difficulté de contrôler son image, l’écueil de trop parler de soi, l’exposition à une avalanche de messages commerciaux ou politiques constituent le revers de la médaille de la libre parole. La notion de pudeur a évolué, puisque de nombreuses personnes font part d’éléments intimes sans comprendre les problèmes que ce dévoilement peut poser. Les utilisateurs des plateformes doivent conduire une réflexion éthique. En outre, l’exacerbation de ces travers peut créer un risque psychologique. La mise en évidence de ces dangers doit faire l’objet d’un travail scientifique solide. Serge Abiteboul a dit que les utilisateurs de TikTok aimaient rester longtemps sur l’application, mais j’aime aussi rester dans mon bain sans que cela soit addictif : cet adjectif doit être employé avec rigueur et ne doit pas relever de l’expression d’une simple opinion. Des études pseudo-scientifiques ont été publiées : l’une d’entre elles dressait un lien entre les écrans et l’autisme, mais elle a été retirée à cause de biais méthodologiques qui traduisaient un objectif idéologique. Il faut éviter ce type d’études et privilégier celles qui parviendraient à montrer scientifiquement l’existence de difficultés psychologiques.

Mme Laure Miller, rapporteure. Nous n’avons plus que le mot « algorithme » à la bouche, mais est-ce que nous l’employons de manière pertinente ? Pourriez-vous nous donner une définition concrète et simple de ce terme ?

Quelles données personnelles sont utilisées par l’algorithme des réseaux sociaux ? Les pouvoirs publics peuvent-ils encadrer la captation effectuée par l’algorithme ou limiter le partage des données personnelles afin de mieux protéger ces dernières ?

M. Serge Abiteboul. Dans les réponses écrites au questionnaire que je vous transmettrai, je vous donnerai des éléments détaillés sur cette question. Il n’y a pas un seul algorithme, il y en a beaucoup : dans la perspective des travaux de votre commission d’enquête, les algorithmes les plus importants sont, dans un réseau social comme TikTok, ceux de recommandation et de modération. Les premiers sont dirigés vers les utilisateurs et les seconds servent à la plateforme pour bloquer des contenus illégaux ou opposés aux orientations de celle-ci. D’autres algorithmes existent, par exemple ceux qui sélectionnent la publicité que les utilisateurs reçoivent.

Les utilisateurs ne se rendent pas compte des données qu’ils partagent avec la plateforme : nom, prénom, âge, genre, date de naissance, courriel, numéro de téléphone, photos et vidéos personnelles. Très importants sont les éléments relatifs au comportement de l’utilisateur – vidéos visionnées, aimées, cherchées –, mais également à la localisation et aux connexions. Même si l’utilisateur cache certaines informations comme son orientation sexuelle, la plateforme pourra très probablement les découvrir.

Il ne me semble pas que TikTok collecte des données différentes de celles captées par les autres plateformes : Instagram récupère le même genre de données que TikTok. Petite différence, TikTok recueille des données comportementales relatives à la façon dont les utilisateurs visionnent les vidéos : l’algorithme d’analyse des comportements va assez loin dans l’identification des émotions des utilisateurs.

La question est de savoir ce que TikTok peut faire de ces données qui, à mon avis, ne sont pas celles qui se vendent le mieux – mais je peux me tromper. On peut penser qu’il les exploite de manière exhaustive pour mieux capter l’attention des utilisateurs et les garder le plus possible au sein du réseau. À part cela, TikTok présente les mêmes caractéristiques que les autres réseaux sociaux.

M. Gilles Dowek. La formulation de la question – « Quelle est votre définition de ce qu’est un algorithme ? » – m’a mis un peu mal à l’aise car je n’ai pas de définition personnelle à proposer, pas plus que je n’ai d’opinion personnelle sur le fait que deux et deux font quatre. Tous les dictionnaires définissent l’algorithme. Il s’agit, selon celui de l’Académie française, d’une « méthode de calcul qui indique la démarche à suivre pour résoudre une série de problèmes équivalents en appliquant, dans un ordre précis, une suite finie de règles » ; l’Académie cite l’exemple de l’algorithme de la multiplication de nombres à plusieurs chiffres. Le mot me paraît bien employé, dans le débat public, par ceux qui ont lu sa définition mais, en règle générale, il est très mal utilisé et, comme tous les mots techniques, peut servir d’injure. Ainsi, le 19 octobre 2024, Le Monde titrait sur la généralisation de la vidéosurveillance « algorithmique », ce dernier terme étant supposé faire peur. Je n’ai aucune idée de ce que cette expression signifie.

Mme Laure Miller, rapporteure. Je reviens sur votre remarque relative au périmètre de la commission d’enquête. Il ne nous a évidemment pas échappé que les autres réseaux sociaux exerçaient un impact sur la santé mentale des jeunes mais, eu égard au temps limité dont nous disposons, il m’a semblé pertinent – après en avoir débattu avec les autres membres de la commission – que nous nous focalisions sur le réseau social qui est à l’heure actuelle le plus problématique et le plus utilisé par les mineurs. Les recommandations que nous formulerons pourront être appliquées à d’autres réseaux sociaux.

M. Gilles Dowek. Ma remarque était donc sans objet.

M. le président Arthur Delaporte. J’ai moi aussi émis quelques réserves, au départ, sur le fait que nos travaux soient circonscrits à TikTok et aux mineurs, mais il était nécessaire que nous concentrions notre enquête sur un objet précis. Cela étant, nos propositions pourront être mises à profit pour réguler les autres réseaux ; en outre, elles sont susceptibles de concerner également les majeurs.

Mme Isabelle Rauch (HOR). À quel moment peut-il y avoir une intervention humaine sur l’algorithme ? Pourrait-on exercer, grâce à cela, une forme de régulation ?

M. Serge Abiteboul. Commençons par rappeler que l’algorithme est écrit par l’homme. Dans les algorithmes de décision, très souvent, on demande une validation par un humain. Par exemple, chez Facebook – je suppose qu’il en va de même chez TikTok –, l’algorithme ne peut pas décider de fermer un compte : il ne peut que le proposer, la décision revenant à une personne. En outre, les humains peuvent vérifier et modifier les algorithmes. Si vous souhaitez légiférer en la matière, il faudra tenir compte du fait que les algorithmes de modération et de recommandation sont instables, dans la mesure où ils sont modifiés, quasiment en permanence, par des programmeurs. D’une certaine façon, cela complique le travail des chercheurs car, aussi sérieuses soient-elles, les mesures qu’ils réalisent – je pense à l’étude en boîte noire des logiciels – ne seront peut-être plus vraies trois mois après.

Les algorithmes peuvent faire des choix par eux-mêmes, sans que les humains les contrôlent, si ces derniers leur en ont laissé la possibilité. À ma connaissance, les algorithmes des réseaux sociaux sont toujours programmés par des humains. Leur comportement peut évoluer, soit parce qu’ils dépendent de paramètres dont la valeur change, soit parce qu’ils sont soumis à un phénomène d’apprentissage – qui n’est pas, en général, un apprentissage en ligne. Le risque principal vient des modifications que l’homme apporte à l’algorithme car il est compliqué de vérifier ce que fait l’algorithme en temps réel. Aussi est-il impératif de pouvoir vérifier les effets des lois que vous élaborez dans l’objectif de réguler les réseaux sociaux. Si le DSA contient de nombreuses dispositions satisfaisantes, son application m’inquiète. Je ne vois pas, en effet, comment on parviendra, sans monter considérablement en compétences, à contrôler ce que font les plateformes.

Mme Isabelle Rauch (HOR). On a le sentiment que les algorithmes, les réseaux nous échappent complètement, mais il y a beaucoup d’humain derrière.

M. Gilles Dowek. Je ne comprends pas l’opposition que vous suggérez entre humain et algorithme : l’homme se distingue de la machine, de l’ordinateur, qui n’ont rien à voir avec l’algorithme. On emploie des algorithmes depuis 5 000 ans ; le mot existe, en français, depuis le XIIIe siècle. La question est de savoir si l’on pourrait remplacer les ordinateurs par des humains. Cela ne paraît pas possible car, pour prendre le seul exemple de TikTok, seul un ordinateur est en mesure de contrôler l’ensemble des vidéos – dont le nombre doit s’élever à 1 million, au bas mot – qui sont postées, quotidiennement, sur la plateforme, afin de censurer celles qui, par exemple, contiennent des injures.

Mme Isabelle Rauch (HOR). Il est important de rappeler que des humains programment les algorithmes et peuvent les contrôler et les modifier car le grand public a le sentiment que les machines sont autonomes.

M. Gilles Dowek. C’est une confusion qui a cours au sein du grand public.

Mme Isabelle Rauch (HOR). Je souhaitais que cela soit précisé pour toutes les personnes qui suivent nos travaux.

M. le président Arthur Delaporte. Vous écrivez, dans Le Temps des algorithmes : « La responsabilité des actes d’un algorithme incombe à ceux qui le conçoivent et l’utilisent », ce qui montre bien la place qu’occupe l’humain en ce domaine.

Monsieur Abiteboul, dans votre rapport de 2019 – antérieur, donc, à l’adoption du DSA –, vous proposiez des pistes de régulation. Comment analysez-vous la situation aujourd’hui, alors que le DSA montre ses premiers effets, notamment en matière de transparence ? Pourriez-vous faire des préconisations supplémentaires concernant les moyens de contrôle et d’analyse ? Vos recommandations de 2019 sont-elles toujours pertinentes et sont-elles applicables à TikTok ?

M. Serge Abiteboul. La situation est différente car nous avons le DSA alors qu’à l’époque, il n’y avait rien. On doit se réjouir de l’existence de ce texte ; on aimerait que des normes similaires se propagent dans le monde, comme c’est le cas, par exemple, pour le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit RGPD (règlement général sur la protection des données). La question est de savoir si le DSA est suffisant. Ce texte m’inspire plusieurs réserves, la principale d’entre elles concernant son application. Dans la vision de la Commission européenne, tout doit être fait à Bruxelles, y compris le contrôle de la mise en œuvre du règlement. Je n’y crois pas une seconde : à moins d’instituer un groupe pléthorique de contrôleurs, on n’y parviendra pas.

Le texte n’accorde pas aux États la possibilité d’intervenir plus directement car la Commission n’a pas souhaité aller dans ce sens. Surtout, cette dernière a maintenu le critère de l’État d’origine, ce qui revient à faire peser la responsabilité exclusive, en la matière, sur l’Irlande. Cette solution n’est pas acceptable. Les pays de destination, où les effets induits par les réseaux sont les plus notables, devraient être beaucoup plus impliqués dans la recherche de la vérité et l’étude de ces plateformes. Je ne crois pas que l’Irlande et la Commission puissent régler le problème, dans le cadre de ce dispositif trop centralisé. Les grands États, eux, peuvent y parvenir.

Le rôle des régulateurs est d’obliger les plateformes à adopter un comportement responsable ; à cet égard, le DSA n’est qu’une première étape.

Une erreur fondamentale consiste à croire que les réseaux sociaux ne peuvent reposer que sur le modèle américain – symbolisé par des entreprises comme Facebook, Instagram ou YouTube –, lequel a été reproduit quasiment à l’identique par TikTok – vous trouverez des développements à ce sujet dans le livre que Jean Cattan et moi-même avons consacré aux réseaux sociaux. C’est un problème majeur dans la mesure où l’utilisateur de ces plateformes ne se voit offrir aucun choix en matière de modération et de recommandation : il est peu ou prou considéré comme une marchandise. Cette situation, qui résulte de la volonté des plateformes, pourrait très bien être évitée. Il est essentiel de redonner aux utilisateurs, au moins partiellement, le contrôle de leur destin, autrement dit de leur proposer un choix s’agissant de la modération et de la recommandation. La tâche, il est vrai, n’est pas aisée ; Jean Cattan et moi-même proposons, dans notre ouvrage, des pistes pour y parvenir.

Il me paraît également fondamental que l’on remédie à la très forte concentration des pouvoirs dans les mains de quelques entreprises fonctionnant en silos. À l’origine, internet était distribué entre une multitude d’acteurs ; cela fonctionnait bien. Il en allait de même du courriel, qui était interopérable. Le modèle actuellement imposé par les plateformes ne comporte plus la moindre interopérabilité : ainsi, on doit se rendre sur TikTok pour parler à quelqu’un qui y est inscrit. Cela entraîne un effet de concentration, des groupes se rassemblant au sein d’un réseau, avant de migrer vers une autre plateforme. Pour remédier à cet écueil, il existe des solutions techniques telles qu’ActivityPub, qui permet à des réseaux sociaux d’échanger des informations. Le rôle du législateur pourrait être d’encourager l’usage de ces moyens techniques.

M. le président Arthur Delaporte. Messieurs, je vous remercie pour votre participation aux travaux de la commission d’enquête. Vous pouvez nous communiquer toute information complémentaire que vous jugerez utile.

N’hésitez pas à faire connaître, au sein de vos réseaux, la consultation citoyenne que nous lançons sur le site de l’Assemblée nationale. Tout témoignage de nature à alimenter notre réflexion peut nous être adressé à l’adresse : commission.tiktok@assemblee-nationale.fr.

 

*

 

Puis, la commission auditionne conjointement :

 Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux

 Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable

 Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5

 M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur de l’ouvrage Le biberon numérique : Le défi éducatif à l’heure des enfants hyper-connectés

 

M. le président Arthur Delaporte. Je vous remercie d’avoir accepté notre invitation. Avant de vous céder la parole, je vous demanderai de déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Par ailleurs, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Stéphane Blocquaux, Mme Elisa Jadot, Mme Sophie Jehel et Mme Murielle Popa-Fabre prêtent successivement serment.)

M. Stéphane Blocquaux, docteur et maître de conférences en sciences de l’information et de la communication. Je travaille depuis près de vingt ans sur les natifs du numérique – catégorisation qui suscite quelques controverses. Depuis 2006, je m’intéresse plus particulièrement aux addictions liées aux réseaux sociaux ainsi qu’aux frontières entre l’intimité et l’extimité et à l’exposition à la cyberpornographie, à laquelle j’ai consacré un ouvrage en octobre dernier.

J’interviens sur le terrain, puisque je dispense des conférences devant des auditoires de 250 à 400 élèves de cinquième, quatrième et troisième. Ces collégiens, en particulier ceux de quatrième, se trouvent à un moment charnière où les questions liées à la gestion des réseaux sociaux, à l’intimité et à l’accès aux images pornographiques explosent. C’est aussi un moment charnière pour les parents : après avoir résisté aux demandes incessantes de leur enfant qui s’estime marginalisé parce qu’il ne possède pas de téléphone portable, ils cèdent, par lassitude. Or le smartphone est la principale porte d’entrée vers les réseaux sociaux. Voilà dix ans que je préconise de réguler l’accès des collégiens à cet outil – je propose des pistes à ce sujet dans mon livre Le Biberon numérique.

J’ai rencontré des centaines de milliers de jeunes depuis une quinzaine d’années, en France mais aussi en Belgique et en Suisse. J’étais ce matin même devant 250 collégiens de troisième d’un établissement rennais, et j’interviendrai jeudi et vendredi devant près de 1 000 élèves de quatre établissements du Mans ; autant dire que je peux faire des statistiques en temps réel. Ma conférence, conçue comme un outil pédagogique, se décompose en trois parties. J’invite d’abord les enfants à compter le temps qu’ils passent sur les réseaux sociaux afin d’apprendre à le gérer eux-mêmes. Je les sensibilise ensuite à la protection de leurs données et de leur intimité : je simule une effraction dans un compte Instagram pour évoquer les conséquences de la rupture d’un barrage qu’ils considèrent comme solide, le mot de passe. Nous réfléchissons enfin à leur image intime et à leur facilité à consommer, voire à produire des images personnelles en pensant qu’elles sont à l’abri, malgré les nombreux conseils et mises en garde qui leur sont fréquemment adressés.

M. le président Arthur Delaporte. Avant de vous céder la parole, madame Jadot, je précise que votre documentaire Emprise numérique, 5 femmes contre les Big 5 a inspiré la création de cette commission d’enquête, puisqu’il donne à voir des extraits d’auditions de plateformes devant le Congrès américain.

Mme Elisa Jadot, journaliste, auteure et réalisatrice. Je me réjouis de la création de cette commission. Instagram a été lancé en 2010 ; cela fait donc quinze ans que les plateformes de médias sociaux agissent en toute liberté, protégées par leur statut d’hébergeuses de contenus. Alors que l’âge minimum pour s’inscrire sur un réseau social est de 13 ans, 87 % des enfants de 11 à 12 ans y sont présents en France ; l’âge moyen de la première connexion est de 8 ans, et un tiers des enfants de 5 à 7 ans y naviguent sans aucune surveillance.

Sous le couvert d’une connexion au monde, les réseaux sociaux isolent les jeunes, réduisent les interactions réelles et modèlent une génération incapable d’exprimer ses émotions autrement que par écran interposé. Résultat : en dix ans, le nombre de jeunes souffrant de dépression a explosé, et la prévalence des pensées suicidaires a doublé. J’enquête sur ces sujets depuis 2019 – je leur ai consacré trois documentaires – et j’ai eu des centaines d’échanges avec des adolescents. Leurs témoignages sont très clairs : les réseaux ne sont pas seulement un terrain de jeu, mais aussi un terrain de danger.

Lorsque je réalisais mon documentaire sur l’emprise numérique, qui a été diffusé sur France Télévisions, des adolescents m’ont dit être tombés dans une spirale infernale après avoir été confrontés à des contenus faisant l’apologie de l’anorexie, de l’automutilation et du suicide. J’ai donc décidé de créer un faux profil d’adolescente de 13 ans – aucune vérification de mon âge ne m’a été demandée. Pour mener cette enquête de la façon la plus rigoureuse possible, j’ai utilisé un téléphone neuf et une nouvelle connexion internet, et je me suis abstenue de toute recherche ou interaction initiale pour ne pas influencer les algorithmes.

Dans un premier temps, l’algorithme d’Instagram m’a proposé des vidéos de jeunes femmes racontant leur chagrin d’amour. Plus j’ai cliqué sur ces contenus, plus je me suis retrouvée noyée sous des vidéos d’adolescentes en larmes, de plus en plus sombres. Très vite, en vingt minutes à peine, je me suis vu proposer un flot continu de sang, de vampirisme, de scènes sexualisées, de scènes d’automutilation où les plaies étaient fraîches et encore bien profondes.

Sur TikTok, dont l’algorithme est le plus puissant de tous les réseaux sociaux, ce fut encore plus rapide : après avoir scrollé moins de cinq minutes – quatre minutes quarante-cinq, exactement –, j’ai fini par tomber sur des vidéos qui valorisaient le suicide. J’y ai appris les meilleures façons de me scarifier, avec la lame de mon taille-crayon, un stylo et des glaçons. L’on m’a expliqué comment cacher mes blessures à mes parents et l’on m’a suggéré des vidéos tutorielles pour faire un nœud coulant en vue de me pendre dans ma chambre.

Tous les réseaux sociaux fonctionnent de la même manière. L’algorithme n’est pas fabriqué pour nous montrer ce que nous voulons voir, mais pour nous faire rester le plus longtemps possible.

La dépression est un thème central dans l’univers adolescent ; les plateformes l’identifient comme un sujet stratégique et la mettent automatiquement en avant dans les contenus suggérés. Comme si cela ne suffisait pas, l’accès des enfants à la pornographie et à la pédopornographie n’a jamais été aussi facile, car les réseaux sociaux ont transformé la pédocriminalité en général : l’on peut y effectuer des repérages, se livrer à des manipulations et partager des contenus très facilement, sans aucune modération. Des documents internes aux plateformes révèlent que les algorithmes jouent même les entremetteurs, puisque 75 % des contacts inappropriés entre adultes et mineurs proviennent de suggestions d’amis faites par le réseau social.

Sur mon faux profil d’adolescente de 13 ans, j’ai été repérée en quelques jours par un bon nombre d’hommes. Ils ont eu le droit de me contacter – certains avaient des pseudonymes très explicites, comme Grosse bite dure – et de m’envoyer des photos à caractère sexuel. D’autres ont essayé de me manipuler par la méthode du grooming, ou pédopiégeage, consistant à dissimuler son identité pour installer une forme de confiance et soutirer à l’enfant des photos sexuelles afin de le soumettre à un chantage – ou sextorsion – ou de le rencontrer. Une adolescente victime de sextorsion m’a raconté que pour éviter que ses photos ne soient dévoilées à ses parents ou à ses camarades de collège, elle a été contrainte de se filmer en train de se lacérer les jambes, de boire son urine et de lécher ses excréments. J’ai également recueilli l’histoire de frères de 7 et 9 ans, présents sur un réseau social à l’insu de leurs parents, qu’un prédateur a manipulés et obligés à réaliser une fellation l’un sur l’autre. Tous deux ont donc été agresseur et agressé.

En l’absence de modération et de censure, les pédocriminels sont parvenus à structurer leur communauté sur les réseaux sociaux. Ils emploient des mots-clés ou des acronymes pour se reconnaître. Sous les photos d’utilisateurs mineurs, ils publient des commentaires dans lesquels ils s’échangent des contacts et des liens vers des sites pédopornographiques où chacun peut acheter ou vendre des vidéos. J’ai ainsi reçu un lien sur mon faux profil qui m’a fait directement atterrir sur la vidéo du viol d’un bébé.

Il peut être très difficile de réparer les enfants victimes de ces actes, d’autant que le monde virtuel connaît le même phénomène de reproduction que la vie réelle : un enfant qui a été confronté à ces images peut être attiré à son tour par des contenus similaires. Le nombre de pédocriminels a explosé depuis l’avènement des réseaux sociaux, et ils sont de plus en plus jeunes : l’on a vu des enfants de moins de 13 ans rechercher activement ce type de vidéos.

Les réseaux sociaux ne protègent pas les enfants, mais au contraire les monétisent : pour Instagram, un adolescent vaut en moyenne 270 dollars. Sachant que plus de 1 milliard d’adolescents sont connectés aux plateformes, cette catégorie représente une cible économique et stratégique majeure. Certaines réalisent jusqu’à 41 % de leurs revenus grâce aux mineurs. Elles ont tout à gagner à capter l’attention des plus jeunes, dont le cerveau, encore en construction, est malléable – il n’est mature qu’à 25 ans.

Pour continuer à grossir, les plateformes doivent s’assurer que les générations suivantes seront autant, voire plus accros que les précédentes. Cela passe par l’instauration précoce d’habitudes de connexion et par l’évitement de toute forme d’autorégulation chez les jeunes. Des documents internes révélés par des lanceurs d’alerte prouvent que ces entreprises analysent les vulnérabilités cognitives des jeunes pour maximiser leur engagement. Le modèle des plateformes repose donc sur un double levier : la vulnérabilité des jeunes et l’ignorance ou l’absence de réaction des adultes face à la puissance des algorithmes. Les entreprises minimisent ces risques et choisissent de ne pas agir. Elles consacrent des budgets ridicules à la modération : 2 milliards de dollars chez TikTok pour 85 milliards de revenus annuels, 5 milliards chez Meta pour 140 milliards de revenus. Elles n’emploient que 40 000 modérateurs pour 3,5 milliards d’utilisateurs.

J’attends beaucoup de votre commission d’enquête, car les plateformes bloquent depuis longtemps toute tentative sérieuse de régulation et n’ont jamais autant dépensé en lobbying. L’industrie technologique est désormais le premier lobby auprès de l’Union européenne, devant les industries pharmaceutique et pétrolière. Elle reprend les stratégies de l’industrie du tabac, conjuguant mensonges, doutes entretenus et absence de responsabilité légale, pour protéger son modèle et s’abstenir de protéger les enfants.

J’estime qu’il ne revient pas aux enfants de se défendre ni aux parents de porter seuls le poids de la régulation ; c’est à la société d’agir dans son ensemble et aux États d’être plus interventionnistes. Il doit en aller des réseaux sociaux comme des produits vendus en supermarché : lorsqu’ils s’avèrent dangereux, on impose qu’ils soient modifiés ou retirés.

Comme de nombreuses victimes et leurs familles, j’attends avec impatience le résultat de vos travaux. Je sais que vous auditionnerez des représentants du collectif Algos victima, et vous faites bien : ils ne théorisent pas ces sujets mais les vivent dans leur chair jour après jour.

Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’université Paris 8 Vincennes-Saint-Denis. Je me réjouis moi aussi du lancement de cette commission d’enquête. Au début de ma carrière, j’ai travaillé sur les questions de protection de l’enfance au Conseil supérieur de l’audiovisuel (CSA). Entre ce qui était négociable à l’époque avec les chaînes de télévision et ce qui l’est aujourd’hui avec les plateformes numériques, le fossé est surprenant. Je ne pensais pas que nous attendrions aussi longtemps pour installer des systèmes de contrôle parental un tant soit peu efficaces afin de protéger les jeunes de la pornographie à la télévision. Ils sont quoi qu’il en soit insuffisants depuis que les réseaux sociaux numériques donnent accès à des contenus pornographiques très crus – de ce point de vue, X porte bien son nouveau nom.

Mon approche relève de la sociologie des usages. J’étudie la réception des contenus et les usages des dispositifs numériques en m’attachant à leur ancrage social. Cette dimension sociale des pratiques numériques explique que votre travail soit si compliqué : une régulation qui passerait par des interdictions radicales ne serait ni pertinente ni réaliste, car l’économie nationale, les sociabilités et les relations affectives des jeunes et des moins jeunes sont traversées dans leur ensemble par ces usages.

La création de comptes sur les réseaux sociaux numériques participe de la carrière sociale et de la vie ordinaire des adolescents depuis au moins dix ans, voire davantage puisque Facebook a été créé en 2004. Les parents et les médiations adultes jouent un rôle majeur dans la manière dont les adolescents et les enfants se comportent sur les plateformes. Par ailleurs, nous ne pouvons comprendre et interpréter ces usages sans tenir compte de la socio-économie des plateformes et du fait qu’elles considèrent les jeunes comme une cible stratégique.

La grille d’interprétation que j’ai développée cherche à articuler ces modèles socio-économiques avec l’instrumentation des émotions opérée par les plateformes. La politique émotionnelle de ces dernières repose sur trois piliers, à commencer par l’injonction à la publication : ces entreprises n’existent que si les usagers postent des contenus, qui constituent autant d’informations sur leurs centres d’intérêt. Cette injonction à publier répond aussi à une disposition des individus des sociétés contemporaines, appelée individualisme expressif, faite d’un désir d’extension de soi, de prolonger son identité par des créations, des productions, des publications.

Le deuxième pilier, que certains collègues appellent le web affectif, réside dans l’instrumentalisation des émotions des usagers au profit d’affects qui seront captés par le design des plateformes en vue de calculer des comportements. Concrètement, le web affectif se manifeste dans les émojis, les fonctions de partage et d’enregistrement, les likes, etc. Ce qui importe aux plateformes n’est pas la nature des émotions, mais la possibilité de les calculer et de les revendre.

Le troisième pilier est la surveillance panoptique des comportements. Le profil que les plateformes construisent pour chaque usager dépend non seulement de ses actions volontaires, mais aussi de calculs fondés sur l’activité de ses contacts. Nous savons depuis 2013, grâce à M. Edward Snowden, que les données issues de cette surveillance sont récupérées par les États, en particulier les États-Unis. À cette surveillance par les plateformes s’ajoute une surveillance par les pairs : chacun peut être épié par ses contacts plus ou moins proches – les jeunes le comprennent dès qu’ils mettent un pied dans les réseaux.

Tout ceci s’inscrit dans un contexte de très faible régulation publique.

Mes recherches sont à la fois quantitatives et qualitatives. Sur le plan quantitatif, j’ai la chance, grâce aux centres d’entraînement aux méthodes d’éducation active (Ceméa) et à la région Normandie, de disposer des réponses à un questionnaire administré depuis dix ans à plusieurs milliers d’adolescents de 15 et 16 ans. Mon collègue Jean-Marc Meunier m’aide depuis deux ans à traiter ces données. Le dernier rapport que nous avons produit pour l’Observatoire des pratiques numériques des jeunes en Normandie vient d’être publié sur le site Éducation aux écrans de la région et sur HAL.

Sur le plan qualitatif, je mène des entretiens semi-directifs individuels ou en petits groupes, le cas échéant en utilisant des images. Dans le cadre de ma recherche sur la réception des images violentes sexuelles et haineuses, j’ai rencontré 200 adolescents en couplant des entretiens collectifs et individuels. Pour le projet Adoprivacy, dont les résultats seront publiés prochainement, nous avons constitué des focus groups afin de comprendre comment les adolescents percevaient les enjeux de la protection de la vie privée sur les plateformes numériques.

Nous avons aussi échangé avec des enseignants sur leur perception de ces enjeux et leur rôle dans la transmission des connaissances en la matière et organisé des ateliers avec des adolescents pour qu’ils expliquent leur compréhension du fonctionnement des plateformes et réfléchissent aux problèmes qu’elles posent ; je mène également ces réflexions avec mes étudiants en licence et en master.

Néanmoins, nous manquons de connaissances sur le fonctionnement exact des algorithmes, notamment s’agissant de TikTok – pour ce qui est de Facebook, nous avons bénéficié des déclarations de Mme Francs Haugen. Avec les chercheurs du laboratoire du Centre d’études sur les médias, les technologies et l’internationalisation (Cemti) auquel j’appartiens, nous espérons accéder, grâce à l’article 40 du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital Services Act (DSA), à des données plus précises sur les critères utilisés par les algorithmes.

J’ajoute qu’une étude transversale de l’Observatoire des pratiques numériques des jeunes en Normandie a démontré que le nombre de comptes ouverts par les adolescents sur les plateformes numériques ne cesse d’augmenter – un jeune de 15-16 ans en a sept en moyenne – et la crise du covid a accéléré l’importance de TikTok et d’autres plateformes, telles que Pinterest, Discord ou Twitch.

Sur le plan de la santé mentale, il est important de comprendre le fonctionnement des réseaux sociaux, qui mettent les usagers en concurrence les uns par rapport aux autres, dans une conception très néolibérale, où chacun doit se penser comme une entreprise et rentabiliser son capital de likes, quelles que soient ses vulnérabilités, puisque tous les éléments de la vie personnelle, les liens amicaux, etc., peuvent faire l’objet d’une marchandisation, sans aucune limite. C’est cette extension des règles du marché économique aux relations sociales qui produit de l’anxiété.

Si TikTok pose des problèmes particuliers, son algorithme étant moins régulé que les autres, Snapchat en pose également de nombreux en matière d’intrusion dans la vie privée et dans la manière dont les adolescents construisent leur propre représentation de leurs amitiés, puisque la plateforme est en mesure de mesurer les interactions et d’inciter les jeunes à publier du contenu.

Par ailleurs, les réseaux sociaux soulèvent aussi la question du sexisme et de la propagande masculiniste. Je participe à la rédaction d’un rapport qui sera publié prochainement par France Stratégie sur les stéréotypes : nous pensions que, grâce au numérique, la représentation des femmes serait améliorée ; or nous constatons au contraire une aggravation de celle-ci, même s’il existe quelques niches dans lesquelles les pensées féministes peuvent s’exprimer.

M. Stéphane Blocquaux. Permettez-moi de revenir sur le smartphone, qui constitue le principal canal d’accès aux réseaux sociaux. J’ai participé à de nombreuses commissions sur le sujet, notamment à la première, lancée par la ministre d’alors Laurence Rossignol, sous la présidence de François Hollande : nous avions conclu à l’impossibilité de réguler les contenus, au motif qu’il était difficile de vérifier l’identité des utilisateurs dans un système démocratique. En effet, à l’époque, il était plutôt question de pornographie : interdire l’accès des mineurs à ce type de contenus impliquait d’identifier les adultes autorisés à se connecter. Quelques idées brillantes avaient été avancées pour ce faire, comme utiliser FranceConnect. Ce fut un échec. Pendant quinze ans, plusieurs commissions successives se sont heurtées à cette question – notamment celle de M. Adrien Taquet et de M. Cédric O –, tout comme des pays étrangers : la Grande-Bretagne a mobilisé les meilleurs experts pour tenter de réguler l’accès aux réseaux sociaux et à leurs contenus, en particulier pornographiques.

Il aura toutefois fallu attendre 2020 pour comprendre enfin que l’explosion du smartphone chez les mineurs constitue la porte d’entrée des réseaux sociaux : il faudrait donc protéger, en priorité, la tranche d’âge des collégiens de son utilisation. Par conséquent, si votre commission d’enquête doit déboucher sur la recommandation de mesures nouvelles, cette piste mérite réflexion – plutôt que des mesures uniquement coercitives. Je me suis radicalisé sur le plan scientifique : si j’ai longtemps pensé qu’il fallait éduquer au virtuel et accompagner les parents, je m’aperçois, après quinze ans de recherches, que cette stratégie est un échec cuisant puisque, pour reprendre l’exemple de la pornographie, 96 % des mineurs ont eu accès à ce type de contenus avant leur majorité, malgré l’interdiction faite aux moins de 18 ans.

La seule solution consisterait à interdire aux mineurs la possession d’un smartphone – je ne parle pas, bien sûr, du téléphone à neuf touches. Il suffirait de légiférer, comme cela a été fait pour le scooter, qui a été jugé dangereux et interdit aux jeunes de moins de 14 ans. Nous sommes capables de protéger les mineurs des risques physiques mais pas des risques psychiques, au motif qu’une telle interdiction serait liberticide et constituerait une intrusion dans la vie des foyers. C’est pourtant ce que nous avons fait s’agissant du scooter : ceux qui habitent à la campagne et sont éloignés du réseau scolaire rêveraient de laisser leur enfant de 12 ans partir seul à l’école sur un scooter. À quand une réflexion sur le smartphone, qui est aussi un outil dangereux pour les mineurs ? Cela impliquerait que les constructeurs et les vendeurs de téléphones s’assurent de l’âge de l’utilisateur pour qui le smartphone est acheté. Cette mesure radicale consistant à imposer aux collégiens la détention d’un téléphone à touches – les talkies-walkies comme ils les appellent – aurait des effets bien plus bénéfiques que la seule régulation des plateformes. Il s’agit d’une véritable piste de travail, rarement évoquée par les politiques – Emmanuel Macron l’avait proposée pendant la campagne pour les élections législatives.

Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable. J’articulerai mon propos liminaire en trois grandes parties : les algorithmes de recommandation, avec une comparaison entre Twitter et TikTok ; les effets cognitifs induits sur les mineurs ; et la gouvernance. Je vous propose de l’illustrer à l’aide de diapositives, dont les données sont issues d’une étude publiée en mars dernier par une équipe de l’université de Columbia.

La première partie vise à en finir avec l’idée selon laquelle les algorithmes seraient des immenses boîtes noires et à optimiser la compréhension des décideurs sur le sujet. Pour mieux comprendre la fonction de l’algorithme, on peut la diviser en trois parties : l’une dédiée aux contenus candidats, l’autre à la sélection par priorités et la troisième liée aux stratégies d’engagement et de business des réseaux sociaux. Procéder de cette manière permet de mesurer plus efficacement l’impact des politiques publiques sur telle ou telle partie, notamment sur le plan économique ou en matière de modération des contenus, en particulier s’agissant de la sélection des priorités.

Sur X – anciennement Twitter –, réseau le plus connu, les contenus émanent pour moitié de personnes avec lesquelles l’utilisateur est directement ou indirectement connecté et pour moitié de personnes qu’il ne connaît pas. Ce point est important pour comprendre les dynamiques qui entrent en jeu dans les phases de l’algorithme. Sur ce réseau social, le comportement de l’utilisateur sur la plateforme n’est pas une priorité, ce qui est moins vrai sur TikTok et qui explique en partie l’expérience décrite par Mme Jadot. Sur le losange multicolore présenté à l’écran, on constate que l’algorithme prend en compte quatre éléments fondamentaux : la spécificité du contenu par rapport à vos centres d’intérêt, l’intensité de l’usage qui en est fait, la nouveauté et sa date de péremption, cette dernière étant plus courte sur X que sur les autres réseaux sociaux.

Sur TikTok, la sélection des contenus est très différente puisque ceux-ci émanent majoritairement de personnes avec lesquelles l’utilisateur n’est pas connecté ; de plus, leur caractère récent est moins important, ce qui explique que le réseau soit utilisé par les jeunes générations pour rechercher de l’information, même si une récompense très forte est donnée à la nouveauté. Son algorithme permet de hiérarchiser les priorités par catégorie et place en deuxième position le comportement de l’utilisateur sur la plateforme : celui-ci est pris en compte grâce aux vidéos que l’usager visionne en boucle et auxquelles il s’intéresse tant qu’il ne fait pas défiler les images – le fameux swipe. La plateforme recueille ainsi une quantité incroyable d’informations sur ses centres d’intérêt. C’est ce qui explique que Mme Jadot se soit retrouvée en quelques minutes prise dans une spirale infernale, liée au nombre de visionnage de certaines vidéos.

Depuis l’entrée en vigueur en 2023 de la réglementation européenne sur les services numériques (DSA), quelques études ont été menées sur la modération des contenus : le graphique projeté à l’écran présente toutes les décisions de modération prises par les plateformes Facebook, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X et YouTube en une journée – celle du 5 novembre 2023. Il s’agit majoritairement de décisions d’effacement des contenus, liées à leur nature – caractère illégal ou violent – et non à l’âge des utilisateurs. Il est important de comprendre et de comparer les décisions prises par les plateformes car la façon de catégoriser les contenus est révélatrice du type d’informations qui y seront diffusées. Un autre élément important, et qui changera radicalement avec l’arrivée de l’IA générative, c’est la manière dont la modération de contenus est opérée : en 2023, elle était déjà pratiquement entièrement automatisée chez TikTok – c’est la plateforme qui automatise le plus.

Je voulais également vous présenter une étude publiée cet automne concernant la plateforme de commerce en ligne Alibaba, qui démontre à quel point il est possible de prédire avec une très grande précision les actions d’achat d’un utilisateur à partir des images qu’il a visionnées, grâce à des modèles multicomportementaux – les grands modèles de langage (LLM) – qui analysent des données multimodales de différentes catégories. Pour être plus précise, si l’usager consulte des casques de vélo de couleur rose, violet, etc., avant d’acheter finalement un casque qui ne correspond pas forcément à ce qu’il vient de regarder, l’algorithme sera en mesure d’analyser les données liées à son comportement sur la plateforme et de prévoir qu’il achètera un shorty d’un certain type. Autrement dit, l’analyse de son comportement, qui est connu grâce aux traceurs, à ses achats précédents et à son expérience de visionnage permet d’obtenir des résultats bien meilleurs pour prédire ses achats que les simples algorithmes de recommandation. Il en va de même du gamer, présenté en figure b du tableau, dont on peut prédire qu’après avoir consulté des tours de gaming, il achètera une carte graphique. Il est possible de retracer si celui-ci s’est intéressé ou non aux spécifications techniques de la tour de gaming, ainsi qu’une multitude d’autres activités, y compris le mouvement de la souris sur la plateforme, et de fusionner l’ensemble des données dans une vision à 360 degrés pour déterminer des prédictions optimales d’achat et proposer des recommandations multicomportementales.

La deuxième partie de mon expertise porte sur les effets des réseaux sociaux sur les mineurs. Je voudrais mettre en avant quelques éléments en particulier : d’une part, l’impact de l’activité sur TikTok, lié au nombre d’heures qui y sont consacrées, et le fait que les jeunes effectuent souvent d’autres tâches en même temps qu’ils consultent les réseaux sociaux – ce qu’on appelle le digital multitasking. Des études ont montré que cette habitude avait une incidence importante sur la capacité de mémorisation des jeunes. Et, d’autre part, l’impact lié à tout ce que le mineur ne fait pas lorsqu’il reste devant les écrans et sur les réseaux sociaux, avec des répercussions en termes de sédentarité, de perte de motricité fine, d’obésité – ce point a beaucoup préoccupé la Chine – ou encore de socialisation. Enfin, il ne faut pas oublier l’impact du phénomène addictif, dans une phase du développement très importante.

Sachez qu’un marché de la détox existe, non seulement grâce à des livres best-sellers mais aussi à des applications qui visent à vous désintoxiquer et à faire remonter votre taux de dopamine pour éviter que vous n’alliez la chercher sur les réseaux sociaux. La diapositive présente deux exemples de sites proposant une détox et des actions de phone fasting.

M. le président Arthur Delaporte. Cela fonctionne-t-il ?

Mme Murielle Popa-Fabre. Il est trop tôt pour évaluer ces méthodes qui sont récentes. Nous disposons davantage de témoignages et de données de terrain que d’études menées à grande échelle, mais il serait intéressant que la science se concentre sur cette question, car il est évident que l’action de scroller a une incidence sur le système dopaminergique.

M. le président Arthur Delaporte. Ce n’est donc pas scientifiquement prouvé à ce stade.

Mme Sophie Jehel. Je me permets d’ajouter que, d’après mes étudiants, les contenus sur la tristesse ou la dépression s’accompagnent de publicités pour des antidépresseurs.

M. le président Arthur Delaporte. On crée un marché, en quelque sorte.

Mme Murielle Popa-Fabre. Le marché de la détox présenté à l’écran n’est pas disponible sur les réseaux sociaux : ce sont des personnes spécialement formées qui ont lancé leurs start-up pour proposer ce genre d’activités.

La troisième partie de ma présentation porte sur la gouvernance. Je m’attarderai plus longuement sur le cas de la Chine, que je connais bien, mais je commencerai par le Royaume-Uni, qui a été le premier pays à adopter, dès 2021, un code de bonnes pratiques à l’intention des réseaux sociaux, code qui a essaimé à travers le monde, notamment aux États-Unis, jusqu’à aboutir à l’adoption d’une loi par l’État de Californie. L’objectif était de renforcer la protection des données des mineurs, par exemple en désactivant la géolocalisation pour éviter tout risque de prédation. Ensuite, en décembre dernier, l’Australie a décidé d’opérer un choix radical en fixant un âge minimum – 16 ans – d’accès aux réseaux sociaux. Elle a aussi décidé de créer, d’ici à la fin de l’année, un poste de commissaire pour la sécurité en ligne. Des discussions sont donc en cours avec les grandes plateformes numériques, afin d’appliquer un contrôle de l’identité et de l’âge des utilisateurs – comme quoi, lorsqu’on arrête une stratégie, il est possible de trouver le chemin pour la faire aboutir.

J’en viens à la Chine et aux restrictions progressivement instaurées en matière d’utilisation des réseaux sociaux : l’épidémie de jeux vidéo a conduit ce pays à réduire le temps d’usage des jeux en ligne de quatre-vingt-dix minutes en 2019 à soixante en 2021 et à le limiter aux vendredis, aux week-ends et aux vacances. En 2023, la Chine a arrêté quelques grandes lignes directrices, entrées en vigueur au 1er janvier 2024 : interdiction d’accéder aux réseaux sociaux et aux plateformes de jeux en ligne entre 22 heures et 6 heures du matin, pour résoudre le problème de la dette chronique de sommeil ; limitation de l’utilisation d’internet à deux heures par jour pour les jeunes âgés de 16 à 18 ans, une heure par jour pour ceux âgés de 8 à 15 ans et seulement quarante minutes pour les enfants de moins de 8 ans.

Je me suis plongée dans le texte de loi adopté par la Chine et j’ai noté que le terme d’addiction était mentionné six fois, dès le premier article. L’objectif est de guider les mineurs pour qu’ils utilisent internet « de manière scientifique, civilisée, sûre et raisonnable », et de prévenir et réduire la dépendance des mineurs à internet. La stratégie consiste à exercer un contrôle depuis le logiciel lui-même et le smartphone – téléphone ou montre connectée –, sur lesquels le mode « mineur » est activé.

La grosse différence entre le réseau TikTok déployé en Chine et celui utilisé en Europe, c’est que le premier constitue une plateforme commerciale inouïe : en 2022, 33 % du chiffre d’affaires étaient liés à des utilisateurs de moins de 25 ans. Les décisions automatisées de marketing commercial à destination des mineurs ont donc été interdites. La loi précise que « les produits et services susceptibles de provoquer une dépendance […] ne doivent pas être fournis aux mineurs » et prévoit qu’un rapport sera publié annuellement sur les mesures anti-addiction prises, pour que le public se rende compte des efforts déployés pour limiter les phénomènes addictifs sur les plateformes et sur internet.

Mme Laure Miller, rapporteure. Alors que de plus en plus de voix se font entendre, en France et à l’international, pour dénoncer les effets des réseaux sociaux sur la santé mentale de nos jeunes et déplorer une modération insatisfaisante, nous ne protégeons toujours pas nos enfants. Comme vos exposés très éclairants en témoignent – en particulier le documentaire de Mme Jadot –, nous ne pouvons pas nous contenter d’une position attentiste ou modérée, car il y a urgence : les réseaux sociaux ont des conséquences psychologiques importantes et sont en train d’abîmer des générations d’enfants. Il faut absolument trouver des solutions les plus efficaces et directes possibles pour endiguer ce phénomène.

Je retiens de vos interventions que les réseaux sociaux, singulièrement TikTok, n’ont pas intérêt à protéger nos enfants, car c’est contraire à leur modèle économique – à cet égard, pourrez-vous nous préciser la source de vos données sur la valeur monétaire des enfants pour les réseaux ? Partant, il sera très difficile de leur imposer des règles visant à limiter l’accès des enfants à certains contenus ou à faire mieux respecter l’âge minimum requis pour créer un compte sur les plateformes.

Nous ne disposons d’aucun diagnostic clair sur les conséquences directes de l’utilisation des réseaux sociaux sur la santé mentale des jeunes. Selon vous, celui-ci ne permettrait-il pas de sensibiliser davantage les parents, les enfants eux-mêmes, et d’inciter le législateur et les pouvoirs publics à interdire leur utilisation ou, à tout le moins, à les réguler davantage, comme cela a été le cas pour d’autres produits à la nocivité démontrée pour les enfants – scooter, cigarette, alcool, certains produits alimentaires ? L’usage des réseaux sociaux altère-t-il uniquement la santé mentale de jeunes déjà fragiles, ou les conséquences touchent-elles tous les enfants de manière générale ?

Mme Elisa Jadot. Mes données proviennent de l’Insee, d’études britanniques ou américaines, ou encore de l’association Génération numérique pour ce qui concerne, par exemple, le pourcentage d’enfants de 11-12 ans connectés aux réseaux. Je vous transmettrai la liste des sources.

S’agissant de la valeur monétaire d’un enfant pour les plateformes, mes chiffres proviennent de documents internes, notamment ceux de Meta et de TikTok. Dévoilés récemment, les « TikTok papers » montrent à quel point le réseau travaille en coulisse pour rendre nos enfants vulnérables et les capter sur la toile. Beaucoup d’employés s’interrogent sur leur responsabilité et la nécessité de modérer les contenus pour protéger davantage les enfants, mais de telles suggestions ne sont jamais suivies d’effet, car le manque à gagner serait beaucoup trop important pour les plateformes, certaines réalisant jusqu’à 40 % de leur chiffre d’affaires grâce aux mineurs.

Depuis vingt ans, les plateformes affirment publiquement – notamment devant le Sénat américain – qu’il n’existe aucune étude établissant un lien de causalité direct entre les réseaux sociaux et la santé mentale des mineurs, voire présentent des contre-études qui prouveraient que ce sont des outils formidables pour les enfants. Cet enjeu est au cœur de leur stratégie de communication. Pourtant, leurs propres études internes montrent combien ces réseaux sont catastrophiques pour la santé mentale des mineurs : selon une étude de Meta dévoilée en 2021 grâce à une lanceuse d’alerte, l’utilisation d’Instagram est une véritable tempête, qui augmente le mal-être d’un adolescent sur trois, et la modération automatique des contenus ne fonctionne pas, si tant est qu’elle existe. Par exemple, la plupart des contenus mortifères en lien avec la dépression – le troisième thème le plus recherché par les adolescents – ou les tentatives de suicide, sont suggérés par les plateformes. Notons également que les centres d’addictologie, qui reçoivent traditionnellement des personnes dépendantes des drogues dures, comme l’héroïne, de l’alcool ou du tabac, accueillent de plus en plus de jeunes accros aux réseaux sociaux et qui ont du mal à s’en sortir.

Cela a été souligné, il existe aussi un problème dans la prise en charge de la santé mentale des adolescents. Aux États-Unis, en Espagne, en Angleterre ou en France, toutes les familles que j’ai rencontrées m’ont raconté la même chose : lorsqu’un enfant a tenté de se suicider ou se scarifie, le lien avec l’usage des réseaux sociaux est rarement fait ; on propose aux parents de placer l’enfant sous antidépresseurs ou de lui prescrire un traitement contre la bipolarité ou la schizophrénie. À en croire certains médecins et psychiatres, la moitié de nos adolescents souffriraient de tels troubles ! Certains parents, à qui on avait refusé l’hospitalisation de leur enfant – « il faut bien que jeunesse se fasse », « si on devait hospitaliser tous les enfants qui se scarifient, les hôpitaux seraient pleins » – se sont retrouvés complètement démunis, à l’image de cette mère qui a eu le courage d’accompagner son enfant dans ses scarifications – elle lui donnait les lames, l’attendait derrière la porte et entrait pour le consoler une fois qu’il avait terminé. Or cet enfant, pendant qu’il se scarifiait, regardait des vidéos sur TikTok. Les liens de causalité entre l’usage des réseaux sociaux et la santé mentale des jeunes ont donc bien été étudiés, établis dans des documents internes des plateformes et confirmés par les témoignages des adolescents eux-mêmes.

Quant aux conséquences des réseaux, elles touchent tous les jeunes : certains, déjà dans une bulle sombre –  les victimes de harcèlement, par exemple –, sont évidemment plus fragiles que les autres, mais, par définition, tous les adolescents sont vulnérables, puisque le cerveau n’est mature qu’à 25 ans. Ils ne peuvent donc pas se protéger eux-mêmes face à des contenus mortifères et très violents ou à des pédocriminels surentraînés : c’est aux plateformes, et à nous tous, d’être vigilants.

Mme Murielle Popa-Fabre. Pour ma part, j’ai cité des chiffres de 2022 sur le nombre d’utilisateurs de moins de 25 ans sur la plateforme Douyin, la version chinoise de TikTok. Mais notre estimation de la valeur monétaire des mineurs pour Tiktok sera très vite caduque, car le réseau prévoit le lancement à l’international de sa plateforme de social commerce, où des influenceurs organisent des réunions de groupe – des lifestream –, dans lesquelles les jeunes chinois semblent particulièrement enclins à dépenser de l’argent.

M. le président Arthur Delaporte. Disposez-vous de données particulières sur ce phénomène ? Savez-vous combien les jeunes dépensent en moyenne ?

Mme Murielle Popa-Fabre. D’après les données de e-marketing chinoises – aucune fonction sur notre version de TikTok ne permet de disposer des mêmes données à notre échelle –, en 2022, les moins de 25 ans ont dépensé 1,5 trillion de renminbi, soit environ 175 milliards d’euros, ce qui correspond à 33 % des gains de la plateforme.

Être présent dans un groupe est une chose ; réaliser des achats en groupe relève d’un engagement totalement différent : le e-commerce sur les réseaux comporte une dimension sociale, et cette dynamique est vouée à se développer fortement dans le futur.

M. le président Arthur Delaporte. Vous parlez des lives sur TikTok Shop, mais qu’en est-il des sommes dépensées par les mineurs en cadeaux virtuels lors des matchs entre deux influenceurs ? On y retrouve une dynamique collective. Nous manquons d’éléments sur les lives, n’hésitez pas à nous en faire parvenir si obtenez davantage d’informations auprès des jeunes.

Mme Murielle Popa-Fabre. Je ne me suis pas intéressée aux basic lives individuels, en « one to one », animés par une seule personne ; je me suis concentrée sur les lives de groupe comme ceux qui existent sur la plateforme chinoise de Bytedance, et qui ont un impact beaucoup plus important.

Quant à un éventuel diagnostic, peut-on vraiment l’établir ? C’est une question sur laquelle on m’interroge en permanence s’agissant de l’IA, notamment générative. Nous ne sommes plus dans la même situation qu’il y a vingt ou vingt-cinq ans : le temps de la technique est beaucoup plus rapide que celui de la science, en particulier sur les questions de santé mentale. La multiplicité des facteurs en jeu est source de difficultés pour les chercheurs et empêche les études d’être totalement conclusives. Par exemple, on sait que lorsqu’il excède trente minutes, le temps d’écran d’un enfant entre 3 et 5 ans est corrélé à des déficits cognitifs. Mais certains facteurs, comme le niveau de social de la famille, peuvent amoindrir ces déficits. Pour avoir une vision plus globale et mieux appréhender les réalités, il faut sortir d’une lecture binaire et adopter une approche davantage multifactorielle, qui conjugue les témoignages de terrains et les statistiques à grande échelle, puisque c’est celle des algorithmes de l’IA. C’est un des défis.

Mme Sophie Jehel. Je ne savais pas que la Chine associait réseaux sociaux et jeux vidéo – merci de me l’avoir appris, madame Popa-Fabre. Justement, je ne comprends pas pourquoi nous nous focalisons à ce point sur les réseaux sociaux numériques, car les plateformes de jeux en ligne posent des problèmes assez similaires. Leur fonctionnement et leur éthique devraient susciter les mêmes inquiétudes, et nous aurions tout intérêt à adopter une approche plus large incluant à la fois les premiers et les seconds.

L’interdiction semble la solution la plus rapide, mais cette démarche me fait peur, car l’usage des réseaux sociaux est massif : 99 % des adolescents de 15 ans ont des comptes sur plusieurs réseaux sociaux, et ils y sont attachés. Si on leur interdisait d’y accéder, ils trouveraient d’autres moyens pour perpétuer les pratiques sociales que ces plateformes leur offrent. Les réseaux proposent aux jeunes un accès très facilité à l’information et au divertissement pour les jeunes, et des modalités d’expression qui n’existent pas ailleurs. Cela explique d’ailleurs pourquoi le modèle économique des médias sociaux est différent de celui des médias traditionnels, qui se sont beaucoup moins intéressés aux adolescents.

Par ailleurs, il ne faut pas oublier qu’il existe de fortes disparités sociales dans l’usage des réseaux, notamment selon que les parents peuvent retarder ou non l’accès aux plateformes numériques.

Enfin, il ne faudrait pas qu’une éventuelle interdiction des réseaux sociaux pénalise en priorité les établissements scolaires et tous les dispositifs d’éducation aux médias et au numérique – un risque important, déjà identifié dans le rapport Enfants et écrans. À la recherche du temps perdu, remis en 2024. Attention, l’éducation ne remplace pas la régulation, et la menace d’une interdiction peut être un levier pour renforcer une régulation encore trop peu efficace, notamment en matière de modération des contenus. Mais il faut veiller à ce que cette volonté de protection, aussi bien intentionnée soit-elle, n’affaiblisse pas le travail d’éducation aux médias et au numérique – un travail qui doit être poursuivi et soutenu, mais dont les moyens restent très insuffisants en France.

Je suis très engagée sur ces sujets : l’université Paris 8 s’apprête à ouvrir un diplôme universitaire en éducation critique aux médias et à l’information, et je dirige un groupe de travail portant sur la sensibilisation aux enjeux émotionnels des plateformes numériques, dans le cadre des travaux de la direction du numérique pour l’éducation. Je suis donc bien placée pour connaître les moyens disponibles et les lacunes actuelles, et je mesure l’importance d’accompagner les établissements scolaires face à ces enjeux.

M. Stéphane Blocquaux. Au risque de passer pour un chercheur obsessionnel, je ne vois ni pourquoi, ni comment le gouvernement parviendrait aujourd’hui à réguler les plateformes et à les mettre au pas, alors que ça fait quinze ans que cette stratégie est un échec. Il n’est pas possible de couper brutalement le flux des réseaux : comme l’a souligné Mme Jehel, les pratiques sont installées et les jeunes iront voir ailleurs. Le problème, c’est le nomadisme lié au téléphone portable – le « tout, tout le temps ».

J’ai rencontré dernièrement des CM2 : sur 108 élèves, 48 avaient un smartphone connecté au net, et 22 un iPhone. On marche sur la tête ! J’anime des conférences sur les dangers des réseaux à destination des parents : à la fin, ils me demandent comment empêcher leur enfant d’utiliser les fonctionnalités d’un produit qu’ils leur ont eux-mêmes acheté. Ils voudraient une baguette magique pour que l’iPhone ne puisse plus filmer, ni accéder au réseau, car cela permet d’avoir accès à la pornographie, etc. C’est de la folie !

Dans les années 1990, un enfant de 10 ans partait-il à l’école avec un téléphone ? Admettons que c’est une évolution sociétale. Le téléphone, très bien, mais aurait-on toléré que le collégien parte avec un caméscope ? L’appareil photo reflex familial ? Aurait-on accepté de laisser partir un enfant avec une Game Boy, pour qu’il puisse jouer à des jeux vidéo n’importe où, à n’importe quel moment, sans aucune régulation ? Et je ne parle pas d’une télévision, alors qu’il est aujourd’hui possible d’accéder au flux télévisuel par le net, ou d’un studio de télé, alors que les smartphones sont un outil permettant d’enregistrer, monter et diffuser du contenu à des milliards de personnes sans passer par l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique). En trente ans, tout cela est devenu possible, et on demande maintenant aux chercheurs comment faire pour réguler ces usages aux effets si délétères – car nous sommes tous bien d’accord sur ce point. Si les enfants de 11 ou 12 ans – et j’insiste sur le terme d’enfant, car on assimile les adolescents à des adultes beaucoup trop tôt – n’avaient pas dans leur poche un smartphone multifonctions en partant au collège, les effets néfastes des réseaux seraient beaucoup moins importants.

Au risque de me répéter, il y a donc une urgence sanitaire – psychique – à réguler ces outils. Je ne suis pas le seul à le dire, mais je suis de ceux qui l’ont dit le plus fort et le plus tôt, il y a déjà fort longtemps, dès la fin du quinquennat du président Nicolas Sarkozy et le début de celui de François Hollande.

Mme Elisa Jadot. J’ajoute que les plateformes ne sont considérées que comme des hébergeurs de contenus, et non des éditeurs ; elles se retranchent derrière ce statut pour s’exonérer de toute responsabilité sur les contenus diffusés. L’industrie technologique ne peut pas être attaquée pour négligence : c’est la seule au monde à bénéficier d’une telle protection, et cette dernière n’est peut-être plus justifiée. Si les réseaux étaient assimilés à des produits non meubles – dont la définition n’a pas été révisée depuis 1996 et l’extension à l’électricité –, ils pourraient être considérés comme défaillants : c’est une piste.

Il paraît compliqué d’interdire totalement les réseaux ou d’en modérer réellement les contenus. Pour ne pas que tout repose sur les parents, il faut surtout réussir à inverser la pression sociale afin que l’enfant différent ne soit plus celui qui n’a pas de téléphone mais, au contraire, celui qui en possède un. Cela aiderait les parents à ne pas céder à ce réflexe d’offrir un téléphone portable à leur enfant à l’entrée au collège, quand ce n’est pas avant.

Mme Josiane Corneloup (DR). Effectivement, pourquoi offrir un portable à un enfant de 11 ans ? Ce n’est pas une nécessité absolue. De nombreux parents sont démunis et se disent incapables de ne pas acheter de smartphone à leur enfant. Que préconisez-vous pour renforcer la sensibilisation ?

Mme Murielle Popa-Fabre. Une possibilité serait de mettre les parents dans la boucle informationnelle en leur fournissant une copie du feed de leurs enfants, pour leur permettre de prendre conscience de ce qui est visionné et de l’impact des contenus. Cela éclairerait leur décision.

Une autre piste, très soutenue au niveau européen, consiste à travailler sur la définition du produit pour faire des plateformes des éditeurs de contenus. L’objet technologique est volontairement présenté comme une grande boîte noire : je propose de sectionner l’algorithme en trois blocs, et de considérer la dernière partie, le fil – c’est-à-dire l’enchaînement de contenus montré aux internautes – comme un produit consommé. Matérialiser cet objet qui reste trop évanescent offrirait des leviers d’action.

Mme Elisa Jadot. Attention tout de même à ne pas faire reposer toute la stratégie sur le contrôle parental. Les enfants ont souvent plusieurs comptes : un compte officiel, montré aux parents, et des comptes cachés, anonymes, utilisés en toute discrétion par les jeunes pour consulter à peu près ce qu’ils veulent – sur Instagram, par exemple, cela s’appelle des Finsta, pour fake instagram. Il existe aussi aujourd’hui des applications qui masquent l’existence d’un réseau social sur le téléphone en remplaçant l’icône de l’application par un autre symbole, comme celui d’une calculatrice. Ces profils cachés échappent totalement à la vigilance des parents et ne seraient pas concernés par le dispositif de contrôle du fil.

Mme Murielle Popa-Fabre. Dans une optique de renforcement de la vérification de l’âge, cela ne poserait pas de problème, car l’identité serait également vérifiée.

M. le président Arthur Delaporte. Merci à tous pour toutes ces informations. N’hésitez pas à nous faire parvenir tout élément complémentaire.

J’en profite pour vous informer que nous venons de lancer sur le site de l’Assemblée une consultation citoyenne visant à recueillir des témoignages et éléments d’information sur les pratiques et usages des réseaux sociaux, ainsi que les dangers repérés par les utilisateurs. Elle est ouverte jusqu’au 31 mai. Il est également possible de nous joindre à l’adresse commission.tiktok@assemblee-nationale.fr.

 

 

La séance s’achève à seize heures quarante.


Membres présents ou excusés

 

Présents.  Mme Josiane Corneloup, M. Arthur Delaporte, M. René Lioret, Mme Laure Miller, Mme Isabelle Rauch, M. Thierry Sother