Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition commune, ouverte à la presse, réunissant :............2
• Direction générale des entreprises – M. Loïc Duflot, chef de service de l’économie numérique, et Mme Chantal Rubin, chef de pôle structurel Numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN)
• Direction générale des médias et des industries culturelles – Délégation à la régulation des plateformes numériques – M. Matthieu Couranjou, délégué à la régulation des plateformes numériques, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale
– Présences en réunion................................12
Jeudi
5 juin 2025
Séance de 9 heures
Compte rendu n° 22
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à neuf heures cinq.
La commission auditionne conjointement :
– M. Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises, et Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN),
– M. Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale
M. le président Arthur Delaporte. Nous recevons Monsieur Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises (DGE), Madame Chantal Rubin, chef de pôle structurel Numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN), Monsieur Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles (DGMIC) et Monsieur Sébastien Bakhouche, chef de service, adjoint à la directrice générale. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Loïc Duflot, Mme Chantal Rubin, M. Matthieu Couranjou et M. Sébastien Bakhouche prêtent serment.)
M. Loïc Duflot, chef de service de l’économie numérique au Pôle Régulation des plates-formes numériques (REGPFN). La DGE, rattachée au ministère de l’économie, est chargée du développement des entreprises en France. Notre service de l’économie numérique se concentre spécifiquement sur le développement des acteurs du numérique. Nos activités s’articulent autour de trois axes principaux qui sont la démocratisation des technologies numériques, l’innovation numérique et la protection dans le domaine numérique, ce dernier point étant particulièrement pertinent pour notre discussion d’aujourd’hui.
Nous nous sommes saisis des questions relatives aux plateformes numériques dès le début des années 2010, contribuant notamment à leur première définition légale dans la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. Une équipe dédiée de six personnes est désormais chargée de définir les axes stratégiques de politique publique en la matière et de suivre l’application des textes en vigueur, notamment le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services sct (DSA) et le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) dit Digital markets act (DMA). Ces règlements européens, adoptés sous la présidence française de l’Union européenne, marquent un changement de paradigme en ce qu’ils responsabilisent les acteurs du numérique sur les contenus et les questions de concurrence, et positionnent la Commission européenne comme régulateur pour les plus grands acteurs du secteur. Cette évolution marque une rupture avec le modèle précédent, hérité de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite directive « e-commerce » et fondé sur un principe de responsabilité limitée des hébergeurs et des intermédiaires techniques.
Bien que la DGE ne soit pas directement impliquée dans la mise en œuvre opérationnelle de ces règlements ou dans le contrôle de leur bonne application par les acteurs, elle en suit l’application et effectue des propositions pour les faire évoluer si nécessaire. Nous soutenons la mise en œuvre de ces textes au niveau européen, ce qui implique une mobilisation pleine et entière de la Commission, assortie de moyens à la hauteur des enjeux. Cela suppose également de réduire les asymétries d’information qui existent aujourd’hui entre les régulateurs, la Commission et les régulateurs nationaux tels que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France, qui interviennent davantage auprès des acteurs locaux. Cette asymétrie d’information entrave la capacité de la Commission à appuyer efficacement les régulateurs nationaux.
C’est dans ce cadre que deux initiatives ont été menées à l’échelle nationale. La première réside dans la création, par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite loi SREN, d’un réseau des régulateurs, dont l’objectif est de coordonner leur action et de faciliter le partage d’informations. La seconde est la création du pôle d’expertise de la régulation numérique (Peren), qui vise à mutualiser l’expertise technique au sein de l’État, afin de soutenir le travail des régulateurs en leur mettant à disposition une compétence technique partagée, ce qui permet d’éviter la duplication inefficace des expertises dans chacun des organismes concernés. Le Peren œuvre ainsi au bénéfice de l’ensemble des acteurs impliqués, qu’il s’agisse des autorités administratives indépendantes ou des services du Gouvernement.
Concernant la protection des mineurs, nous sommes conscients des risques posés par les réseaux sociaux, comme l’ont souligné de nombreux rapports et études. Nous soutenons fermement, au niveau européen, la mise en place d’une vérification d’âge efficace sur les réseaux sociaux, que nous considérons comme essentielle pour responsabiliser les acteurs et adapter les interfaces pour les mineurs. Cette mesure est également essentielle pour aborder les questions de majorité numérique.
La Commission européenne mène actuellement une consultation publique sur les lignes directrices d’application du DSA, notamment sur son article 28 relatif à la protection des mineurs. Nous nous mobiliserons pour soutenir une mise en place aussi rigoureuse que possible de la vérification d’âge pour les réseaux sociaux.
M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale, Direction générale des médias et des industries culturelles (DGMIC). Le DSA est l’élément réglementaire essentiel s’appliquant à la protection des mineurs pour une plateforme telle que TikTok. Il s’agit d’un règlement d’harmonisation maximale qui prévoit, pour les très grandes plateformes, un dispositif de régulation par les risques. Celui-ci oblige ces acteurs à mettre en place des dispositifs de maîtrise des risques, particulièrement en matière de protection des mineurs.
L’article 28 du DSA fixe ainsi le principe de l’adoption de mesures appropriées et proportionnées pour garantir un niveau élevé de protection et de sécurité des mineurs sur le service des grandes plateformes. L’article 35 impose quant à lui des obligations de publication annuelle sur la manière dont les risques sont maîtrisés. Ce dispositif est surveillé par la Commission européenne et peut donner lieu à des sanctions allant jusqu’à 6 % du chiffre d’affaires.
Cette disposition a vocation à être précisée, en ce qui concerne la protection des mineurs, par un projet de lignes directrices que la Commission européenne a mis en consultation publique jusqu’au 10 juin. Ces lignes directrices ont pour objectif de définir avec précision la manière dont le DSA s’applique à la protection des mineurs sur l’ensemble du champ des plateformes, que ce soit en matière d’interface, de fonctionnalités ou encore de fonctionnement des algorithmes. Il s’agit d’un document particulièrement attendu, puisqu’il déclinera très concrètement la façon dont la Commission européenne entend mettre en œuvre le règlement et assurer la surveillance de la maîtrise des risques liés à la protection des mineurs.
Le DSA, récemment entré en application, confère à la Commission européenne un pouvoir de régulation sur les très grandes plateformes, une innovation importante poussée par la France lors des négociations. Cette approche évite une régulation par le régulateur national du pays d’origine, généralement l’Irlande où la plupart des plateformes sont installées. Bien que cette avancée reste à évaluer en termes d’application et d’effets concrets, elle représente un progrès significatif en matière de réglementation.
M. le président Arthur Delaporte. Mme la rapporteure et moi-même avons passé la journée d’hier à Bruxelles et les échanges que nous avons ce matin sont extrêmement complémentaires de ceux que nous avons eus avec la Commission européenne, la Direction générale des réseaux de communication, du contenu et des technologies (DG Connect) et l’ensemble des acteurs rencontrés. Des questions d’application et d’interprétation, notamment de l’article 28, se posent encore.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. L’article 38, qui impose aux très grandes plateformes comme TikTok de proposer un système de recommandation de contenu non fondé sur le profilage, vous semble-t-il respecté ? De même, TikTok et les autres réseaux sociaux respectent-ils l’article 39 du DSA prévoyant la mise à disposition du public d’un registre des publicités ? Qu’en est-il de l’article 40, qui prévoit que les instances de régulation puissent avoir accès à l’algorithme des réseaux sociaux et qui met à disposition des données clés de leur interface pour la recherche ? Quel est votre avis sur la bonne application de ces articles ?
M. Sébastien Bakhouche. En tant qu’administration centrale, notre responsabilité se limite à la conception de la réglementation et à la négociation des textes au niveau communautaire. L’application de ces textes relève, quant à elle, de la compétence des régulateurs. Nous ne disposons donc pas des informations dont bénéficient les régulateurs pour évaluer le respect du texte par les différents acteurs concernés.
L’appréciation des conditions d’application incombe principalement à la Commission européenne, puis au comité des régulateurs où siège l’Arcom. Les informations permettant d’évaluer le respect du règlement, auxquelles nous n’avons pas accès, sont transmises uniquement aux régulateurs. Par conséquent, nous ne sommes pas en mesure d’émettre des appréciations sur la manière dont les acteurs respectent ou non la réglementation.
M. Matthieu Couranjou, délégué à la régulation des plateformes numérique, Direction générale des médias et des industries culturelles (DGMIC). Je confirme que le rôle de régulateur n’incombe pas aux administrations centrales. Bien que nous puissions avoir une opinion personnelle sur ces questions de bonne application par TikTok, il n’est pas de notre ressort d’y répondre officiellement.
M. Loïc Duflot. La position de la DGE est identique. Les articles du DSA que vous avez cités soulèvent néanmoins la question centrale du paramétrage des réseaux et de sa capacité à réduire les risques identifiés.
La philosophie du DSA repose sur une approche de gestion des risques. Les acteurs doivent identifier les risques qu’ils génèrent pour leurs utilisateurs et proposer des mesures d’atténuation. Si les régulateurs jugent ces mesures inefficaces, ils sont habilités à ouvrir des enquêtes et, le cas échéant, à sanctionner.
Parmi les mesures d’atténuation des risques, la question du paramétrage, qui désigne la capacité de l’utilisateur à contrôler et à bénéficier de la plateforme selon ses souhaits, est centrale. Ce point est particulièrement important pour les utilisateurs mineurs car il prévoit un paramétrage des outils adapté à ce que l’utilisateur souhaite et à ce à quoi il peut accéder. Il s’agit d’une bonne pratique à encourager, pour les utilisateurs majeurs comme pour les mineurs.
Mme Laure Miller, rapporteure. En effet, bien que vous ne soyez pas directement impliqués dans la mise en œuvre concrète de la régulation, j’espérais obtenir votre analyse, y compris personnelle, sur l’application effective de ce que vous avez contribué à négocier. Mon objectif était de vous inviter à prendre du recul et à nous dire si, selon vous, l’esprit du DSA est actuellement respecté par les grandes plateformes. Je comprends votre réticence à vous prononcer à titre personnel et je la respecte. Lors de notre visite à Bruxelles, nous avons toutefois constaté des évolutions significatives. Avec l’élaboration des lignes directrices et le projet d’identité numérique, il apparaît clairement que l’enjeu principal est de concrétiser la vérification de l’âge. Nous avons beaucoup entendu parler d’une expérimentation prévue pour juin 2025, impliquant potentiellement trois pays, dont la France. Avez-vous connaissance de ce projet et disposez-vous de plus amples informations à ce sujet ?
M. Loïc Duflot. La protection des mineurs et la vérification de l’âge sont effectivement au cœur des débats européens actuels. Ces questions sont abordées dans les lignes directrices en cours de consultation publique et seront discutées lors du prochain conseil télécom, réunissant les ministres européens du numérique et la Commission européenne. Ce sujet est désormais prioritaire dans l’agenda politique européen.
La Commission européenne a effectivement lancé un projet pilote qui vise à définir les modalités de vérification d’âge, avec pour objectif de déterminer les meilleures pratiques en la matière tout en préservant un équilibre avec les libertés publiques. Il s’agit d’un sujet complexe, car de nombreux pays se sont déjà heurtés à cette problématique sans parvenir à une solution satisfaisante, en raison de la nécessité de concilier la protection des mineurs et le respect des libertés individuelles, notamment en matière de vie privée.
Dans le cadre de la préparation à la mise en œuvre de la loi SREN, l’Arcom, en collaboration avec la Commission nationale de l’informatique et des libertés (Cnil), travaille sur des dispositifs techniques répondant à ces enjeux. Ces travaux collectifs permettent de développer des solutions techniques matures qui devraient répondre aux besoins du marché en matière de vérification d’âge sur internet. Les travaux de la Commission s’inscrivent dans cette dynamique. Quant aux suites qui seront données à cette expérimentation, je pense qu’il serait plus approprié d’interroger directement la Commission à ce sujet.
M. le président Arthur Delaporte. Avez-vous rédigé une note préparatoire pour étayer la position du Gouvernement concernant les mécanismes de contrôle de l’âge ? Avez-vous également préparé des notes à l’intention du cabinet des ministres sur les échéances de mise en application de ces différents éléments ?
M. Loïc Duflot. Concernant la vérification de l’âge, nous sommes en train de préparer une note des autorités françaises. Celle-ci n’est pas encore finalisée, la consultation publique se terminant en fin de semaine prochaine. Sans préjuger des arbitrages politiques, il est raisonnable de penser que cette question sera au cœur de la réponse qui sera formulée.
M. le président Arthur Delaporte. Avez-vous participé à l’élaboration de la position ou à la réflexion concernant, par exemple, l’âge minimal ?
M. Loïc Duflot. La DGE n’a pas pour rôle de fixer ou de contribuer directement à la réflexion sur le niveau d’âge minimal. Nous examinons cependant ce qui est réalisable aux niveaux national et européen sur le plan juridique et ce qui relève effectivement de nos attributions. Conformément à la philosophie de la directive « e-commerce » et des récents textes de régulation numérique tels que le DSA, le DMA, et le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) dit AI act, nous sommes dans un cadre d’application directe et d’harmonisation maximale au niveau européen. Ces dispositifs visent à réguler les plus grands acteurs sous l’égide de la Commission. Pour des travaux aussi systémiques, le niveau européen est clairement le plus approprié. C’est pourquoi nous suivons attentivement les débats autour de ces lignes directrices qui, bien entendu, ne marqueront pas la fin du processus. Nous attendons avec intérêt les résultats du débat au conseil télécom sur cette question, sachant que plusieurs pays européens sont particulièrement sensibles à ces enjeux.
M. Matthieu Couranjou. La philosophie du DSA repose sur l’obligation de respecter les conditions générales d’utilisation (CGU). Actuellement, la majorité des réseaux sociaux fixent un âge minimal de 13 ans. La priorité est donc de s’assurer, en fonction des risques évalués, que cette condition inscrite dans les CGU, relevant du droit américain, est effectivement respectée.
Concernant le projet de lignes directrices, nous le jugeons globalement très complet. La France avait été consultée en amont sur les propositions de la Commission européenne et avait fourni une réponse détaillée, tout comme l’Arcom. Si nous retrouvons globalement nos préoccupations dans ce projet, il reste néanmoins à clarifier la question de l’exigence que nous devons avoir quant à leur bonne application, particulièrement sur l’accès des mineurs en dessous d’un certain âge ou conformément aux CGU. Ce point sera majeur dans notre réponse à la consultation. Nous comprenons que ces lignes directrices seront ensuite publiées et mises en application directe à partir de l’été. Nous attendons donc des résultats rapides sur ces questions, non seulement de la part des grands réseaux sociaux, mais de toutes les plateformes, quelle que soit leur taille, car l’article 28 concerne l’ensemble des plateformes. Les obligations des très grandes plateformes seront complétées par une approche de risque systémique.
Nous pouvons exiger des résultats rapides sur la mise en œuvre de ces lignes directrices, y compris pour les services pornographiques qui font l’objet d’une forte actualité en France.
Mme Laure Miller, rapporteure. Je souhaite aborder la question de la responsabilité des réseaux sociaux, qui sont actuellement considérés comme de simples hébergeurs malgré un renforcement de leurs responsabilités. Lors des négociations et de la rédaction du DSA, la question de l’évolution de leur statut s’est-elle posée ? La France avait-elle une position particulière à ce sujet ? Comment expliquez-vous qu’ils ne soient pas aujourd’hui qualifiés d’éditeurs, ce qu’ils sont manifestement dans les faits étant donné que leurs algorithmes orientent clairement les contenus ?
M. Loïc Duflot. La DGE n’ayant pas été présente lors des discussions, je ne peux apporter qu’un éclairage contextuel sur cette question. Le système initial, basé sur la directive « e-commerce », établissait une responsabilité limitée des hébergeurs, fondement du développement d’internet tel que nous le connaissons. À la fin des années 2010, face à l’émergence de nouveaux modèles, il est apparu nécessaire de maintenir ce statut général tout en responsabilisant davantage certains acteurs. Ces derniers peuvent être à la fois éditeurs au sens strict sur certaines parties de leur service et plateformes mettant à disposition des contenus tiers, leur rôle fondamental.
Le DSA représente une avancée significative dans la direction de cette responsabilisation. Bien que certains puissent juger ce progrès modeste, il constitue en réalité un pas de géant par rapport à la situation initiale. Concernant la distinction entre éditeur et hébergeur, le premier effectue traditionnellement un travail éditorial sur les contenus. Le débat porte donc sur l’étendue de ce travail réalisé par les plateformes, sachant que pour une partie des contenus qu’elles traitent, ce n’est pas nécessairement le cas. La dichotomie entre éditeur et hébergeur s’avère donc insuffisante pour appréhender la complexité des plateformes actuelles, d’où l’ajout d’une couche de régulation supplémentaire grâce au DSA.
M. Sébastien Bakhouche. Cette question revêt une importance capitale, d’autant plus que la distinction entre éditeurs et hébergeurs s’inscrit dans un cadre juridique national de longue date, notamment la loi du 29 juillet 1881 sur la liberté de la presse. Il est légitime de s’interroger sur l’applicabilité de cet héritage historique aux nouvelles réalités technologiques, en particulier aux spécificités des grandes plateformes.
Depuis le début des années 2000, le droit communautaire opérait une distinction entre hébergeur et créateur de contenu qui ne correspond plus exactement à la situation actuelle des plateformes en matière de diffusion d’information. Cependant, une différence fondamentale persiste entre le rôle d’une plateforme et celui d’un éditeur de presse traditionnel : la création de contenu. Un éditeur de presse produit et diffuse ses propres contenus d’information, tandis qu’une plateforme se contente de diffuser des contenus produits par d’autres.
Cette nuance est centrale et justifie, selon nous, la création d’un régime de responsabilité intermédiaire spécifique, adapté à cette situation particulière. Ce nouveau régime ne devrait être ni celui applicable aux éditeurs de presse traditionnels, ni celui des simples hébergeurs. Il s’agirait de reconnaître la responsabilité de fait des plateformes dans la diffusion de divers contenus, notamment d’information, tout en tenant compte de leur spécificité par rapport aux éditeurs de presse en termes de production d’informations.
M. Matthieu Couranjou. Le débat ne s’est pas nécessairement posé en termes de création d’un statut intermédiaire. La directive « e-commerce » établissait initialement la dichotomie entre éditeur et hébergeur à une époque où internet était fondamentalement différent, un hébergeur étant essentiellement un prestataire technique stockant des sites internet tels que des blogs, des pages personnelles, des sites de médias ou de e-commerce.
L’avènement des réseaux sociaux a profondément modifié cette donne, puisque les plateformes ont commencé à collecter, organiser, recommander et présenter des contenus générés par leurs utilisateurs, tout en s’abritant derrière le statut confortable d’hébergeur technique à responsabilité limitée.
Le DSA a marqué un tournant décisif en consacrant le régime de responsabilité conditionnelle des hébergeurs tout en créant le nouveau statut de plateforme en ligne. Ce dernier s’applique aux hébergeurs diffusant des informations publiques à la demande de leurs utilisateurs et s’accompagne de responsabilités nettement accrues par rapport à celles d’un simple hébergeur technique au sens de la directive « e-commerce ». Ces responsabilités sont, en outre, proportionnées à l’audience de la plateforme, avec une couche supplémentaire pour les très grandes plateformes, incluant une approche basée sur les risques.
Durant les négociations, cette approche nous convenait, d’autant plus que la France avait activement contribué à ces réflexions en souhaitant dépasser le simple statut d’hébergeur technique pour attribuer de nouvelles responsabilités aux plateformes. Le DSA atteint cet objectif en actualisant le débat. Bien qu’un statut intermédiaire se rapprochant de celui des éditeurs puisse être envisagé, il convient de rappeler que les réseaux sociaux contribuent à la liberté d’expression. Le Conseil constitutionnel a d’ailleurs consacré ce principe en 2020 lors de la censure de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.
L’équilibre trouvé par le DSA n’a pas été remis en question lors des négociations. Aucun pays, y compris la France, n’a plaidé pour un passage direct au statut d’éditeur. L’approche proposée nous a semblé satisfaisante, notamment grâce à l’approche par les risques qui paraît appropriée pour garantir un équilibre entre la lutte contre les contenus illicites et préjudiciables d’une part, et la préservation de la liberté d’expression d’autre part.
Nous sommes actuellement dans une phase intermédiaire qui doit encore faire ses preuves. Un bilan pourra être dressé lors du premier cycle de régulation du DSA en 2027. À ce stade, nous estimons que ce cadre pourrait convenir, mais il faudra le confirmer à l’usage.
Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du pôle Régulation des plates-formes numériques (REGPFN). Lors des négociations de 2022, la Commission européenne avait d’emblée établi que la directive « e-commerce » ne serait pas révisée. Le contexte politique était clairement orienté vers l’élaboration du DSA, sans réexamen des règles de la directive. Cette position constituait une ligne rouge pour la Commission européenne dès le départ et aucune coalition d’États membres ne semblait prête à défendre une thèse alternative.
Concernant le rôle éditorial, nous parlons en réalité de la conception éditoriale des systèmes algorithmique par les opérateurs, que le DSA aborde précisément. Les lignes directrices établissent clairement que la Commission européenne exige, notamment pour la protection des mineurs, que le paramétrage des algorithmes de recommandation ne soit pas basé sur les comportements et les traces de navigation des mineurs, afin d’éviter d’entretenir des comportements addictifs et de surconsommation.
Le DSA permettra donc d’exercer un contrôle sur les choix éditoriaux en matière de systèmes algorithmiques. Par exemple, il pourra être demandé à un opérateur de mettre de côté certains critères comme le watch-time ou l’engagement en ce qui concerne la protection des mineurs. Nous entrons ainsi dans une forme de responsabilité algorithmique et éditoriale quant au choix des critères de construction de ces systèmes.
Mme Laure Miller, rapporteure. Je reconnais que le DSA permet indéniablement de grandes avancées. Les enquêtes en cours, notamment à la DG Connect, démontrent un potentiel considérable. Il existe toutefois un décalage manifeste entre l’intention législative européenne et la réalité quotidienne derrière les écrans de nos enfants. Sur TikTok, malgré les efforts déployés, nous constatons encore une présence massive de contenus inappropriés et d’utilisateurs de moins de 13 ans.
Face à ce gouffre entre l’ambition réglementaire et la situation concrète, identifiez-vous tout d’abord des marges de manœuvre au niveau national visant à renforcer la protection des mineurs, dans le respect du droit de l’Union européenne ? Avez-vous par ailleurs connaissance de réglementations ou de législations mises en place dans d’autres pays du monde qui vous sembleraient pertinentes pour améliorer la protection des mineurs en ligne ?
M. Sébastien Bakhouche. Le constat du décalage entre la réglementation et la réalité est indéniable et partagé par tous. Nous disposons d’une réglementation, mais les effets escomptés ne se produisent pas encore dans les proportions attendues. Ce décalage s’explique principalement, selon nous, par l’entrée en application progressive du DSA. Nous estimons que le DSA, tel qu’il a été conçu, doit permettre de mieux réguler tous les éléments problématiques que vous mentionnez à juste titre. Pour autant, son application n’est pas encore entrée complètement en régime de croisière. Cette montée en puissance progressive s’explique par la nécessité de prendre des actes délégués ou des lignes directrices qui seront les éléments permettant de produire des effets concrets. En matière de protection des mineurs, comme nous l’avons mentionné, les lignes directrices ne sont pas encore adoptées, ce qui est un élément important à prendre en compte pour expliquer ce premier décalage.
La Commission européenne fait par ailleurs face à des défis pratiques en termes de ressources humaines pour assumer pleinement les missions qui lui ont été confiées par le législateur européen. De notre point de vue, il est encore trop tôt pour juger de la portée réelle du DSA, car les conditions permettant son application pleine et entière ne sont pas encore réunies à ce jour.
M. Loïc Duflot. Des clauses de réévaluation des dispositifs sont prévues, comme dans toute régulation européenne, et nous devons laisser le temps à ces dispositifs de produire leurs pleins effets.
La question n’est pas tant ce que prévoit la régulation, car nous estimons que le contenu actuel du DSA est véritablement adapté aux enjeux et a été conçu précisément pour y répondre. L’enjeu réside désormais dans sa mise en œuvre et dans le soutien ferme que nous apporterons à la Commission dans l’application de ces dispositions vis-à-vis des grandes plateformes.
Concernant la répartition des responsabilités entre le niveau national et européen, nous abordons un sujet complexe. La philosophie de la directive « e-commerce » des années 2000 repose sur le principe du pays d’origine, qui est une pierre angulaire de la construction du marché unique du numérique. Ce principe prévoit que les acteurs seront régulés dans l’État où ils sont établis en Europe. Dans les faits, la plupart des plateformes sont établies en Irlande. Par conséquent, ce sont principalement les régulateurs irlandais qui ont la capacité de réguler ces acteurs, et ce sont surtout les lois irlandaises qui ont un impact sur ce que peuvent faire les plateformes sur le territoire de l’Union, même si la directive « e-commerce » prévoit des exceptions à ce principe.
La Cour de justice de l’Union européenne (CJUE) a rendu l’année dernière un arrêt qui vient renforcer et clarifier les conditions dans lesquelles les États membres peuvent invoquer les exceptions prévues par l’article 3 de la directive « e-commerce ». Cet article dispose que seules des mesures particulières, et non générales, peuvent être prises, sous réserve d’être notifiées à l’ensemble des États membres et à la Commission, au cas par cas.
Cette décision, combinée aux dispositions du DSA, du DMA et de l’IA Act, implique que la réglementation du numérique s’élabore principalement à l’échelle européenne. La marge de manœuvre des États membres s’en trouve considérablement réduite, en particulier concernant les acteurs non domiciliés sur leur territoire, qui constituent la majorité des cas. Bien que cela ne signifie pas une impossibilité totale d’action, le champ d’intervention reste très limité.
Il convient néanmoins de mentionner une mesure nationale significative, adoptée dans le cadre de la loi SREN, qui fait actuellement l’objet de discussions. Les articles 1 et 2 de cette loi visent à instaurer, sous la supervision de l’Arcom, un système efficace de vérification de l’âge sur les plateformes hébergeant des contenus pornographiques. Ce dispositif s’appuie sur la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, dite directive Services de médias audiovisuels (SMA) et sur l’impératif de protection des mineurs face à des contenus particulièrement préjudiciables.
M. Matthieu Couranjou. Je tiens à souligner l’importance du caractère d’harmonisation maximale du DSA et du DMA, qui signifie qu’il est impossible d’adopter des mesures nationales poursuivant les mêmes objectifs que ces textes européens. Nous sommes donc contraints de nous en remettre à la régulation européenne.
La France conserve toutefois un rôle significatif grâce à sa voix influente dans les discussions européennes sur ces questions. Nous avons la capacité de promouvoir certaines positions, comme nous l’avons fait sur la question de la pornographie, en tirant parti d’une articulation encore imparfaite entre le DSA et la directive SMA, qui traite spécifiquement de la protection des mineurs sur les plateformes de partage vidéo.
Nous avons estimé que, tant que les lignes directrices de la Commission concernant la protection des mineurs dans le cadre du DSA n’étaient pas finalisées, nous disposions d’une marge de manœuvre pour agir en faveur de la protection de nos enfants. Néanmoins, cette démarche s’est avérée complexe en raison de la nécessité de respecter la directive « e-commerce » et ses procédures dérogatoires de notification. Ces procédures exigent une notification individuelle pour chaque site pornographique auprès de chaque pays d’établissement, afin de déterminer si le pays en question compte prendre des mesures et, dans le cas contraire, nous permettre d’agir.
Ces procédures sont particulièrement lourdes et complexes. Bien qu’elles puissent être utilisées dans certains cas, l’harmonisation maximale imposée par le DSA rend leur mise en œuvre de plus en plus difficile.
Mme Laure Miller, rapporteure. Avez-vous connaissance d’autres réglementations ou législations à travers le monde qui vous semblent pertinentes à examiner, y compris dans l’optique d’orienter ou de modifier la réglementation européenne ?
M. Loïc Duflot. L’Europe, et la France en particulier, font figure de pionniers sur ces questions, notamment avec le DSA et les articles de la loi SREN que j’ai mentionnés précédemment. Plus généralement, concernant la protection des mineurs, d’autres initiatives ont été mises en place, comme la plateforme jeprotegemonenfant.gouv.fr, qui a été promue il y a plusieurs années ou les mesures relatives au contrôle parental qui visent à garantir la présence d’au moins un outil de contrôle parental sur les terminaux.
L’ensemble de ces mesures se complète mutuellement. Je n’ai pas connaissance de législations étrangères qui auraient mis en place des dispositifs plus ambitieux que les nôtres dans ce domaine.
Mme Chantal Rubin. Les autorités australiennes ont récemment adopté une réglementation assez prescriptive concernant l’accès aux réseaux sociaux. Il ne s’agit toutefois pour l’instant que d’un énoncé de loi et toute la question réside dans sa mise en œuvre pratique, pour laquelle nous ne disposons pas encore de précédents.
En Europe, nous bénéficions aujourd’hui d’un avantage certain, notamment grâce au cas des contenus pornographiques. Nous disposons désormais de mécanismes techniques de vérification de l’âge qui sont fiables et reconnus.
Les autorités britanniques, par le biais de l’Ofcom, ont récemment publié un code exhaustif sur la protection des mineurs en ligne. Leur approche très ouverte, typiquement britannique, repose sur un dialogue avec les acteurs du secteur à qui il appartient d’évaluer les risques. L’échelle de vérification de l’âge varie considérablement selon les plateformes. Les Britanniques peuvent accepter des mécanismes qui se limitent à une estimation ou une approximation de l’âge, sans véritable garantie de fiabilité.
Ce qui distingue la France et l’Europe, c’est que nous disposons de dispositifs techniques qui renforcent véritablement notre approche en matière de protection des mineurs en ligne.
M. le président Arthur Delaporte. Je vous invite à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
La séance s’achève à dix heures.
Présents. – M. Arthur Delaporte, Mme Anne Genetet, Mme Laure Miller, Mme Constance de Pélichy