Logo2003modif

N° 859

______

 

ASSEMBLÉE   NATIONALE

 

CONSTITUTION DU 4 OCTOBRE 1958

SEIZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 15 février 2023.

 

 

 

RAPPORT

 

 

 

FAIT

 

 

 

AU NOM DE LA COMMISSION DES AFFAIRES CULTURELLES ET DE L’ÉDUCATION SUR LA PROPOSITION de loi, visant à instaurer une majorité numérique et à lutter contre la haine en ligne,

 

 

 

Par M. Laurent MARCANGELI,

 

 

Député.

 

——

 

 

 

Voir le numéro : 739.

 

 


 


—  1  —

SOMMAIRE

___

Pages

avant-propos

I. la massification des pratiques numériques des jeunes

II. Les réseaux sociaux, vecteurs de propagation des fausses informations

III. Les mineurs sont particuliÈrement vulnÉrables aux dangers des rÉseaux sociaux dans un contexte d’Éducation au numÉrique insuffisante

IV. Les mineurs s’exposent à des risques spécifiques sur les réseaux sociaux, qui n’offrent pas À ce jour un environnement suffisamMent sûr aux plus jeunes utilisateurs

V. le lien entre l’usage des réseaux sociaux et la santé mentale des jeunes : une corrélation identifiée par la littérature scientifique, une causalité restant à prouver

Principaux apports de LA commission des affaires culturelles et de l’Éducation

commentaire des articles

Article 1er  Introduction d’une définition des réseaux sociaux dans la loi

Article 1er bis (nouveau) Intégration de nouveaux contenus illicites dans les dispositifs de signalement des plateformes en ligne

Article 2 Instauration d’une majorité numérique fixée à 15 ans pour l’inscription aux services de réseaux sociaux

Article 3 Instauration d’un délai de réponse aux réquisitions judiciaires

Article 4 Demande d’un rapport au Parlement sur les conséquences de l’utilisation des réseaux sociaux sur la santé des jeunes

Article 5 (nouveau) Remise d’un rapport au Parlement sur l’opportunité d’une fusion des numéros nationaux « 30 20 » et « 30 18 »

Travaux de la commission

annexes

Liste des personnes entendues par le rapporteur

textes susceptibles d’être abrogés ou modifiés à l’occasion de l’examen de la proposition de loi

 


—  1  —

   avant-propos

I.   la massification des pratiques numériques des jeunes

Les confinements successifs mis en œuvre pour lutter contre l’épidémie de covid-19 ont accéléré la prise de conscience de la société française sur l’intensification des pratiques numériques des jeunes, en particulier leur présence grandissante sur les réseaux sociaux.

En janvier 2021, la Commission nationale de l’informatique et des libertés (CNIL) a publié les résultats d’un sondage et d’une consultation en ligne organisés en 2020 dans le cadre d’une réflexion sur la protection des données personnelles des mineurs et l’exercice de leurs droits numériques, consacrés par le règlement général sur la protection des données ([1]) et la loi de 1978 relative à l’informatique, aux fichiers et aux libertés ([2]). Le sondage, mené en février 2020 par la CNIL et l’Institut français d’opinion publique (IFOP) auprès de 1 000 parents et 500 enfants de 10 à 17 ans, portait sur les pratiques numériques des mineurs et la perception qu’en ont leurs parents. La consultation publique, quant à elle, menée sur le site internet de la Commission d’avril à juin 2020, était centrée sur les enjeux de la protection des données des mineurs. Elle a permis de recueillir près de 700 contributions en provenance de professionnels de l’éducation, d’intervenants dans le domaine de l’enfance, d’entreprises du numérique et de professeurs de droit.

À l’issue de ses travaux, la CNIL conclut à une « massification » et une autonomisation des pratiques numériques chez les jeunes publics :

– 82 % des enfants de 10 à 14 ans se rendent régulièrement sur internet sans leurs parents, contre 95 % pour les 15-17 ans ;

– 70 % des enfants de tout âge regardent seuls des vidéos sur internet ;

– s’agissant des réseaux sociaux, la CNIL constate que la première inscription semble intervenir en moyenne vers 8 ans et demi et que plus de la moitié des 10-14 ans y sont présents.

Les parents, n’étant que peu informés de la présence de leurs enfants sur les réseaux sociaux, sous-estiment leurs activités numériques et mesurent de plus en plus mal l’ampleur de celles-ci au fur et à mesure des années. Ce phénomène a notamment été démontré par l’Observatoire de la parentalité et de l’éducation numérique (OPEN) et l’Union nationale des associations familiales (UNAF), deux associations rencontrées par le rapporteur dans le cadre de ses travaux ([3]). L’OPEN et l’UNAF ont publié en 2022 une étude ([4]) confiée à l’IPSOS sur les parents, les enfants et le numérique. Les entretiens menés montrent que selon les parents, les enfants de 7-10 ans et 11-14 ans utilisent respectivement, en moyenne, 1,9 et 3,2 réseaux sociaux. Les enfants, en revanche, évoquent respectivement 2,5 et 3,6 réseaux sociaux.

Les travaux de la CNIL corroborent les résultats de nombreuses études menées sur les pratiques numériques des jeunes, qui semblent s’être intensifiées à la suite des confinements. En février 2022, l’association Génération numérique ([5]) a publié les résultats de son enquête annuelle sur les pratiques numériques des jeunes de 11 à 18 ans ([6]). 62 % des garçons sont ainsi présents sur les réseaux sociaux, contre 61 % en 2021, et 68 % des filles contre 66 % en 2021. S’agissant des jeunes de 11 et 12 ans inscrits sur au moins un réseau social, la proportion demeure stable : 58 % ont un compte contre 59 % en 2020.

L’enquête de Génération numérique livre deux enseignements importants sur les usages des jeunes :

– la pratique des jeux vidéo apparaît en forte hausse (29 % des jeunes inscrits) au détriment des échanges concernant les cours et les devoirs ;

– la consommation de vidéos en ligne sur les réseaux sociaux est en hausse de quatre points en un an et occupe la deuxième place dans les usages.

Symbole de cette dernière tendance, l’utilisation de TikTok est en très forte hausse depuis 2020, 60 % des garçons entre 11 et 18 ans utilisant le réseau social contre 35 % en 2021. Cette évolution exponentielle n’est pas limitée aux adolescents, le nombre de Français tous âges confondus se rendant chaque mois sur ce réseau de partage de vidéos courtes étant passé de 4,4 millions en 2019 à 15 millions en 2021 et 20 millions en 2022. 30 % d’entre eux ont moins de 18 ans, soit 6 millions de mineurs.

Source : Génération numérique

La précocité de l’accès au numérique des enfants est également soulignée par l’OPEN et l’UNAF dans l’étude IPSOS précitée. Les résultats montrent une accélération de la croissance du temps d’écran au sein des familles et l’abaissement de l’âge auquel les enfants reçoivent leur premier accès à un appareil numérique : 10,3 ans en moyenne.

Les jeunes sont donc présents massivement sur les réseaux sociaux et s’y inscrivent de plus en plus tôt. Les réseaux sociaux sont à la fois un lieu d’opportunités pour les jeunes utilisateurs et un lieu de convergence de risques multiples. Dans le cas des fausses informations, ce sont les conditions d’exercice mêmes de leur citoyenneté qui sont mises en péril.

II.   Les réseaux sociaux, vecteurs de propagation des fausses informations

Depuis leur apparition à la fin des années 1990, les réseaux sociaux sont progressivement devenus des outils banals de la vie quotidienne, personnelle comme professionnelle. De façon générale, il convient autant que possible d’éviter l’assimilation en bloc des réseaux sociaux à leurs externalités négatives, qui n’affectent d’ailleurs pas que la jeunesse.

L’usage croissant des réseaux sociaux à des fins d’information en France ([7]) s’est accompagné, du fait de leur effet de « caisse de résonance », d’une plus grande diffusion des fausses informations ([8]). L’enquête annuelle 2021 auprès des ménages sur les technologies de l’information et de la communication (TIC ménages), réalisée par l’Institut national de la statique et des études économiques (Insee), a ainsi révélé que « les personnes qui utilisent les réseaux sociaux ou les sites d’actualité sont plus exposées aux infox que les autres ». D’après l’Insee, parmi ceux qui ont créé un profil ou posté des messages sur les réseaux sociaux (48 % des internautes), 63 % ont vu au moins une fausse information, contre 39 % de ceux qui ne l’ont pas fait.

La Commission européenne a reconnu le rôle potentiellement amplificateur des réseaux sociaux dans la diffusion des contenus trompeurs ou mensongers, en jugeant que les fournisseurs de très grandes plateformes en ligne devraient « accorder une attention particulière à la manière dont leurs services sont utilisés pour diffuser ou amplifier des contenus trompeurs ou mensongers, et notamment à la désinformation. Lorsque l’amplification algorithmique des informations contribue aux risques systémiques, ces fournisseurs devraient en tenir dûment compte dans leurs évaluations des risques » ([9]).

Le Conseil supérieur de l’audiovisuel ([10]) a pour sa part jugé, dans une étude de novembre 2020 relative à la propagation des fausses informations sur les réseaux sociaux, centrée sur Twitter ([11]), que la pandémie de covid-19 a rendu « plus aigüe encore la problématique des fausses informations à l’ère où l’accès à l’information passe par une pluralité inédite de médias, dont les réseaux sociaux ». La grande vitesse de propagation des fausses informations, du fait des réseaux sociaux, a ainsi donné une forte visibilité à des théories complotistes, dans un contexte de défiance envers les autorités politiques et sanitaires. L’Arcom cite la théorie selon laquelle les ondes 5G seraient responsables de la pandémie, celle selon laquelle le SARS‑CoV-2 contiendrait des insertions de VIH, celle selon laquelle le « vaccin de Bill Gates » contiendrait une puce de suivi ou encore celle selon laquelle la vitamine C serait un traitement efficace contre le virus.

Les auteurs de l’étude du CSA n’ont pas pris en compte les caractéristiques sociodémographiques des abonnés. Une étude de l’IFOP ([12]), en revanche, a été réalisée en ligne du 4 au 8 mars 2022 pour la Fondation Reboot et la Fondation Jean‑Jaurès, afin de mesurer le degré d’adhésion des jeunes à des théories conspirationnistes et à des contre-vérités historiques. Son premier enseignement est assez intuitif : les adeptes des « vérités alternatives » sont plus nombreux parmi les jeunes que parmi les Français plus âgés. Ainsi, 16 % des 18-24 ans considèrent « possible que la Terre soit plate et non pas ronde comme on nous le dit depuis l’école », alors qu’ils sont seulement 3 % parmi les plus de 65 ans. 19 % des 18-24 ans adhèrent à l’idée que « les pyramides égyptiennes ont été bâties par des extraterrestres », contre 5 % chez les séniors.

Toutefois, l’originalité de cette enquête, menée auprès de 2 003 personnes représentatives de la population âgée de 11 à 24 ans, réside dans la comparaison entre le niveau d’adhésion aux croyances irrationnelles des jeunes utilisant les réseaux sociaux par rapport à ceux les utilisant rarement ou jamais. Les résultats sont sans appel, tout particulièrement pour les utilisateurs de TikTok, devenu le réseau social préféré des jeunes Français (cf. supra).

En matière de « platisme », par exemple, si 16 % des 18-24 ans pensent possible que la terre soit plate, cette proportion monte à 21 % pour les plus gros consommateurs (plusieurs fois par jour) de vidéos sur YouTube et à 29 % pour ceux utilisant quotidiennement TikTok comme moteur de recherche.

Une part non négligeable des jeunes interrogés sur leur rapport à la science considère qu’elle apporte « plus de mal que de bien » : 15 % des 11-14 ans, 14 % des 15-17 ans et 17 % des 18-24 ans. Tous niveaux d’âge confondus, la part de jeunes méfiants envers la science apparaît considérablement plus élevée chez ceux qui utilisent TikTok comme moteur de recherche : 20 % en moyenne, et même 27 % parmi ceux qui l’utilisent quotidiennement. À l’inverse, seuls 10 % de ceux qui n’utilisent jamais TikTok comme moteur de recherche pensent que la science apporte plus de mal que de bien.


Le niveau de crédit accordé à des thèses fallacieuses ou conspirationnistes apparaît donc proportionnel à la fréquence d’utilisation des réseaux sociaux.

Source : IFOP 2022


—  1  —

III.   Les mineurs sont particuliÈrement vulnÉrables aux dangers des rÉseaux sociaux dans un contexte d’Éducation au numÉrique insuffisante

Les réseaux sociaux peuvent certes favoriser l’accès à l’information des jeunes internautes, qui n’y trouvent naturellement pas que des théories conspirationnistes ou des deepfakes ([13]). La présente proposition de loi n’a pas vocation à stigmatiser les réseaux sociaux, qui peuvent présenter une dimension éducative utile, contribuer à l’épanouissement et au développement de la personnalité des mineurs, notamment en leur permettant de nouer de nouvelles relations.

Cependant, les jeunes esprits en construction, plus vulnérables que leurs aînés, doivent bénéficier de protections renforcées et d’une véritable éducation à l’usage du numérique. Cette éducation aux bonnes pratiques numériques doit d’abord cibler les titulaires de l’autorité parentale. Pour reprendre l’expression de M. Thomas Rohmer, président de l’Observatoire de la parentalité et de l’éducation numérique, il convient de « remettre les adultes au cœur du numérique ». Or, cet objectif semble bien lointain. Les parents, comme l’a mis en évidence la CNIL dans les résultats de sa consultation publique, apparaissent souvent peu conscients de l’intensité de l’utilisation des réseaux sociaux de leurs enfants, voire s’en désintéressent. Ainsi, seulement 46 % des parents de mineurs âgés de 8 à 17 ans ont mis en place des solutions pour suivre l’activité de leur enfant sur internet, la plus utilisée étant le contrôle parental. M. Rohmer a insisté lors de son audition sur le fait que les adultes, une fois leurs enfants équipés de smartphones, qui représentent aujourd’hui la première voie d’accès aux réseaux sociaux, se désintéressent de leur pratique numérique et optent pour des solutions radicales telles que l’installation d’un logiciel espion sur le téléphone de leur enfant. L’étude IPSOS commandée par l’OPEN et l’UNAF (cf. supra) estime ainsi que 41 % des parents ont déjà utilisé un logiciel d’espionnage, dont 30 % en concertation avec leur enfant, une proportion en progression de 70 % en deux ans.

Un chiffre suffit à lui seul à mettre en évidence le désarroi des parents et l’insuffisance des ressources mises à leur disposition pour éduquer leurs enfants à un bon usage des réseaux sociaux : 9 % des 7-10 ans se rendent sur les réseaux sociaux selon les parents, alors que les enfants déclarent être 28 % à le faire.

Le déficit d’accompagnement et de prévention en direction des adultes est donc patent, alors même qu’au vu de l’augmentation constante de la présence des jeunes sur les réseaux sociaux, l’éducation à une utilisation éclairée devrait devenir une grande priorité de politique publique.

Le rapporteur salue l’action des associations d’éducation au numérique, en particulier celles qu’il a rencontrées et qu’il remercie pour la contribution qu’elles ont apportée à sa réflexion. L’État doit cependant s’engager davantage et il est désormais indispensable de construire une véritable stratégie fondée sur la mise à disposition de ressources simples et faciles d’accès pour les parents et les enfants, ainsi que sur le déploiement de formations au sein de l’enseignement public sur les bonnes pratiques à adopter.

Comme l’a observé au cours de son audition ([14]) Mme Marie Mayoud, présidente co-fondatrice de l’association Digital parenting foundation, un calcul coûts/bénéfices s’impose en matière de pratiques numériques et force est de constater que s’agissant des réseaux sociaux, le coût pour les mineurs est élevé. Il convient donc de renforcer l’effectivité de la vérification de l’âge et du consentement parental à l’inscription des mineurs de 15 ans ; c’est le sens de l’article 2 de la présente proposition de loi.

IV.   Les mineurs s’exposent à des risques spécifiques sur les réseaux sociaux, qui n’offrent pas À ce jour un environnement suffisamMent sûr aux plus jeunes utilisateurs

Les obligations légales de vérifier l’âge des utilisateurs numériques se sont multipliées à la suite de l’instauration de conditions d’âge pour l’accès à certains services. À titre d’exemple, le premier alinéa de l’article L. 320-8 du code de la sécurité intérieure impose aux opérateurs de jeux d’argent de hasard légalement autorisés « de faire obstacle à la participation de mineurs, même émancipés, aux activités de jeu ou de pari qu’ils proposent. » Le dernier alinéa du même article prévoit que l’accès aux terminaux de jeux sans intermédiation humaine est « réservé aux joueurs dont l’identité et la date de naissance ont été préalablement vérifiées aux fins de contrôle de leur majorité. »

S’agissant de la pornographie, l’article 227-24 du code pénal punit de trois ans d’emprisonnement et de 75 000 euros d’amende le fait de diffuser des images pornographiques susceptibles d’être vues par des mineurs. La loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales a introduit un nouvel alinéa à l’article 227-24, prévoyant que cette infraction est constituée « y compris si l’accès d’un mineur aux messages mentionnés au premier alinéa résulte d’une simple déclaration de celui-ci indiquant qu’il est âgé d’au moins dix-huit ans ». La loi exclut ainsi explicitement la simple mise en place par les sites pornographiques de techniques de vérification de l’âge reposant sur la déclaration.

L’article 23 de la loi du 30 juillet 2020 a confié au président de l’Arcom un pouvoir d’injonction vis-à-vis des fournisseurs diffusant des contenus pornographiques en ligne auprès de mineurs. L’Arcom en a fait usage en décembre 2021 auprès de plusieurs sites pornographiques. Ces mises en demeure demeurées infructueuses, le président de l’Arcom a demandé, en mars 2022, au président du tribunal judiciaire de Paris, le blocage de ces sites, conformément à la procédure créée en 2020.

En septembre 2022, les sites pornographiques visés par la mise en demeure de l’Arcom ont plaidé leur bonne foi en arguant de l’absence de dispositifs de vérification de l’âge à la fois efficaces, fiables et respectueux de la vie privée. De fait, la loi du 30 juillet 2020 n’a pas imposé aux fournisseurs de contenus pornographiques en ligne une technique particulière de vérification de l’âge, ce qui a conduit le Gouvernement à travailler au développement d’une application mobile sur smartphone, reposant sur le principe du tiers de confiance.

Le rapporteur se félicite que le Gouvernement ait pris la mesure de la non-application, en l’état actuel, des dispositions du code pénal réprimant l’absence de vérification de l’âge des consommateurs de contenus pornographiques.

Il note cependant que les sites pornographiques ne sont pas les seuls lieux où les mineurs peuvent accéder à des contenus pornographiques, qui sont également diffusés sur les réseaux sociaux. M. Thomas Rohmer, au cours de son audition, a ainsi rappelé au rapporteur que le Conseil français des associations pour les droits de l’enfant (Cofrade), en collaboration avec l’OPEN et quatre autres associations adhérentes ([15]) ont saisi l’Arcom en août 2022 afin de mettre en demeure Twitter de se conformer à ses obligations de protection des mineurs. En l’espèce, ces associations avaient constaté la présence sur Twitter de « très nombreuses images et vidéos pornographiques, susceptibles d’être vus par des enfants », en violation de l’article 227-24 du code pénal.

Au vu des contenus choquants et inappropriés auxquels les mineurs peuvent avoir accès sur les réseaux sociaux, un renforcement des obligations de vérification de l’âge sur ces services s’impose.

Selon l’enquête de Génération numérique sur les pratiques numériques des 11-18 ans, 19 % des jeunes de 11-18 ans ont déjà rencontré un problème sur internet. Pour 41 % d’entre eux, « être ennuyé ou harcelé » est la pire chose qui puisse leur arriver sur les réseaux sociaux (+ 11 points en un an), avant le vol des données personnelles (32 %) et la publication de photos ou de vidéos à leur insu (27 %).

Les représentants des réseaux sociaux entendus par le rapporteur (Meta, Twitter, TikTok, Google, Snapchat) lui ont indiqué développer des algorithmes visant à détecter les utilisateurs mineurs et, partant, leur proposer une activité supervisée. M. Éric Garandeau, directeur des relations institutionnelles et des affaires publiques de TikTok, est notamment revenu sur le développement en cours de filtres destinés à réserver certains contenus sensibles aux majeurs : messages violents, à caractère sexuel, contenus haineux, propos racistes… À titre d’exemple, le rapporteur songe à une vidéo d’actes de torture et de barbarie, filmant la mort d’un homme à Lyon et diffusée en direct sur TikTok au début du mois de février 2022. Ces filtres par défaut seraient à même de limiter l’exposition des mineurs à des contenus inappropriés. Ceux-ci sont encore trop nombreux et devraient conduire les plateformes à un renforcement significatif de leurs équipes de modération. Dans le cas de TikTok, les dispositifs de modération automatique sont à eux seuls insuffisants et les modérateurs humains chargés de traquer les contenus contrevenant aux conditions générales d’utilisation sont à la fois trop peu nombreux et exposés à des conditions de travail difficiles et risquées. Plusieurs salariés ont ainsi développé des syndromes de stress post-traumatique et d’anxiété, alors qu’ils sont soumis à des cadences qui laisseraient sans voix Stakhanov lui-même : 25 secondes d’examen par vidéo, plusieurs vidéos étant visionnées en même temps. Le réseau social supprime 80 millions de vidéos par trimestre, soit près d’un million par jour, la majorité d’entre elles étant retirées par des humains. Cette situation a d’ailleurs conduit d’anciens modérateurs du réseau social à l’attaquer en justice au titre de leurs conditions de travail dignes des Temps modernes.

V.   le lien entre l’usage des réseaux sociaux et la santé mentale des jeunes : une corrélation identifiée par la littérature scientifique, une causalité restant à prouver

Une récente affaire judiciaire britannique a relancé le débat sur les dangers des réseaux sociaux pour la santé mentale des mineurs. Le suicide en novembre 2017 de Molly Russell, 14 ans, a conduit la justice britannique, suite à la forte mobilisation de ses parents, à examiner la responsabilité des réseaux sociaux, dont la jeune fille était une forte utilisatrice, sur la dégradation de sa santé mentale, en particulier Facebook, Instagram, Pinterest, Snapchat et Whatsapp. M. Andrew Walker, coroner ([16]) de la cour des coroners du nord de Londres, a reconnu la responsabilité de ces réseaux sociaux dans l’aggravation de l’état dépressif de la jeune fille, conduisant à sa mort. En octobre 2022, après près de cinq années d’enquête, M. Walker a jugé que Molly Russell était morte du fait d’un « acte d’automutilation, tout en souffrant de dépression et des effets négatifs de contenus en ligne ». Relevant que l’adolescente avait souscrit un abonnement à de nombreux réseaux sociaux, le coroner écrit qu’« à l’époque où ces sites étaient consultés par Molly, certains d’entre eux n’étaient pas sûrs dans la mesure où ils autorisaient l’accès à des contenus pour adultes qui n’auraient pas dû être consultables par un enfant de 14 ans. Le mode de fonctionnement des plateformes impliquait que Molly ait accès à des images, des vidéos et des textes relatifs à l’automutilation, au suicide ou qui étaient négatifs ou dépressifs par nature. Le réseau utilisait à cette fin des algorithmes résultant, dans certaines circonstances, à des périodes excessives d’exposition à des images, vidéos et textes, dont certains avaient été sélectionnés et fournis sans que Molly ne le demande. Certains de ces contenus rendaient romantique les actes d’automutilation de jeunes gens. D’autres contenus tendaient à l’isoler et à la décourager de se tourner vers ceux qui auraient pu lui venir en aide. » ([17])

Durant son enquête, le coroner a identifié plusieurs motifs d’inquiétude, en particulier :

– l’absence de plateformes séparées pour les enfants et les adultes ;

 l’absence de vérification de l’âge au moment de l’inscription sur le réseau social ;

– l’absence de contrôle des contenus en fonction de l’âge ;

– l’utilisation des algorithmes aux fins de fournir des annonces publicitaires simultanément avec les contenus.

En l’espèce, c’est la nature même de ces réseaux sociaux qui est reconnue responsable de la surexposition de Molly Russell à des contenus relatifs à l’automutilation et au suicide, l’enfermant dans une « bulle » dépressive. Ces réseaux intègrent en effet des algorithmes de recommandation, neurones artificiels chargés de reconnaître et d’assimiler les préférences des utilisateurs afin de leur proposer des contenus similaires ou susceptibles de les intéresser. M. Philippe Coen, fondateur de l’association Respect Zone, a mis en cause ces algorithmes au cours de son audition, estimant qu’ils présentaient des « biais toxiques ».

Les réseaux sociaux, du fait de leurs algorithmes et de leur design, pourraient favoriser l’addiction des utilisateurs, tout particulièrement des plus jeunes. Mme Julie Albright, docteure en sociologie spécialisée dans la culture digitale et la communication ([18]), professeure à l’Université de Californie du Sud, a comparé le comportement des utilisateurs de machines à sous à celui des plus gros utilisateurs de TikTok et d’Instagram. Cette analogie se justifie selon elle dans la mesure où les réseaux sociaux favorisent la montée de dopamine via des techniques de renforcement intermittent, un mécanisme connu des psychologues et assimilable à une technique de conditionnement comportemental. De la même façon que le joueur de casino ne gagne pas à toutes les mises, ce qui renforce son envie de prolonger son expérience de jeu, l’utilisateur de TikTok ou d’Instagram ne consomme pas que des contenus qui lui plaisent et retiennent son attention. Il en consulte plusieurs puis en rencontre un qui lui plaît particulièrement. Ensuite, il en visualise d’autres moins plaisants, avant de retrouver un contenu activant le circuit de la récompense, etc. Ainsi, l’espoir de la récompense ou plus exactement, après un certain laps de temps, la certitude de sa venue, pousse l’utilisateur à poursuivre son comportement, ce qui produit le développement d’une addiction. Selon Mme Albright, les réseaux sociaux sont intrinsèquement conçus pour permettre des montées soudaines de dopamine (dopamine hits), de la même façon que les machines à sous.

Par ailleurs, le modèle économique des réseaux sociaux n’incite pas les jeunes utilisateurs à adopter des comportements modérés, puisque les revenus publicitaires des plateformes dépendent du nombre de clics sur les contenus.

La littérature scientifique sur les dangers des réseaux sociaux pour les jeunes est aujourd’hui insuffisante, ce que l’Organisation mondiale de la santé (OMS) a reconnu. Plusieurs chercheurs ont cependant établi une corrélation entre l’usage des réseaux sociaux et la survenue de troubles psychologiques ou somatiques, notamment la dégradation de l’estime de soi.

Une étude longitudinale suédoise de 2021 ([19]) a cherché à établir des liens entre la fréquence d’utilisation des réseaux sociaux et les troubles mentaux chez les adolescents. 3 501 adolescents suédois âgés de 14 à 15 ans ont été suivis par l’équipe de chercheurs pendant deux ans. Ceux-ci ont conclu à des troubles mentaux plus élevés chez les adolescents présents sur les réseaux sociaux de façon intensive. Toutefois, l’étude n’a pas pu établir de lien de cause à effet, suggérant que l’usage des réseaux sociaux pourrait être un indicateur plutôt qu’un facteur de risque de développement de problèmes de santé mentale.

Si un lien de cause à effet entre l’utilisation des réseaux sociaux et le développement chez les adolescents de troubles mentaux n’est pas établi de façon certaine à ce jour, le rapporteur estime qu’il existe un faisceau d’indices suffisamment étayé pour juger indispensable, au vu de ce qui précède, d’imposer aux plateformes de réseaux sociaux une obligation de contrôle effectif de l’âge des utilisateurs, à l’heure où trop nombreux sont les mineurs de quinze ans qui mentent sur leur âge et s’inscrivent sans le consentement de leurs parents.


—  1  —

   Principaux apports de LA commission
des affaires culturelles et de l’Éducation

Lors de l’examen de la présente proposition de loi, le mercredi 15 février 2023, la commission des Affaires culturelles et de l’éducation a modifié, à l’initiative du rapporteur, l’article 1er visant à transposer dans le droit français la définition des réseaux sociaux inscrite à l’article 2, paragraphe 8, du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques). Le rapporteur a jugé plus pertinent d’inscrire cette définition au sein de l’article 1er de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) plutôt que dans le code des postes et des communications électroniques (CPCE) tel qu’initialement proposé.

La commission a également adopté un amendement portant article additionnel après l’article 1er, à l’initiative de Mme Véronique Riotton et plusieurs de ses collègues, tendant à modifier le troisième alinéa du 7 du I de l’article 6 de la LCEN. Cet alinéa impose aux plateformes en ligne de concourir à la lutte contre la diffusion sur leurs services d’un certain nombre d’infractions limitativement énumérées, via un dispositif de signalement. La commission a souhaité, suivant l’avis de Mme Riotton, compléter la liste des infractions visées afin de renforcer la sécurité et la sûreté des utilisateurs de ces services en ligne (cf. infra).

À l’initiative du rapporteur, la commission a adopté un amendement de rédaction globale de l’article 2, visant à créer un nouvel article 6-6 au sein du chapitre II du titre Ier de la LCEN. Aux termes de ses travaux, le rapporteur a en effet souhaité proposer à ses collègues un dispositif plus opérationnel, tenant compte de l’absence de consensus à ce jour sur les meilleures techniques de vérification de l’âge des utilisateurs des réseaux sociaux, en termes de fiabilité, de respect de la vie privée et de minimisation des données collectées. Le nouveau dispositif proposé confie à l’Arcom le soin de certifier les solutions techniques déployées par les réseaux sociaux pour vérifier l’âge et confie à cette autorité le contrôle du respect de l’obligation, sanctionnée par une amende de 100 000 euros. La commission a décidé de porter cette amende à un montant maximal d’1 % du chiffre d’affaires mondial du fournisseur de services de réseaux sociaux ne se conformant pas à l’obligation.

 

Le rapporteur a proposé à la commission un amendement de rédaction globale de l’article 3, dans un souci de respect du principe de proportionnalité et de bonne articulation de la législation nationale avec le droit de l’Union. Le premier alinéa du 1 du VI de l’article 6 de la LCEN a été complété afin d’imposer aux personnes exerçant les activités définies aux 1 et 2 du I dudit article 6 de communiquer aux autorités judiciaires les données permettant l’identification de l’auteur d’un contenu illicite dans un délai de dix jours, ramené à huit heures en cas d’urgence résultant d’un risque imminent d’atteinte grave aux personnes ou aux biens.

La commission a adopté à l’unanimité la proposition de loi ainsi modifiée.

 

 


—  1  —

   commentaire des articles

Article 1er
Introduction d’une définition des réseaux sociaux dans la loi

Adopté par la Commission avec modifications

La rédaction initiale du présent article visait à transposer dans le code des postes et des communications électroniques la définition des réseaux sociaux inscrite à l’article 2, paragraphe 8, du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques).

À l’issue des travaux de la commission, le présent article inscrit la définition des réseaux sociaux figurant dans le DMA à l’article 1er de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN).

I.   l’État du droit

En droit français, les réseaux sociaux sont à ce jour un objet juridique non identifié.

Le Conseil d’État, dans son étude annuelle de 2022 consacrée aux réseaux sociaux ([20]), constate que jusqu’à l’adoption récente du règlement sur les marchés numériques (DMA) ([21]), ni le droit français ni le droit européen ne proposait de définition des réseaux sociaux.

Les réseaux sociaux ont ainsi été appréhendés par le droit à travers d’autres notions plus larges, comme celle d’opérateur de plateforme en ligne. Aux termes de l’article L. 111-7 du code de la consommation, dans sa rédaction résultant de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

1° Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

2° Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service.

Certaines décisions de justice et décisions d’autorités administratives se sont emparées de la notion de réseau social, de façon limitée. La Cour de cassation dans une décision de 2017, a ainsi jugé que « le réseau social est simplement un moyen de communication spécifique entre des personnes qui partagent le même centre d’intérêt » ([22]). Le Conseil constitutionnel a, pour sa part, utilisé comme critère de classification la distinction entre les moyens de communication privés et les moyens de communication à caractère public, proposant la notion de « moyen de communication au public par voie électronique » ([23]).

Aucune définition harmonisée et canonique des réseaux sociaux n’a pu émerger des décisions de jurisprudence, le juge se contentant de définir le réseau social de façon limitée et pour les besoins d’un contentieux particulier, aux fins de délimiter le champ d’application de dispositions légales. Ainsi le Conseil d’État, dans le cadre d’un contentieux par lequel des associations contestaient la possibilité donnée à l’administration, par l’article R. 236-2 du code de la sécurité intérieure, d’enregistrer, dans le cadre d’enquêtes administratives liées à la sécurité publique, certaines données relatives aux activités sur les réseaux sociaux susceptibles de porter atteinte à la sécurité publique ou à la sûreté de l’État, a décidé qu’ « au sens et pour l’application de ces dispositions », « les termes " réseaux sociaux " désignent les plateformes en ligne permettant aux personnes qu’elles mettent en relation de communiquer entre elles, de mettre à la disposition des autres utilisateurs des contenus tels que des textes, des images et des vidéos et d’accéder à ceux-ci » ([24]). Cette définition est très proche de celle retenue par le DMA, qui était alors en discussion au sein des institutions européennes.

L’article 2 du règlement sur les marchés numériques a proposé, de façon inédite, une définition juridique des réseaux sociaux, entendus comme une « plateforme permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations ».

Cette définition est proche de la définition proposée en 2010 par le Comité économique et social européen dans un avis n° 2010/C 128/12, qui définit les réseaux sociaux comme « des services en ligne qui ont pour but de créer et de relier entre eux des groupes de personnes partageant des activités ou des intérêts communs ou souhaitant simplement connaître les préférences et les activités d’autres personnes, et qui mettent à leur disposition un ensemble de fonctionnalités permettant une interaction entre les utilisateurs ».

Le Conseil d’État relève que la définition du DMA est innovante en ce qu’elle introduit la notion d’utilisateur final, permettant de distinguer l’internaute, personne physique ou morale fournissant du contenu sur les réseaux sociaux en tant que simple utilisateur, du prestataire ou professionnel. L’article 2, paragraphe 20, du DMA, définit l’utilisateur final comme « toute personne physique ou morale utilisant des services de plateforme essentiels autrement qu’en tant qu’entreprise utilisatrice », c’est-à-dire autrement que comme utilisateur professionnel.

La définition du DMA est ainsi suffisamment large pour tenir compte de la grande diversité des réseaux sociaux et de leur caractère protéiforme. La qualification de réseau social dépend en effet du critère de classification retenu : l’objet du réseau, sa taille, son modèle économique… L’encyclopédie participative Wikipédia, par exemple, doit-elle être considérée comme un réseau social ? Si la qualification d’une plateforme en ligne de réseau social relèvera, au cas par cas, de la compétence du juge, l’objet principal de Wikipédia consiste dans la mise à disposition auprès de ses utilisateurs finaux d’un service d’encyclopédie en ligne. La plateforme permet bien à ses utilisateurs de se connecter ainsi que de communiquer entre eux, via un réseau de discussion, mais cette fonctionnalité est accessoire. Cependant, le DMA ne distingue pas entre le caractère accessoire ou principal du service de réseau social mis à la disposition des utilisateurs finaux. Dès lors, toute plateforme offrant un tel service devrait entrer dans le champ de la définition, que le service soit accessoire ou principal, et Wikipédia pourrait être considéré comme un réseau social. Toutefois, le rapporteur note que, selon le Conseil d’État, l’article 3 du règlement sur les services numériques (DSA) ([25]) exclut de la définition des plateformes en ligne les services d’hébergement qui n’ont qu’une activité mineure et purement accessoire de stockage et de diffusion d’informations au public. Dès lors, les obligations à la charge des plateformes en ligne posées par le DSA n’ont pas vocation à s’appliquer à ces opérateurs. Parallèlement, pourraient être exclus du champ de la définition des réseaux sociaux les plateformes ne proposant des services de communication et de partage de contenus qu’à titre accessoire, comme Wikipédia. Le rapporteur juge cette interprétation de bon sens, pragmatique et opérationnelle.

S’agissant des services de messagerie, il semble que le DMA les ait exclus de la notion de réseau social. Les services tels que WhatsApp ou Telegram proposent à leurs utilisateurs des échanges cryptés, relevant donc du régime juridique des communications privées. Dès lors, il n’apparaît pas pertinent de les considérer comme des services de réseaux sociaux. Cependant, selon le Conseil d’État, il est particulièrement difficile de distinguer ces services des plateformes de réseaux sociaux, si l’on considère la nécessité de créer un profil, la possibilité de constituer d’importantes listes de diffusion, de partager des contenus, ou encore l’existence de certaines formes de modération. En l’état, les services de messagerie ne semblent pas inclus dans la définition du DMA, celui-ci définissant de façon spécifique (article 2, paragraphe 9), les services de communications interpersonnelles non fondés sur la numérotation. Par ailleurs, le DMA privilégiant une approche par service, les services des plateformes hybrides, c’est-à-dire qui fournissent plusieurs services, pourraient être soumis à plusieurs réglementations.

II.   les dispositions de la proposition de loi

Le présent article complète l’article L. 32 du code des postes et des communications électroniques (CPCE) afin d’y inscrire la définition des réseaux sociaux retenue par le DMA.

III.   La position du rapporteur

Le rapporteur estime que l’inscription de la définition des réseaux sociaux dans le droit national pourrait s’intégrer dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. En effet, le CPCE définit le régime applicable aux communications électroniques et confie à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (ARCEP) la régulation de ce secteur. Cette autorité n’a pas vocation à réguler les réseaux sociaux, cette responsabilité revenant à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

En application de l’article 288 du Traité sur le fonctionnement de l’Union européenne (TFUE), le DMA est obligatoire dans tous ses éléments et directement applicable dans tout État membre. Dès lors, l’inscription dans le droit français de la définition des réseaux sociaux retenue par le règlement pourrait sembler, en première approche, superfétatoire.

Cependant, le rapporteur juge cette transposition nécessaire pour des motifs de sécurité juridique. En effet, le Conseil d’État a insisté dans son étude annuelle précitée sur la nécessité de relativiser la portée de la définition des réseaux sociaux du DMA. Selon la haute juridiction administrative, cette définition pourrait être cantonnée à la seule application du DMA, dont l’objet est de réguler un marché et non l’ensemble des champs applicables aux réseaux sociaux.

IV.   Les modifications introduites par la commission

La commission a adopté l’amendement du rapporteur proposant d’inscrire la définition des réseaux sociaux issue du DMA au sein de l’article 1er de la LCEN.

 

*

Article 1er bis (nouveau)
Intégration de nouveaux contenus illicites dans les dispositifs de signalement des plateformes en ligne

Introduit par la Commission

Le présent article étend le champ des contenus illicites dont les réseaux sociaux doivent obligatoirement permettre le signalement.

À l’initiative de Mme Riotton (RE), présidente de la délégation aux droits des femmes et à l’égalité entre les hommes et les femmes, et plusieurs de ses collègues, la commission a adopté un amendement portant article additionnel après l’article 1er, suivant l’avis favorable du rapporteur.

Cet article additionnel modifie le troisième alinéa du 7 du I de l’article 6 de la LCEN, qui impose aux personnes dont l’activité est d’offrir un accès à des services de communication au public en ligne ou qui assurent, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournir par des destinataires de ces services, de concourir à la lutte contre les activités illicites mentionnées au même alinéa. Il s’agit :

 de l’apologie des atteintes volontaires à la vie, des atteintes volontaires à l’intégrité de la personne et les agressions sexuelles, de l’apologie des vols, des extorsions, destructions, dégradations et détériorations volontaires dangereuses pour les personnes, de l’apologie des crimes de guerre, des crimes contre l’humanité, des crimes de rédaction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, de la provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée, de la provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap (article 24 de la loi du 29 juillet 1881 sur la liberté de la presse) ;

 de la contestation de l’existence d’un ou plusieurs crimes contre l’humanité et de la négation, minoration ou banalisation de l’existence d’un crime de génocide, d’un crime de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou d’un crime de guerre (article 24 bis de la même loi) ;

 du harcèlement sexuel (article 222-33 du code pénal) ;

 du harcèlement scolaire (article 222-33-2-3 du même code) ;

– de la traite des êtres humains (article 225-4-1 du même code) ;

– des pratiques, comportements ou propos répétés visant à modifier ou à réprimer l’orientation sexuelle ou l’identité de genre, vraie ou supposée, d’une personne et ayant pour effet une altération de sa santé physique ou mentale (article 225-4-13 du même code) ;

– du proxénétisme (articles 225-5 et 225-6 du même code) ;

– du fait, en vue de sa diffusion, de fixer, d’enregistrer ou de transmettre l’image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique, le fait d’offrir, de rendre disponible ou de diffuser une telle image ou représentation et le fait de consulter habituellement des images pédopornographiques en ligne (article 227-23 du même code) ;

– du fait soit de fabriquer, de transporter, de diffuser par quelque moyen que ce soit et quel qu’en soit le support un message à caractère violent, incitant au terrorisme, pornographique, y compris des images pornographiques impliquant un ou plusieurs animaux, ou de nature à porter gravement atteinte à la dignité humaine ou à inciter des mineurs à se livrer à des jeux les mettant physiquement en danger, soit de faire commerce d’un tel message (article 227-24 du même code) ;

– du fait de provoquer directement à des actes de terrorisme ou de faire publiquement l’apologie de ces actes (article 421-2-5 dudit code).

Afin de lutter contre la diffusion de ces infractions, ces personnes doivent mettre en place, en application du quatrième alinéa du 7 du I de l’article 6, un dispositif facilement accessible et visible permettant à toute à toute personne de porter à leur connaissance ce type de données et rendre publics les moyens qu’elles consacrent à la lutte contre ces activités illicites. Le manquement à cette obligation est puni d’un an d’emprisonnement et de 250 000 euros d’amende.

Les auteurs de l’amendement ont avancé que plusieurs infractions massivement commises sur les plateformes en ligne n’étaient pas mentionnées à l’article 6 et ont proposé d’y remédier, en inscrivant au sein de ce dernier :

– les injures mentionnées à l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse ;

– le harcèlement conjugal (article 222-33-2-1 du code pénal) ;

– le harcèlement moral (article 222-33-2-2 du même code) ;

– le fait, au moyen d’un procédé quelconque, de porter volontairement atteinte à l’intimité de la vie privée d’autrui selon les modalités définies à l’article 226-1 du même code ;

– le fait de conserver, porter ou laisser porter à la connaissance du public ou d’un tiers ou d’utiliser de quelque manière que ce soit tout enregistrement ou document obtenu à l’aide de l’un des actes prévus par l’article 226-1 (article 226-2 du même code) ;

– le fait, en l’absence d’accord de la personne pour la diffusion, de porter à la connaissance du public ou d’un tiers tout enregistrement ou tout document portant sur des paroles ou des images présentant un caractère sexuel, obtenu, avec le consentement exprès ou présumé de la personne ou par elle-même, à l’aide de l’un des actes prévus à l’article 226-1 (article 226-2-1 du code pénal) ;

– le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention (article 226-8 du même code) ;

– le fait, par toute personne détentrice de données à caractère personnel à l’occasion de leur enregistrement, de leur classement, de leur transmission ou de toute autre forme de traitement, de détourner ces informations de leur finalité telle que définie par la disposition législative, l’acte réglementaire ou la décision de la Commission nationale de l’informatique et des libertés autorisant le traitement automatisé, ou par les déclarations préalables à la mise en œuvre de ce traitement (article 226-21 du même code) ;

– le fait, par toute personne qui a recueilli, à l’occasion de leur enregistrement, de leur classement, de leur transmission ou d’une autre forme de traitement, des données à caractère personnel dont la divulgation aurait pour effet de porter atteinte à la considération de l’intéressé ou à l’intimité de sa vie privée, de porter, sans autorisation de l’intéressé, ces données à la connaissance d’un tiers qui n’a pas qualité pour les recevoir (article 226-22 du même code) ;

– le fait de se livrer au chantage (articles 312-10 à 312-12 dudit code).

*

Article 2
Instauration d’une majorité numérique fixée à 15 ans pour l’inscription aux services de réseaux sociaux

Adopté par la Commission avec modifications

La rédaction initiale du présent article visait à contraindre les entreprises de services de réseaux sociaux à refuser l’inscription à leurs services des mineurs de quinze ans, sauf recueil exprès du consentement de l’un des titulaires de l’autorité parentale.

La rédaction issue des travaux de la commission prévoit l’obligation, pour les fournisseurs de services de réseaux sociaux, de mettre en place une solution technique de vérification de l’âge des utilisateurs finaux et du consentement des titulaires de l’autorité parentale certifiée par l’Arcom, qui élabore à cette fin un référentiel après consultation de la CNIL.  Le manquement à cette obligation est sanctionné par une amende ne pouvant excéder 1 % du chiffre d’affaires mondial.

I.   L’état du droit

A.   L’appréhension de la majorité numérique à travers le seul prisme du traitement des données à caractère personnel

L’article 8 du règlement général sur la protection des données personnelles (RGPD) ([26]) a instauré un cadre légal pour le traitement des données personnelles des mineurs, selon qu’ils sont âgés de seize ans ou plus.

L’article 8, paragraphe 1, dispose ainsi que « lorsque l’article 6, paragraphe 1, point a), s’applique, en ce qui concerne l’offre directe de services de la société de l’information aux enfants, le traitement des données à caractère personnel relatives à un enfant est licite lorsque l’enfant est âgé d’au moins 16 ans. Lorsque l’enfant est âgé de moins de 16 ans, ce traitement n’est licite que si, et dans la mesure où, le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l’égard de l’enfant. » Le traitement des données personnelles d’un mineur de plus de seize ans est donc considéré licite dès lors qu’il y a consenti.

En revanche, pour les mineurs de seize ans, le traitement n’est, aux termes du RGPD, licite que si, et dans la mesure où, le consentement est donné ou autorisé également par le titulaire de la responsabilité parentale à l’égard de l’enfant. Cette borne d’âge de seize ans n’est toutefois pas d’application inconditionnelle, puisque le règlement prévoit une possibilité de dérogation nationale : les États membres peuvent en effet fixer un âge inférieur à partir duquel le seul consentement du mineur suffit, à condition que cet âge ne soit pas inférieur à treize ans.

Il convient de noter que l’âge plancher de treize ans correspond également au seuil fixé par la législation fédérale américaine connue sous le nom de « COPPA » (Child’s Online Privacy Protection Act), adoptée dès 1998 et plusieurs fois révisée depuis. La COPPA impose de très strictes limitations au traitement des données personnelles des mineurs de treize ans et, si son application ne concerne a priori que les enfants états-uniens, la plupart des plateformes en ligne l’appliquent de façon mondiale, afin de se prémunir d’amendes. La COPPA a en effet permis à la Federal trade commission (Commission fédérale du commerce) d’infliger de sévères amendes aux plateformes ou services ne respectant pas les obligations énoncées ([27]).

La France a fait le choix de fixer à quinze ans l’âge auquel le mineur peut consentir seul au traitement de ses données à caractère personnel. Cet âge a été inscrit à l’article 45 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, dont le deuxième alinéa prévoit que « lorsque le mineur est âgé de moins de quinze ans, le traitement n’est licite que si le consentement est donné conjointement par le mineur concerné et le ou les titulaires de l’autorité parentale à l’égard de ce mineur ».

Aux termes du troisième alinéa, « le responsable de traitement rédige en des termes clairs et simples, aisément compréhensibles par le mineur, les informations et communications relatives au traitement qui le concerne. »

La conséquence de cette obligation de vérification du consentement conjoint au traitement des données personnelles par le mineur de quinze ans et l’un des titulaires de l’autorité parentale est le caractère illicite, par répercussion, de la souscription à des offres de service en ligne, dès lors que celles-ci entraînent le traitement de données, en l’absence d’un tel consentement.

B.   En l’état, une règle non applicable et non sanctionnée

Plusieurs raisons concourent à atténuer la portée des obligations posées par le RGPD et reprises dans la législation nationale : en pratique, la vérification de l’âge pour l’accès aux réseaux sociaux est très insuffisante, n’empêchant pas l’inscription de nombreux mineurs de quinze ans à l’insu des titulaires de l’autorité parentale. L’enquête annuelle 2021 de l’association Génération numérique a ainsi estimé à 44 % la proportion des 11-18 ans ayant déjà menti sur leur âge sur les réseaux sociaux ([28]). Par ailleurs, selon l’Observatoire de la parentalité et de l’éducation numérique (OPEN) et l’Union nationale des associations familiales (UNAF), 9 % des 7-10 ans se rendent sur les réseaux sociaux selon les parents, alors que les enfants déclarent être 28 % à le faire (cf. supra).

Il convient d’abord de noter que la marge d’appréciation laissée aux États membres dans la détermination de l’âge de consentement autonome au traitement des données personnelles (entre treize et seize ans) a conduit à l’adoption d’une pluralité de législations au sein de l’Union européenne. L’Allemagne et l’Irlande, par exemple, ont fait le choix d’un âge minimum de seize ans. D’autres États ont choisi l’âge plancher de treize ans, à l’instar de la Belgique, du Danemark, de la Finlande et de la Suède. D’autres, enfin, ont adopté une solution intermédiaire, comme la France. Ces disparités entre États membres ont fourni un argument réel aux plateformes, qui plaident la difficulté de se conformer au RGPD face à un cadre réglementaire aussi peu harmonisé au sein des États membres.

En septembre 2022, l’association Renaissance numérique a publié un rapport sur le contrôle de l’âge en ligne ([29]), dont deux des auteurs, Mme Justine Atlan, directrice générale de l’association e-Enfance, et Mme Annabelle Richard, avocate, ont été entendus par le rapporteur. Les auteurs du rapport constatent le caractère « très fourni » du cadre légal instaurant la nécessité d’un contrôle de l’âge pour accéder à divers services en ligne et cherchent à expliquer les raisons de sa mise en œuvre insatisfaisante. Outre le nécessaire équilibre entre la protection des mineurs en ligne et le respect des autres droits et libertés, notamment le respect de la vie privée, et les objectifs économiques des acteurs, le rapport pointe le « relatif manque d’homogénéité du cadre légal au niveau des États membres de l’Union européenne, qui rend complexe la mise en conformité ». D’après Renaissance numérique, ces disparités réglementaires constituent une difficulté pour les fournisseurs de services en ligne.

La CNIL, pour sa part, a fait part de sa réflexion au rapporteur : si elle convient qu’une harmonisation européenne pourrait avoir un effet incitatif sur les plateformes, elle considère qu’une action nationale n’est pas impossible. Selon elle, il suffirait de paramétrer les seuils à adapter à chaque législation, d’autres éléments propres à chaque État membre étant d’ailleurs déjà pris en compte par les réseaux sociaux, comme la langue ou la gestion du dépôt des cookies.

Dès lors, la France devrait-elle attendre la mise en place de solutions européennes fiables et interopérables de vérification de l’âge ? Le rapporteur ne le pense pas.

Le Comité européen de la protection des données (CEPD) ([30]) a jugé en 2018 qu’il découle de l’article 8 du RGPD que les responsables du traitement des données personnelles doivent « s’efforcer raisonnablement de vérifier que l’utilisateur a dépassé l’âge minimum de consentement numérique ; ces efforts devraient être proportionnels à la nature des activités de traitement et aux risques qui y sont liés. »

Selon le CEPD, la « nécessité de déployer des efforts raisonnables pour vérifier l’âge n’est pas explicite dans le RGPD, elle est sous-entendue de façon implicite, dès lors que si un enfant donne son consentement alors qu’il n’a pas atteint l’âge requis pour donner un consentement valable en son nom propre, le traitement des données sera illicite ».

La CEPD insiste sur la nécessité d’adopter, dans la mise en place de solutions techniques aux fins de vérifier l’âge des utilisateurs finaux, une approche proportionnée au risque encouru et à la nature des traitements de données personnelles envisagés. La CNIL partage cette analyse et établit une série de principes devant présider à la conception des systèmes de vérification de l’âge : proportionnalité, robustesse, minimisation des données collectées, simplicité, standardisation, intervention d’un tiers de confiance.

Il apparaît difficile d’évaluer le caractère raisonnable des efforts engagés par les plateformes, qui doivent être conciliés avec d’autres exigences telles que la liberté d’expression ou la protection des données à caractère personnel. Dans une communication de juillet 2022 ([31]), la CNIL a ainsi qualifié la vérification de l’âge en ligne de « sujet complexe porteur de risques importants pour la vie privée ». Les solutions techniques existantes sont imparfaites car aucune ne respecte les trois critères que la CNIL met en avant : fiabilité, couverture complète de la population, respect de la protection des données, de la vie privée des individus et de leur sécurité.

Au cours de son audition par le rapporteur, la CNIL a recommandé de mettre en place des solutions labellisées ou certifiées respectant des standards précis, à l’instar de ce qui est effectué pour les prestataires de vérification d’identité à distance (PVID), dont la certification est assurée par l’Agence nationale de la sécurité des systèmes d’information (ANSSI).

Aujourd’hui, il n’existe pas de solution technique réellement satisfaisante permettant de concilier efficacité et respect des principes susmentionnés. Les études menées par la CNIL mettent en avant deux écueils :

– les dispositifs pourraient être efficaces mais reposeraient sur une « collecte de données massive » ([32]), à l’instar de la reconnaissance faciale ;

– les dispositifs moins intrusifs, en particulier les simples déclarations, sont facilement contournés par les utilisateurs mineurs.

Plusieurs dispositifs sont à l’étude afin de dépasser ces difficultés. Au niveau européen, l’initiative euConsent, financée par la Commission européenne dans le cadre de sa stratégie pour un meilleur internet pour les enfants, travaille à la mise en place d’une infrastructure technique interopérable de vérification de l’âge et du consentement parental.

II.   les dispositions de la proposition de loi

L’article 2 de la proposition de loi renforce l’obligation de moyens dévolue aux services de réseaux sociaux, en prévoyant que ces derniers sont tenus de faire obstacle à l’inscription de mineurs de quinze ans à leurs services, sauf recueil exprès du consentement de l’un des titulaires de l’autorité parentale.

Il s’agit ici de se placer, non plus sur le terrain du traitement des données, mais de l’accès au réseau social lui-même.

Un décret en Conseil d’État devra déterminer les conditions dans lesquelles cette obligation est mise en place.

III.   La position du rapporteur

Le rapporteur juge nécessaire, au terme de ses travaux complémentaires, de faire évoluer la rédaction de l’article 2 afin d’améliorer la portée du dispositif :

– dans un souci de lisibilité du droit, le rapporteur propose d’inscrire le dispositif de l’article 2 au sein de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, au même titre que l’article premier ;

– l’affirmation de l’obligation pour les réseaux sociaux de vérifier l’âge des utilisateurs finaux et la réalité du consentement parental ne peut suffire en elle-même. L’article 8 du RGPD et l’article 45 de la loi de 1978 relative à l’informatique, aux fichiers et aux libertés, par exemple, posent un cadre clair et ne sont pourtant pas appliqués. Auditionnée, la CNIL a d’ailleurs estimé que ces dispositions n’avaient pas vocation à s’appliquer dans le cadre des traitements de données mis en œuvre à des fins d’inscription sur un réseau social. L’absence de consensus sur la meilleure solution technique de vérification de l’âge doit être prise en compte par le législateur, qui ne saurait inscrire dans la loi un système de vérification particulier, du fait de l’évolution rapide des technologies disponibles. Dès lors, le rapporteur propose de confier à la CNIL et à l’Arcom le soin de certifier les solutions techniques de vérification de l’âge et du consentement du ou des titulaires de l’autorité parentale mises en place par les réseaux sociaux, étant entendu que les réseaux sociaux seraient tenus d’utiliser lesdites solutions techniques. À cette fin, la CNIL et l’Arcom pourraient développer un référentiel et ainsi proposer aux réseaux sociaux les meilleures techniques disponibles en termes de fiabilité, de simplicité, de respect de la vie privée et de minimisation des données collectées. Suivant cette méthode, les systèmes déployés par les plateformes pourraient évoluer au fur et à mesure des progrès technologiques ;

– afin de renforcer le caractère effectif de l’obligation, le rapporteur propose que lorsqu’il constate qu’un service de réseau social n’a pas mis en place de solution technique certifiée aux fins de vérifier l’âge des utilisateurs finaux et le consentement du ou des titulaires de l’autorité parentale à l’inscription des mineurs de quinze ans, le président de l’Arcom adresse à ce service, par tout moyen propre à en établir la date de réception, une mise en demeure lui enjoignant de mettre en œuvre une solution technique certifiée. La personne destinataire de l’injonction disposerait alors d’un délai de quinze jours pour présenter ses observations. À l’expiration de ce délai, en cas d’inexécution de l’injonction, le président de l’Arcom pourrait saisir le président du tribunal judiciaire de Paris ;

– enfin, toute règle de droit devant être sanctionnée, le rapporteur propose que le fait pour tout fournisseur de service de réseau social de ne pas satisfaire à ses obligations de vérification de l’âge et du consentement du ou des titulaires de l’autorité parentale soit puni d’une amende de 100 000 euros.

IV.   Les modifications introduites par la commission

La commission a adopté l’amendement de rédaction globale du rapporteur.

Deux sous-amendements ont par ailleurs été adoptés :

 le premier, proposé par Mme Béatrice Piron (RE), introduit un nouvel alinéa à l’article, donnant la possibilité aux parents de demander la suppression du compte de leur enfant mineur jusqu’à la majorité civile de ce dernier. Ce sous-amendement a été adopté contre l’avis du rapporteur, qui a estimé qu’il n’était pas cohérent de permettre aux mineurs de plus de quinze ans de consentir seuls au traitement de leurs données personnelles, en application de l’article 45 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, et, dans le même temps, de permettre aux parents de demander la suppression du compte de leur enfant sans le consentement de ce dernier. De plus, cette mesure lui semblait de nature à créer des conflits entre le jeune adolescent et l’autorité parentale ;

– le second, déposé par Mme Emmanuelle Anthoine (LR), sanctionne d’une amende ne pouvant excéder 1 % du chiffre d’affaires mondial le fait, pour tout fournisseur de services de réseaux sociaux, de ne pas satisfaire à ses obligations de vérification de l’âge des utilisateurs finaux et du consentement des titulaires de l’autorité parentale. Ce sous-amendement a également été adopté contre l’avis du rapporteur, qui a jugé le montant de l’amende disproportionné.

*

Article 3
Instauration d’un délai de réponse aux réquisitions judiciaires

Adopté par la Commission avec modifications

La rédaction initiale du présent article vise à sanctionner les fournisseurs de services de réseaux sociaux s’abstenant de répondre, dans le cadre d’une enquête de flagrance ou d’une enquête préliminaire, à une réquisition judiciaire dans un délai de quarante-huit heures, d’une amende ne pouvant excéder 1 % de leur chiffre d’affaires mondial.

La rédaction issue des travaux de la commission adapte le droit national, de façon anticipée, au délai de dix jours, ramené à huit heures en cas d’urgence, prévu par le règlement européen dit « e-evidence ».

I.   L’état du droit

A.   Le régime des réquisitions judiciaires

Dans le cadre des enquêtes de flagrance, le régime des réquisitions judiciaires est prévu par l’article 60-1 du code de procédure pénale. Lorsque des réquisitions judiciaires ont lieu dans le cadre d’une enquête préliminaire, l’article 77-1-1 du même code s’applique. Les réquisitions judiciaires permettent à l’autorité judiciaire de réclamer de toute personne la communication d’informations qu’elle estime nécessaires pour la bonne conduite de ses enquêtes.

En application des articles 60-1 et 77-1-1 du code de procédure pénale, le procureur de la République, l’officier de police judiciaire, l’agent de police judiciaire ou l’agent d’enquête peut, par tout moyen, requérir de toute personne, de tout établissement ou organisme privé ou public ou de toute administration publique qui sont susceptibles de détenir des informations intéressant une enquête, y compris des informations issues d’un système informatique ou d’un traitement de données nominatives, de lui remettre ces informations, notamment sous forme numérique. Le secret professionnel ne peut lui être opposé sans motif légitime.

Le deuxième alinéa de l’article 60-1 du code de procédure pénale punit le fait de s’abstenir de répondre à cette réquisition dans les meilleurs délais et, s’il y a lieu, selon les normes exigées, d’une amende de 3 750 euros. Aux termes de l’article 77-1-1, la même peine est prévue pour les réquisitions judiciaires adressées dans le cadre d’une enquête préliminaire.

B.   Les injonctions de fournir des informations prévues par le DSA

L’article 10 du règlement sur les services numériques (DSA) ([33]) a introduit dans le droit de l’Union une nouvelle procédure relative aux injonctions de fournir des informations émises par les autorités administratives et judiciaires des États membres à l’égard des fournisseurs de services intermédiaires, sur la base du droit de l’Union ou du droit national ([34]). En application de cet article, dès réception d’une injonction de fournir des informations spécifiques concernant un ou plusieurs destinataires du service, le fournisseur de services intermédiaires informe, dans les meilleurs délais, l’autorité qui a émis l’injonction de la réception de cette dernière et de la suite qui y est donnée. Le dernier alinéa de l’article 10 du DSA précise que ces conditions et exigences sont sans préjudice du droit national applicable en matière de procédure civile et de procédure pénale.

C.   Les injonctions européennes de production et de conservation de preuves électroniques en matière pénale

Le futur règlement ([35]) relatif aux injonctions européennes de production et de conservation de preuves électroniques en matière pénale permettra une meilleure coopération entre les autorités judiciaires de l’Union. Pour rappel, une demande transfrontière d’obtention de preuves électroniques est formulée dans plus de 50 % des enquêtes pénales.

La proposition de règlement crée deux injonctions européennes de production et de conservation de preuves électroniques en cas de délit en ligne de dimension transfrontière. Ces injonctions pourront être émises par une autorité judiciaire d’un État membre afin de conserver ou de produire des données stockées par un fournisseur de services en ligne situé dans une autre juridiction et qui doivent servir de preuves dans le cadre d’enquêtes judiciaires ou de procédures pénales. Elles ne pourront être émises que s’il existe une mesure similaire pour la même infraction pénale dans une situation nationale comparable dans l’État d’émission.

Aux termes de l’article 7, « l’injonction européenne de production et l’injonction européenne de conservation sont adressées directement à un représentant légal désigné par le fournisseur de services aux fins de la collecte de preuves dans le cadre d’une procédure pénale ».

En application de l’article 8, ces injonctions seront signifiées aux fournisseurs de services de communications électroniques, réseaux sociaux, marchés en ligne, autres fournisseurs de services d’hébergement et fournisseurs d’infrastructures internet, tels que les registres d’adresses IP et de noms de domaine, ou à leurs représentants légaux le cas échéant, au moyen d’un certificat d’injonction européenne de production (EPOC) ou d’un certificat d’injonction européenne de conservation (EPOC-PR).

L’article 9 prévoit que dès réception de l’EPOC, « le destinataire veille à ce que les données requises soient transmises directement à l’autorité d’émission ou aux autorités répressives comme indiqué dans l’EPOC au plus tard 10 jours après la réception de l’EPOC, sauf si l’autorité d’émission indique les raisons d’une divulgation anticipée. » En cas d’urgence, le destinataire devra transmettre les données requises sans retard injustifié au plus tard huit heures après la réception de l’EPOC.

Enfin, l’article 13 prévoit que les États membres fixent des règles relatives aux amendes applicables aux violations des obligations prévues par le règlement et prennent toutes les mesures nécessaires pour garantir leur mise en œuvre. Le Parlement européen a souhaité que les États membres puissent prévoir des amendes pouvant s’élever jusqu’à 2 % du chiffre d’affaires mondial du fournisseur de services.

II.   Les dispositions de la proposition de loi

L’article 3 de la présente proposition de loi prévoit de modifier les articles 60-1 et 77-1-1 du code de procédure pénale afin de prévoir que les fournisseurs de services de réseaux sociaux répondent aux réquisitions judiciaires dans un délai de 48 heures, sous peine d’une amende ne pouvant excéder 1 % du chiffre d’affaires annuel mondial.

III.   la position du rapporteur

À l’issue de ses travaux et de son dialogue avec le Gouvernement, le rapporteur a fait évoluer son approche, dans le double souci de respecter au mieux le principe de proportionnalité, fondamental en droit pénal, et de veiller à la bonne articulation de la législation française avec le droit de l’Union.

Il apparaît en effet peu cohérent d’imposer aux services de réseaux sociaux de répondre aux réquisitions judiciaires dans un délai de quarante-huit heures alors que le futur règlement du Parlement européen et du Conseil relatif aux injonctions européennes de production et de conservation de preuves électroniques permettra aux autorités judiciaires de demander un accès auxdites preuves détenues par un fournisseur de services en ligne établi ou représenté dans un autre État membre dans un délai de dix jours ou, en cas d’urgence, de huit heures (cf. supra).

Dès lors, le rapporteur propose de modifier l’article 6 de la loi n° 2004-575 pour la confiance dans l’économie numérique, dont le premier alinéa du 1 du VI punit d’un an d’emprisonnement et de 250 000 euros d’amende le fait, pour une personne physique ou le dirigeant de droit ou de fait d’une personne morale fournissant un accès à des services de communication au public en ligne ou assurant, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de services, de ne pas déférer à la demande d’une autorité judiciaire d’obtenir communication de certains éléments ([36]).

À ce jour, aucune disposition n’impose aux fournisseurs de service en ligne de répondre aux demandes des autorités judiciaires dans un délai déterminé. Le rapporteur propose en conséquence d’anticiper l’application du règlement européen, dont l’article 25 prévoit une entrée en vigueur trois ans après sa publication au Journal officiel de l’Union européenne (JOUE), en modifiant l’article 6 de la loi de 2004 pour la confiance dans l’économie numérique. En cas de demande d’une autorité judiciaire française tendant à obtenir communication des éléments d’information mentionnés au II dudit article, tels que les informations personnelles et privées de l’utilisateur, les personnes dont l’activité est d’offrir un accès à des services de communication au public en ligne seront ainsi tenues de répondre dans un délai de dix jours suivant la réception de la demande ou, en cas d’urgence résultant d’un risque imminent d’atteinte grave aux personnes ou aux biens, dans un délai maximum de huit heures. Cette disposition constituerait donc un véritable progrès : si les représentants des réseaux sociaux ont assuré le rapporteur, au cours de leur audition, de leur coopération avec les services judiciaires, aucun n’a avancé de délai moyen de réponse hors les cas de lutte contre le terrorisme et contre la pédopornographie.

Cette solution présenterait en outre l’avantage de ne pas réserver de traitement particulier aux services de réseaux sociaux par rapport aux autres plateformes en ligne. Enfin, une peine d’un an d’emprisonnement et une amende de 250 000 euros étant déjà prévus par la loi, le rapporteur ne juge pas nécessaire de prévoir de peines plus lourdes. Pour rappel, ces sanctions punissent également le fait, pour les personnes offrant des services de communication au public en ligne, de ne pas mettre en place de dispositif de signalement des contenus illicites ([37]) et de ne pas concourir à la lutte contre la provocation à des actes terroristes ou l’apologie de tels actes et à la diffusion des images pédopornographiques ([38]). Il ne paraissait donc pas conforme au principe de proportionnalité, notamment au regard de l’objectif d’intérêt général attaché à la lutte contre le terrorisme et à la diffusion des images pédopornographiques, de prévoir des peines plus lourdes pour sanctionner l’absence de réponse aux réquisitions judiciaires.

IV.   Les modifications introduites par la commission

La commission a adopté l’amendement de rédaction globale du rapporteur, imposant aux personnes offrant un accès à des services de communication au public en ligne de communiquer aux autorités judiciaires les éléments demandés dans un délai de dix jours ou, en cas d’urgence résultant d’un risque imminent d’atteinte grave aux personnes ou aux biens, dans un délai de huit heures.

*

Article 4
Demande d’un rapport au Parlement sur les conséquences de l’utilisation des réseaux sociaux sur la santé des jeunes

Adopté par la Commission avec modifications

La rédaction initiale du présent article visait à demander au Gouvernement la remise au Parlement d’un rapport présentant les conséquences de l’utilisation des réseaux sociaux sur le bien-être et la santé mentale des jeunes, notamment des mineurs.

La commission a souhaité élargir les conséquences étudiées à celles de l’utilisation des plateformes en ligne et introduire dans le rapport l’étude des conséquences sur la santé physique et mentale des jeunes de la surinformation et de l’exposition aux fausses informations.

I.   le dispositif initial

L’article 4 de la proposition de loi est issu du constat du manque de données publiques sur les effets de l’utilisation des réseaux sociaux sur le bien-être et la santé des mineurs. Il s’avère indispensable de disposer de résultats d’études consolidés sur des cohortes robustes et dans la durée, afin de mieux mesurer les dangers qu’il s’agit de prévenir, ou les effets indésirables contre lesquels il convient de lutter.

Il existe des études, au niveau européen ou international, portant sur l’utilisation des réseaux sociaux par les enfants et adolescents et les conséquences sur leur bien-être. Le Royaume-Uni apparaît comme l’un des pays européens les plus en pointe sur le sujet avec notamment le rapport ([39]) sur l’utilisation des médias par les jeunes Britanniques âgés de 3 à 17 ans et sur la manière dont les parents contrôlent ou gèrent cet usage, publié en avril 2021 par l’Office of communications (équivalent de l’Arcom). Sur le sujet plus spécifique des réseaux sociaux, l’Ofcom indique ainsi que 42 % des enfants (entre 5 et 12 ans) interrogés déclarent avoir utilisé des sites ou applications de réseaux sociaux avant d’avoir atteint l’âge minimum requis. Selon l’Ofcom, une minorité de parents (30 %) autoriserait leurs enfants de moins de 13 ans à s’inscrire sur les plateformes de réseaux sociaux avant qu’ils aient l’âge requis. Parmi les conclusions de cette étude, l’autorité britannique observe que les niveaux de pression sociale voire de harcèlement sur les réseaux sociaux sont comparables à ceux observés dans la vie quotidienne, hors réseaux sociaux.

Une étude de l’OCDE ([40]) publiée en 2018 et issue de ses propres données et de celles de l’OMS, indique qu’une utilisation modérée des réseaux sociaux peut avoir un impact positif, notamment en améliorant le sentiment d’inclusion sociale, mais qu’une utilisation de longue durée s’avère néfaste. Elle génère en effet une dégradation du sommeil et de la santé mentale, augmente les risques de cyberharcèlement, peut provoquer des troubles de l’alimentation et de l’image de soi. L’OCDE dresse également une liste de recommandations, suggérant de former les enfants et les parents aux bonnes pratiques, d’encourager les industriels à restreindre leurs contenus à risque, et enfin de repérer les signes précoces des troubles de santé mentale chez les jeunes afin d’agir au plus vite.

Pour remédier au manque de données constaté au niveau national, le rapporteur préconise de conduire des études de cohorte, qui présentent plusieurs avantages, comme le relève la Digital parenting foundation ([41]) auditionnée dans le cadre de ses travaux. Ce type d’études permet en effet de suivre un grand nombre d’enfants, d’étudier des domaines variés (santé physique, mentale, relations sociales, usages numériques), de corréler les impacts aux expositions et de garantir une permanence et une robustesse méthodologique.

Le rapporteur estime que nous ne pouvons en rester au stade des intuitions ou suspicions, et que face au développement massif de ces usages, il convient de ne pas attendre de constater les dommages pour entamer de véritables travaux d’investigation et d’étude.

De réelles conséquences sur la santé des enfants sont déjà rapportées par les sondages et études conduits sous la houlette d’organismes comme l’Observatoire de la parentalité et du numérique et l’Union nationale des associations familiales : leur étude conduite en juillet 2021 avec l’entreprise Ipsos ([42]) montre ainsi que parmi les enfants interrogés, 43 % témoignent de maux de tête en rapport avec leur usage du numérique, et 42 % évoquent des difficultés d’endormissement.

L’association E-enfance dresse également une liste très préoccupante des risques liés à la surexposition aux écrans : problèmes de concentration, de mémorisation, troubles du sommeil, troubles du comportement et conséquences psychologiques (rupture du lien social, complexes, baisse de l’estime de soi, anxiété, stress, dépression) ainsi que physiques (fatigue oculaire, migraines, mauvaise posture, surpoids). Comme mentionné dans l’avant-propos, une étude suédoise récente fait le lien entre fréquence de l’usage des réseaux sociaux et prégnance des troubles mentaux chez les adolescents.

Or la surexposition aux réseaux sociaux est encouragée par le caractère très addictif de leur usage, particulièrement via les smartphones, comme en ont témoigné les associations de protection de l’enfance auditionnées par votre rapporteur. Des phénomènes comme les réveils nocturnes pour prendre connaissance des notifications sur les réseaux ou le contournement des méthodes de contrôle parental témoignent de cette incapacité croissante des jeunes à « lâcher-prise ». Les jeunes se trouvent pris dans des logiques compulsives comparables à celles des personnes dépendantes au jeu, et sont encouragés en cela par les mécanismes mis en place par les réseaux sociaux pour capter l’attention des utilisateurs et qui conduisent, comme exposé dans l’avant-propos, à des montées de dopamine similaires à celles ressenties par les joueurs. En outre, les algorithmes de recommandation ont pour effet d’ancrer les utilisateurs sur le réseau, en les inondant de contenus choisis selon leurs préférences et destinés à les retenir sur la plateforme.

Au-delà de cette addiction, le rapporteur estime indispensable de s’interroger sur les conséquences de cette fréquentation intense des réseaux sociaux sur l’estime de soi et la construction de l’identité pour des êtres encore en formation : ainsi, selon des documents internes du groupe Meta, 32 % des adolescentes ont déclaré que lorsqu’elles se sentaient mal dans leur corps, ce réseau les faisait se sentir encore plus mal ([43]). Ces situations alarmantes doivent être prises au sérieux par les pouvoirs publics, d’autant plus pourraient avoir des effets de long terme insoupçonnés une fois les jeunes générations parvenues à l’âge adulte.

C’est pourquoi l’article 4 vise à attirer l’attention du Gouvernement sur la nécessité d’opérer un travail de recherche et de synthèse des connaissances existantes quant aux conséquences de l’utilisation des réseaux sociaux sur le bien-être et la santé mentale des jeunes, notamment des mineurs. Ce travail constitue une dimension indispensable de l’élaboration de politiques publiques de sensibilisation et d’éducation au numérique, mais aussi de prévention des dangers des réseaux.

II.   les modifications introduites par la commission

Trois amendements ont été adoptés par la commission :

– un amendement de Mme Fabienne Colboc (RE) et plusieurs de ses collègues, étendant l’objet du rapport à l’ensemble des plateformes en ligne. Le rapporteur, souhaitant circonscrire le champ du rapport aux seuls réseaux sociaux, a donné un avis défavorable à cet amendement ;

 un amendement de Mme Violette Spillebout (RE) et plusieurs de ses collègues, tendant à introduire dans le rapport l’étude des conséquences sur les jeunes de la surinformation et de l’exposition aux fausses informations. Le rapporteur a donné un avis défavorable à l’adoption de cet amendement, la rédaction initiale de l’article 4 lui semblant suffisamment large pour inclure l’ensemble des dangers des réseaux sociaux sur la santé des mineurs, fausses informations comprises ;

– un amendement de M. Julien Odoul (RN) et plusieurs de ses collègues, substituant au mot : « bien-être » l’expression de « santé physique ». Cette proposition de modification rédactionnelle a reçu un avis favorable du rapporteur.

*

Article 5 (nouveau)
Remise d’un rapport au Parlement sur l’opportunité d’une fusion des numéros nationaux « 30 20 » et « 30 18 »

Introduit par la Commission

Le présent article vise à demander au Gouvernement la remise au Parlement d’un rapport sur l’opportunité d’un rapprochement entre les plateformes téléphoniques d’aide en ligne contre le harcèlement scolaire et le cyberharcèlement.

La commission a adopté, avec l’avis favorable du rapporteur, un amendement de M. Laurent Esquenet-Goxes (Dem) et plusieurs de ses collègues portant article additionnel après l’article 4, visant à demander au Gouvernement la remise d’un rapport au Parlement sur l’opportunité d’une fusion des deux plateformes distinctes œuvrant contre deux formes de harcèlement de plus en plus liées : le cyberharcèlement et le harcèlement scolaire. Un numéro unique pourrait faciliter l’identification d’un point d’entrée et de soutien unique et permettrait une meilleure mobilisation des moyens, grâce à l’élargissement des plages horaires qui pourrait résulter d’une mutualisation des services.

*

 


—  1  —

   Travaux de la commission

Lors de sa première réunion du mercredi 15 février 2023 ([44]), la commission procède à l’examen de la proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne (n° 739) (M. Laurent Marcangeli, rapporteur).

Mme la présidente Isabelle Rauch. Nous commençons nos travaux par l’examen de la proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne, dont M. Laurent Marcangeli est le rapporteur.

Elle sera débattue dans le cadre de la journée réservée au groupe Horizons et apparentés le 2 mars prochain.

M. Laurent Marcangeli, rapporteur. C’est avec plaisir que je me trouve aujourd’hui devant la commission des Affaires culturelles et de l’éducation, pour présenter ce texte dont l’origine remonte à mon élection, au printemps 2022. Se pencher sur le sujet des jeunes et des réseaux sociaux, devenu incontournable et préoccupant, m’avait alors semblé primordial.

Cette proposition de loi (PPL) aborde la question avec humilité mais non sans ambition et ce texte, sur lequel je travaille avec mon équipe depuis plusieurs mois, sera inscrit dès la première journée réservée à l’ordre du jour du groupe Horizons, dont j’ai l’honneur d’être le président.

Il me semblait nécessaire de lancer une initiative législative susceptible de provoquer ici une véritable discussion, pour que nous prenions pleinement part au débat public déjà engagé dans les grands médias comme au sein des familles.

Un véhicule législatif aussi modeste ne permet pas d’embrasser toute l’étendue des problématiques liées aux réseaux sociaux. La proposition que je soumets n’est pas infaillible et nous faisons face à des acteurs puissants. Mais j’espère apporter, avec votre concours, une pierre non négligeable à la construction d’une meilleure protection des jeunes sur les réseaux.

Le texte, qui se concentre sur les réseaux sociaux et que les auditions et consultations menées ont rendu plus opérationnel, peut permettre d’atteindre cet objectif grâce à un effort transpartisan. Nous ressentons tous l’urgence de ces enjeux. Dans notre pays, les enfants possèdent aujourd’hui un premier écran personnel à un âge moyen de 9 ans et 9 mois. Il ne s’agit pas de le déplorer ni de tenir un discours moralisateur ni de condamner des usages de plus en plus répandus parmi les jeunes. Cette position serait non seulement dépassée mais aussi inefficace.

Toutefois, il nous faut prendre conscience de la précocité croissante de cette puberté numérique et de la puissance des outils mis à la disposition de nos jeunes. Nous ne pouvons pas nous contenter d’en observer les potentiels dommages – ce que nous ne faisons pas toujours et la PPL vise aussi à remédier à cette lacune. Nous devons agir pour poser les garde-fous indispensables à la protection de nos enfants.

Nos sociétés sont désormais confrontées à un double défi de santé publique et de protection de l’enfance. Le constat posé par la Commission nationale de l’informatique et des libertés (Cnil) en 2021 est sans appel : nous assistons à la massification et à l’autonomisation des pratiques numériques chez les jeunes.

Ainsi, 82 % des enfants de 10 à 14 ans se rendent régulièrement sur internet sans leurs parents et ce chiffre s’élève à 95 % pour les jeunes de 15 à 17 ans. De plus, 70 % des enfants de tous âges regardent seuls des vidéos sur internet. Enfin, s’agissant des réseaux sociaux, la Cnil constate que la première inscription semble intervenir en moyenne à 8 ans et demi et que plus de la moitié des enfants de 10 à 14 ans y sont présents.

Les parents sous-estiment de façon structurelle les activités numériques de leurs enfants. L’Observatoire de la parentalité et de l’éducation numérique (Open) et l’Union nationale des associations familiales (Unaf), deux associations dont j’ai rencontré des représentants dans le cadre de mes travaux, fournissent à ce sujet des éléments de diagnostic inquiétants. Ainsi, selon les parents, les enfants de 7 à 10 ans et de 11 à 14 ans utilisent respectivement 1,9 et 3,2 réseaux sociaux en moyenne. Cependant, les enfants évoquent une présence sur 2,5 réseaux pour les 7 à 10 ans et sur 3,6 réseaux pour les 11-14 ans. Les jeunes sont massivement présents sur les réseaux sociaux et s’y inscrivent de plus en plus tôt. Or, si les réseaux peuvent constituer des espaces d’opportunités pour les jeunes utilisateurs, ils entraînent aussi des risques multiples.

Je mentionnerai d’abord le risque de la propagation des fausses informations et du complotisme, dont nous connaissons les impacts profonds sur la confiance dans les institutions et les conditions à la tenue d’un débat démocratique.

L’accès à des contenus problématiques, voire dangereux, entraine également des risques psycho-sociaux. Les mineurs n’accèdent pas à ces contenus seulement sur les sites pornographiques mais aussi sur les réseaux sociaux.

Il ne faudrait pas non plus négliger l’impact psychologique de contenus apparemment plus anodins, qui abiment l’estime de soi des adolescentes et adolescents. À cet égard, nous constatons une explosion des demandes de chirurgie esthétique formulées dans l’objectif de se rapprocher des images produites par les filtres offerts par les réseaux sociaux. Pire encore, des adolescents sont conduits au suicide par des algorithmes qui les enferment dans des spirales de contenus délétères et je veux avoir ici une pensée pour la jeune Molly Russel, dont le cas a fait grand bruit au Royaume-Uni.

Enfin, je voudrais mentionner le cyberharcèlement ayant lieu en milieu scolaire, dont les cas sont trop nombreux, dont la propagation ne connaît aucun répit et qui peut conduire à des drames, comme l’actualité nous le rappelle trop souvent.

La nature addictive des réseaux sociaux, inscrite dans leur modèle économique, doit nous pousser à mieux protéger les mineurs – particulièrement les enfants de moins de 15 ans – de ces potentiels effets néfastes, qui ne résument pas l’intégralité de l’expérience vécue dans ces espaces. Il s’agit pour chacun – parents, entreprises et jeunes – de prendre ses responsabilités. Dans cet objectif, les limites doivent être clairement posées ou rappelées, et leur dépassement doit être plus franchement sanctionné ; c’est le sens de cette PPL.

L’article premier vise à inscrire dans notre droit national la définition des réseaux sociaux récemment adoptée par l’Union européenne au sein du DMA (Digital Markets Act), le règlement relatif aux marchés numériques. Bien que le règlement soit d’application directe, cette inscription semble importante pour renforcer la sécurité juridique de son application et garantir son utilisation ultérieure dans d’autres champs que celui délimité par le DMA.

Cette définition, suffisamment large pour tenir compte de la grande diversité des réseaux sociaux, doit être reprise très fidèlement. Toutefois, les travaux menés m’ont conduit à vouloir modifier le lieu de son insertion dans le droit national, pour permettre de renforcer son caractère opérationnel et de mieux respecter les champs de compétences respectifs des différentes autorités de régulation. Je proposerai un amendement allant dans ce sens.

L’article 2 de la PPL vise à renforcer l’obligation de moyen à laquelle sont soumis les réseaux sociaux quant à la vérification des conditions d’âge et d’autorisation parentale pour les mineurs de 15 ans. Je défendrai un amendement proposant une nouvelle rédaction afin de garantir la pleine effectivité du dispositif, en l’assortissant notamment d’une sanction qui ne figurait pas dans le texte initial. Il s’agira également de mieux contrôler les dispositifs techniques de vérification utilisés par les réseaux sociaux en les soumettant à un référentiel élaboré par les autorités administratives compétentes. Ce deuxième article constitue le cœur de ma proposition : il vise à mettre un terme aux inscriptions de mineurs de 15 ans sur les réseaux sociaux quand une autorisation expresse d’un détenteur de l’autorité parentale n’a pas été donnée et n’a pas été sérieusement contrôlée par les réseaux.

L’article 3 de la PPL vise à mieux armer la justice dans sa lutte contre la haine en ligne. À cet effet, le texte initial prévoyait une sanction renforcée en cas d’absence de réponse des réseaux sociaux aux réquisitions judiciaires. Après avoir mené des auditions et consulté la Chancellerie, j’ai souhaité que cette sanction évolue pour que le dispositif soit mieux proportionné, plus efficace et conforme aux plus récentes évolutions du droit européen, dont elle conduira même à anticiper de trois ans la mise en œuvre. Ce sera le sens de l’amendement que je présenterai sur cet article.

Enfin, l’article 4 vise à demander un rapport au Gouvernement sur les conséquences de l’utilisation des réseaux sociaux sur la santé physique et mentale des jeunes. La littérature scientifique en la matière reste insuffisante, ce que l’Organisation mondiale de la santé (OMS) a récemment reconnu. Un rapport produit par le Gouvernement ne saurait se substituer à une production universitaire mais il s’agit d’appeler de façon solennelle à l’établissement d’un état des lieux des connaissances disponibles, qui pourra déboucher sur une nouvelle impulsion, favorisant le développement de publications scientifiques.

Il ne s’agit pas d’envisager les réseaux sociaux par le seul angle répressif, mais bien d’entamer ensemble une réflexion globale quant aux effets de leur fréquentation sur notre jeunesse et de préserver celle-ci des risques les plus patents, en posant de justes garde-fous. Par ailleurs, cette démarche devra s’accompagner d’efforts en matière d’éducation aux médias, sur lesquels reviendront aujourd’hui deux collègues.

Cette PPL peut constituer une réelle avancée pour mieux protéger les jeunes dans leurs usages des réseaux sociaux. Elle permettra aussi de mettre chacun face à ses obligations et à ses responsabilités. Je suis convaincu que cet enjeu peut nous rassembler de façon large et au-delà des clivages. Enfin, je vous remercie pour les nombreuses propositions d’amélioration du texte portées par vos amendements.

Mme la présidente Isabelle Rauch. Nous en venons aux interventions des orateurs des groupes.

Mme Béatrice Piron (RE). Je voudrais remercier le rapporteur de s’être emparé de cette question. Le constat est sans appel : 82 % des enfants de 10 à 14 ans se rendent régulièrement sur internet sans leurs parents. De plus, 63 % des enfants de moins de 13 ans ont au moins un compte sur un réseau social, alors qu’ils n’y sont pas autorisés. Nos enfants sont exposés de plus en plus précocement aux écrans et aux contenus inappropriés.

Depuis le dernier mandat, la majorité a déjà mis en place plusieurs dispositifs juridiques pour faire face à ces dérives. Ainsi, la loi relative à l’encadrement de l’utilisation du téléphone portable dans les établissements d’enseignement scolaire a été adoptée en 2018. En 2021, nous avons légiféré sur le harcèlement scolaire et les dangers du cyberharcèlement, dont l’actualité nous rappelle qu’il peut conduire à des drames. En 2022, nous avons facilité l’accompagnement parental sur internet grâce à l’installation par défaut de dispositifs de contrôle parental.

Nous avons également mis en place des enseignements numériques dans les écoles, collèges et lycées, aboutissant à des certifications telles que le permis internet ou Pix, afin de mieux éduquer et informer les jeunes. Par ailleurs, le Gouvernement a développé le site internet jeprotegemonenfant.gouv.fr, dans l’objectif de mieux informer et accompagner les parents quant aux usages de leurs enfants sur internet. Je mentionnerai aussi l’excellent travail fourni par des organisations comme e-Enfance, Open ou les associations de parents d’élèves. Enfin, l’année dernière, Adrien Taquet, alors secrétaire d’État chargé de la protection de l’enfance, a lancé les « campus de la parentalité numérique ».

Nous souhaitons insister sur le rôle très important des parents dans l’accompagnement de leurs enfants sur internet. Cependant, selon une enquête menée par e‑Enfance en 2021, 83 % des parents reconnaissent ne pas savoir exactement ce que font leurs enfants sur internet et 57 % d’entre eux affirment ne pas recourir à un dispositif de contrôle parental.

Il semble important d’améliorer encore la protection des mineurs sur internet et surtout sur les réseaux sociaux, où circulent fausses informations et contenus pornographiques, et où se pratique le cyberharcèlement.

Certains réseaux exigent déjà une autorisation parentale quand un jeune de moins de 15 ans cherche à créer un compte mais ils restent trop peu nombreux. Les réseaux qui ciblent surtout les jeunes, ne se sentant pas contraints par la loi, se satisfont trop souvent d’une simple déclaration de la date de naissance.

Bien qu’il n’existe pas encore d’outil technologique reconnu par tous pour contrôler l’âge des utilisateurs tout en respectant l’anonymat, des solutions émergent, reposant sur l’intelligence artificielle, pour estimer l’âge en fonction du visage. D’autre part, Jean-Noël Barrot, ministre délégué chargé de la transition numérique et des télécommunications, a annoncé la mise en place prochaine d’un dispositif de vérification efficace de la majorité, reposant sur des sites tiers, qui permettra de contrôler l’accès aux sites pornographiques.

Les différentes auditions menées vont conduire à améliorer la version initiale de cette PPL. Ainsi, l’article 1er visera à inscrire la définition des réseaux sociaux dans la loi pour la confiance dans l’économie numérique. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) deviendra l’autorité régulatrice en la matière.

Le rapporteur propose une nouvelle rédaction de l’article 2, qui précise comment seront développés les systèmes permettant de contrôler l’âge des utilisateurs des réseaux sociaux.

Enfin, le rapporteur proposera une nouvelle rédaction de l’article 3, qui sera plus cohérente avec les projets de régulation européenne et plus réaliste, afin de permettre le respect des délais en fonction des priorités.

Le groupe Renaissance votera en faveur de cette PPL.

M. Julien Odoul (RN). Depuis une vingtaine d’années, les réseaux sociaux ont envahi nos vies, parfois pour le meilleur – l’information, la communication et l’ouverture au monde – et parfois pour le pire quand la haine et la violence sont subies de plein fouet par les mineurs, les jeunes et parfois les très jeunes. À ce titre, rappelons que 93 % des enfants de 12 ans détiennent un compte sur un réseau social.

Si les parents exerçaient un contrôle plus strict, notamment avant l’âge minimum d’inscription de 13 ans, nombre de jeunes seraient protégés des dangers que représentent les réseaux sociaux, les contenus pornographiques, les défis stupides et dangereux, ainsi que le harcèlement en ligne. Le rapporteur l’a rappelé : il ne s’agit pas de faire la morale. Cependant, les parents n’exercent presque aucun contrôle et sont près de 80 % à déclarer qu’ils ignorent ce que font leurs enfants sur leur téléphone portable.

Chaque seconde, des millions d’images et de vidéos publiées sur TikTok, Instagram ou Snapchat sont à la portée d’enfants et d’adolescents qui sont en pleine construction intellectuelle. Les dangers sont avérés et les conséquences physiques et mentales sont lourdes, pouvant mener au suicide dans les pires des cas. Aucun enfant n’est préparé à subir la violence, surtout quand elle est gratuite et qu’elle s’exerce en ligne, au moyen notamment d’une masse de faux profils, derrière lesquels des individus tirent une satisfaction malsaine à harceler des jeunes en raison de leur physique, de leur handicap, de leur tenue vestimentaire ou de leur liberté d’expression. Nous nous souvenons tous du calvaire vécu par la jeune Mila.

Et puis il y a l’isolement. Paradoxalement, de nombreux adolescents se réfugient dans les réseaux sociaux et déclarent y trouver un certain réconfort. Mais derrière un univers virtuel et illusoire, se cache un monde rempli d’externalités négatives qui bouleversent leur quotidien. Dans certains cas, les jeunes voient leurs résultats scolaires chuter, ne lisent plus, ne pratiquent plus de sport, ne fréquentent plus leurs amis ni leur famille et se coupent du monde extérieur. Les réseaux sociaux ont un impact non négligeable sur la vie des jeunes. Vous le rappelez dans votre rapport, monsieur le rapporteur, près de 30 % des parents déclarent que leurs enfants ont déjà pensé au suicide et la majorité d’entre eux sont victimes de cyberharcèlement.

L’association e-Enfance, qui gère la ligne téléphonique 3018 pour les jeunes victimes de cyberharcèlement, alerte quant à la hausse du nombre de victimes. Ainsi, de janvier à septembre 2022, environ 25 000 cas ont été traités, contre 19 000 pour l’ensemble de l’année 2021. Par ailleurs, quatre appels sur dix sont liés à la sexualité : du chantage à la webcam au revenge porn, les filles sont plus exposées à ces violences que les garçons.

Le foisonnement des réseaux proposant des contenus obscènes et violents, dont l’accès n’est barré que par une invérifiable confirmation d’âge, expose indéniablement les mineurs. Pour remédier à ce problème, le Rassemblement national a proposé en 2022 de se donner les moyens de protéger les mineurs, notamment en imposant aux fournisseurs de systèmes d’exploitation d’intégrer un contrôle actif des contenus explicites et des applications soumises à un âge minimal, en exigeant par exemple un numéro de carte bancaire. C’est pourquoi notre groupe a déposé des amendements visant notamment à prémunir tous les mineurs contre le visionnage de contenus violents ou pornographiques.

Si la route est encore longue pour protéger durablement et efficacement les mineurs des effets pervers des réseaux sociaux, cette PPL représente une avancée indéniable et les députés du Rassemblement national la voteront.

M. Rodrigo Arenas (LFI-NUPES). Le monde change vite et le temps du rectangle blanc figurant sur nos écrans pour interdire aux jeunes l’accès à des programmes jugés néfastes semble bien lointain. Les choses s’emballent et bientôt, des enfants plus vrais que nature pourront faire tout et n’importe quoi sur nos écrans, puisqu’ils ne seront pas vraiment des enfants. En effet, les images virtuelles ont acquis un tel niveau de technicité qu’il devient impossible de faire la différence entre les images de personnes réelles et celles de synthèse. Il nous faudra donc faire preuve d’une grande imagination et d’une grande faculté prospective pour légiférer efficacement, tant nos lois et décrets, comme les écrans, deviennent vite obsolètes.

Nous sommes probablement toutes et tous d’accord sur les constats posés par l’exposé des motifs de cette PPL. L’addiction de nos enfants aux écrans est désormais programmée, pensée par des fabricants mercantiles et sans scrupule. Les réseaux sociaux font partie du quotidien de nos enfants et de nos adolescents, qui n’en sont pas suffisamment protégés. Les faits tragiques qui font la une de nos journaux nous en convainquent.

Notre responsabilité d’élus et d’adultes consiste à élaborer des réponses appropriées et des lois pouvant mettre en sécurité nos enfants. Pour ce faire, nous ne devons pas craindre d’être contraignants, exigeants et exemplaires. Quand la moitié de notre jeunesse déclare avoir déjà été victime de cyberharcèlement ou de cyberviolence, il parait important de légiférer, surtout pour contraindre les plateformes à mettre en place un arsenal de mesures pour protéger les mineurs, premières victimes de ces règles trop peu contraignantes.

La majorité numérique constitue une piste intéressante, même s’il n’est pas simple d’imaginer comment la mettre en place sans contrevenir au respect de la vie privée et en respectant les données sensibles des internautes. Il nous semble donc indispensable de renforcer la PPL en imposant aux plateformes des actions complémentaires.

Je voudrais attirer votre attention sur le rôle que doivent jouer les premiers protecteurs et éducateurs des enfants : les parents. Il leur revient en priorité de contrôler le temps passé devant les écrans et la nature des contenus consultés. L’impact de l’usage des écrans sur le développement physiologique des enfants doit nous préoccuper mais la régulation des contenus est cruciale. Elle passe en priorité par les parents des mineurs, qui doivent valider le contrôle de l’âge des jeunes s’inscrivant sur les plateformes, mais aussi informer leurs enfants et s’informer eux‑mêmes. Il apparaît que 80 % des parents ne savent pas ce que font leurs enfants quand ils naviguent sur la toile ; nous devons nous attacher à réduire ce chiffre énorme.

Les dangers que courent leurs enfants sont multiples mais, la plupart du temps, ils n’en sont pas informés. L’information doit être diffusée par les plateformes mais cela ne suffit pas. Des programmes pédagogiques doivent être développés au sein de l’école et s’adresser aux familles, aux enfants et parfois même aux enseignants, dans un esprit de co-éducation.

Il faut également que les parents puissent veiller aux échanges de leurs enfants et supprimer un compte quand ils estiment que les propos tenus dérapent. Si cette loi autorise les parents à inscrire leurs enfants sur Instagram, Snapchat ou TikTok avant que ceux-ci n’aient atteint leur majorité numérique, fixée à 15 ans, il leur faudra savoir repérer d’éventuels comportements d’addiction, de prédation ou de manipulation. Rappelons que 87 % des enfants français de 11 à 12 ans ont un compte sur un réseau social.

Cette PPL vise à assurer la sécurité des enfants mais il faut aller plus loin. Pour mettre en place la majorité numérique, il faudra trouver des procédés qui respectent la vie privée des mineurs et empêchent la diffusion voire la vente de données sensibles. Les mesures envisagées ne suffiront pas à elles seules à résoudre les problèmes graves qui se posent à nos enfants et adolescents lorsqu’ils usent et abusent des écrans. D’ailleurs, nous, les adultes, avons aussi du mal à en faire un usage raisonné.

Il faudra que les législateurs que nous sommes soient au moins aussi efficaces et inventifs que ces entreprises qui vendent du rêve à nos enfants, sans les prévenir que les usages addictifs peuvent rapidement tourner au cauchemar. Nous ne voulons pas d’une société entièrement vouée à la marchandisation des échanges sociaux, d’une jeunesse surconnectée, dépendante, anxieuse et entravée. Nous devons être prêts à assumer que des lois restrictives et coercitives s’imposent à ces entreprises, afin que nos enfants soient libres et heureux. Nous réserverons notre vote et nous déciderons en fonction de l’évolution des débats. Nous remercions le rapporteur d’avoir entrepris cette démarche.

M. Maxime Minot (LR). L’émergence des réseaux sociaux a fortement transformé les relations humaines, notamment chez les adolescents. Nous ne pouvons freiner cette évolution numérique et c’est bien là ce qui nous inquiète. Par ailleurs, l’utilisation des réseaux sociaux a été renforcée par la crise sanitaire et les nombreux confinements. Les jeunes ont fait de leur besoin d’être vus et reconnus une obsession, ils modifient leurs comportements et subissent les conséquences d’une société numérique basée principalement sur le paraître.

Faut-il nous inquiéter de cette omniprésence numérique dans la vie des adolescents ? Ces habitudes sont-elles la cause des problèmes que rencontrent les jeunes ? Votre exposé des motifs est formel : mauvaise santé mentale, manque de confiance en soi, troubles de la personnalité et dépression, notamment chez les adolescents, ne font que s’intensifier depuis l’apparition des réseaux sociaux. Ce problème de société n’est pas nouveau, de nombreuses voix s’en sont inquiétées et, après la crise sanitaire, plusieurs tribunes ont sonné l’alarme. Pourtant, les responsables politiques ont fait la sourde oreille et se retrouvent aujourd’hui confrontés à une situation qu’ils peinent à contrôler. Le contrôle doit être parental mais il doit aussi être imposé par la loi. À ce titre, cette PPL est importante.

Le philosophe et essayiste français Gaspard Koenig a mis en lumière ce problème, comparant l’addiction aux réseaux sociaux à la dépendance à l’alcool. Il observe que les adolescents ont des comportements similaires dans l’ivresse alcoolique et dans l’ivresse créée par les plateformes numériques : désinhibition, agressivité gratuite, insultes, facilité à la déprime, sensation de cohésion sociale ou d’isolement, euphorie, image de soi dégradée ou surestimée.

À cet égard, l’État doit jouer pleinement son rôle. Certes, toute personne majeure peut vivre librement sa vie, dans le respect de la loi. Toutefois, dans le cas de personnes mineures, l’État a un rôle à jouer, notamment en matière d’épanouissement intellectuel et social. Il faut donc imposer des règles comme celle de la majorité numérique, qui est actuellement de 13 ans pour les réseaux sociaux mais reste symbolique.

Si le groupe Les Républicains soutient pleinement ce texte, nous avons quelques inquiétudes et réserves. D’abord, il serait préférable de porter la majorité numérique proposée à 16 ans, afin de s’aligner sur les règles européennes et de revenir à la position défendue par la France dans le cadre des échanges autour de la création du règlement général sur la protection des données (RGPD).

De plus, nous nous interrogeons sur la responsabilité des plateformes. En effet, pour parvenir au respect de cette majorité numérique, vous comptez sur les opérateurs des réseaux sociaux ; comment imaginez-vous ce partenariat d’un point de vue légal ? Envisagez-vous un contrôle restrictif du respect de cette majorité au moyen, par exemple, de sanctions éventuelles ? Rien dans la PPL ne mentionne la partie technique de la vérification de l’âge et nous aimerions vous entendre sur ce sujet.

Malgré ces questions, notre groupe salue la volonté de se saisir d’un sujet de société crucial pour les générations à venir et soutiendra cette PPL.

M. Laurent Esquenet-Goxes (Dem). Je voudrais d’abord vous remercier de consacrer une partie de votre niche parlementaire à ce sujet essentiel.

Comme vous l’indiquez dans votre exposé, 80 % des parents déclarent ne pas savoir ce que font exactement leurs enfants sur internet. Le pire de ce que peut entraîner une surconnexion nous vient facilement à l’esprit et 20 % des jeunes ont déjà été confrontés à des situations de cyberharcèlement. Ce sont autant de vies fragilisées, de blessures durables qui minent réussite scolaire, confiance en soi et capacités de scolarisation. Ce sont autant de destins brisés et ce sont parfois des vies écourtées.

Les familles sont confrontées au mur d’un enfant qui refuse de parler et aux plateformes derrière lesquelles l’anonymat libère la cruauté, quand l’État court derrière de nouvelles pratiques toujours plus addictives.

Cependant, le numérique et les réseaux sociaux peuvent aussi constituer de formidables sources d’information, d’échanges, de découvertes et de rencontres. À ce titre, votre PPL est bienvenue puisqu’elle nous pousse à nous interroger sur cette dualité et questionne notre rapport aux réseaux sociaux, notamment pour les jeunes. Les pièges difficiles à éviter dont regorgent TikTok, Facebook, Instagram et Twitter sont plus nombreux encore pour une personne n’ayant pas encore atteint la maturité.

Mon groupe se réjouit du texte que vous proposez car il pose les bases raisonnables d’un contrôle exercé par les parents sur les activités de leurs enfants, tout en reprenant l’idée héritée du RGPD. En effet, à 15 ans, un adolescent peut commencer à s’autonomiser.

Alors que vous reprenez utilement une définition des réseaux sociaux que notre droit national doit enfin adopter, vous fixez également, avant cet âge de 15 ans, l’obligation de contrôler l’autorisation des parents avant toute inscription sur ces sites. Nous savons qu’il est difficile de concilier protection de nos enfants et faisabilité technique du contrôle de l’âge et du contrôle parental. Toutefois, les récentes annonces des ministres Jean-Noël Barrot et Charlotte Caubel nous montrent que des solutions existent. Aussi, nous nous réjouissons que vos amendements prennent en compte cette nécessaire conciliation en impliquant le développement d’une solution technique pour tous les acteurs institutionnels.

Vos travaux vous ont-ils permis d’entrevoir la faisabilité d’un contrôle, notamment en matière d’autorisation parentale ? La loi « Studer », visant à renforcer le contrôle parental sur les moyens d’accès à internet, avait posé l’an dernier le principe d’un contrôle parental, auquel nous sommes attentifs.

Nous souscrivons pleinement à l’article 3, qui transpose utilement une initiative européenne. Les plateformes doivent réagir rapidement aux sollicitations de la justice quand des contenus illicites sont signalés. Il apparaît utile de leur imposer une vigilance totale dans la loi.

Enfin, notre groupe défendra des amendements visant à lutter contre le harcèlement en ligne. Les réseaux sociaux constituent parfois des pièges, qui véhiculent de fausses informations et entrainent le dénigrement, en trompant notamment sur la réalité de ce qu’est un corps. Ils entraînent la haine des autres et de soi-même, poussés par des personnes pour lesquelles le cyberharcèlement n’est qu’un jeu dont elles saisissent mal les conséquences. Nous proposerons de donner une meilleure visibilité aux plateformes d’accompagnement des victimes de harcèlement lorsque ces dernières effectuent un signalement sur un réseau social. Nous souhaiterions également avoir plus d’informations sur l’utilité d’une fusion des numéros d’aide en matière de harcèlement scolaire et de violences numériques.

Nous soutenons pleinement cette PPL et espérons que nos débats permettront d’avancer encore pour mieux protéger nos enfants.

M. Inaki Echaniz (SOC). Nous le savons, 63 % des enfants de moins de 13 ans ont au moins un compte sur les réseaux sociaux, 70 % des enfants de tous âges indiquent regarder seuls des vidéos sur internet et la première inscription sur les réseaux intervient à l’âge moyen de 8 ans et demi. Les réseaux sociaux ont donc un impact fort sur la vie de nos jeunes, notamment sur leur santé mentale, et ce débat est bienvenu.

Cette PPL vise à fixer une majorité numérique et à contraindre les plateformes à coopérer quand des cyberdélits sont commis. Dans cette perspective, vous proposez de fixer à 15 ans l’âge à partir duquel un mineur peut s’inscrire seul sur les réseaux sociaux. Aujourd’hui, un mineur est considéré comme étant incapable de s’inscrire sur un réseau social mais capable de consentir à certaines fonctionnalités annexes sensibles, comme la géolocalisation ou l’enregistrement de cookies. Il est important de mettre fin à ce décalage entre législation et réalité.

La fixation de la majorité numérique prévue à l’article 2 est intéressante mais reste floue, n’étant assortie d’aucune garantie. Pourtant, la Cnil a émis plusieurs recommandations sur le sujet, suggérant par exemple d’encadrer la capacité d’agir en ligne des mineurs ou de les encourager à exercer leurs droits. Accompagner et encadrer la pratique des plus jeunes dans leur usage des réseaux sociaux nous semble davantage prioritaire que de fixer une majorité.

Il paraît même dangereux de généraliser une majorité numérique sans prévoir de garanties. De plus, cette PPL ne donne pas de précisions quant aux modalités de contrôle qui seront retenues. S’agira-t-il d’une simple déclaration ou d’une vérification d’identité ? Comment rendre efficiente cette disposition dans ces conditions ?

L’article 3 vise à renforcer notre arsenal juridique afin de contraindre les plateformes à répondre aux réquisitions judiciaires dans le cadre des plaintes déposées pour des cyberdélits. La contrainte des plateformes, au moyen d’amendes notamment, nous paraît une bonne chose. Cependant, ajouter une astreinte, indispensable à l’efficacité de cette contrainte, serait encore mieux. D’autant que cette astreinte est prévue par le DSA dans son article 76. Pour rappel, le champ des amendes est plus large dans le règlement européen puisqu’il englobe aussi les fausses informations fournies. Pourquoi ne pas suivre ces règles européennes qui semblent plus structurées que les nôtres ?

L’objet du texte est ambitieux mais les moyens prévus restent largement insuffisants. Le groupe socialiste s’abstiendra donc et reconsidèrera sa position en fonction des amendements adoptés.

Mme Agnès Carel (HOR). Lorsqu’un parent ou un proche offre un smartphone à un enfant, il ne mesure pas vraiment les dangers auxquels il l’expose, notamment en ce qui concerne les réseaux sociaux. Selon la Cnil, la première inscription sur un réseau se situe autour de 8 ans et demi et plus de la moitié des 10-14 ans sont déjà inscrits. Pourtant, ces canaux dits de divertissement et de création de liens ne sont pas inoffensifs. Ils sont responsables de nombreux troubles et produisent des conséquences pouvant devenir dramatiques.

L’addiction constitue l’un des principaux dangers qui guette les enfants quand ils sont surexposés, ce qui est souvent le cas. En découvrant les réseaux sociaux, l’enfant risque d’avoir accès à des contenus inappropriés pour son âge, ainsi qu’à des contenus mensongers ou trompeurs. Le jeune se retrouve seul devant son écran et visionne des images qui peuvent être violentes ou pornographiques, qui peuvent promouvoir l’usage de drogues ou de certaines dérives.

Malgré la politique que ces réseaux prétendent appliquer pour protéger la sensibilité de leurs utilisateurs, l’exposition à des contenus inadaptés reste bien réelle et permanente. Ainsi, l’algorithme de recommandation peut entraîner un jeune qui regarde un simple match de foot vers des images d’un match de boxe, d’un match de rue ou de bagarres, d’accidents de rue, de violences urbaines ou de meurtres.

De plus, les enfants peuvent entrer en contact avec des individus malveillants, voire avec de véritables prédateurs. Pour rester dans l’anonymat et contacter de jeunes mineurs, ces personnes ont recours à des stratégies variées comme l’usurpation d’identité. Les conséquences de ces rencontres peuvent virer au cauchemar.

Les réseaux sociaux peuvent aussi ouvrir la porte au cyberharcèlement, dont il résulte des blessures indélébiles menant parfois à des drames.

Souvent, les jeunes méconnaissent et comprennent mal les arborescences de ces réseaux. Ils ne mesurent donc pas le caractère intemporel de leurs publications, qui reviendront tôt ou tard les hanter, comme de véritables boomerangs. Dans leur vie amicale et affective, la notion de temporalité n’est pas non plus très présente. Ils pensent communiquer en vase clos avec leurs amis mais en tant qu’adultes, nous savons que les amis d’aujourd’hui peuvent devenir les ennemis de demain. Les photos partagées comme les nude pourront quitter le cercle intime et le piège se refermera sur eux, les entraînant dans la spirale infernale du manque confiance en soi. Si les notions de vie privée et d’intimité restent floues à leur âge, les conséquences de cette porosité sont difficiles à quantifier.

Les méfaits des réseaux sociaux ne sont pas toujours connus des parents, qui publient trop souvent des photos et des vidéos de leurs enfants, les exposant à la récupération des clichés par des individus malveillants ou des influenceurs, dans un but lucratif. Le contrôle parental constitue la pierre angulaire de la protection des jeunes mais les parents ne sont pas toujours conscients des dangers. Les enfants n’ayant ni la maturité ni le discernement nécessaires, il est urgent de reconsidérer l’âge auquel ils peuvent accéder aux réseaux sociaux.

Aujourd’hui, cet âge est fixé à 13 ans mais cette règle reste symbolique puisqu’en 2022, 62 % des moins de 13 ans possédaient un compte sur au moins un réseau. La loi informatique et libertés a déjà réhaussé la majorité numérique à 15 ans et la présente PPL, que défend le groupe Horizons, prévoit d’étendre cette majorité aux réseaux sociaux.

Cette PPL s’inscrit aussi dans une dynamique de responsabilisation des plateformes. Elle renvoie la question des procédés à développer pour assurer le respect de l’âge plancher à un décret du Conseil d’État. Par ailleurs, le texte vise à demander au Gouvernement la remise d’un rapport sur les conséquences de l’utilisation des réseaux sociaux sur le bien-être et la santé mentale des jeunes, les données demeurant très insuffisantes en la matière.

L’enfant doit être au centre de nos considérations et rester notre seule boussole. Il est donc urgent de prendre ce problème à bras-le-corps et je remercie Laurent Marcangeli d’avoir pris cette initiative, soutenue par l’ensemble de notre groupe.

Mme Francesca Pasquini (Écolo-NUPES). Il n’est pas simple de trouver la bonne recette pour protéger les enfants des dangers du numérique. Quel niveau de liberté leur accorder ? À quel point faut-il les encadrer pour assurer leur sécurité ? Qui doit prendre ces décisions ? Nos réflexions en la matière se poursuivront bien après l’examen de ce texte et bien au-delà de cette législature. Néanmoins, il est bienvenu que notre commission puisse débattre de ces questions.

Il faut distinguer la philosophie du texte et la capacité à appliquer les mesures proposées pour qu’elles produisent les effets escomptés. En ce qui concerne la philosophie, monsieur le rapporteur, vous indiquez que cette PPL pourrait représenter une avancée concrète, à même de faire reculer le cyberharcèlement entre jeunes, tout en mentionnant les nombreux risques auxquels les réseaux sociaux les exposent. En fait, ce texte ne semble pas tant se concentrer sur la lutte contre la haine en ligne que sur la question du juste niveau de la protection des mineurs sur internet.

En revanche, la question de la responsabilité des entreprises impliquées apparait beaucoup plus clairement. À cet égard, nous partageons votre volonté : il faut affirmer de manière positive dans notre droit les règles régissant l’usage des réseaux sociaux et redonner aux parents, dans le processus d’inscription, la place qu’ils devraient occuper, afin que les enfants puissent découvrir ces outils de façon plus sereine. Nous partageons aussi la volonté d’encadrer plus fermement les réseaux sociaux pour qu’ils respectent les dispositions qui les concernent.

J’en viens à la question de l’âge, qui va certainement nourrir les débats autour de ce texte. « La majorité numérique pour les réseaux sociaux est actuellement de 13 ans » : cette phrase tirée d’un article de presse récent reflète une idée presque communément admise et pourtant fausse. Cet âge plancher vient de la loi américaine Coppa (Children’s Online Privacy Protection Act) et n’a aucune existence en droit français. Il est incontournable de redonner à la majorité numérique déjà établie à 15 ans un cadre juridique lui permettant d’être correctement appliquée. À ce titre, nous sommes opposés à toute modification de cet âge dans le texte actuel.

En ce qui concerne les enjeux techniques, il n’aura échappé à personne que la solution envisagée n’existe pas encore. Nous aurons beau voter la PPL, la question restera entière, d’autant que nous avons besoin de deux solutions techniques. La première permettra de contrôler l’âge de tous les utilisateurs et la seconde de collecter le consentement du titulaire de l’autorité parentale.

Aux doutes concernant notre capacité à développer ces dispositifs techniques s’ajoutent des inquiétudes quant à la quantité de données collectées lors de ces vérifications. Le principe de minimisation de la Cnil enjoignant à limiter la collecte des données au strict nécessaire, la vérification du consentement des parents posera un défi de taille.

Enfin, des solutions similaires doivent être utilisées pour l’ensemble des acteurs et cela représente le plus grand défi auquel nous sommes confrontés à ce sujet. À cet égard, nous saluons l’amendement du rapporteur visant à réécrire l’article 2, afin de donner mandat à l’Arcom pour la certification des solutions identifiées.

Bien que ces questions techniques restent encore sans réponse, le groupe Écologiste partage la volonté du rapporteur de renforcer notre arsenal législatif. Pour que la protection des mineurs sur internet prévue par le RGPD soit enfin effective – particulièrement en matière de réseaux sociaux –, nous sommes favorables à ce texte qui vise à protéger les enfants en incitant au dialogue sur les usages numériques. Néanmoins, nous alertons sur le fait qu’une solution technologique ne saurait suffire à répondre à des questions si complexes. Nous vous invitons à considérer des mesures visant à renforcer l’apprentissage des bonnes pratiques numériques lors de l’examen en séance.

M. Frédéric Maillot (GDR-NUPES). La question de la haine en ligne est une plaie qui ne connait pas de frontière. L’assassinat du professeur Samuel Paty en fournit la preuve la plus récente et montre à quel point cette question reste sensible quand un simple commentaire, une vidéo ou un post peuvent abimer ou enlever des vies. Les smartphones et les réseaux sociaux ont donné un sens matériel au harcèlement. De plus, les réseaux constituent le terreau pour toutes les doléances et les invectives, et mettent souvent en confrontation des pans entiers de la communauté. À La Réunion, les appels à la haine sont monnaie courante et les réseaux sociaux servent de caisses de résonnance puissantes pour stigmatiser des individus, souvent des enfants.

Cette PPL contient des dispositions visant à lutter contre la haine en ligne et pose donc aussi la question du cyberharcèlement. À un moment où un collégien sur quatre a déjà été confronté une fois au moins à des situations relevant de cyberharcèlement, ne faudrait-il pas agir à la racine en imposant la censure aux plateformes dès lors que des propos haineux sont détectés, plutôt que d’agir a posteriori, quand les dégâts psychologiques ont déjà atteint nos jeunes ? Ne faudrait-il pas réduire les délais judiciaires ?

Par ailleurs, le cyberharcèlement laisse souvent les parents démunis. Quels leviers d’action utiliser afin de leur permettre de mieux protéger leurs enfants ?

M. Stéphane Lenormand (LIOT). Selon la Cnil, deux tiers des enfants de moins de 13 ans sont inscrits sur au moins un réseau social et la moitié des utilisateurs de TikTok ont entre 11 et 18 ans. Les risques liés à ces plateformes, qui touchent particulièrement les mineurs, sont nombreux : uniformisation des comportements, addiction, accès à des informations privées, influence de tiers, harcèlement, pédocriminalité et troubles comportementaux. Pourtant, les contraintes prévues par la loi de 1978 ou la RGPD demeurent inopérantes.

Officiellement, les réseaux sociaux réservent leur accès aux plus de 13 ans, comme on peut le lire ici : « Nous essayons de rendre Facebook largement accessible à tous mais vous ne pouvez pas utiliser Facebook si vous avez moins de 13 ans ».

Le groupe Libertés, Indépendants, Outre-mer et Territoires partage les préoccupations du rapporteur et salue l’existence de cette PPL, qui aborde un problème de société très important, auquel nous devons tenter d’apporter rapidement des premières solutions.

Néanmoins, nous nous interrogeons sur certains aspects du dispositif et saluons les propos du rapporteur quant à la perfectibilité du texte. En ce qui concerne le premier article, il nous paraît nécessaire de préciser ce que comprend la définition des réseaux, au-delà des plateformes connues que sont Facebook, Instagram, TikTok et Snapchat. Les forums et les plateformes de jeux vidéo sont-ils intégrés ? La question est d’importance, les utilisateurs d’un même jeu vidéo constituant de véritables communautés qui s’étendent au-delà de la pratique du jeu, au moyen de logiciels tels que Discord ou Stream.

S’agissant de l’article 2, je m’interroge sur l’effectivité de la majorité électronique, les jeunes sachant contourner avec facilité les procédures de demandes d’autorisation parentale. Ces jeunes peuvent par exemple transmettre un scan de photocopie de la carte d’identité d’un parent. Le Conseil d’État ne pourrait-il pas exiger d’autres moyens dans son décret afin de vérifier l’accord parental ? Il s’agit d’un élément clé de l’efficacité du dispositif.

Cependant, même si nous réussissions à trouver un moyen satisfaisant, les jeunes pourraient se connecter grâce à une adresse IP située hors de France. Or ces nouvelles obligations ne s’appliqueront pas aux versions étrangères des plateformes, ce qui représente une faille dans le dispositif, qu’il sera difficile d’éviter.

À ce titre, nous regrettons qu’aucune sanction spécifique en cas d’absence de l’accord parental ne soit prévue par la PPL. Notre groupe soutient donc un amendement visant à pallier ce manque.

Par ailleurs, il ne suffit pas de vérifier que l’inscription soit en règle mais il faut aussi contrôler l’activité du compte, contrôler les comptes déjà existants et le faire de façon particulièrement drastique pour les utilisateurs de moins de 13 ans. Nous avons déposé un amendement allant en ce sens.

Enfin, l’article 3 prévoit bien la réquisition des réseaux sociaux dans la lutte contre la haine en ligne et pas seulement la protection des mineurs. La PPL pallie un manque du droit actuel en précisant les délais dans lesquels la plateforme doit transmettre les informations demandées. Quel est le montant minimum de l’amende prévue en la matière ?

M. Laurent Marcangeli, rapporteur. Je commencerai par mentionner que Le Parisien évoque aujourd’hui la question de la chirurgie esthétique chez les jeunes, venant ajouter un nouvel article aux nombreux qui sont déjà parus récemment en la matière. Nous sommes confrontés ici à un sujet de société majeur, à un sujet politique, au sens étymologique du terme.

Il ne s’agit pas pour autant de tout révolutionner : cette PPL représente une petite brique, posée avec humilité dans le cadre d’une niche parlementaire. Elle ne pourra pas embrasser l’ensemble des sujets concernés. À cet égard, certains m’ont demandé pourquoi nous avions décidé de resserrer le champ du texte sur les réseaux sociaux. Nous avons fait un choix délibéré, les réseaux sociaux occupant une place prépondérante dans notre société, même si d’autres espaces jouent aussi un rôle important comme les forums, le jeu en ligne ou la pornographie, au sujet de laquelle une loi a été votée récemment.

Il serait mal venu pour les responsables politiques que nous sommes de cracher sur les possibilités offertes par les réseaux sociaux que nous utilisons fréquemment. En revanche, tous les acteurs doivent être placés devant leurs responsabilités.

La première responsabilité incombe aux pouvoirs publics, qui doivent se donner les moyens de pouvoir encadrer les choses. Vous avez cité Gaspard Koenig, que j’ai rencontré dans le cadre de la phase de réflexion ayant précédé la rédaction du texte. Cet homme libéral, au sens premier du terme, avait écrit dans une note publiée sur son blog qu’il fallait interdire les réseaux sociaux aux mineurs. Il allait donc au-delà de ce que je propose. Quand je l’ai rencontré, je lui avais demandé comment un homme aussi libéral pouvait prôner ce type de mesures, ce à quoi il avait répondu qu’être libéral nécessitait aussi de fixer des règles. En effet, il ne saurait y avoir de libertés sans qu’elles soient encadrées. Notre problème consiste précisément à définir ces limites de façon juste et le curseur est difficile à placer.

Nombre d’entre vous se sont posé la question de l’âge et j’aurai l’occasion de répondre en détails lorsque nous débattrons des amendements. Cependant, je voudrais déjà rappeler que nous ne sommes pas tenus par des règlements étrangers mais qu’un certain nombre d’éléments règlementaires et légaux, appartenant notamment à la nomenclature internationale, nous font pencher vers le choix de l’âge ici proposé.

J’ai également entendu vos interrogations légitimes quant à la faisabilité technique du contrôle. Je ne pense pas qu’il soit du ressort du législateur d’inclure une recette miracle dans le texte. En effet, la loi ne sera pas infaillible et des techniques permettent de contourner les procédés existants. Par ailleurs, des réflexions sont en cours en la matière. Dans le cas de l’accès à la pornographie, par exemple, l’adoption de la loi de 2020 a été suivie d’évolutions rapides. Pour assurer la faisabilité technique des mesures prévues par la PPL, je souhaite m’abriter derrière des organismes existants, en lesquels nous sommes censés avoir confiance : l’Arcom et la Cnil. Ensuite, un décret du Conseil État viendra préciser les choses.

J’en viens à la question importante des fournisseurs d’accès, que je n’ai pas mentionnée dans mon propos introductif. Qu’il s’agisse d’un abonnement téléphonique ou d’un abonnement internet, il faut être majeur pour avoir la possibilité de signer un contrat. Les mineurs doivent donc être représentés, ce qui est important. Par ailleurs, nous devons nous poser la question de la responsabilité de nos quatre fournisseurs d’accès, qui joueront un rôle prépondérant dans la régulation.

Je voudrais enfin rappeler quelques éléments. D’abord, il ne s’agit pas de tenir un discours moralisateur sur la question.

Ensuite, je veux remettre les parents au cœur du dispositif et le débat suscité par cette PPL a vocation à interpeller les consciences. On ne peut rester inactif alors que chaque semaine, chaque mois, des faits divers nous rappellent l’importance de ce sujet de société.

Par ailleurs, je ne souhaite pas déclarer la guerre aux opérateurs mais les placers devant leurs responsabilités. Ces opérateurs économiques tirent un bénéfice du service qu’ils produisent et doivent assurer une protection minimale à celles et ceux qui y ont recours. Les sanctions prévues en cas de manquement doivent être justes et proportionnées, ce dont nous débattrons lors de l’examen des amendements.

Enfin, je voudrais rappeler le caractère essentiel de notre culture scientifique en la matière, qui est encore défaillante. Une première génération de jeunes adultes, qui sont déjà parents parfois, a grandi avec les réseaux sociaux. Or j’ignore l’influence que ces réseaux exercent sur leur vie quotidienne. Nous serons encore confrontés à des évolutions technologiques majeures et les réseaux tels que nous les connaissons seront bientôt complètement dépassés ; il faudra encore s’armer de nouveaux outils.

Cette loi constitue un premier pas, une brique qui composera un édifice plus large, qu’il s’agit de construire aux niveaux national, européen et mondial, puisque internet ne connait pas de frontières. Plutôt que de laisser les opérateurs et le monde très vaste d’internet créer leurs propres lois et vivre selon leurs propres usages, nous avons la responsabilité de nous interroger, de débattre et de proposer des solutions, même de façon modeste.

Mme la présidente Isabelle Rauch. Nous en venons aux questions des autres députés.

Mme Véronique Riotton (RE). Dans le cadre de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes, nous avons établi le lien entre l’utilisation d’internet et le risque d’être exposé à des violences sexuelles et sexistes en ligne, particulièrement pour les jeunes filles. Nous avons organisé un colloque à ce sujet au mois de novembre, au cours duquel nous avons entendu des témoignages poignants de victimes.

Des comptes sont créés dans le seul but de diffuser des photos et des vidéos intimes de filles et de femmes, parfois dénudées. Les noms et numéros de téléphone des victimes sont également divulgués, sans leur consentement. Ces comptes sont appelés « fisha » et génèrent l’un des nombreux types de cyberviolences sexistes et sexuelles, qui s’exercent majoritairement à l’encontre des femmes et des jeunes filles. Peu d’entre nous connaissent ce phénomène mais, pour lutter contre la haine en ligne, il paraît d’abord important de pouvoir nommer les choses.

Monsieur le rapporteur, comment lutter efficacement contre cette haine en ligne ?

M. Quentin Bataillon (RE). Ce sujet de société majeur pose une question difficile : jusqu’où la loi doit-elle aller dans les familles ? Au sein de notre groupe, nous considérons qu’il faut informer les jeunes comme les parents et donner des outils à ces derniers pour les aider sans les déposséder de l’autorité parentale, comme nous l’avions fait dans le cadre de la loi « Studer ». Je souhaiterais connaître votre avis sur ce juste équilibre entre besoins de légiférer, d’apporter du soutien aux familles et de ne pas les déposséder de leur autorité vis-à-vis de leurs enfants.

Mme Ségolène Amiot (LFI-NUPES). Les parents ne peuvent porter seuls la responsabilité de ce que leurs enfants font et voient sur les réseaux sociaux, quand on sait que 80 % d’entre eux déclarent l’ignorer.

Les grands groupes numériques ont créé des monstres qu’ils ne contrôlent plus et qui ouvrent la voie au cyberharcèlement, à l’expression du racisme et du sexisme, à la haine en ligne, à la pédocriminalité, aux contenus ultra-violents, à la LGBTQIAphobie, aux fake news, au revenge porn, etc. Ces phénomènes ont un impact d’une violence extrême sur les jeunes esprits, représentent un problème de santé publique et aboutissent parfois à l’irréparable.

Il revient aux élus que nous sommes de poser un cadre légal et opérationnel, et de contraindre ces entreprises à le respecter enfin. Nos enfants doivent être vus pour ce qu’ils sont, pas comme des consommateurs cibles à rendre accrocs.

Vous ne proposez pas de véritable réponse opérationnelle et laissez les plateformes expérimenter leurs propres solutions sous l’œil de l’Arcom, sans sembler tenir compte de l’urgence que vous soulignez pourtant. Ne serait-il pas plus pertinent de travailler collectivement sur ce sujet, afin de produire un texte plus abouti techniquement ?

Mme Annie Genevard (LR). De nombreux collègues ont évoqué les dangers d’un usage non contrôlé des réseaux sociaux : isolement, dépendance, perte de sommeil, exposition aux prédateurs et à la pornographie, harcèlement scolaire, emprise grandissante des influenceurs.

Sous chaque législature, nous légiférons sur cette question de l’invasion des réseaux sociaux et de la haine en ligne. Cette hyper-législation nous oblige à aller toujours plus loin mais en vain, puisque nous ne parvenons pas à contrôler les dérives liées à l’usage de ces plateformes ; quel regard le législateur que vous êtes porte-t-il sur ce sujet ?

Mme Fabienne Colboc (RE). L’article 4 vise à demander au Gouvernement la remise d’un rapport sur les conséquences de l’utilisation des réseaux sociaux sur le bien-être et la santé mentale des jeunes, notamment des mineurs. Si votre PPL se concentre sur les réseaux sociaux, élargir le champ du rapport aux plateformes en général permettrait notamment de prendre en compte les plateformes de vidéos, qui sont utilisées comme des réseaux sociaux par les jeunes et comportent de nombreux risques. Cet élargissement vous semble-t-il envisageable ?

Mme Graziella Melchior (RE). L’interdiction des réseaux sociaux aux mineurs de 15 ans apporte une réponse claire et ferme, qui responsabilise les plateformes comme les parents, qui sont parfois un peu perdus face à ce phénomène.

Les réseaux favorisent l’intimidation, l’humiliation, l’incitation à la haine et la propagation de rumeurs. Ils constituent des vecteurs libérant chez les jeunes les pires discriminations fondées sur la race, le genre, le handicap ou l’aspect physique. Ainsi, entre 20 et 40 % des enfants disent avoir été victimes de harcèlement. Selon une chercheuse, 72 % des cyberharceleurs seraient également des cybervictimes. Quelles réponses supplémentaires comptez-vous apporter pour lutter contre ces phénomènes ?

Je voudrais enfin profiter de cette intervention pour appeler chacun à une plus grande vigilance. Que l’on soit enfant ou parent, victime ou témoin, il existe un numéro à contacter : le 3020.

M. Alexandre Portier (LR). Deux axes semblent essentiels pour renforcer cette PPL : la cohérence juridique et l’efficacité pratique et technique. Sur le premier point, pourquoi ne pas porter la majorité numérique à 16 ans pour nous aligner sur la règlementation européenne et sur la position initialement tenue par la France lors des discussions sur le RGPD ? De plus, cet âge est celui auquel l’émancipation devient juridiquement possible. Cet alignement permettrait de mieux protéger les données relatives aux jeunes et de rappeler la responsabilité parentale jusqu’à cet âge.

J’en viens à l’efficacité pratique et technique. Nous proposons des amendements visant au développement d’une solution de vérification en ligne, via un tiers indépendant. Cette solution, qui ne serait pas à mettre en place dans le cadre légal, donnerait au ministre compétent la possibilité de veiller à la bonne application de la mesure. Cette idée semble partagée par le ministre Jean-Noël Barrot que nous avons auditionné hier, dans le cadre de la délégation aux droits des enfants. Nous pourrions donc trouver un consensus sur ce sujet. Accepteriez-vous cette proposition ?

Mme Violette Spillebout (RE). Je vous remercie, monsieur le rapporteur, pour cette PPL qui s’appuie sur le principe d’une autorité parentale réaffirmée pour protéger nos enfants des dangers des réseaux sociaux.

Vous avez insisté sur la sensibilisation des parents et sur la diffusion d’informations à caractère pédagogique, qui doivent aider les enfants à naviguer en toute sécurité. Vous avez aussi souligné les enjeux de santé publique, de citoyenneté et d’éducation, qui concernent l’ensemble des familles comme des adultes en formation. Pourtant, de nombreux parents restent dépassés par les réseaux sociaux et leurs effets sur les enfants. Comment comptez-vous rendre cette loi opérationnelle ? Comment la faire connaitre des parents et faire d’eux des acteurs éclairés face à ces défis ? Comment vérifier que les plateformes se mettront en ordre de marche pour valider les autorisations parentales ?

M. Belkhir Belhaddad (RE). Cette PPL a le mérite de faire de ce sujet de société un objet de débat. Par ailleurs, je salue vos propositions.

Vous indiquez qu’il parait difficile d’évaluer les efforts engagés par les plateformes, qui doivent aussi prendre en considération d’autres exigences, telles que la liberté d’expression ou la protection des données à caractère personnel.

Dans l’article 4, vous mentionnez les effets néfastes d’un temps long passé devant les écrans et nous savons que la sédentarité représente un mal dans notre société, dont le coût s’élève à 17 milliards d’euros.

Le titre de la PPL évoque la lutte contre la haine en ligne et vous proposez dans l’article 3 l’instauration d’un délai de réponse aux réquisitions judiciaires sous 48 heures ; en quoi cette proposition pourrait-elle être efficace ? Ne faudrait-il pas réduire ce délai dans des circonstances graves ou dans des cas de menace imminente ?

Mme Emmanuelle Anthoine (LR). Nos enfants, qui acquièrent leur premier smartphone de plus en plus tôt, sont plus précocement exposés au cyberharcèlement. Pour tenter de remédier à ce fléau, notre assemblée a adopté en 2022 la loi visant à combattre le harcèlement scolaire. Ce texte prévoit notamment de renforcer les obligations des plateformes numériques. Les acteurs d’internet, sites et fournisseurs d’accès sont ainsi censés modérer les contenus des réseaux sociaux et répondre à des objectifs fixés. Cette loi, qui est en lien direct avec le texte que nous étudions aujourd’hui, est-elle efficace ? Envisagez-vous de proposer des dispositions permettant d’améliorer l’efficacité de la lutte contre le cyberharcèlement scolaire ?

Mme Marie-Pierre Rixain (RE). L’outil numérique semble n’être qu’un accélérateur de haine, comme tout nouvel outil de communication. À cet égard, il nous faut considérer le niveau de haine qui s’exprime dans notre société, voire dans nos débats parlementaires.

Cependant, l’outil numérique peut aussi permettre de prendre conscience des réalités et peut offrir aux jeunes des espaces pour échanger et exprimer leur solidarité. L’adolescence est un moment d’identification, pendant lequel une stigmatisation peut être ressentie et une haine s’exprimer, à l’égard de la différence en matière de genre, d’origine sociale ou de handicap. Comment responsabiliser les acteurs pour qu’ils fassent de l’outil numérique un outil vertueux pour notre jeunesse ?

M. Laurent Marcangeli, rapporteur. Madame Riotton, vous avez demandé comment lutter efficacement contre la haine en ligne et avez déposé un amendement auquel je donnerai un avis favorable. La loi ne peut pas tout dire. Elle doit fixer des caps et des limites, apporter des précisions mais les politiques publiques doivent consentir des efforts en matière de prévention et d’éducation en milieu scolaire. À ce sujet, je rappelle que l’exposition aux écrans commence parfois à l’école, quand l’enfant se retrouve pour la première fois face à une tablette. La lutte contre la haine en ligne est aussi une question d’éducation et nous en revenons à la responsabilité parentale, qui me semble essentielle. Le cœur de cette PPL consiste à mettre les parents au centre du dispositif.

Lutter contre la haine en ligne passe aussi par la création de mécanismes de sanction, qu’il faut faire respecter. Des questions de délais de réponse se posent en matière de saisine des autorités. À cet égard, j’ai placé le curseur sur 48 heures, prenant en considération l’existence d’autres priorités comme les faits de terrorisme, qui nécessitent des délais plus brefs. Par ailleurs, il existe des différences en matière de délai entre enquête de flagrance, information judiciaire ou instruction.

Pour lutter contre la haine en ligne, il faut nous doter d’outils qui résident non seulement dans la loi mais aussi dans les pratiques, dans les politiques publiques et dans l’éveil des consciences. Ce texte a pour objectif de communiquer le plus possible afin d’éveiller davantage les consciences sur les dangers des réseaux sociaux et les réponses qu’on peut y apporter.

Des lois ont déjà été adoptées et cette PPL constitue une brique, qui n’a pas vocation à régler seule le problème. Aujourd’hui, vous m’accompagnez pour améliorer ce texte et, demain, d’autres initiatives verront le jour car le domaine dont nous parlons ici est en mouvement permanent. Il n’y aura pas de recettes miracles, mais il nous faut rappeler certains principes et valeurs et c’est aussi l’enjeu d’une niche parlementaire que de leur donner corps à travers une PPL.

Oui, il faut trouver un juste équilibre entre le droit parental et l’obligation, et ce juste équilibre doit se retrouver dans l’articulation du texte de loi.

Madame Amiot, les parlementaires n’ont pas le temps de se pencher sur le détail des questions techniques à l’occasion de l’examen d’une PPL dans le cadre d’une niche parlementaire. De plus, des avancées ont lieu en ce moment, notamment autour d’un texte sur l’accès à la pornographie ; des réponses devraient nous parvenir rapidement. Cependant, les principes, tels que l’âge d’accès, doivent être fixés dans le marbre de la loi. Laissons les organismes de contrôle se charger des modalités techniques car ils sont les mieux placés pour le faire. Le décret du Conseil d’État viendra ensuite compléter cette procédure.

La législation abondante que vous mentionnez, madame Genevard, signale bien l’importance que ce sujet occupe dans nos vies. J’ignore ce que deviendra cette PPL mais je voudrais faire avancer le sujet dans les esprits, saisir les consciences, rappeler certains principes et valeurs de limitation, de responsabilisation et d’information. Dans les années à venir, j’espère que notre arsenal législatif ne sera pas constitué de lois trop nombreuses et trop bavardes parce qu’au-delà de la question que nous évoquons aujourd’hui, la multiplication des textes législatifs représente un sujet politique majeur dans notre pays.

Madame Colboc, en ce qui concerne l’article 4, un amendement déposé pose la question de l’élargissement du champ du rapport dont la réalisation devrait être confiée au Gouvernement. J’ai voulu qu’il se concentre sur les réseaux sociaux. Cependant, j’ai reçu d’autres opérateurs importants comme YouTube et nous pourrions aussi nous interroger sur l’impact des messageries.

Il faut assurer la protection des enfants, madame Melchior, et la loi seule ne peut s’en charger. Il s’agit aussi d’une œuvre humaine, qui doit se poursuivre en dehors des textes, dans les écoles, les maisons et les familles. Il s’agit d’une question de société. Cette protection peut aussi être technique et nous pouvons demander aux opérateurs de renforcer les mécanismes d’appel à l’aide. Des progrès ont été réalisés ces dernières années en matière de signalement. Toutefois, les signalements doivent être suivis d’effets. Il faut également rappeler aux parents à quel point ce qui se passe tout près d’eux peut être décisif et grave. Un enfant peut être dans la même pièce que ses parents et faire avec son smartphone des choses dont ces derniers n’ont aucune idée. Cette sensibilisation est cruciale.

J’en viens à la question de l’âge. Des amendements ont été déposés. L’âge de 15 ans revient dans les conventions que nous avons passées et il correspond à la majorité sexuelle. Certes, d’autres majorités existent, celle de 18 ans bien sûr, mais aussi celle de 16 ans, âge auquel les jeunes peuvent commencer la conduite accompagnée par exemple. Mais il ne faudrait pas donner l’impression d’infantiliser les jeunes. L’âge de 15 ans est médian et correspond à l’entrée au lycée. Je reviendrai sur ce choix lorsque nous débattrons des amendements.

Quant aux techniques de contrôle, elles nous échappent et j’ai donc pris la décision de renvoyer cette question au Conseil d’État, comme celle des fournisseurs accès.

En ce qui concerne l’efficacité de la loi sur le cyberharcèlement, madame Anthoine, je n’ai pas accès à une évaluation complète de nos politiques publiques en fonction de notre arsenal législatif. Néanmoins, j’ai auditionné des associations et des responsables du secteur. J’observe des progrès et nous sommes sortis du no man’s land dans lequel nous nous trouvions, mais de nombreux efforts restent à fournir.

Enfin, en matière de responsabilisation des acteurs, malheureusement, seule la peur de la sanction fait la différence. Il nous faut donc nous doter des moyens de faire respecter un minimum de règles et de nous assurer que l’absence du respect de ces règles vaudra bien sanction.

Article 1er : Introduction d’une définition des réseaux sociaux dans la loi

Amendement AC41 de M. Laurent Marcangeli.

M. Laurent Marcangeli rapporteur. Cet amendement de rédaction globale propose d’inscrire la définition des réseaux sociaux dans la loi de 2004 pour la confiance dans l’économie numérique plutôt que dans le code des postes et des communications électroniques. Ce code prévoit le régime applicable aux communications électroniques et confie la régulation de ce secteur à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep). Or cette autorité n’a pas vocation à réguler les réseaux sociaux, cette compétence revenant à l’Arcom.

La définition retenue pour les réseaux sociaux est issue du règlement sur les marchés numériques, dit DMA (Digital Markets Act). Les règlements sont d’application directe et la transposition de la définition pourrait donc sembler superflue. Cependant, il n’est pas certain que la définition des réseaux sociaux qui figure dans le DMA ait vocation à s’appliquer au-delà du règlement. Du point de vue de la sécurité juridique, il est donc préférable de prévoir une définition dans la loi. Tel est l’objet du présent amendement.

Dans mon rapport, je reviens sur le caractère protéiforme des réseaux sociaux, qui n’ont pas tous le même objet ou le même degré de publicité. Selon les cas, il peut donc être difficile de qualifier une plateforme de réseau social. Je vous renvoie sur ce point à l’excellente étude annuelle du Conseil d’État parue en 2022, qui a longuement traité de cette question.

Il convenait donc de retenir une définition large, ce qu’a fait l’Union européenne avec le DMA. Cette définition m’a paru satisfaisante et j’ai donc souhaité la transcrire telle quelle dans la loi.

La commission adopte l’amendement.

En conséquence, l’article 1er est ainsi rédigé et les amendements AC34 de M. Bruno Bilde, AC9 de Mme Lisette Pollet et AC1 de M. Philippe Ballard tombent.

Après l’article 1er

Amendement AC7 de Mme Véronique Riotton.

Mme Véronique Riotton (RE). Cet amendement a pour objet d’étendre le champ des contenus illicites qui doivent pouvoir être signalés.

La loi dispose que les procédures de signalement doivent prévoir cette obligation pour certains délits, comme la provocation à la commission d’actes de terrorisme ou l’incitation à la violence. Toutefois, la liste qui figure dans la loi ne mentionne pas les articles du code pénal relatifs aux délits de harcèlement conjugal ou moral, de chantage, d’atteinte à la vie privée ou d’atteinte à la représentation de la personne. Ces délits sont massivement commis sur internet, et les femmes en sont tout particulièrement victimes. Ce qui n’est pas nommé ne peut être quantifié. La première étape pour lutter contre la haine en ligne consiste donc à établir un cadre de signalement de ces violences.

Suivant l’avis du rapporteur, la commission adopte l’amendement.

Amendement AC32 de M. Laurent Esquenet-Goxes.

M. Laurent Esquenet-Goxes (Dem). Cet amendement impose aux réseaux sociaux de renforcer la sensibilisation au harcèlement en publiant des messages de prévention à destination des utilisateurs, et particulièrement des jeunes. Il précise également que, lorsqu’une personne qui fait l’objet d’une attaque haineuse le signale à une plateforme, celle-ci doit lui indiquer quels sont les outils nationaux à sa disposition pour l’accompagner.

Je parle bien sûr du numéro national pour les victimes de violences numériques, le 3018 – déjà largement accessible par l’intermédiaire d’une application, par téléphone ou par courriel. C’est l’outil indispensable pour les mineurs, les parents et les professionnels. Il permet d’écouter, mais aussi de proposer des solutions – notamment pour obtenir le retrait rapide d’un contenu offensant.

Toutefois, ce numéro est encore trop peu connu des jeunes qui sont victimes de harcèlement numérique et qui peuvent ne pas souhaiter se tourner vers des adultes de leur entourage. Il faut donc faciliter l’accès à ce numéro national. C’est ce que permettront les mesures proposées dans cet amendement, qui prévoit une information directe des jeunes.

M. Laurent Marcangeli rapporteur. Je partage l’objectif de cet amendement, qui vise à obliger les services de réseaux sociaux à aller plus loin dans la présentation de messages de prévention contre le harcèlement en ligne, et notamment à indiquer l’existence du numéro téléphonique d’assistance aux victimes mis en place par le Gouvernement.

Toutefois, cet objectif est mieux atteint par l’amendement AC16, dont le champ apparaît plus large. Je vous demande donc de le retirer, afin de travailler d’ici à la séance à une amélioration des deux amendements.

L’amendement est retiré.

Amendement AC16 de Mme Ségolène Amiot.

Mme Ségolène Amiot (LFI-NUPES). Cet amendement va donc dans le même sens que le précédent.

Il s’agit de prévoir une nouvelle obligation pour les entreprises de services de réseaux sociaux, afin qu’elles soient tenues d’informer de l’existence de services d’information et d’assistance aux victimes de harcèlement numérique lorsqu’un contenu est signalé par un mineur.

M. Laurent Marcangeli rapporteur. Encore une fois, je partage les objectifs et je vous remercie d’attirer l’attention sur un point essentiel qui ne figure pas dans la proposition de loi.

L’article 1er ayant été modifié, je demande le retrait de l’amendement afin de le retravailler d’ici à la séance, non seulement à des fins de coordination, mais aussi pour y inclure les objectifs plus précis qui figurent dans l’amendement AC32.

L’amendement est retiré.

Article 2 : Instauration d’une majorité numérique fixée à 15 ans pour l’inscription aux services de réseaux sociaux

Amendement AC42 de M. Laurent Marcangeli et sous-amendements AC46 et AC45 de Mme Emmanuelle Anthoine, AC47 et AC48 de Mme Béatrice Piron, et AC50 et AC49 de Mme Emmanuelle Anthoine.

M. Laurent Marcangeli rapporteur. Je propose une nouvelle rédaction de l’article 2.

Comme je l’ai écrit dans mon rapport – et nombreuses sont les associations qui partagent ce constat –, les solutions techniques de vérification de l’âge existent mais aucune n’est appliquée de façon satisfaisante.

L’absence de consensus sur la meilleure solution technique de vérification de l’âge doit être prise en compte par le législateur qui, en raison de l’évolution rapide des technologies disponibles, ne saurait inscrire dans la loi un système de vérification particulier.

L’amendement propose de confier à l’Arcom le soin de certifier les solutions techniques mises en place par les réseaux sociaux pour vérifier l’âge et le consentement du ou des titulaires de l’autorité parentale – étant entendu que les réseaux sociaux seront tenus d’utiliser lesdites solutions techniques.

À cette fin, l’Arcom pourrait développer un référentiel, après consultation de la Cnil, et ainsi proposer aux réseaux sociaux les meilleurs outils disponibles en termes de fiabilité, de simplicité, de respect de la vie privée et pour minimiser la collecte de données. Avec cette méthode, les systèmes déployés par les plateformes pourraient évoluer au fur et à mesure des progrès technologiques.

Afin de renforcer le caractère effectif de l’obligation, il est proposé que le président de l’Arcom puisse mettre en demeure les réseaux sociaux de mettre en place une solution technique certifiée de vérification de l’âge et du consentement de l’autorité parentale. Cette procédure est inspirée de celle prévue par la loi du 30 juillet 2020 et qui est destinée à protéger les mineurs des contenus pornographiques. Je précise que je ne compare pas les dangers de l’exposition aux contenus pornographiques à ceux de l’utilisation des réseaux sociaux. En revanche, la procédure semble efficace et transposable.

Enfin, peut-on qualifier de règle de droit une obligation qui n’est pas sanctionnée ? Je propose donc de punir d’une amende de 100 000 euros le fait pour un service de réseau social de ne pas satisfaire à ses obligations de vérification de l’âge et du consentement de l’autorité parentale.

Mme Emmanuelle Anthoine (LR). Les sous-amendements AC46 et AC45 proposent de fixer la majorité numérique à 16 ans.

Si le règlement général sur la protection des données (RGPD) a fixé par défaut l’âge de la majorité numérique à 16 ans, ce texte laisse toutefois aux États membres la possibilité de l’abaisser jusqu’à 13 ans. C’est dans ce cadre que la loi du 20 juin 2018 relative à la protection des données personnelles a fixé l’âge de la majorité numérique à 15 ans. Pour autant, le Gouvernement et le Sénat étaient favorables à 16 ans.

Cet amendement propose donc d’aligner la majorité numérique française sur l’âge fixé par le RGPD, conformément à la position que la France avait défendu dans le cadre des négociations lors de l’élaboration de ce texte.

Par souci de cohérence, il est proposé de modifier aussi bien cette proposition de loi que les dispositions de la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

M. Laurent Marcangeli rapporteur. J’ai bien conscience que le RGPD a fixé à 16 ans l’âge de consentement autonome au traitement des données à caractère personnel. Mais, vous l’avez dit, le RGPD permet aux États de fixer cet âge entre 13 et 16 ans. En 2018, la France, s’inspirant de l’âge de la majorité sexuelle a choisi l’âge de 15 ans. Nous estimons qu’un mineur de cet âge peut consentir de façon éclairée à une relation sexuelle. Pourquoi, dès lors, devrait-on considérer qu’il ne peut pas consentir au traitement de ses données à caractère personnel ?

Les État ont procédé à des choix en fonction de leurs habitudes culturelles. La Belgique et le Danemark, par exemple, ont choisi l’âge de 13 ans. L’Autriche et l’Italie ont quant à elle opté pour 14 ans.

L’âge de 15 ans me semble correspondre à un bon équilibre, cohérent avec la majorité sexuelle. En outre, je le rappelle, la loi relative à l’informatique et aux libertés a également retenu cet âge pour le consentement au recueil des données personnelles.

Avis défavorable aux deux sous-amendements.

La commission rejette successivement les sous-amendements AC46 et AC45.

Mme Béatrice Piron (RE). Même si la grande majorité des réseaux sociaux ont actuellement des règles internes bloquant l’inscription d’enfants de moins de 13 ans, aucune disposition législative française n’interdit de créer un compte avant cet âge. Ces règles découlent de la loi COPPA (Children’s Online Privacy Protection Act), qui fixe cette limite aux États-Unis.

Avec l’arrivée de nouveaux réseaux sociaux qui ciblent des enfants de plus en plus jeunes, cette règle pourrait ne plus être respectée à l’avenir.

Il existe donc un vide juridique en ce qui concerne les mineurs de 13 ans.

Il faut insister sur la responsabilité parentale et tout faire pour accompagner les parents – ce que fait cette proposition de loi. Fixer un âge minimum les aiderait, notamment au vu des enquêtes portant sur leur implication et leur prise de conscience des dangers. Prévoir ce seuil dès à présent permettrait d’éviter de devoir légiférer ultérieurement, d’autant plus que la technologie rendra peut-être plus simple les vérifications d’âge à l’avenir. On peut faire un parallèle avec la sécurité routière : laisse-t-on les parents déterminer à partir de quel âge leur enfant est suffisamment mature pour apprendre à conduire ?

Le sous-amendement AC47 prévoit donc un seuil minimum de 13 ans pour l’utilisation des réseaux sociaux par les mineurs.

M. Laurent Marcangeli rapporteur. Vous proposez que les fournisseurs de réseaux sociaux interdisent l’accès à leurs services aux mineurs de 13 ans. Cette interdiction figure déjà le plus souvent dans les conditions générales d’utilisation, mais elle ne constitue pas une règle de droit dans notre pays.

Je comprends votre souhait de mieux protéger. Toutefois, il existe des réseaux sociaux spécialement conçus pour les enfants de moins de 13 ans, notamment en matière éducative, et qui proposent un environnement particulièrement sécurisé et adapté aux très jeunes publics – comme Grom Social, GoBubble ou Spotlite. Ces applications comprennent par construction des dispositifs destinés à garantir la plus grande sécurité d’utilisation. Leur objectif est d’ailleurs de contribuer à une forme saine d’apprentissage de la sociabilité sur les réseaux – ce qui me semble de bon aloi.

Nous ne pouvons pas exclure que de tels outils se développent davantage dans le futur. Les épisodes de confinements ont montré l’importance du recours aux outils numériques, y compris pour les publics les plus jeunes. Une interdiction absolue nous placerait à contre-courant d’évolutions qui pourraient être souhaitables. Il faut donc plutôt travailler au développement de garanties sur ces plateformes et sécuriser le contrôle de l’âge.

Il faut évidemment que les parents soient très attentifs aux contenus auxquels pourraient avoir accès les plus jeunes, mais je ne suis pas favorable à une interdiction générale et a priori d’utilisation des réseaux par les mineurs de 13 ans, dès lors qu’un cadre efficace existe.

Avis défavorable.

M. Alexis Corbière (LFI-NUPES). Je remercie le rapporteur d’avoir choisi ce sujet pertinent. Mais ses réponses révèlent une impuissance totale. On peut douter de l’efficacité de l’application des mesures qui ont déjà été votées. Il semble considérer qu’on n’y peut rien.

Des sanctions significatives devraient pouvoir être infligées aux plateformes. Or la proposition de loi est silencieuse sur ce point.

Désormais, un enfant passe chaque année autant voire davantage de temps sur les réseaux sociaux qu’au sein de l’éducation nationale. Le déséquilibre entre l’outil destiné à transmettre une éducation à nos enfants et la puissance des plateformes est total. Il faut aussi s’interroger sur la manière dont l’éducation nationale doit se saisir de ce sujet. Beaucoup a été dit sur les parents, notamment en leur enjoignant de surveiller leurs enfants. Mais je ne voudrais pas qu’on les culpabilise à propos d’évolutions face auxquelles ils sont complètement désarmés. C’est à nous d’aider les enfants.

Je suis plutôt favorable à ce sous-amendement.

M. Quentin Bataillon (RE). Le groupe Renaissance n’est pas favorable à ce sous-amendement. Comme le rapporteur, nous pensons que son dispositif est inopérant et nous ne voulons pas que les parents soient complètement dépossédés de leur autorité.

Le texte du rapporteur prévoit bien des sanctions pour les plateformes, et nous le remercions de sa fermeté sur ce point.

La commission rejette le sous-amendement AC47.

Mme Béatrice Piron (RE). Le sous-amendement AC48 prévoit que les parents peuvent demander la suppression du compte de leur enfant mineur sur un réseau social.

Les mineurs de plus 15 ans ont la possibilité de s’inscrire sur les réseaux sociaux sans un accord parental préalable, car la création d’un compte est considérée comme un acte courant. Toutefois, l’autorité parentale s’exerçant jusqu’à la majorité civile de l’enfant, les parents doivent conserver la possibilité d’exiger la suppression de ce compte même s’il a été créé sans leur accord préalable.

M. Laurent Marcangeli rapporteur. Un mineur de plus de 15 ans peut s’inscrire seul sur les réseaux sociaux, en consentant de façon autonome au traitement de ses données personnelles.

Il est peu cohérent de le lui permettre tout en donnant aux détenteurs de l’autorité parentale les moyens de révoquer sa décision, sans l’avis du mineur concerné. Il faut garder à l’esprit que l’âge de 15 ans retenu comme seuil est aussi celui de l’entrée au lycée, à une période de l’adolescence qui est parfois marquée par des conflits avec les parents.

Devons-nous vraiment permettre à tout parent de pouvoir faire fermer les comptes d’un mineur, sans que celui-ci puisse discuter des motifs de cette demande ? Il y a là selon moi un véritable enjeu d’acceptabilité sociale. Cette question mériterait un examen plus approfondi.

Avis défavorable à ce stade.

M. Rodrigo Arenas (LFI-NUPES). Il y a une sorte de contradiction entre l’exposé sommaire et l’avis défavorable du rapporteur. L’autorité parentale signifie précisément que les parents décident. Étant responsables de leur enfant, c’est à eux de choisir s’ils lui donnent accès à certaines choses.

Comme l’a souligné notre collègue Corbière, il y a aussi un sujet s’agissant de l’école. Au collège, on incite les enfants et les parents à utiliser les outils numériques – dont les réseaux sociaux. Pendant l’épidémie de covid, de nombreux enseignants ont utilisé ces réseaux pour communiquer avec les familles et les enfants sur des sujets pédagogiques, éducatifs et parfois annexes – et ils continuent de le faire. Il faut prendre garde à ne pas déposséder les parents de leur autorité parentale, mais il faut aussi s’interroger sur le rôle que joue l’école en matière d’incitation à l’utilisation du numérique.

Enfin, la plupart des serveurs qui hébergent les réseaux sociaux sont installés aux États-Unis et sont donc soumis à une législation qui nous échappe – dont par exemple le Patriot Act. Le poids de la législation américaine est majeur en matière de protection des données. Cela n’est pas l’objet du texte que nous étudions, mais cela devra faire l’objet de discussions futures.

Notre groupe votera pour ce sous-amendement.

La commission adopte le sous-amendement AC48.

Mme Emmanuelle Anthoine (LR). Les sous-amendements AC50 et AC49 proposent d’infliger une amende plus importante en cas de non-respect de l’obligation de vérification de l’âge des utilisateurs finaux et du consentement du ou des titulaires de l’autorité parentale. Cette amende pourra atteindre 1 % du chiffre d’affaires mondial du fournisseur de services de réseau social. Une telle sanction permettra de mieux prendre en compte la taille de l’entreprise et sera véritablement coercitive.

Les réseaux sociaux ont un effet important sur la santé mentale des jeunes. Compte tenu des enjeux, il importe de prévoir un dispositif plus ambitieux, avec des sanctions plus importantes.

Le sous-amendement AC50 propose en outre de raccourcir le délai de mise en œuvre d’une solution technique certifiée aux fins de vérifier l’âge des utilisateurs finaux et le consentement du ou des titulaires de l’autorité parentale. Le délai d’un an paraît long. Le ramener à six mois laissera suffisamment de temps aux plateformes pour s’adapter.

M. Laurent Marcangeli rapporteur. Comme je l’ai indiqué dans le projet de rapport qui vous a été transmis hier, je souhaite faire évoluer la proposition de loi afin de trouver une bonne articulation avec le droit de l’Union européenne et de respecter le principe de proportionnalité des peines.

Après réflexion, il m’est apparu que l’amende pouvant aller jusqu’à 1 % du chiffre d’affaires proposée à l’article 3 risquait d’être considérée comme disproportionnée. Plusieurs personnes auditionnées, ainsi que le Gouvernement, m’ont prévenu de ce risque et je les ai entendus. J’ai donc choisi de proposer un amendement qui s’appuie sur la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), laquelle prévoit une peine d’un an d’emprisonnement et de 250 000 euros d’amende.

Je ne peux donc pas être favorable au montant de l’amende que vous proposez d’inscrire à l’article 2.

S’agissant de l’entrée en vigueur de la procédure de sanction, il faut laisser le temps à l’Arcom et à la Cnil de développer le référentiel, d’une part, et aux réseaux sociaux de s’adapter à la nouvelle obligation, d’autre part. Six mois me semble un délai particulièrement court.

Avis défavorable.

La commission rejette le sous-amendement AC50.

Elle adopte le sous-amendement AC49.

La commission adopte l’amendement sous-amendé.

En conséquence, l’article 2 est ainsi rédigé et tous les autres amendements portant sur l’article tombent.

Après l’article 2

Amendement AC17 de Mme Ségolène Amiot.

Mme Ségolène Amiot (LFI-NUPES). Cet amendement propose que, lorsqu’un contenu est signalé par un mineur ou concerne un mineur, les entreprises de service de réseaux sociaux en ligne soient tenues de faire procéder au traitement du dossier par un humain.

Il s’agit de ne pas mettre en place une censure a priori par un algorithme et d’avoir un avis humain dans le cas d’un signalement d’un mineur ou concernant un mineur.

Cela renvoie notamment à la caractérisation de la pornographie : on ne saurait définir cette dernière, mais on sait la reconnaître quand on en voit. Nous ne pouvons pas nous en remettre à une machine. Il est primordial qu’un humain intervienne à l’occasion de ce type de signalement et juge si un enfant est en danger.

M. Laurent Marcangeli rapporteur. Les critères proposés apparaissent larges et d’application trop complexe. Ils entraîneraient des difficultés techniques et feraient peser sur les entreprises de réseaux sociaux des obligations disproportionnées en raison du caractère massif des données concernées.

Avis défavorable.

M. Rodrigo Arenas (LFI-NUPES). C’est bien la difficulté à laquelle nous devons faire face avec l’arrivée des algorithmes et de ce qu’on appelle plus largement l’intelligence artificielle. La technologie numérique est en train de nous déposséder de l’humanité dans les entreprises.

Par exemple, les grandes entreprises et les PME utilisent désormais des algorithmes pour trier les CV. Lorsque l’historique numérique comprendra des propos malveillants, des dénonciations calomnieuses, voire des articles de presse qui se révèleraient faux par la suite, le CV de l’intéressé n’atteindra même pas le service des ressources humaines.

Nous parlons de dangers dramatiques pour les enfants – comme la pédopornographie et le harcèlement sur internet –, mais d’autres risques existent dans bien des domaines. La législation que nous adopterons aura une influence qui dépasse les questions relatives à la maturité des enfants et au rôle des parents. L’argument de notre collègue Amiot est parfaitement recevable.

M. Quentin Bataillon (RE). Un premier travail effectué par l’intelligence artificielle est primordial à des fins d’efficacité et de rapidité, bien qu’il faille assurément un œil humain pour le superviser. Peut-être faudra-t-il revoir l’amendement en vue de la séance pour expliciter cette répartition.

La commission rejette l’amendement.

Amendement AC22 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). Il s’agit d’imposer aux entreprises de service de réseaux sociaux un délai de quarante-huit heures pour répondre à un signalement concernant un mineur ou émis par un mineur.

M. Laurent Marcangeli, rapporteur. Le droit français comme le droit européen contiennent déjà des dispositions sur la protection des mineurs et sur le cyberharcèlement. Le DSA a notamment imposé aux plateformes de traiter en priorité les notifications soumises par les « signaleurs de confiance » et de le faire « dans les meilleurs délais ». L’association e-Enfance, que j’ai rencontrée, a par exemple été reconnue signaleur de confiance.

L’article 16 du DSA impose également aux plateformes la création de mécanismes de notification et d’action destinés à leur signaler des contenus illicites. La plateforme doit notifier dans les meilleurs délais sa décision à la personne auteure du signalement et traiter les notifications en temps opportun et de manière diligente.

S’agissant plus spécifiquement des mineurs, le DSA a introduit l’obligation pour les plateformes en ligne de prendre des mesures appropriées et proportionnées pour garantir la sûreté et la sécurité des mineurs utilisant leur service.

Le DSA est d’application directe et nous devons veiller à la bonne articulation entre ses règles et notre législation. Or il n’impose pas de délai pour répondre à ces signalements.

Enfin, le délai de quarante-huit heures et l’amende de 6 % du chiffre d’affaires mondial ne respectent pas le principe de proportionnalité. La loi pour la confiance dans l’économie numérique punit d’un an d’emprisonnement et de 250 000 euros d’amende le fait de ne pas satisfaire à l’obligation de lutte contre la diffusion des contenus illicites par des dispositifs de signalement.

Avis défavorable.

Mme Béatrice Piron (RE). Mon groupe est également défavorable à l’amendement. Le montant plafond de 6 % du chiffre d’affaires ne nous semble pas du tout proportionné. En outre, en instaurant un délai identique pour toutes les réponses, on nuirait aux demandes les plus urgentes. Faisons confiance aux règles européennes en cours de définition ou déjà définies.

Mme Ségolène Amiot (LFI-NUPES). Il s’agit tout de même de contenus qui concernent des mineurs. Or la protection des mineurs relève de l’intérêt supérieur de l’enfant. Quand il s’agit d’un enfant mis en danger, aucun délai ne devrait paraître trop court. Les structures dont nous parlons ont les moyens humains et financiers d’être réactives.

M. Roger Chudeau (RN). Nous voterons l’amendement, car la réglementation actuelle est beaucoup trop vague, voire filandreuse, et n’emporte aucune obligation réelle. Un délai de quarante-huit heures n’a rien de disproportionné pour les entreprises concernées. Nous avons le devoir de défendre l’intérêt de l’enfant, mais également la morale publique, face à des atteintes inadmissibles. Quant aux 6 % du chiffre d’affaires mondial, cela paraît beaucoup, mais il faut ce qu’il faut si l’on veut être incitatif.

La commission rejette l’amendement.

Amendement AC5 de Mme Angélique Ranc

M. Alexandre Loubet (RN). Sur les réseaux sociaux, au moins six enfants sur dix ont été confrontés à des images violentes ou pornographiques avant la fin du collège, selon une étude récente de l’Ifop. Alors que, d’après une enquête de l’association Themis, seul un collégien sur trois affirme que son activité sur les réseaux sociaux est surveillée par ses parents, il convient de responsabiliser les parents, mais aussi de renforcer l’arsenal juridique. En effet, les mesures de filtrage destinées à protéger les mineurs de l’accès à certains contenus, notamment pornographiques, sont insuffisantes et les fournisseurs de réseaux sociaux ne sont pas soumis à une obligation générale de surveillance de leur contenu en ce qui concerne spécifiquement les mineurs.

L’amendement propose donc que les plateformes soient légalement tenues de faire obstacle à l’accès des mineurs à ces contenus choquants.

M. Laurent Marcangeli, rapporteur. J’approuve entièrement votre objectif, mais je ne pense pas que légiférer soit nécessaire.

Je l’ai dit, le DSA impose déjà aux plateformes de prendre des mesures pour garantir un niveau élevé de protection des mineurs en ligne. L’article 227-24 du code pénal punit la diffusion de messages à caractère violent, incitant au terrorisme, pornographiques, attentatoires à la dignité humaine, etc., lorsque ces messages sont susceptibles d’être vus par des mineurs. Du point de vue du cadre légal, votre amendement est donc satisfait.

Tout est ensuite question d’application, par exemple lorsqu’il s’agit de vérifier l’âge. Tel est l’enjeu de la proposition de loi, et non l’exposition à des contenus préjudiciables. Par ailleurs, les restrictions d’accès aux contenus sensibles se développent sur les réseaux sociaux à l’intention des mineurs. Le Gouvernement travaille à limiter leur exposition à ces contenus, de même que la Commission européenne, qui a lancé sa nouvelle stratégie pour un internet mieux adapté aux enfants, dont les lignes directrices seront bientôt disponibles.

Avis défavorable.

La commission rejette l’amendement.

Amendement AC6 de Mme Angélique Ranc

M. Alexandre Loubet (RN). Depuis la récente création de ce que les réseaux sociaux appellent recommandations ou propositions, l’utilisateur est obligé de voir, contre son gré parfois, le contenu d’autres comptes auxquels il n’est pas abonné et avec lesquels il n’a aucun lien. Ce système destiné au marketing ou à favoriser l’addiction est la porte ouverte au visionnage de contenus choquants par les enfants ; il ne devrait donc pas être autorisé à les cibler.

L’amendement vise à limiter l’exposition des enfants à des contenus indésirables sur les réseaux sociaux en prévoyant qu’ils ne puissent accéder qu’aux contenus des comptes auxquels ils sont abonnés ou qu’ils ont choisi de visionner. Cette mesure de bon sens faciliterait la surveillance par les parents, qui pourraient se concentrer sur les abonnements de leur enfant.

M. Laurent Marcangeli, rapporteur. L’interdiction générale des systèmes de recommandation pour les mineurs ne me semble pas proportionnée. Le DSA a déjà interdit de proposer des publicités qui reposent sur le profilage et qui exploitent les données personnelles des utilisateurs du service si une certitude raisonnable permet de conclure que l’utilisateur est mineur. Ma proposition de loi permettra d’ailleurs de rendre cette disposition effective en imposant aux réseaux sociaux de contrôler réellement l’âge des utilisateurs.

Avis défavorable.

La commission rejette l’amendement.

Article 3 : Instauration d’un délai de réponse aux réquisitions judiciaires

Amendement AC44 de M. Laurent Marcangeli

M. Laurent Marcangeli, rapporteur. J’ai présenté ma position dans le rapport provisoire qui vous a été envoyé hier par les services.

J’ai souhaité faire évoluer la rédaction de l’article 3 afin de mieux respecter le principe de proportionnalité, contrôlé de façon rigoureuse par le juge constitutionnel en matière pénale. Après une réflexion approfondie et des échanges avec le Gouvernement, le délai de quarante-huit heures et l’amende de 1 % du chiffre d’affaires mondial m’ont paru disproportionnés.

Depuis l’adoption de la loi visant à lutter contre les contenus haineux sur internet, les plateformes en ligne ne satisfaisant pas à leurs obligations de signalement des contenus illicites et de lutte contre la provocation à des actes terroristes et contre la diffusion des images pédopornographiques sont punies d’un an d’emprisonnement et de 250 000 euros d’amende. Cette peine sanctionne également l’absence de réponse aux réquisitions judiciaires. Il ne m’est pas apparu nécessaire de prévoir des peines plus lourdes.

S’agissant du délai, j’ai souhaité retenir l’option de l’application anticipée du règlement e-Evidence, qui crée deux injonctions européennes de production et de conservation de preuves électroniques. Les délais prévus – de dix jours, ou huit heures en cas d’urgence – me semblent raisonnables. En outre, cette solution a le mérite de mettre notre législation en conformité avec le droit européen, trois ans avant que le règlement soit applicable ; nous pourrions tous nous réjouir de cette avance prise par la France.

La question est très importante et je comprends les débats que suscite l’article 3, qu’il s’agisse des délais de réponse ou des sanctions ; le fait que j’aie souhaité modifier le texte initial le montre. Mais c’est la notion de proportionnalité qui a prévalu.

Mme Ségolène Amiot (LFI-NUPES). Vous avez bien fait d’amender votre texte pour le rendre plus précis. Néanmoins, du point de vue de l’intérêt supérieur de l’enfant, une sanction « disproportionnée » serait adaptée, car fortement incitatrice. Au contraire, si son montant ne représente que de l’argent de poche pour les Gafam, ce sera un coup d’épée dans l’eau. L’enjeu est moins la proportionnalité des sanctions que le but qu’elles visent.

La commission adopte l’amendement.

En conséquence, l’article 3 est ainsi rédigé et les amendements AC29 et AC30 de Mme Fabienne Colboc, ainsi que l’amendement AC21 de Mme Ségolène Amiot, tombent.

Article 4 : Demande d’un rapport au Parlement sur les conséquences de l’utilisation des réseaux sociaux sur la santé des jeunes

Amendement AC31 de Mme Fabienne Colboc

Mme Fabienne Colboc (RE). Nous manquons de données sur les conséquences de l’utilisation des réseaux sociaux par les jeunes, notamment mineurs.

Cela dit, étendre l’objet du rapport aux conséquences de l’utilisation des plateformes en général – et non des seuls réseaux sociaux – permettrait de prendre en compte les plateformes vidéo, où les jeunes, très présents, peuvent être la cible de prédateurs sexuels et de cyberharceleurs, et d’évaluer ainsi la maîtrise et la conscience qu’ils ont de leur image en ligne.

M. Laurent Marcangeli, rapporteur. En effet, les données sur les conséquences de l’utilisation des réseaux sociaux par les jeunes sont insuffisantes, d’où la demande au Gouvernement d’un rapport au Parlement. Je pense notamment aux comparaisons, qui reviennent souvent dans le débat public, entre l’addiction aux drogues et l’addiction aux réseaux sociaux. Des études scientifiques ont été réalisées, mais tout cela est encore très embryonnaire.

J’ai souhaité focaliser ici mon attention sur les réseaux sociaux. Ce ne sont pas les seules plateformes pouvant présenter des risques pour les mineurs ou créer des dépendances, j’en conviens, mais c’est l’approche que j’ai retenue – il faut savoir choisir ses combats. Par ailleurs, YouTube et Twitch seront bien considérés comme des réseaux sociaux si ma proposition de loi est adoptée. De ce point de vue, la définition de l’article 1er est suffisamment large.

Avis défavorable.

La commission adopte l’amendement.

Amendement AC27 de Mme Violette Spillebout

Mme Violette Spillebout (RE). La surinformation, la surconsommation d’informations et de fake news devraient être mentionnées dans l’article. En effet, elles ont des conséquences néfastes sur le rapport des jeunes à la citoyenneté et aux valeurs de la République – elles alimentent la défiance envers les médias, voire parfois le complotisme –, ainsi que sur la santé mentale : dépendance, anxiété, dépression, défiance envers nos institutions et l’avenir.

M. Laurent Marcangeli, rapporteur. Les réseaux sociaux sont des vecteurs de fausses informations. Je consacre à ce problème une partie entière de l’avant-propos de mon rapport ; j’y cite notamment une étude réalisée en 2022 par l’Ifop où il est solidement démontré que les jeunes qui utilisent les réseaux sociaux sont plus susceptibles que les autres d’adhérer à certaines théories et à de fausses informations en général.

Nous disposons donc déjà de données à ce sujet, mais il est nécessaire d’y voir plus clair. Cependant, la rédaction actuelle de l’article 4 me semble suffisamment large pour inclure tous les dangers des réseaux sociaux pour la santé des mineurs, fausses informations comprises.

M. Roger Chudeau (RN). Nous voterons contre l’amendement. En effet, la rédaction de l’article est déjà large – presque trop, même si nous le voterons : la notion de bien-être est floue et très subjective ; il n’existe pas de ministère du bien-être… Quoi qu’il en soit, il nous paraît excessif d’ajouter ici les notions de surinformation et d’exposition aux fausses informations, dont la définition demande à être précisée et n’a encore été définitivement validée par aucune autorité. Ne surchargeons pas l’article.

M. Bertrand Sorre (RE). Je trouve au contraire que cet ajout apporterait une précision bienvenue et donnerait plus d’impact à la proposition de loi. Je suis donc favorable à l’amendement, comme l’ensemble des membres de mon groupe.

La commission adopte l’amendement.

Amendement AC24 de M. Julien Odoul, amendement AC23 de M. Julien Odoul et sous-amendement AC43 de M. Laurent Marcangeli (discussion commune)

M. Julien Odoul (RN). L’amendement AC24 tend à remplacer la notion de bien‑être – très confuse, comme l’a dit mon collègue Chudeau – par celle, bien plus concrète, de santé physique. Cette dernière est affectée chez certains jeunes sous l’emprise des réseaux sociaux, alors que, selon l’Organisation mondiale de la santé, 87 % des jeunes Français ont une activité physique inférieure au minimum recommandé d’une heure par jour, et que la crise sanitaire a aggravé la situation.

L’amendement AC23 vise à ajouter à la notion de santé physique celle de niveau scolaire, un paramètre sur lequel l’impact des réseaux sociaux est avéré : cela procurerait un instrument de mesure ou, en tout cas, une vigie.

M. Laurent Marcangeli, rapporteur. La rédaction de l’article est assez large pour intégrer toutes les conséquences des réseaux sociaux sur le bien-être et la santé mentale des jeunes. En l’espèce, une détérioration de la santé mentale des jeunes due à l’utilisation des réseaux sociaux aura des répercussions sur leur niveau scolaire. Avis défavorable à l’amendement AC24, donc, mais favorable à l’amendement AC23, à condition de le sous-amender pour des raisons rédactionnelles.

La commission rejette l’amendement AC24.

Elle adopte successivement le sous-amendement AC43 et l’amendement AC23 sous-amendé.

Amendement AC36 de M. Bruno Bilde

M. Bruno Bilde (RN). Il s’agit d’intégrer au champ du rapport les conséquences éventuelles des réseaux sociaux sur le comportement social des plus jeunes.

En effet, si les conséquences sur la santé mentale sont au premier rang des préoccupations quand on aborde la consommation des réseaux sociaux par les jeunes, c’est aussi la manière dont leur usage a redéfini les comportements sociaux qui nous importe et nous inquiète. Les jeunes les plus vulnérables peuvent se retrouver en situation d’isolement, de dépression ou faire l’objet de campagnes de cyberharcèlement.

Selon une étude de l’université de Pittsburgh menée auprès de 1787 jeunes citoyens âgés de 19 à 32 ans, il existe un lien important entre l’isolement social perçu et une forte utilisation des réseaux sociaux.

M. Laurent Marcangeli, rapporteur. Là encore, la formulation du texte est assez large pour inclure les conséquences des réseaux sociaux sur le comportement social des jeunes.

Avis défavorable.

La commission rejette l’amendement.

Amendement AC4 de M. Thibaut François

Mme Caroline Parmentier (RN). L’objectif est de préciser les conditions d’étude des effets néfastes des réseaux sociaux sur les mineurs de moins de 15 ans, compte tenu de leur fragilité et des forts risques d’exposition auxquels ils sont confrontés. Le caractère périodique du rapport demandé permettra d’analyser l’évolution de la santé psychologique et mentale des mineurs de moins de 15 ans.

M. Laurent Marcangeli, rapporteur. Je ne suis pas favorable à la proposition de réduire le champ du rapport aux seuls mineurs. La rédaction actuelle met l’accent sur les mineurs « compte tenu de leur fragilité », pour reprendre vos termes, mais l’utilisation excessive des réseaux sociaux peut aussi avoir des conséquences néfastes pour les jeunes en général, et je souhaiterais disposer de données sur ces conséquences également.

Par ailleurs, je ne pense pas qu’il faille demander au Gouvernement un rapport annuel. L’appréciation à long terme des conséquences de l’utilisation des réseaux sociaux est nécessaire, mais c’est aussi aux chercheurs de se saisir de la question. Je souligne d’ailleurs dans l’avant-propos de mon rapport le manque d’études longitudinales.

La commission rejette l’amendement.

Amendement AC2 de M. Philippe Ballard

M. Philippe Ballard (RN). Il s’agit de détailler l’objectif final du rapport en faisant explicitement référence aux dangers de l’utilisation des réseaux sociaux pour les jeunes, notamment les mineurs.

M. Laurent Marcangeli, rapporteur. Bien sûr, les réseaux sociaux comportent des dangers pour les jeunes. Mais, une fois de plus, l’amendement me paraît satisfait par la rédaction actuelle : l’expression « santé physique et mentale » me semble parfaitement claire.

Avis défavorable.

La commission rejette l’amendement.

Amendement AC11 de Mme Caroline Parmentier

Mme Caroline Parmentier (RN). Si le rapport demandé est souhaitable, il convient d’y inclure aussi des recommandations visant à lutter contre l’addiction des jeunes aux réseaux sociaux : c’est un véritable phénomène de société que le Gouvernement doit saisir à bras le corps.

M. Laurent Marcangeli, rapporteur. Le rapport a vocation à informer le Parlement, non à lui faire des recommandations. Il nous reviendra, à nous, parlementaires, de nous saisir de ces informations et de décider s’il y a matière à légiférer.

Par ailleurs, si le Gouvernement a des recommandations à formuler en matière d’usage des réseaux sociaux, il peut les mettre en œuvre directement dans le cadre des politiques publiques de santé ou proposer de le faire dans un projet de loi, plutôt que dans un rapport remis au Parlement.

Avis défavorable.

La commission rejette l’amendement.

Amendement AC19 de M. Rodrigo Arenas.

M. Rodrigo Arenas (LFI-NUPES). L’amendement vise à ajouter à l’objet du rapport prévu par l’article 4 des recommandations destinées à « lutter contre les risques liés aux usages numériques et les moyens de prévention à mettre œuvre ».

De la même manière que nous devons réfléchir à l’utilisation des outils numériques dans le cadre de l’enseignement, nous devons nous interroger sur l’usage que nous faisons des technologies numériques et sur son impact sur notre travail de parlementaire.

Nous ne devons pas opposer les chercheurs aux acteurs du monde numérique, y compris ceux qui en font commerce. Les réflexions des uns et des autres sont indispensables pour éclairer nos travaux futurs. Le texte, le rapporteur l’a rappelé à juste titre, n’est que la première pierre d’un édifice voué à protéger nos enfants.

M. Laurent Marcangeli, rapporteur. L’objet de l’amendement étant identique au précédent, mon avis reste défavorable.

La commission rejette l’amendement.

Elle adopte l’article 4 modifié.

Après l’article 4

Amendement AC33 de M. Laurent Esquenet-Goxes.

M. Laurent Esquenet-Goxes (Dem). Il s’agit d’inciter le Gouvernement à étudier l’opportunité d’une fusion des plateformes téléphoniques contre le harcèlement scolaire – 3020 – et contre le harcèlement en ligne – 3018.

Alors que les deux formes de harcèlement sont de plus en plus liées, la dissociation actuelle des plateformes sape une partie de l’effort du Gouvernement pour les faire connaître. Pourtant, ces outils sont indispensables pour venir en aide aux victimes et à leurs familles.

L’existence d’un numéro unique, point d’entrée unique pour obtenir un soutien précieux, faciliterait la diffusion de l’information et la vie des familles. Il permettrait aussi, en regroupant les moyens humains, d’élargir les horaires d’ouverture de la plateforme.

Je tiens à remercier les Jeunes Démocrates pour leur contribution à nos travaux. Je suis heureux que les jeunes prennent à bras-le-corps le sujet du harcèlement en ligne qui les concerne au premier chef.

M. Laurent Marcangeli, rapporteur. Favorable.

Mme Ségolène Amiot (LFI-NUPES). Nous sommes un peu embêtés : si nous partageons l’objectif recherché par l’amendement, nous craignons une possible confusion pour les usagers mais surtout une réduction des moyens dédiés aux deux sujets.

M. Julien Odoul (RN). Nous sommes très favorables à l’amendement. Le lien entre les deux formes de harcèlement justifie la fusion des numéros qui est de nature à faciliter la communication et la sensibilisation du public.

J’en profite pour saluer l’action de l’association e-Enfance qui lutte contre le cyberharcèlement, association au profit de laquelle nous avions récolté 35 000 euros à l’occasion d’un match caritatif que certains députés avaient choisi, je le regrette, de boycotter.

La commission adopte l’amendement.

Titre

Amendement AC38 de Mme Béatrice Piron.

Mme Béatrice Piron (RE). Il s’agit de modifier l’intitulé de la proposition de loi pour insister sur l’objectif de protection des mineurs plutôt que de leur laisser croire qu’ils obtiennent une majorité synonyme de liberté, notamment celle de s’affranchir de leurs parents dès l’âge de quinze ans, alors que l’autorité parentale reste pleine et entière jusqu’à la majorité civile.

M. Laurent Marcangeli, rapporteur. La protection des mineurs n’est pas le seul objet du texte. Avis défavorable.

Mme Béatrice Piron (RE). Je retire l’amendement qui présente aussi l’inconvénient de supprimer la référence à la haine en ligne.

L’amendement est retiré.

Amendements AC3 de M. Thibaut François et AC8 de Mme Lisette Pollet (discussion commune).

Mme Caroline Parmentier (RN). L’amendement tend à modifier le titre afin qu’il reflète le contenu du texte, qui ne se limite pas à la lutte contre la haine en ligne.

Mme Lisette Pollet (RN). Il a pour objet de compléter le titre par les mots : « pour l’inscription et l’utilisation des réseaux sociaux ».

M. Laurent Marcangeli, rapporteur. Même avis que sur l’amendement précédent. La proposition de loi ne se résume pas à la vérification de l’âge.

Mme Béatrice Piron (RE). La rédaction de l’amendement AC3 est en contradiction avec la proposition de loi puisqu’il est fait mention des mineurs de moins de quinze ans.

La commission rejette successivement les amendements.

La commission adopte l’ensemble de la proposition de loi modifiée.

*

*     *

En conséquence, la commission des Affaires culturelles et de l’éducation demande à l’Assemblée nationale d’adopter la présente proposition de loi dans le texte figurant dans le document annexé au présent rapport.

 Texte adopté par la commission :

https://assnat.fr/Opcn1T

 Texte comparatif :

https://assnat.fr/MbqW31

 


—  1  —

   annexes

Liste des personnes entendues par le rapporteur

(par ordre chronologique)

 

       Table-ronde sur les enjeux de la protection des mineurs en ligne :

 Digital parenting foundation – Mme Marie Mayoud, présidente cofondatrice

 Observatoire de la parentalité et de l’éducation numérique (OPEN) – M. Thomas Rohmer, président

 Respect zone * – M. Philippe Coen, président, et Mme Anne Charlotte Gros, responsable des affaires publiques

 Union nationale des associations familiales (UNAF) * –M. Olivier Gérard, coordonnateur du pôle médias et usages numériques.

       Table-ronde sur les enjeux de la protection des mineurs en ligne :

 Mme Justine Atlan, directrice générale de l’association e-Enfance

M. Jean-François Lucas, délégué général de Renaissance Numérique *

 Mme Annabelle Richard, avocate associée au sein du pôle « Technologies, médias et télécommunications », Pinsent Masons

       Table ronde réunissant des professionnels du droit et de la justice :

 Office central de lutte contre les crimes contre l’humanité et les crimes de haine (OCLCH) – Général Jean-Philippe Reiland, commandant, et Lieutenante-colonelle Aurélie Dey, cheffe de la division de lutte contre les crimes de haine

 Conseil national des barreaux (CNB) *– Mme Isabelle Grenier, avocate, vice-présidente de la commission numérique, Mme Clarisse Surin, membre de la commission numérique, et M. Charles Renard, chargé de mission pour les affaires publiques

       Conseil national du numérique (CNN) – M. Gilles Babinet, co-président, et M. Jean Cattan, secrétaire général

       Commission nationale de l’informatique et des libertés (CNIL) – M. Mathias Moulin, secrétaire général adjoint, Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles, Mme Élodie Weil, juriste au service des affaires régaliennes et des collectivités territoriales, et M. Martin Bieri, chargé d’études au laboratoire d’innovation numérique

       Table ronde réunissant des services de réseaux sociaux :

 Meta France * – M. Anton Battesti, directeur des affaires publiques, et Mme Clotilde Briend, responsable des affaires publiques

 Twitter * – Mme Claire Dilé, directrice des affaires publiques

 TikTok * – M. Éric Garandeau, directeur des relations institutionnelles et des affaires publiques France, et Mme Sarah Khemis, responsable Senior Relations Institutionnelles et affaires publiques France

– M. Arnaud Vergnes, responsable des relations institutionnelles Google *, et M. Thibault Guiroy, Head of Govt Affairs & Public Policy YouTube

 Snapchat  Mme Sarah Bouchahoua, représentante des affaires publiques de Snapchat France

 

 

 

 

 

 

 

 

 

* Ces représentants d’intérêts ont procédé à leur inscription sur le répertoire de la Haute Autorité pour la transparence de la vie publique, s’engageant ainsi dans une démarche de transparence et de respect du code de conduite établi par le Bureau de l’Assemblée nationale.


—  1  —

textes susceptibles d’être abrogés ou modifiés à l’occasion de l’examen de la proposition de loi

 

Proposition de loi

Dispositions en vigueur modifiées

Article

Codes et lois

Numéro d’article

1er

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

1er

1er bis

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

6

2

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

6‑6 (nouveau)

3

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

6

 

 


([1]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).

([2]) Loi n° n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés.

([3]) La liste des personnes entendues par le rapporteur figure en annexe du rapport.

([4]) L’IPSOS a mené du 9 juillet au 22 juillet 2021 une série de 2012 entretiens avec des parents d’enfants âgés de 0 à 17 ans et une série de 600 entretiens avec des enfants âgés de 7 à 17 ans.

([5]) Génération numérique a été agréée pour une durée de cinq ans par un arrêté du ministre de l’Éducation nationale et de la jeunesse en date du 19 juin 2019, se voyant ainsi reconnaître un objet d’intérêt général. Elle apporte son concours à l’enseignement public.

([6]) Cette enquête a été réalisée en ligne du 1er septembre 2021 au 21 janvier 2022 auprès de 17 013 jeunes de 11 à 18 ans.

([7]) Selon l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), en 2019 les Français s’informent désormais presque autant en ligne (69 %) qu’à travers la télévision (71 %). 42 % d’entre eux s’informent régulièrement via les réseaux sociaux.

([8]) L’Arcom définit une fausse information comme une « information ayant fait l’objet d’une analyse par des journalistes, notamment spécialisés dans le fact-checking, et qui ont constaté son caractère erroné ».

([9]) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), considérant 84.

([10]) Le Conseil supérieur de l’audiovisuel (CSA) et la Haute autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) ont fusionné le 1er janvier 2022, devenant l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

([11]) CSA, La propagation des fausses informations sur les réseaux sociaux : étude du service Twitter, novembre 2020.

([12]) Enquête sur la mésinformation des jeunes et leur rapport à la science et au paranormal à l’heure des réseaux sociaux, étude IFOP pour la Fondation Reboot et la Fondation Jean-Jaurès, 6 décembre 2022.

([13]) Les deepfakes sont manipulations d’images ou de vidéos via des algorithmes d’intelligence artificielle.

([14]) La liste des personnes entendues par le rapporteur est à retrouver en annexe du rapport.

([15]) Agir contre la prostitution des enfants (ACPE), CAMELEON, Fondation Scelles et Respect Zone.

([16]) Un coroner est un officier de justice indépendant chargé de déterminer les causes d’une mort violente.

([17]) « At the time that these sites were viewed by Molly some of these sites were not safe as they allowed access to adult content that should not have been available for a 14-year-old child to see. The way that the platforms operated meant that Molly had access to images, video clips and text concerning or concerned with self-harm, suicide or that were otherwise negative or depressing in nature. The platform operated in such a way using algorithms as to result, in some circumstances, of binge periods of images, video clips and text some of which were selected and provided without Molly requesting them. Some of this content romanticised acts of self- harm by young people on themselves. Other content sought to isolate and discourage discussion with those who may have been able to help»

([18]) Voir notamment son ouvrage paru en 2019 : Left to their own devices : how digital natives are reshaping the American dream.

([19]) https://www.sciencedirect.com/science/article/pii/S1054139X20304626

([20]) Les réseaux sociaux : enjeux et opportunités pour la puissance publique, Conseil d’État, étude annuelle 2022.

([21]) Définitivement adopté le 14 septembre 2022, le règlement sur les marchés numériques a été publié au Journal officiel de l’Union européenne le 12 octobre 2022.

([22]) CCass, 2e civ., 5 janvier 2017, n° 16-13.394, Bull.

([23]) CC, 18 décembre 2017, Loiret (4e circ.), Mme Mélusine Harlé, n° 2017-5092 AN.

([24]) CE, 24 décembre 2021, Ligue des droits de l’homme et autres, n° 447513 et suiv.

([25]) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques).

([26]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).

([27]) La plateforme EPIC Games a ainsi dû s’acquitter en 2022 d’amendes de plusieurs centaines de millions de dollars pour avoir recueilli les données personnelles de mineurs de treize ans.

([28]) Génération numérique, Les pratiques numériques des jeunes de 11 à 18 ans, mars 2021.

([29]) Renaissance numérique, Contrôle de l’âge en ligne : pour une approche proportionnée et européenne, septembre 2022.

([30]) Lignes directrices sur le consentement au sens du règlement 2016/679, adoptées le 28 novembre 2017, révisées le 10 avril 2018, Groupe de travail « article 29 » sur la protection des données.

([31]) Vérification de l’âge en ligne : trouver l’équilibre entre protection des mineurs et respect de la vie privée, CNIL, 26 juillet 2022.

([32]) https://www.cnil.fr/fr/recommandation-7-verifier-lage-de-lenfant-et-laccord-des-parents-dans-le-respect-de-sa-vie-privee

([33]) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques).

([34]) L’article 3 définit trois types de services intermédiaires : les services de simple transport, consistant à transmettre, sur un réseau de communications, des informations fournies par un destinataire du service ou à fournir l’accès à un réseau de communication ; les services de mise en cache, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, impliquant le stockage automatique, intermédiaire et temporaire de ces informations, effectué dans le seul but de rendre plus efficace la transmission ultérieure de ces informations à d’autres destinataires à leur demande ; et les services d’hébergement, consistant à stocker des informations fournies par un destinataire du service à sa demande.

([35]) Le Conseil de l’Union et le Parlement européen ont indiqué le 25 janvier 2023 être parvenus à un accord.

([36]) Les éléments visés sont définis au II de l’article 6. Il s’agit des données de nature à permettre l’identification de quiconque a contribué à la création du contenu ou de l’un des contenus des services dont ces personnes sont prestataires.

([37]) Quatrième et cinquième alinéas du 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique.

([38]) Article 6-1 de la même loi.

([39])  « Children and parents : media use and attitudes report », Ofcom, 2021 (https://www.ofcom.org.uk/__data/assets/pdf_file/0025/217825/children-and-parents-media-use-and-attitudes-report-2020-21.pdf).

([40]) « Children & Young People’s Mental Health in the Digital Age : Shaping the Future », OCDE, 2018 (https://www.oecd.org/els/health-systems/Children-and-Young-People-Mental-Health-in-the-Digital-Age.pdf).

([41]) « Enfance et numérique : comment mesure-t-on les pratiques digitales des enfants en France ? », Digital parenting foundation, février 2020.

([42])  UNAF, OPEN et Ipsos, « Parents, enfants et numérique », 7 février 2022.

([43]) « Facebook Knows Instagram Is Toxic for Teen Girls, Company Documents Show », Wall Street Journal, 14 septembre 2021.

([44])  https://assnat.fr/3zwMDM