N° 675

_____

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

DIX-SEPTIÈME LÉGISLATURE

Enregistré à la Présidence de l’Assemblée nationale le 3 décembre 2024.

PROPOSITION DE LOI

visant à identifier les images générées par intelligence artificielle publiées sur les réseaux sociaux,

(Renvoyée à la commission des affaires économiques, à défaut de constitution d’une commission spéciale dans les délais prévus par les articles 30 et 31 du Règlement.)

présentée par

Mme Virginie DUBY-MULLER, M. Corentin LE FUR, Mme Véronique LOUWAGIE, M. Éric PAUGET, M. Ian BOUCARD, M. Fabien DI FILIPPO, M. Jean-Pierre TAITE, M. Fabrice BRUN, Mme Christelle PETEX, M. Nicolas RAY, Mme Pascale BAY, Mme Marie-Christine DALLOZ, M. Vincent JEANBRUN, M. Jean-Luc BOURGEAUX, M. Philippe JUVIN, M. Yannick NEUDER, M. Thibault BAZIN, M. Eric LIÉGEON,

députées et députés.


– 1 –

EXPOSÉ DES MOTIFS

Mesdames, Messieurs,

Les technologies d’intelligence artificielle (IA) transforment profondément le paysage numérique, notamment grâce à la création automatisée de contenus visuels. Ces avancées ont rendu la production d’images accessibles, instantanée et d’une qualité presque indiscernable de celle d’un photographe ou d’un artiste humain. Cependant, cette révolution pose des défis sans précédent : des outils comme DALL·E ou MidJourney peuvent être utilisés pour produire des images réalistes servant à désinformer ou manipuler l’opinion publique. Cette proposition de loi vise à répondre à ces défis en instaurant des obligations claires pour les utilisateurs et les plateformes, afin de garantir que cette technologie serve l’innovation sans compromettre la transparence ni la sécurité des citoyens. Elle marque une étape cruciale pour encadrer l’IA tout en favorisant son usage responsable.

L’une des menaces les plus graves posées par les images générées par IA réside dans leur potentiel de désinformation. Les deepfakes, par exemple, peuvent être exploités pour diffuser des informations fausses ou manipulées, souvent dans un but politique ou économique. Ces contenus trompeurs, combinés à la viralité des réseaux sociaux, sont susceptibles de perturber des élections, de créer des paniques sociales ou de nuire à la réputation d’individus. Cette loi impose une obligation de transparence sur les contenus IA afin de limiter ces dangers. Elle permettrait également aux utilisateurs d'exercer un esprit critique éclairé en distinguant une création artificielle d’un document authentique, réduisant ainsi l’impact des campagnes de manipulation.

Les citoyens qui consomment des contenus sur les réseaux sociaux méritent de savoir si une image a été produite ou modifiée par IA. En l’absence d’identification, il est presque impossible pour un utilisateur moyen de discerner une création humaine d’une création synthétique. Ce manque de clarté peut entraîner des malentendus, nuire à la confiance dans les plateformes numériques et alimenter des théories du complot. En imposant cette mesure, la loi renforcera le droit des consommateurs à une information claire et compréhensible. Elle est également essentielle dans des domaines sensibles comme le journalisme, où l’usage d’images modifiées peut affecter la perception des faits et influencer des opinions de manière injustifiée.

Les grandes entreprises technologiques disposent des moyens techniques pour vérifier si les images publiées sur leurs réseaux ont été générées par IA. Par exemple, des outils de tatouage numérique (« watermarking ») ou d'analyse algorithmique permettent déjà d'identifier ces contenus. Actuellement, la plupart des plateformes ne se conforment à ces pratiques que sur une base volontaire, laissant ainsi la porte ouverte à des abus. Cette proposition de loi imposera une obligation légale aux plateformes de mettre en œuvre ces outils de manière systématique. En prenant leurs responsabilités, ces entreprises contribueront à rendre l’espace numérique plus sûr et à limiter les usages malveillants des technologies qu’elles proposent.

Cette mesure législative s’inscrit dans une dynamique internationale croissante visant à réguler les usages de l’IA. L’Union européenne, avec le Règlement sur l’Intelligence Artificielle (RIA) attendu pour 2025, travaille déjà à encadrer les systèmes IA à haut risque, et plusieurs pays, comme les États-Unis, explorent des approches similaires. En anticipant ces évolutions, la France peut non seulement harmoniser sa législation avec les normes européennes à venir, mais également renforcer son rôle de leader dans la promotion de l’éthique numérique. Cette initiative permettra d'assurer une régulation efficace tout en soutenant les innovations dans un cadre clair et responsable.

L’article unique de cette proposition de loi impose aux utilisateurs d’ajouter une mention indiquant l’origine IA de leurs images, un acte facile à intégrer dans les pratiques actuelles. Pour les plateformes, la mise en œuvre de technologies de détection est déjà largement à leur portée. Cette mesure n’impose pas de restrictions excessives ou d’obstacles au développement de l’IA. Au contraire, elle établit un cadre clair où innovation et responsabilité coexistent. En protégeant les utilisateurs et en renforçant la confiance dans les contenus numériques, cette loi répond aux enjeux éthiques et sociétaux soulevés par la généralisation des technologies d’IA.

 

 


– 1 –

proposition de loi

Article unique

L’article 6-6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi rétabli :

« Art. 6‑6. – Toute personne publiant sur un réseau social une image générée ou modifiée par un système d’intelligence artificielle est tenue d’en mentionner explicitement l’origine.

« Cette obligation inclut un avertissement clair et visible précisant l’utilisation d’un modèle d’intelligence artificielle pour créer ou modifier l’image.

« Les services de plateforme en ligne au sens du i de l’article 3 du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) sont tenues de mettre en place des moyens techniques pour détecter les contenus générés par intelligence artificielle et vérifier la conformité de leur étiquetage. Elles doivent également informer leurs utilisateurs sur les obligations en vigueur et fournir un outil de signalement pour les contenus suspects.

« Le non‑respect de ces obligations est passible d’une amende de 3 750 euros pour les utilisateurs et de 50 000 euros pour les services de plateformes en ligne en cas de manquement avéré.

« Un décret en Conseil d’État fixe les modalités précises de mise en œuvre des obligations prévues pour les utilisateurs et les plateformes.

« Le présent article entre en vigueur à compter de sa promulgation. »