N° 3336
______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
TREIZIÈME LÉGISLATURE
Enregistré à la Présidence de l'Assemblée nationale le 13 avril 2011
RAPPORT D’INFORMATION
DÉPOSÉ
en application de l’article 145 du Règlement
PAR LA COMMISSION DES AFFAIRES ÉCONOMIQUES
sur la neutralité de l’internet et des réseaux
ET PRÉSENTÉ
PAR Mme Corinne Erhel,
Présidente,
ET Mme Laure de La Raudière,
Rapporteure,
Députées.
——
La mission d’information sur la neutralité de l’internet et des réseaux est composée de : M. François Brottes, M. Jean-Pierre Decool, M. Jean Dionis du Séjour, Mme Corinne Erhel, M. Jean-Louis Gagnaire, Mme Laure de La Raudière, M. Pierre Lasbordes, M. Alain Suguenot, M. Lionel Tardy et M. Jean Proriol.
INTRODUCTION 9
Résumé des propositions 10
Liste des propositions 11
I.— LE PROBLÈME GÉNÉRAL 13
A.— LE DÉBAT SUR LA NEUTRALITÉ DE L’INTERNET 13
1. Les trois dimensions du débat 13
a) La dimension technique 13
b) La dimension économique 14
c) La dimension juridique 14
2. Les raisons du débat 14
3. L’état du débat politique 15
a) Les travaux récents 15
b) Les travaux en cours 16
B.— LA TECHNIQUE : LE FONCTIONNEMENT D’INTERNET 17
1. Remarques introductives 17
2. Internet en trente-deux points 17
C.— L’ÉCONOMIE : LA RÉPARTITION DES COÛTS DU RÉSEAUX ET DE LA VALEUR AJOUTÉE ET LES MODÈLES ÉCONOMIQUES 21
1. Les éléments d’analyse 22
a) Les enseignements de la théorie économique 22
b) Les modèles économiques 23
2. Les problèmes 24
a) L’accroissement du trafic 24
b) Le « monopole » de l’accès à internet 25
3. Les risques 25
D.— LE DROIT : LES INSTRUMENTS EXISTANTS PERMETTANT DE FAIRE FACE AUX RISQUES 25
1. Le droit en vigueur 26
2. Les dispositions issues du troisième paquet télécoms 26
II.— LES PROBLÈMES CONCRETS 28
A.— LE BLOCAGE ET LE FILTRAGE LÉGAUX 28
1. Les techniques 30
a) Les techniques de blocage et de filtrage 30
b) Les méthodes de contournement 32
c) Points clés 32
2. Le cadre juridique 33
a) Dix ans de débats législatifs 33
b) Les contraintes constitutionnelles et européennes 35
c) Points clés 37
3. Le débat politique 37
a) Les positions des acteurs et les arguments mobilisés 37
b) L’analyse de la mission 39
B.— LA GESTION DE TRAFIC 41
1. Les techniques 42
a) La qualité 42
b) Les technologies de gestion de trafic 43
c) Points clés 45
2. Le cadre juridique 45
a) L’encadrement découlant directement de la loi 46
b) L’encadrement découlant directement de la régulation sectorielle et concurrentielle 47
c) Les dispositions issues du troisième paquet télécoms 49
3. Les enjeux politiques 50
a) Les positions des acteurs et les solutions avancées par les régulateurs 51
b) L’analyse de la mission 53
C.— L’INTERCONNEXION 53
1. Les pratiques 54
a) Le fonctionnement technique 54
b) Les relations économiques 55
c) Les évolutions 56
2. Le cadre juridique 57
a) Le droit en vigueur 57
b) Les interventions possibles 59
3. Les enjeux politiques 60
a) Le débat sur la terminaison d’appel data 61
b) Les positions des acteurs et les arguments mobilisés 62
c) L’analyse de la mission 63
III.— PROPOSITIONS DE LA MISSION 64
Philosophie des propositions 64
Résumé des propositions 65
Liste des propositions 66
► PREMIER AXE : CONSACRER LA NEUTRALITÉ DE L’INTERNET COMME OBJECTIF POLITIQUE 68
Proposition n°1 : définir le principe de neutralité 68
Arguments : 68
Envoyer un signal politique clair 68
Répondre à l’insuffisance du droit en vigueur et à venir 69
S’appuyer sur une bonne définition 69
Proposition n°2 : faire de la neutralité un objectif politique et donner au pouvoir réglementaire la capacité d’imposer des obligations pour la promouvoir 71
Arguments : 72
S’assurer que les autorités réglementaires prennent en compte internet 72
Donner une portée normative adéquate au principe de neutralité 72
► DEUXIÈME AXE : ENCADRER STRICTEMENT LES OBLIGATIONS DE BLOCAGE DE L’INTERNET 73
Proposition n°3 : s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer 73
Arguments : 73
Ne pas oublier que le droit général s’applique à internet 73
Prendre en compte des considérations techniques 74
Identifier précisément les effets du blocage 75
Encourager le développement des logiciels de filtrage de type « contrôle parental » 75
Proposition n°4 : établir dès à présent une procédure unique faisant intervenir le juge 75
Arguments : 76
Protéger la liberté d’expression et de communication 76
Disposer d’un cadre légal unifié 76
Rationaliser la procédure judicaire 77
► TROISIÈME AXE : PROTÉGER L’UNIVERSALITÉ ET GARANTIR LA QUALITÉ DE L’INTERNET 77
Proposition n°5 : réserver l’appellation « internet » aux seules offres respectant le principe de neutralité 77
Arguments : 77
Accroître la transparence en posant une équation simple : internet = neutre 77
Inciter les fournisseurs d’accès à internet à fournir des accès à internet 78
Proposition n°6 : mettre en place un observatoire de la qualité de l’internet 78
Arguments : 78
Permettre au consommateur de choisir parmi les offres d’accès à internet en fonction de leur qualité 78
Développer les outils de mesures existants 79
Impliquer l’ARCEP dans le suivi des pratiques des opérateurs 79
Proposition n°7 : charger l’ARCEP de garantir l’accès à un internet de qualité suffisante 79
Arguments : 79
Intervenir en cas de défaillance de marché 79
Lier la compétence de l’ARCEP 80
► QUATRIÈME AXE : ASSURER LE FINANCEMENT PÉRENNE DE L’INTERNET 80
Proposition n°8 : documenter les enjeux économiques liés au réseau internet 80
Arguments : 81
Se fonder sur des données objectives 81
Développer une connaissance « panoramique » des marchés 81
Disposer de la prudence nécessaire pour ne pas déséquilibrer les modèles économiques 81
Proposition n°9 : évaluer de manière approfondie la mise en œuvre d’une terminaison d’appel data au niveau européen 81
Arguments : 82
Se situer au bon niveau 82
Prendre en compte des arguments sérieux en faveur de la « terminaison d’appel data » 82
Évaluer précisément l’impact de la mise en œuvre de la « terminaison d’appel data » sur les modèles économiques des différentes catégories d’acteurs 82
Encourager la Commission européenne à approfondir le sujet 83
EXAMEN EN COMMISSION 85
ANNEXE 1 —PREMIÈRES ORIENTATIONS DE LA MISSION 99
ANNEXE 2 — COMPTE RENDU DE LA PRÉSENTATION DES PREMIÈRES ORIENTATIONS DE LA MISSION 109
ANNEXE 3 — COMPTE RENDU DE LA TABLE RONDE SUR LE FONCTIONNEMENT D’INTERNET 117
ANNEXE 4 — SCHÉMA RÉCAPITULATIF DU FONCTIONNEMENT DU RÉSEAU INTERNET 139
ANNEXE 5 — LISTE DES PERSONNES AUDITIONNÉES 141
MESDAMES, MESSIEURS,
L’article 11 de la Déclaration des droits de l’homme et du citoyen énonce « la libre communication des pensées et des opinions ». Quel support aujourd’hui respecte mieux ces principes qu’internet ?
Aussi nous devons œuvrer pour préserver les formidables avancées sociétales que représente internet :
- démocratisation de l’accès au savoir, comme le fut en son temps la révolution de l’imprimerie ;
- participation des citoyens aux débats politiques ;
- promotion facile de nouvelles idées ;
- diffusion rapide des nouvelles technologies ;
- commercialisation universelle des produits et services ;
- coopération facilitée entre acteurs de toutes tailles au sein d’une filière industrielle ;
- développement économique des PME…
Ce sont autant d’opportunités, touchant tous les secteurs d’activité, porteuses de croissance que la France doit saisir. En Europe, dès aujourd’hui, le numérique est la source d’un quart de la croissance et des créations nettes d’emploi ; il compte pour 40 % des gains de productivité.
Tous ces enjeux méritent que l’on crée certaines règles pour préserver l’internet universel, immense bien collectif, qui ne doit pas être transformé au gré des intérêts de ses différents acteurs... C’est un objectif politique, économique et de société.
Le débat sur la neutralité de l’internet s’engage dans un climat très passionné. Il est apparu aux États-Unis au début des années 2000, dans un contexte marqué par le maintien des monopoles locaux des câblo-opérateurs. En Europe, du fait d’une plus grande régulation sectorielle, le débat ne s’est développé qu’en 2008 à l’occasion de l’examen du troisième paquet télécoms.
Or aujourd’hui, l’accroissement du trafic et les pressions pour instaurer des mesures de blocage mettent clairement en danger cette neutralité.
La mission d’information de la commission des affaires économiques de l’Assemblée nationale a auditionné plus de cent acteurs, publié un pré-rapport le 27 janvier 2011, recueilli l’avis des acteurs et réalisé des auditions complémentaires sur les sujets méritant un approfondissement.
À l’issue de ce travail, elle émet neuf propositions pragmatiques équilibrées entre la nécessité absolue de garantir un accès à internet neutre et universel et les potentialités liées à l’innovation dans les réseaux : autant d’intérêts parfois antagonistes qu’il convient certainement de réguler avec doigté.
L’objectif du premier axe de proposition est de protéger internet en le faisant entrer explicitement dans le champ de la régulation des communications électroniques. Il existe aujourd’hui un risque que se développent des pratiques non neutres qui réduiraient la capacité des utilisateurs d’internet à choisir l’usage qu’ils font du réseau. Pour faire face à ce risque, il est proposé de donner une portée juridique au principe de neutralité de l’internet, en fixant de manière générale sa promotion comme objectif aux autorités réglementaires (ce qui est l’objet du premier axe) et, de manière plus spécifique, en apportant des garanties sur les points qui suscitent le plus d’inquiétudes (ce qui est l’objet des axes suivants). La proposition n°1 consiste à définir dans la loi la neutralité de l’internet et la proposition n°2 à fixer sa promotion comme objectif aux autorités réglementaires.
L’objectif du deuxième axe est d’éviter au maximum d’obliger les opérateurs à bloquer des communications électroniques car le blocage a des effets négatifs directs (restriction de la liberté d’expression et de communication) et indirects (surblocage, développement du chiffrement, etc.). Ces effets négatifs ne sont pas toujours correctement pris en compte dans les décisions législatives. De plus, l’éclatement des bases législatives (LCEN de 2004, loi sur les jeux en ligne de 2010, code de la propriété intellectuelle) est un facteur de confusion. C’est pourquoi il est proposé de s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer (proposition n°3) et de prévoir dès à présent l’intervention systématique du juge pour prononcer des mesures obligatoires de blocage afin de mieux protéger la liberté d’expression (proposition n°4).
L’objectif du troisième axe est qu’internet reste la plateforme ouverte qu’il est aujourd’hui. Le risque vient du fait que la qualité de l’internet public pourrait rapidement se dégrader à cause de l’augmentation importante des flux, si les fournisseurs d’accès à internet n’investissaient pas dans les réseaux ou s’ils privilégiaient la commercialisation des services gérés. Renforcer le choix du consommateur semble être la première solution permettant de faire face à ce risque : en l’absence de défaillances de marché, il semble suffisant, pour protéger ce choix, d’assurer la transparence sur l’accès à internet en réservant l’appellation internet aux seuls accès neutres (proposition n°5) et en instituant un observatoire de la qualité de l’internet (proposition n°6) ; dans l’hypothèse où la concurrence ne permettrait pas au consommateur d’opter pour un accès à internet neutre de qualité à un prix raisonnable, la capacité de choix du consommateur devrait être rétablie par des moyens plus contraignants en imposant aux fournisseurs d’accès à internet des exigences garantissant la qualité d’internet (proposition n°7).
L’objectif du quatrième axe est de ménager un bon équilibre économique entre les différentes catégories d’acteurs afin que l’écosystème d’internet continue à se développer et à innover, tout en garantissant la couverture des investissements de réseau permettant de maintenir un internet de qualité. Le risque vient de ce que la hausse asymétrique du trafic internet, conjuguée au plafonnement du prix payé par les consommateurs et au caractère arbitraire des flux financiers sur les marchés bifaces font peser une forte incertitude sur l’évolution des rapports économiques des différentes catégories d’acteurs et la soutenabilité de leurs modèles économiques. Il faut s’assurer que, si les fournisseurs d’accès à internet sont obligés de fournir un internet de qualité suffisante, leur modèle économique leur permette de le faire. L’institution d’une « terminaison d’appel data » permettant de couvrir les coûts variables du réseau constitue, selon les informations recueillies par la mission, une piste intéressante. La réflexion doit se poursuivre sur ce point car les marchés liés au réseau internet sont encore mal connus (proposition n°8) et l’opportunité de mettre en œuvre cette solution demande à être évaluée de façon approfondie (proposition n° 9).
► Premier axe : consacrer la neutralité de l’internet comme objectif politique
Proposition n°1 : définir le principe de neutralité
Proposition n°2 : faire de la neutralité un objectif politique et donner au pouvoir réglementaire la capacité d’imposer des obligations pour la promouvoir
► Deuxième axe : encadrer strictement les obligations de blocage de l’internet
Proposition n°3 : s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer
Proposition n° 4 : établir dès à présent une procédure unique faisant intervenir le juge
► Troisième axe : protéger l’universalité et garantir la qualité de l’internet
Proposition n°5 : réserver l’appellation « internet » aux seules offres respectant le principe de neutralité
Proposition n°6 : mettre en place un observatoire de la qualité de l’internet
Proposition n°7 : charger l’ARCEP de garantir l’accès à un internet de qualité suffisante
► Quatrième axe : assurer le financement pérenne de l’internet
Proposition n°8 : documenter les enjeux économiques liés au réseau internet
Proposition n°9 : évaluer de manière approfondie la mise en œuvre d’une terminaison d’appel data au niveau européen
I.— LE PROBLÈME GÉNÉRAL
Cette première partie introduit de façon générale la question de la neutralité de l’internet et explique pourquoi l’opportunité d’une intervention législative pour la protéger doit être envisagée. De manière provisoire, on peut définir la neutralité de l’internet comme l’absence de discrimination dans l’acheminement des flux. La présentation du développement du débat sur la neutralité (A), du fonctionnement technique (B) et de l’économie du réseau internet (C) permet de montrer qu’il existe aujourd’hui un risque que les opérateurs développent des pratiques non neutres (C). Or le droit actuel ne paraît pas capable d’y répondre (D).
A.— LE DÉBAT SUR LA NEUTRALITÉ DE L’INTERNET
1. Les trois dimensions du débat
Le débat sur la neutralité de l’internet, à première vue confus, gagne en clarté lorsqu’on se le représente comme résultant de la superposition de trois débats, qui se sont développés successivement : un débat technique, un débat économique et un débat juridique.
Le principe de neutralité de l’internet trouve son origine dans une question technique.
Le réseau internet a été conçu pour fonctionner différemment des réseaux de téléphone classiques : il repose sur le principe du « routage de paquets » plutôt que de la « commutation de circuit », ce qui le rend à la fois plus souple (lorsqu’un circuit est inutilisable, les paquets peuvent emprunter un autre chemin) et a priori moins fiable (les paquets sont acheminés avec une qualité variable car ils ne passent pas par un circuit réservé) (1). De ce fait, le réseau internet est, historiquement, un réseau dont l’intelligence est située aux extrémités, dans les machines qui y sont connectées.
Au début des années 1980 des chercheurs en sciences de l’informatique et des réseaux ont soutenu l’idée qu’en général il n’est pas justifié de vouloir implémenter des fonctions dans les couches inférieures d’un système informatique distribué, ce qui a été appelé « argument end-to-end » (2).
Cet argument a ensuite été réinterprété par des juristes favorables à la neutralité de l’internet comme signifiant que le réseau est d’autant plus efficace qu’il ne contient pas d’intelligence en son cœur (3). Le concept de « net neutrality » a été popularisé sur cette base par le juriste américain Tim Wu dans un article de 2003 (4), « l'idée étant qu'un réseau d’information public est maximalement efficace lorsqu’il aspire à traiter tous les contenus, sites et plateformes de manière égale ».
À cette dimension technique s’est ajoutée une dimension économique, provenant de la fusion de ces réflexions sur l’architecture des réseaux avec la réflexion économique sur les marchés dits bifaces, c’est-à-dire sur lesquels les intervenants peuvent se rémunérer sur deux catégories d’acteurs qu’ils mettent en relation, qui recommande qu’une des faces « subventionne » l’autre (5).
Le débat s’est enfin développé sous un troisième angle, soulevant des questions liées à la liberté d’expression sur internet : celle du blocage et du filtrage légaux (6). Cette dernière dimension du débat est essentiellement européenne et constitue, en quelque sorte, la retombée en matière de neutralité des débats ayant eu lieu sur la suspension de l’accès à internet à l’occasion de la loi HADOPI de 2009 (7) puis sur le respect de la liberté de communication par les mesures administratives de blocage de contenus internet, dans le cadre de la loi LOPPSI de 2011.
Il est utile d’expliquer rapidement les motivations principales des discussions sur la neutralité de l’internet. La montée en puissance du débat au cours des années 2000 résulte pour l’essentiel de deux facteurs. :
– le premier facteur est l’accroissement du trafic, qui résulte sur le marché fixe de l’accroissement des flux vidéo et sur le marché mobile du développement des terminaux connectés à internet. Les coûts d’acheminement du trafic engendrés constituent un argument mobilisé par les fournisseurs d’accès à internet dans leurs négociations avec les fournisseurs de contenu et avec les opérateurs de transit. Il a un lien avec le déploiement, très onéreux, des nouvelles boucles locales fibre qui ont pour vocation de permettre au trafic demandé par les nouveaux usages d’être écoulés avec une bonne qualité ;
– le second facteur est la pression croissante des pouvoirs publics qui cherchent des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité, et des industries culturelles dont les modèles économiques traditionnels sont déséquilibrés par le développement des échanges numériques « illégaux », notamment le « piratage ». Ces deux catégories d’acteurs poussent au développement du blocage pour empêcher l’accès aux contenus « illicites ». La crainte est apparue que les opérateurs ne tirent prétexte de « l’illégalité » des flux pour bloquer de leur propre initiative des catégories de trafic sans doute en partie illicites mais aussi en partie licites, comme les flux de peer-to-peer.
Il faut enfin noter qu’un autre facteur a joué en France un rôle de catalyseur : l’uniformité des offres d’accès fixes triple play, proposées au prix le plus bas d’Europe et permettant l’accès illimité à internet, c’est-à-dire indépendamment du trafic consommé, alors même qu’un trafic plus important génère des coûts.
Le débat a progressé à la fois aux États-Unis, en Europe et en France grâce à l’intervention des autorités publiques, et pour l’essentiel des régulateurs.
Dès 2005, la Federal Communication Commission américaine (FCC) édictait à l’unanimité une position politique concernant l’internet, reconnaissant quatre droits fondamentaux aux internautes : (i) accéder à tous les contenus internet légaux de leur choix ; (ii) pouvoir faire fonctionner les applications et services de leur choix, sous réserve des obligations légales ; (iii) connecter les équipements légaux de leur choix qui n’endommagent pas le réseau ; (iv) bénéficier de la compétition entre opérateurs et fournisseurs de services, d’applications et de contenus. Les débats se sont poursuivis et ont débouché sur une décision partisane (8) en décembre 2010 par laquelle la FCC a imposé deux règles plus contraignantes aux fournisseurs d’accès à internet : (i) l’absence de blocage ; (ii) l’absence de discrimination déraisonnable dans l’acheminement du trafic.
Le législateur européen s’est saisi du sujet dans le cadre de la discussion du troisième paquet télécoms, qui comportait plusieurs mesures visant à protéger la neutralité (9) et à laquelle la Commission européenne s’engageait à apporter la plus grande attention (10).
En France, le législateur a souhaité, dans le cadre de la loi de 2009 sur la fracture numérique que le Gouvernement lui remette un rapport sur le sujet. C’est pour répondre à cette demande que le Gouvernement a saisi le conseil général de l’industrie, de l’énergie et des technologies (CGIET) qui a fourni un rapport « technique » (11), puis a élaboré son propre rapport, restant prudent sur les mesures à prendre (12). L’ARCEP a conduit en parallèle des investigations assez poussées, la conduisant à formuler un ensemble détaillé de recommandations non contraignantes (13).
Le 17 février 2011, l’Assemblée nationale a enfin examiné la proposition de loi n° 3061 sur la neutralité de l’internet, initiée par M. Christian Paul et déposée par le groupe socialiste. Cette proposition de loi a été rejetée par l’Assemblée nationale le 1er mars 2011.
Plusieurs travaux sont aujourd’hui en cours.
– En France, l’ARCEP a lancé, à la suite de ses premières orientations, trois séries de travaux : (i) sur le marché de gros de l’interconnexion, elle prépare une décision de collecte périodique de données qui pourrait intervenir avant l’été 2011 ; (ii) sur la qualité de service sur internet, elle poursuit des investigations approfondies, notamment sur les méthodes de mesure ; (iii) elle a demandé à la fédération française des télécoms, en coordination avec d’autres acteurs, de constituer un groupe de travail sur la gestion de trafic.
– Au niveau européen, la Commission européenne : (i) publiera une communication sur la neutralité de l’internet, initialement prévue pour la fin de l’année 2010 mais repoussée, depuis, à la fin du mois de mai 2011 ; (ii) organise des groupes de travail au niveau des dirigeants d’entreprises sur plusieurs sujets en rapport avec la neutralité, qui doivent conduire à des premières conclusions en juillet 2011.
– Aux États-Unis, enfin, des discussions ont été engagées par les industriels pour définir les « bonnes pratiques » de gestion du trafic internet.
B.— LA TECHNIQUE : LE FONCTIONNEMENT D’INTERNET
Un minimum de maîtrise de l’arrière-plan technique sur lequel se déploie le débat sur la neutralité de l’internet est nécessaire pour le comprendre. En effet :
– internet fonctionne, pour les utilisateurs qui y sont connectés, comme une « plateforme » qui semble mettre directement en relation les internautes les uns avec les autres, leur permettre d’afficher des pages web, etc. De manière schématique, c’est ce fonctionnement de plateforme ouverte que le principe de neutralité entend protéger. En réalité, le réseau internet est complexe et résulte d’ajustements fréquents réalisés par une multitude d’acteurs. Il paraît nécessaire d’entrer dans la technique pour comprendre quels sont les effets des différentes pratiques et s’il faut en interdire certaines ;
– sur le fondement de l’argument end-to-end déjà évoqué, le principe de neutralité peut être présenté comme un principe « technique » conduisant à proscrire toute intervention des fournisseurs d’accès à internet sur l’acheminement des flux et leur demandant d’établir des réseaux qui se contentent de prendre les informations qu’on leur donne et de les acheminer à leur destinataire, selon des principes identiques quelle que soit l’information transportée.
2. Internet en trente-deux points
La complexité du fonctionnement d’internet oblige à simplifier. La présentation qui suit ne se veut donc pas exhaustive mais vise seulement une fonction pédagogique.
1 Supposons qu’un individu souhaite transmettre une information via internet. Cette information est sous forme « numérique », ce qui signifie qu’elle est une suite logique de 0 et de 1 enregistrée d’une manière ou d’une autre sur un support physique.
2 Internet, par opposition aux anciens réseaux de téléphone appelé réseaux à « commutation de circuit », est un réseau fonctionnant sur le principe du « routage de paquet ». Il n’y a pas de réservation de ligne entre l’individu qui souhaite transmettre une information et son correspondant mais, au contraire, un grand nombre de communications vont passer par la même ligne.
3 Pour que ce mode de transmission soit efficace, l’information va être découpée en suites de 0 et de 1 plus petites que l’information à transmettre, appelés « paquets IP ». IP désigne le protocole internet : internet protocol.
4 Comme il n’y a pas de « ligne » établie entre l’internaute et son correspondant, il est nécessaire que soit inscrite l’adresse du correspondant sur le paquet. Cette adresse est notée dans ce qui s’appelle l’« en-tête » du paquet, une suite de 0 et de 1 mise, comme son nom l’indique, en tête du paquet. Il est utile de signaler ici que se trouvent dans l’en-tête d’autres informations que la seule adresse du destinataire, par exemple un numéro de port, et que les routeurs se contentent généralement de lire l’en-tête, sauf s’ils sont équipés de mécanismes d’inspection approfondie de paquet – DPI en anglais pour deep packet inspection.
5 L’adresse inscrite sur l’en-tête du paquet doit être une adresse correspondant à un emplacement sur le réseau internet. C’est pour cela qu’un système d’adressage commun a été mis en œuvre au niveau mondial (IPv4 puis IPv6).
6 Le paquet va ensuite, pourvu de son adresse unique écrite sur son en-tête, être envoyé sur le réseau internet. Lorsqu’il atteint un carrefour, il se trouve au contact d’un équipement actif appelé « routeur ». Comme son nom l’indique, le « routeur » est responsable du routage, c'est-à-dire de l’assignation de la bonne route au paquet.
7 Le routeur définit pour chaque paquet la bonne route à partir de l’adresse de destination inscrite sur l’en-tête du routeur et d’une carte du réseau appelée « table de routage » permettant de définir le meilleur chemin pour aller d’un point à un autre.
8 Supposons maintenant que l’internaute connaisse l’adresse IP de son destinataire et que celui-ci vienne de se raccorder au réseau. Le chemin pour aller jusqu’à l’adresse IP de destination va pouvoir être trouvé de la manière suivante, correspondant au fonctionnement schématique d’un protocole appelé « BGP » pour border gateway protocol.
9 Le routeur le plus proche du destinataire reconnaît d’abord que ce destinataire est directement connecté à lui. Il envoie ensuite automatiquement un message aux routeurs autour de lui pour leur annoncer qu’il est directement en contact avec l’adresse du destinataire. Ceux-ci vont à leur tour annoncer aux routeurs qui les entourent qu’ils ne se trouvent qu’à un routeur de distance de l’adresse du destinataire, et ainsi de suite.
10 Ensuite, les routeurs vont normalement orienter un paquet vers le chemin permettant la route « la plus courte » entre eux et l’adresse de destination.
11 Une fois livrés au destinataire, les paquets sont rassemblés, après suppression de leur en-tête, et le destinataire dispose alors de l’information transmise.
13 Supposons maintenant qu’un internaute souhaite se connecter à un site web. Ce site est hébergé sur un « serveur » connecté à internet.
14 La plupart du temps, l’internaute n’a aucune idée de l’adresse IP du serveur hébergeant le site mais connaît seulement le nom du site. Il faut donc un dispositif permettant d’établir la correspondance entre un nom de site et l’adresse IP du serveur. Pour cela, un dispositif a été mis en place au niveau mondial, le système des noms de domaines – en anglais « DNS » pour domain name system.
15 Lorsque l’internaute veut accéder à un nom de domaine donné, il envoie un paquet avec un numéro spécial dans l’en-tête, qui va être envoyé par les routeurs vers un serveur DNS, capable de renvoyer à l’internaute l’adresse IP correspondant au nom de domaine.
16 Le web repose ensuite sur un ensemble de liens permettant de naviguer de ressources en ressources, à partir d’adresses dite « url ».
17 Les explications précédentes décrivent de façon rudimentaire le fonctionnement logique d’internet et ne permettent pas de déterminer les infrastructures physiques sur lesquelles repose internet.
18 Internet s’est développé auprès du grand public à partir des réseaux téléphoniques et de la « boucle locale » en cuivre qu’ils utilisaient. Le « cœur de réseau », opposé au niveau terminal appelé « boucle locale » et parfois d’un niveau intermédiaire appelé « réseau de collecte », a en revanche rapidement été équipé en fibres optiques, permettant des débits bien plus élevés que le cuivre. La boucle locale, le réseau de collecte et le cœur de réseau constituent le « réseau d’accès ».
19 La constitution d’un réseau mettant en interconnexion les différents réseaux utilisés pour fournir l’accès à internet a été nécessaire. Ce réseau est appelé « réseau backbone » ou simplement internet (le nuage), et opposé aux réseaux d’accès.
20 Pour des raisons de concision, la présentation qui suit des principales infrastructures de l’internet est limitée à l’accès filaire. Pour les réseaux d’accès, la boucle locale est encore essentiellement constituée de paires de cuivre aérien ou enterrées dans des fourreaux (ADSL), bien que des lignes en fibre optiques commencent à être déployées (Ftth). Sur les réseaux filaires, cette partie du réseau (boucle locale) est généralement dédiée à une seule habitation ou entreprise. Ces fils dédiés vont de l’accès de l’internaute (généralement une « box ») jusqu’à un équipement appelé DSLAM, qui peut être une armoire ou un local qui contient différents équipements permettant d’intercaler les paquets pour optimiser la place disponible sur les réseaux.
21 Des fibres optiques enterrées relient ensuite la plupart du temps les DSLAM au cœur de réseaux, dans lesquels des routeurs très haut débit vont traiter très rapidement des quantités importantes d’informations.
22 Le réseau d’accès est ensuite relié à travers des points d’interconnexion (par exemple de peering) à d’autres réseaux, dont le réseau backbone, généralement dans des lieux physiques appelés centres de données ou data center.
23 Le réseau backbone est essentiellement constitué de ces interconnexions, de câbles en fibre optique longue distance, notamment sous-marins, ainsi que de routeurs et de répétiteurs chargés de contrer l’atténuation du signal optique.
24 Le développement du réseau internet et la souplesse de la technologie IP sur lequel il repose conduisent à une convergence des réseaux de communications vers des réseaux mutualisés dits « tout-IP ». Concrètement, la même infrastructure, la même architecture de réseau, les mêmes protocoles sont de plus en plus utilisés pour acheminer les différents types de communications électroniques.
25 C’est la raison pour laquelle le téléphone (qui reposait autrefois sur le réseau téléphonique commuté) ou encore les réseaux d’entreprises (qui s’appuyaient sur des « liaisons louées » physiques) deviennent des « services gérés » fournis sur les réseaux IP.
26 La complexité du réseau s’accroît encore du fait de l’intervention d’une multitude d’acteurs, dont la coopération repose sur un ensemble de normes non contraignantes mais largement normalisées et discutées. Le nombre d’entités reconnues comme opérateurs internet et qui se voient de ce fait affecter des blocs d’adresses IP, appelées système autonome (AS en anglais, pour autonomous system), donne une indication de la quantité d’acteurs intervenant sur le réseau internet : il s’élève au moins à 27 000 (14). Il faut signaler que la présentation qui suit des acteurs est volontairement simplificatrice, parce que de nombreux acteurs interviennent sur plusieurs segments de marchés et qu’il aurait été trop compliqué de tout détailler, au risque de s’éloigner du but pédagogique assigné à cette présentation du réseau internet.
27 Les différents opérateurs internet sont obligés de respecter un minimum de règles communes au niveau de leurs interconnexions, mais ils peuvent opter pour des solutions techniques très différentes au niveau de leurs réseaux.
28 Il faut aussi distinguer, parmi les opérateurs internet, entre les fournisseurs d’accès à internet qui desservent les clients finals et opèrent de ce fait au niveau des réseaux d’accès, et les opérateurs de transit, qui interconnectent les fournisseurs d’accès à internet, et opèrent de ce fait au niveau du réseau backbone.
29 Ensuite, d’autres acteurs interviennent pour fournir des services liés au réseau internet. Les « hébergeurs » assurent ainsi le stockage des données sur des serveurs situés la plupart du temps dans des « centres de données » (en anglais data center) sécurisés à la fois au niveau physique, électrique et au niveau de la climatisation, afin d’éviter toute perturbation dans le fonctionnement des serveurs.
30 Certains points d’interconnexion entre opérateurs internet sont gérés par des entités indépendantes, le matériel étant là aussi hébergé dans des centres de données.
31 Les fournisseurs de cache (en anglais CDN pour content delivery networks) proposent des services de stockage temporaire des contenus les plus populaires, qui permettent de les rapprocher des utilisateurs donc de les délivrer plus rapidement.
32 Enfin, en bout de chaîne, interviennent des « fournisseurs de contenu » qui utilisent internet pour distribuer des services, contenus et applications.
C.— L’ÉCONOMIE : LA RÉPARTITION DES COÛTS DU RÉSEAUX ET DE LA VALEUR AJOUTÉE ET LES MODÈLES ÉCONOMIQUES
Il est important de comprendre en détail l’économie liée au réseau internet car : (i) le fonctionnement d’internet est, au-delà des règles techniques qui viennent d’être évoquées, le résultat de l’intervention d’une multitude d’acteurs aux motivations économiques parfois divergentes ; (ii) les risques qui pèsent sur la neutralité de l’internet résultent largement de ces motivations ; (iii) la question est mal documentée.
Créée par la commission des affaires économiques de l’Assemblée nationale, la mission d’information a porté une attention particulière à la compréhension de ces enjeux économiques. Constatant que les marchés liés au réseau internet restent opaques, elle a d’abord demandé aux acteurs, par l’intermédiaire de ses premières orientations, de bien vouloir lui adresser des informations complémentaires ; elle a ensuite transmis un questionnaire détaillé. Ces initiatives n’ont pas permis d’établir un constat robuste, ce qui motive la proposition de la mission que des investigations approfondies soient conduites par l’ARCEP, les services de l’État, et la Commission européenne au sujet du fonctionnement des marchés de l’acheminement du trafic internet.
a) Les enseignements de la théorie économique
La théorie dite des marchés bifaces fournit un cadre de réflexion utile pour analyser les problèmes liés à la neutralité de l’internet (15).
Cette théorie a été développée à partir de l’exemple des cartes de crédits : les entreprises qui commercialisent des cartes de crédit se situent sur un marché qui met en relation deux catégories d’acteurs, les commerçants et leurs clients ; ils peuvent se rémunérer sur ces deux catégories ; la théorie des marchés bifaces a notamment pour objet de déterminer quels sont les effets économiques des différents modes de rémunérations possibles. Le concept de marché bifaces est utilement appliqué au réseau internet, composé de plusieurs marchés d’intermédiation : les fournisseurs d’accès à internet peuvent à la fois se rémunérer sur les internautes et sur les fournisseurs de transit ou de contenu ; les fournisseurs de transit peuvent à la fois se rémunérer sur les fournisseurs d’accès à internet et sur les fournisseurs de contenu ; etc.
Les marchés bifaces se caractérisent par l’existence d’effets de réseau croisés : plus les acteurs sur une face sont nombreux, plus l’utilité économique des acteurs de l’autre face est élevée. Appliqué à internet, cela conduit à remarquer que le nombre d’internautes augmente les performances économiques des fournisseurs de contenu et que l’augmentation des contenus sur internet accroît l’intérêt d’avoir un accès à internet.
La théorie des marchés bifaces conduit à préconiser, pour maximiser le bien-être total, une tarification dans laquelle la face qui est caractérisée par les plus faibles élasticités prix et effets de réseau croisés « subventionne » l’autre face. Appliqué à internet, il s’agit de savoir si les gains à attendre d’un prix plus élevé des abonnements payés par les internautes sur la production de contenus grâce à la baisse des prix de bande passante payés par les fournisseurs de contenu l’emportent sur les pertes liées à la baisse du nombre d’internautes du fait d’abonnements plus chers, ce qui aurait un effet négatif sur les profits attendus par les fournisseurs de contenu et réduirait le surplus du consommateur (16).
Ces travaux théoriques concluent plutôt en faveur d’une subvention de la bande passante des fournisseurs de contenu par les consommateurs (17). La mission d’information n’a pas eu connaissance de travaux d’économie appliquée permettant de confirmer ou d’infirmer, sur une base empirique, ces préconisations.
Si internet représente une part croissante de l’économie (18), les activités liées au réseau n’en forment qu’une partie (19). La mission d’information n’a pas pu obtenir d’informations précises concernant la valeur des différents segments du marché de l’acheminement du trafic internet, mais il semble que les revenus annuels mondiaux liés au transit et aux services de cache soient chacun de l’ordre de quelques milliards d’euros, tandis que le marché mondial de l’accès est d’un ordre de plusieurs centaines de milliards.
Historiquement, les fournisseurs d’accès à internet étaient rémunérés par les consommateurs finals, payaient des fournisseurs de transit et laissaient les fournisseurs de contenu ou leurs agrégateurs (CDN, hébergeurs) accéder par des accords de peering gratuits à leur réseau. Les fournisseurs de transit étaient rémunérés à la fois par les fournisseurs d’accès à internet et par les fournisseurs de contenu ou leur agrégateurs. Les fournisseurs de contenu ou leur agrégateurs payaient donc le transit aux fournisseurs de transit mais pas le peering avec les fournisseurs d’accès à internet.
Aujourd’hui, ces flux financiers tendent à évoluer sous la pression des fournisseurs d’accès à internet, qui ont mis fin à une partie de leurs contrats de peering gratuit, notamment avec des CDN, et demandent, pour faire face à l’accroissement des volumes de trafic et de leur degré d’asymétrie, d’être rémunérés pour permettre aux inducteurs de trafic d’accéder à leurs réseaux.
Le montant exact des flux financiers est difficile à établir mais il découle de la taille des marchés et du sens des flux : les fournisseurs de contenu versent des montants de l’ordre de quelques milliards aux fournisseurs de transit et aux CDN ; les fournisseurs d’accès à internet versent des montants du même ordre de grandeur aux fournisseurs de transit ; et les abonnés, particuliers et entreprises, versent des montants d’un ordre de grandeur très supérieur aux fournisseurs d’accès à internet.
Le transit est facturé au débit maximal entrant ou sortant. L’accès des particuliers est, au moins en France, forfaitaire (20). Pour l’accès mobile, la téléphonie continue, dans la plupart des pays développés, à représenter une partie substantielle des revenus des opérateurs, sans rapport avec les coûts qu’elle engendre, ce qui implique qu’elle « subventionne » l’accès à internet. Ces deux éléments expliquent que le débat sur la neutralité soit particulièrement vif en France, où le problème de la transition vers un nouveau modèle commercial d’accès mobile se couple au plafonnement des revenus sur le fixe du fait de forfaits réellement illimités, ce qui conduit les fournisseurs d’accès à internet à chercher à compléter leurs revenus.
Depuis le début des années 2000, le trafic internet a connu une croissance extrêmement rapide, d’abord sous l’effet du développement du peer-to-peer et, depuis quelques années, de la vidéo. La centralisation croissante des flux liés au développement des plateformes d’hébergement du web 2.0 a conduit à l’accroissement de l’asymétrie du trafic, c’est-à-dire du rapport entre les volumes entrants sur les réseaux des fournisseurs d’accès à internet et les volumes sortants. Il faut souligner le rôle particulier joué par les terminaux dans l’accroissement des flux au cours de la période la plus récente : les téléphones intelligents et les tablettes ont été les vecteurs de l’explosion du trafic mobile ; les téléviseurs connectés pourraient dans un avenir proche avoir un impact similaire sur le réseau fixe.
Autant il existe aujourd’hui un large consensus sur les prévisions d’augmentation du trafic (21), autant le débat subsiste sur la nécessité de faire évoluer les flux financiers entre les différentes catégories d’acteurs pour couvrir les coûts que ce trafic risque d’engendrer. Les positions prudentes des autorités qui ont eu à se pencher sur la question (22) et l’absence d’estimations indépendantes de ces coûts (23) sont une bonne indication de la nécessité de poursuivre les réflexions. Comme l’a souligné le CGIET dans son rapport, les fournisseurs d’accès à internet disposent de trois solutions théoriques pour faire face à l’accroissement du trafic : (i) dégrader la qualité de l’internet, (ii) faire payer les consommateurs et (iii) faire payer les fournisseurs de contenu (24).
b) Le « monopole » de l’accès à internet
Du fait de leur positionnement stratégique sur la chaîne de valeur, le débat relatif à la neutralité s’est concentré sur les fournisseurs d’accès à internet. Ceux-ci sont dans une situation particulière car leur réseau est le point de passage exclusif pour accéder à leurs abonnés. C’est pour cette raison que les risques d’atteinte à la neutralité pèsent de manière spécifique sur ce segment de réseau. Les autres segments de marchés apparaissent plus concurrentiels.
Les éléments rassemblés par l’ARCEP, la FCC ou le BEREC, ainsi que les informations qui ont été transmises à la mission d’information par les acteurs qu’elle a rencontrés permettent d’avérer l’existence de pratiques de blocage et de dégradation de qualité contre certains types de flux. Il faut cependant noter qu’aucune procédure de règlement des différends n’a été lancée à ce jour.
On peut donner trois exemples de pratiques non neutres :
– le blocage d’applications internet, comme la VoIP, concurrentes à celles que les fournisseurs d’accès à internet commercialisent, sous forme de services gérés ou non ;
– la dégradation de certains flux, par exemple le peer-to-peer, pour décharger le réseau en heure de pointe ;
– le refus ciblé de mettre à niveau les interconnexions pour conduire des fournisseurs de contenu à abandonner leurs fournisseurs de transit et conclure directement des contrats de peering payant avec les fournisseurs d’accès à internet.
D.— LE DROIT : LES INSTRUMENTS EXISTANTS PERMETTANT DE FAIRE FACE AUX RISQUES
La capacité du cadre juridique actuel à répondre aux problèmes de neutralité sera analysée en détail dans la partie suivante. Il est cependant utile d’en présenter les grandes lignes afin de voir s’il est capable de répondre aux risques qui viennent d’être évoqués.
Les dispositions pertinentes qui figurent actuellement dans le code des postes et des communications électroniques sont les suivantes :
– les opérateurs doivent respecter un principe de neutralité à l’égard des contenus qu’ils acheminent (art. L. 33-1 et D. 98-5) et le secret des correspondances (art. L. 32-3), mais ces règles leur interdisent de modifier le contenu des informations transportées et non de faire varier les caractéristiques de l’acheminement ;
– les objectifs fixés aux autorités réglementaires à l’article L. 32-1 leur permettent de promouvoir certaines dimensions de la neutralité mais pas toutes (notamment à travers l’objectif de veiller à « l'absence de discrimination, dans des circonstances analogues, dans les relations entre opérateurs et fournisseurs de services de communications au public en ligne pour l'acheminement du trafic et l'accès à ces services », ainsi qu’au « respect par les opérateurs de communications électroniques du secret des correspondances et du principe de neutralité au regard du contenu des messages transmis ») ;
– les pouvoirs de régulation symétrique en matière d’interconnexion et d’accès (art. L. 34-8 et suiv.) et de régulation asymétrique (art. L. 37-1 et suiv.) n’ont qu’une portée limitée en raison de la difficulté à mettre en évidence la nécessité de réguler le marché de l’interconnexion, ce que la Commission a déjà refusé dans un cas d’espèce ;
– en revanche, le pouvoir de règlement des différends de l’ARCEP (art. L. 36-8) pourrait s’avérer utile. Il est toutefois difficilement utilisable par les petits acteurs, qui doivent faire la preuve d’un traitement inéquitable. Il suppose par ailleurs, pour être efficace, une meilleure connaissance du réseau internet par le régulateur.
Contrairement à une idée souvent avancée, le droit général de la concurrence n’apporte pas toutes les garanties. Il n’apparaît pas opérant dans le cas de la dégradation du peer-to-peer, qui soulève des problèmes qui ne sont pas de nature concurrentielle. Dans les autres cas, l’abus de position dominante suppose de prouver l’existence d’un marché sur lequel il y a position dominante, ce qui n’est pas toujours facile, et la prohibition des ententes admet des exceptions pour promouvoir l’innovation. Des précisions sont fournies sur ce point dans la partie sur la gestion de trafic.
2. Les dispositions issues du troisième paquet télécoms
En bref, le troisième paquet télécoms contient trois séries de dispositions relatives à la neutralité (25) :
– la consécration du principe de neutralité comme objectif de la régulation, à la fois dans sa dimension économique (promotion d’une concurrence effective entre fournisseurs d’accès à internet et fournisseurs de contenus au bénéfice du consommateur « y compris pour la transmission de contenu ») et dans sa dimension sociétale (objectif de « favoriser l'accès des utilisateurs finals à l'information et préserver leur capacité à diffuser ainsi qu'à utiliser les applications de leur choix ») ;
– des obligations de transparence imposées aux opérateurs en matière de gestion de trafic et de restrictions à l’accès au réseau, pour assurer la protection du principe de neutralité par le jeu de la concurrence (nouvelles mentions obligatoires figurant dans les contrats de services de communications électroniques, devant figurer sous une forme claire, détaillée et aisément accessible : procédures de gestion de trafic, restrictions à l’accès à des services ou à des équipements, réactions pour assurer la sécurité et l’intégrité du réseau, etc.) ;
– de nouveaux pouvoirs accordés au régulateur afin de lui permettre d’empêcher la violation du principe de neutralité (pouvoir de fixer des exigences minimales en termes de qualité de service ; pouvoir de règlement des différends étendu aux litiges portant sur l’acheminement du trafic entre des opérateurs et d’autres entreprises, y compris des fournisseurs de contenu).
Au regard des exemples évoqués, ces dispositions apparaissent utiles, notamment parce qu’elles pourraient permettre : (i) à un opérateur de VoIP ou à un fournisseur de contenu dont l’interconnexion serait dégradée, de saisir l’ARCEP d’une demande de règlement de différend ; (ii) à l’ARCEP, d’imposer des exigences minimales de qualité de service visant à empêcher la dégradation excessive de la qualité de l’acheminement d’un protocole. Ces indications demandent cependant à être examinées en détail, et la partie suivante conclut, à l’issue de cet examen, à la nécessité de renforcer le droit existant afin d’apporter plus de garanties.
La première partie du rapport a été consacrée à la présentation du réseau internet et la mise en évidence des risques que fait peser le développement de pratiques sur l’avenir d’internet. Ceci explique que se pose la question de l’opportunité d’une intervention des pouvoirs publics pour protéger la neutralité. Pour répondre à cette question, il est nécessaire d’analyser les problèmes concrets d’atteinte à la neutralité de l’internet. Ceux-ci sont au nombre de trois et correspondent de manière schématique aux différentes dimensions, techniques, économiques et juridiques du débat : le blocage et le filtrage légaux qui concentrent l’essentiel des questions juridiques (A) ; la gestion de trafic qui procède du débat technique (B) ; l’interconnexion au travers de laquelle se joue une grande partie des enjeux économiques (C).
A.— LE BLOCAGE ET LE FILTRAGE LÉGAUX
► Des précisions s’imposent d’abord sur le vocabulaire. Les distinctions proposées comportent une part d’arbitraire car il y a peu d’uniformité dans l’emploi des termes mais elles permettent de différencier plusieurs situations. Parmi les techniques permettant de restreindre les échanges d’information sur internet, il est proposé de distinguer par convention et pour la suite du rapport entre :
– le « blocage », qui consiste à empêcher une communication sans inspection de contenu, et le « filtrage » qui repose sur une inspection de contenu (26);
– le blocage ou le filtrage réalisés en cœur de réseau, et le « contrôle » parental ou autres dispositifs filtrant l’accès à certains contenus à partir des extrémités du réseau, généralement à l’aide d’un logiciel installé sur un ordinateur ;
– le blocage et le filtrage « légaux » et ceux mis en œuvre par les opérateurs à leur propre initiative.
► Cette partie traite de la seule question du blocage et du filtrage légaux. Le blocage et le filtrage réalisés à l’initiative des opérateurs étant appréhendable comme une mesure de gestion de trafic technique ou comme une mesure d’ordre commerciale, il est traité dans la partie suivante.
Le cas du contrôle parental est laissé de côté car ces dispositifs sont contrôlés par les internautes, qui peuvent généralement les paramétrer et les désactiver, et ne paraissent de ce fait pas poser de problème de neutralité.
Les questions liées au blocage et au filtrage légaux sont spécifiques : (i) en raison de leur caractère contraignant à la fois pour les opérateurs et les internautes, ce qui soulève des questions en termes de libertés publiques ; (ii) parce qu’ils sont mis en œuvre directement dans le réseau de l’opérateur, ce qui soulève de nombreuses questions techniques. Les opérateurs français peuvent aujourd’hui être soumis à des obligations de blocage mais pas de filtrage.
Il faut aussi noter que sont exclues de la réflexion qui suit les mesures reposant sur des techniques de filtrage ou de blocage nécessaires pour assurer la sécurité du réseau, largement consensuelles.
► Quelques précisions pour justifier que la question de la neutralité de l’internet soit concernée par celle du blocage et du filtrage légaux.
Certes, la FCC a pris position, à partir de 2005, pour exclure les contenus « illégaux » du champ de la réglementation en matière de neutralité (27). La Commission européenne n’a pas traité cette question dans sa consultation publique (28) . Dans ses premières orientations, l’ARCEP a traité brièvement le sujet en mentionnant qu’il appartient au Conseil constitutionnel et au législateur de déterminer si des obligations de blocage ou de filtrage portent atteinte aux libertés (29). La réserve de ces acteurs sur les mesures de blocage ou de filtrage qui devraient être ou non imposées par la loi s’explique par un manque de légitimité à intervenir sur le sujet, réellement législatif et qui relève de la compétence des États membres. Les régulateurs, comme la FCC et l’ARCEP, ne disposent que d’un pouvoir réglementaire et la Commission européenne n’intervient que dans les domaines de compétence de l’Union européenne.
La définition même de la neutralité en termes de libertés offertes à l’internaute d’accéder à tous les contenus, services et applications montre pourtant que le problème du blocage et du filtrage légaux entretient un rapport étroit avec la neutralité. Depuis le début des débats législatifs sur les mesures obligatoires de blocage, les fournisseurs d’accès à internet signalent d’ailleurs que leur imposer ce type de mesures conduirait à les faire intervenir sur les contenus qu’ils acheminent, en violation de la neutralité, alors que leur métier d’opérateur se limite à les transporter.
Dans son rapport sur la neutralité, le Gouvernement a, par ailleurs, rappelé que le débat sur le blocage d’internet constitue une dimension du débat sur la neutralité (30).
Le diagnostic sur les techniques de blocage et de filtrage et leur efficacité fait l’objet d’un relatif consensus. Les développements qui suivent résument les principaux enseignements à tirer des auditions réalisées et des analyses contenues dans des documents élaborés à la fois par des acteurs favorables et des acteurs défavorables à la mise en œuvre de mesures légales de blocage ou de filtrage (31).
a) Les techniques de blocage et de filtrage
Il est possible de distinguer, parmi les solutions techniques disponibles, quatre grandes méthodes de blocage et de filtrage, en fonction de ce qui est bloqué.
► Le blocage d’adresses IP.
Le principe est soit de bloquer directement, au niveau de chaque routeur, les paquets mentionnant dans leur en-tête une adresse figurant sur une liste d’adresses IP à bloquer préalablement entrée dans le routeur (« blocage d’adresse IP »), soit de diffuser des « fausses routes » via le protocole BGP à partir de certains routeurs, qui attirent ainsi les paquets à destination des adresses figurant là aussi sur une liste d’adresses IP à bloquer (« blocage BGP »).
Cette technique présente au moins deux inconvénients : (i) elle ne permet pas de distinguer, dans le blocage, entre des sites web partageant la même adresse IP, par exemple parce qu’ils sont hébergés sur le même serveur, ce qui est très fréquent, inconvénient que permet de contourner le filtrage « hybride » (cf. ci-après « blocage d’url ») ; (ii) la méthode BGP, qui présente l’avantage de pouvoir être mise à jour plus rapidement, est susceptible de mettre en danger le réseau, si de « fausses routes » sont diffusées au-delà du réseau du FAI (comme cela a été le cas avec le blocage de Youtube par le Pakistan en 2008, qui a conduit à l’impossibilité d’accéder à Youtube au niveau mondial pendant plusieurs minutes).
► Le blocage de noms de domaine.
Le principe est de falsifier les réponses aux requêtes DNS en ne donnant pas l’adresse IP correspondant aux noms de domaine bloqués. Cette méthode permet le blocage en amont de l’échange d’information entre un internaute et un site web (« blocage DNS »). Il nécessite que les fournisseurs d’accès à internet mettent en place des filtres au niveau de leurs serveurs DNS.
Cette technique présente l’inconvénient de : (i) ne pas pouvoir distinguer entre les différentes pages d’un même site ; (ii) être facilement contournable par les internautes, qui peuvent aisément adresser leurs requêtes DNS à d’autres serveurs DNS que ceux de leur fournisseur d’accès à internet.
► Le filtrage par inspection de contenu.
Les routeurs se contentent normalement de lire les en-têtes des paquets IP et n’inspectent pas leur contenu. Le filtrage de contenu nécessite l’installation de serveurs d’inspection de contenu et le passage de tout le trafic par ces serveurs. Les serveurs permettent ensuite d’analyser le contenu des paquets et de les bloquer selon une très large gamme de critères. Cette technique était notamment envisagée, dans l’annexe du rapport de la mission Olivennes, comme pouvant permettre, associée à la constitution de bases d’empreinte numériques et après qu’aient été menées des expérimentations pour préciser la faisabilité technique du dispositif, de filtrer les échanges illicites d’œuvres protégées.
Les problèmes liés à l’emploi de cette technique sont multiples : (i) elle conduit à l’analyse du contenu de tous les échanges sur internet, avec les risques de dérives que cela comporte ; (ii) elle oblige à concentrer le trafic en un nombre limité de points, avec risque de perte de qualité de service pour l’ensemble des utilisateurs, ou à installer des serveurs d’inspection de contenu à de nombreux points du réseau, avec un coût potentiellement exorbitant ; (iii) les expérimentations n’ont été réalisées qu’à un niveau limité et il subsiste de fortes incertitudes sur la possibilité de généraliser le dispositif.
► Le blocage d’url.
Il s’agit d’une combinaison d’un blocage BGP et d’un filtrage par inspection de contenu, qui a pour objectif de bloquer les demandes d’url correspondant à celles figurant sur une liste (« blocage hybride »). Les problèmes sont les mêmes que dans le cas du blocage BGP et du filtrage par inspection de contenu.
b) Les méthodes de contournement
Il existe à la fois des méthodes de contournement spécifiques à chacune des techniques de filtrage et des méthodes de contournement générales :
– l’utilisation de sites « miroir », c’est-à-dire d’une réplication du site sur une autre adresse IP, une autre url et un autre nom de domaine, permet en théorie d’échapper à toutes les techniques de blocage et de filtrage disponibles, sauf le filtrage par inspection de contenu, mais il nécessite que l’internaute connaisse l’adresse IP du site miroir et que les mises à jour du site ne soient pas trop fréquentes ;
– l’utilisation d’un proxy, c’est-à-dire d’un site servant d’intermédiaire de connexion entre l’utilisateur et le site auquel il souhaite se connecter, permet aussi d’échapper à la plupart des techniques de blocage ;
– les techniques fastflux permettent de changer très rapidement d’adresse IP afin d’éviter les techniques de blocage d’adresses IP. Elles ne sont en revanche pas efficaces contre les méthodes s’appuyant sur le blocage DNS ;
– le blocage DNS est très facilement contournable par l’internaute si celui-ci se connecte à un autre DNS que celui du fournisseur d’accès à internet ;
– enfin, le chiffrement ou le recours à un réseau privé virtuel (en anglais VPN pour virtual private network) permettent de masquer le contenu des paquets IP et d’échapper au filtrage.
Premier point, ces éléments montrent que des mesures de blocage peuvent techniquement être mises en œuvre. Elles l’ont d’ailleurs été, peu en France (32) mais de manière plus importante dans d’autres pays, y compris dans des pays démocratiques (33). À l'exception du filtrage généralisé, il ne semble pas qu’elles induisent une diminution significative de la qualité de l’internet. Il faut cependant noter qu’à l’instar de l’Allemagne, plusieurs pays ont récemment abandonné le blocage face à son coût et sa faible efficacité.
Deuxième point, le blocage et le filtrage ne sont pas des opérations techniquement simples à exécuter. Des actions sophistiquées doivent être réalisées sur le réseau. Les blocages BGP et DNS paraissent toutefois beaucoup plus faciles à mettre en œuvre que le blocage hybride et, surtout, que le filtrage par inspection de contenu. La complexité de la mise en œuvre dépend par ailleurs de chaque réseau, ce qui explique : (i) la difficulté qu’il y aurait à mettre en œuvre du blocage hybride en France, du fait de la décentralisation des réseaux internet ; (ii) le souhait des opérateurs de disposer, si des mesures de blocages devaient néanmoins leur être imposées, du choix de la solution technique à implémenter.
Troisième point, toutes les techniques génèrent à la fois du sur-blocage – c’est-à-dire le blocage de flux qui ne devraient pas être bloqués, ce que l’anglais désigne du nom évocateur de « faux positifs » – et du sous-blocage – c’est-à-dire l’absence de blocage de flux qui devraient être bloqués, ou « faux négatifs ». Il faut notamment remarquer qu’existent des techniques permettant de contourner chaque technique de blocage de manière relativement simple. Étant donné la capacité des internautes à adopter de nouvelles pratiques sur internet, il est à craindre que, face au blocage, des pratiques de contournement se mettent rapidement en place. Certaines d’entre elles, notamment le chiffrement, présentent des risques pour la sécurité bien supérieurs à la défense des intérêts protégés, de manière inefficace, par le blocage ou le filtrage.
Quatrième point, il existe peu d’évaluations du coût de la mise en œuvre des différentes techniques de filtrage. Les seules estimations disponibles sont les indications données dans les études d’impact de la LOPPSI réalisées par le Gouvernement (34) et par la FFT (35).
L’analyse du cadre juridique en vigueur permet de rappeler les principales évolutions qui ont eu lieu depuis dix ans et de préciser la marge de manœuvre dont dispose le législateur.
a) Dix ans de débats législatifs
► Le débat législatif sur les mesures obligatoires de filtrage a fait son apparition à l’occasion de l’examen de la loi relative à la confiance dans l’économie numérique de 2004, qui transposait notamment la directive « commerce électronique » de 2000. Cette loi donnait au juge la possibilité d’exiger des fournisseurs d’accès à internet qu’ils prennent toutes mesures propres à faire cesser un dommage occasionné par un service de communications au public en ligne et qu’ils suspendent l’accès à un contenu violant le droit d’auteur. Mme Michèle Tabarot (36), rapporteure pour avis de la commission des Lois de l’Assemblée nationale, à laquelle avait été renvoyé l’examen des articles relatifs aux mesures de blocage, notait à cette occasion : (i) l’inefficacité partielle de ces mesures sur un plan technique et les possibilités de contournement ; (ii) la plus grande efficacité de la suppression du contenu par rapport au blocage, justifiant le principe de subsidiarité suivant lequel des mesures visant à empêcher l’accès aux contenus doivent d’abord être imposées aux hébergeurs avant d’être imposées aux fournisseurs d’accès à internet (37) ; (iii) la nécessité de disposer de moyens d’intervention lorsque l’hébergeur échappe, en raison de sa situation géographique, à toute action en justice. Le rapport de la commission de l’économie du Sénat précisait que la nouvelle faculté que la loi offrait au juge ne s’écartait pas significativement des pouvoirs généraux confiés par le nouveau code de procédure civile au juge dans le cadre du référé (38).
La loi HADOPI de 2009 a suscité d’importants débats sur la question de la suspension de l’accès internet, qui ne concerne pas directement le blocage. Le déplacement des dispositions relatives au blocage de contenus violant le droit d’auteur a, par ailleurs, été l’occasion d’une discussion directe de la question du blocage légal. M. Michel Thiollière (39), rapporteur du Sénat, rappelait à cette occasion que : (i) la Cour de Cassation avait réduit à néant le principe de subsidiarité invoqué par les fournisseurs d’accès à internet (40) ; (ii) sur le fondement des précisions techniques apportées par la mission Olivennes et de la définition du filtrage comme filtrage de contenu, il ne paraissait pas compatible avec le droit européen d’imposer aux fournisseurs d’accès à internet des obligations de « filtrage », ce qui serait contraire à l’interdiction, par l’article 12 de la directive « commerce électronique », de l’imposition aux intermédiaires techniques d’une obligation générale de surveillance (41).
La loi relative aux jeux en ligne de 2010 prévoyant un mécanisme de blocage des sites de jeux en ligne non agréés a conduit à une répétition des débats antérieurs, les rapporteurs de l’Assemblée nationale et du Sénat s’exprimant en faveur du blocage. Un élément de débat nouveau concernait la possibilité d’instituer une procédure de blocage administrative plutôt que passant par le juge, les débats étant ici inspirés par les dispositions prévues dans la LOPPSI, déposée au Parlement plus antérieurement mais adoptée plus tardivement.
Enfin, l’examen de la LOPPSI a été l’occasion de débats intenses sur la question de l’intervention du juge pour prononcer des mesures de blocage de contenus pédopornographiques, la solution retenue reposant au final, et contrairement à la loi sur les jeux en ligne, sur la décision de la seule autorité administrative (42).
► Du fait de ces diverses lois, il existe aujourd’hui quatre bases législatives permettant d’imposer des mesures de blocage.
Loi relative à la confiance dans l’économie numérique, article 6, I.7. : « Lorsque les nécessités de la lutte contre la diffusion des images ou des représentations de mineurs relevant de l'article 227-23 du code pénal le justifient, l'autorité administrative notifie aux personnes mentionnées au 1 du présent I [les fournisseurs d’accès à internet] les adresses électroniques des services de communication au public en ligne contrevenant aux dispositions de cet article, auxquelles ces personnes doivent empêcher l'accès sans délai. »
Idem, article 6, I.8. : « L'autorité judiciaire peut prescrire en référé ou sur requête, à toute personne mentionnée au 2 [les hébergeurs] ou, à défaut, à toute personne mentionnée au 1 [les fournisseurs d’accès à internet], toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne. »
Code de la propriété intellectuelle, article L. 336-1 : « En présence d'une atteinte à un droit d'auteur ou à un droit voisin occasionnée par le contenu d'un service de communication au public en ligne, le tribunal de grande instance, statuant le cas échéant en la forme des référés, peut ordonner à la demande des titulaires de droits sur les œuvres et objets protégés, de leurs ayants droit, des sociétés de perception et de répartition des droits visées à l'article L. 321-1 ou des organismes de défense professionnelle visés à l'article L. 331-1, toutes mesures propres à prévenir ou à faire cesser une telle atteinte à un droit d'auteur ou un droit voisin, à l'encontre de toute personne susceptible de contribuer à y remédier.
Loi relative aux jeux en ligne, article 61 : « À l’issue de ce délai, en cas d'inexécution par l'opérateur intéressé de l'injonction de cesser son activité d'offre de paris ou de jeux d'argent et de hasard, le président de l'Autorité de régulation des jeux en ligne peut saisir le président du tribunal de grande instance de Paris aux fins d'ordonner, en la forme des référés, l'arrêt de l'accès à ce service aux personnes mentionnées au 2 du I [les hébergeurs] et, le cas échéant, au 1 du I [les fournisseurs d’accès à internet] de l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique. »
b) Les contraintes constitutionnelles et européennes
► La jurisprudence du Conseil constitutionnel.
Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle (43), le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès (44). Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage « assurent une conciliation qui n'est pas disproportionnée entre l'objectif de valeur constitutionnelle de sauvegarde de l'ordre public et la liberté de communication garantie par l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789 », la décision de l’autorité administrative étant notamment toujours contestable devant le juge (45).
► Le droit européen.
L’article 10 de la convention européenne des droits de l’homme protège la liberté d’expression mais dispose aussi que « l'exercice de [cette liberté] comportant des devoirs et des responsabilités peut être soumis à certaines formalités, conditions, restrictions ou sanctions prévues par la loi, qui constituent des mesures nécessaires, dans une société démocratique, à la sécurité nationale, à l'intégrité territoriale ou à la sûreté publique, à la défense de l'ordre et à la prévention du crime, à la protection de la santé ou de la morale, à la protection de la réputation ou des droits d'autrui, pour empêcher la divulgation d'informations confidentielles ou pour garantir l'autorité et l'impartialité du pouvoir judiciaire ». L’article 12 de la directive « commerce électronique » de 2000 interdit d’imposer aux fournisseurs d’accès à internet une obligation générale de surveillance des contenus mais, de l’avis général, ces dispositions limitent peu les obligations de blocage qui pourraient être imposées aux opérateurs (46).
Premier point, le législateur dispose d’une large marge de manœuvre pour imposer des mesures obligatoires de blocage et de filtrage. Les normes de droit constitutionnel et de droit européen n’exigent guère plus que le fait que le blocage et le filtrage répondent à un objectif légitime. Ce n’est toutefois pas parce que le législateur peut imposer des mesures de blocage qu’il le doit.
Deuxième point, la pression législative s’accroît au fil du temps. La hausse de la demande de blocage transparaît à la fois d’un point de vue quantitatif (une seule base législative adoptée de 2004 à 2009, contre trois depuis 2009) et d’un point de vue qualitatif (avec la volonté d’imposer aux fournisseurs d’accès à internet des obligations de résultats et d’éviter l’intervention du juge).
La relative inefficacité technique du blocage et l’accroissement de la pression législative, évoqués précédemment, conduisent à s’interroger sur la justification des mesures obligatoires de blocage.
a) Les positions des acteurs et les arguments mobilisés
► Les positions des acteurs.
En France, le débat oppose le « monde de l’internet » et le « monde de la culture » et plus précisément :
– les associations d’internautes qui : (i) s’opposent au blocage sur le fondement de la restriction qu’il constitue à la liberté d’expression, de son inefficacité et du refus que les fournisseurs d’accès à internet jouent le rôle de gendarmes ; (ii) demandent, s’il est néanmoins mis en œuvre, l’intervention d’un juge (47) ;
– les fournisseurs d’accès à internet qui : (i) s’opposent au blocage sur le fondement de son inefficacité et de son coût ; (ii) demandent, s’il est mis en œuvre, d’obtenir une compensation financière, de pouvoir choisir les solutions techniques adaptées à leur réseau et se contenter ensuite de mettre en œuvre les mesures prescrites par les autorités publiques afin de ne pas être tenus pour responsables des effets du blocage (48) ;
– les sociétés d’ayant droits qui demandent que : (i) la loi permette de bloquer les contenus échangés en violation du droit d’auteur (49) ; (ii) les fournisseurs d’accès à internet réalisent les expérimentations de filtrage en cœur de réseau qu’ils s’étaient engagés à conduire dans le cadre des accords de l’Élysée de 2007 (50).
Il est utile de rappeler les premières orientations de la mission d’information en matière de blocage et les réactions qu’elles ont suscitées:
– l’unification des procédures légales permettant de prononcer des mesures obligatoires de blocage et le passage systématique par le juge (§23, troisième tiret) n’ont pas suscité d’opposition ;
– en revanche, la proposition de limiter « les obligations de filtrages […] aux contenus les plus nuisibles ou lorsqu’elles ne risquent pas de conduire au développement de pratiques de détournement néfastes pour le fonctionnement d’internet » (§19, premier tiret) a suscité des interrogations sur ce que la mission d’information entendait par « contenus les plus nuisibles » ;
– l’opportunité d’instituer une exigence de proportionnalité des mesures légales de filtrage et d’en confier l’application à l’ARCEP (§24, premier tiret) n’a pas été comprise : il s’agissait de proposer l’intervention de l’ARCEP pour évaluer au cas par cas les effets pervers suscités par les mesures de blocage et, dans le cas où ils seraient trop importants, suspendre leur mise en œuvre ;
– le blocage et le filtrage réalisés à l’initiative des opérateurs étaient par ailleurs traités conjointement avec le blocage et le filtrage légal (§15 ; §19 deuxième et troisième tirets). Il apparaît plus clair de traiter cette question dans le cadre de l’analyse du problème de la gestion de trafic, comme restriction de l’accès à certains contenus.
► Les arguments échangés.
Les débats approfondis qui ont eu lieu à l’occasion de l’examen de la LOPPSI permettent de préciser le contenu des arguments échangés (51).
Les partisans du blocage faisaient valoir, en faveur du dispositif de blocage proposé, que : (i) des dispositifs de ce type ont été mis en œuvre à l’étranger avec succès ; (ii) le blocage représente une restriction de la liberté d’expression qui n’est pas excessive (étant notamment contestable devant le juge) ; (iii) une procédure passant par l’autorité administrative, plutôt que le juge, permet une plus grande réactivité.
Les opposants au blocage mentionnaient : (i) l’inefficacité technique du fait des possibilités de contournement ; (i) l’inutilité, découlant du fait qu’en pratique les hébergeurs suppriment rapidement les contenus pédopornographiques lorsqu’ils leur sont signalés ; (iii) les risques de dérives liés à la tenue d’une liste noire, avérés dans les pays où le blocage a été mis en œuvre ; (iv) le caractère contre-productif de ces mesures, qui réduisent de fait la coopération internationale en matière de lutte physique contre la pédopornographie ; (v) les risques de surblocage et de mise en cause de la résilience du réseau ; (vi) enfin, la généralisation de pratiques d’échanges de données cryptées ou d’utilisation de proxy.
► Le problème du blocage.
Le problème du blocage légal peut être éclairci en distinguant trois questions.
- Première question : quels sont les cas dans lesquels il paraît légitime, du fait de la conciliation à opérer entre liberté de communication et les autres intérêts publics, d’obliger les opérateurs à mettre en œuvre des mesures de blocage ? Il s’agit d’un problème d’arbitrage entre des valeurs qui entrent en conflit, qui est le problème le plus couramment débattu au niveau législatif. À cet égard, il est utile de rappeler ici que, de manière très générale, il n’est pas évident qu’il faille empêcher les communications électroniques « illicites » (prévenir) plutôt que de condamner les activités illicites dont ces communications sont le support (punir). Le choix entre le moyen de lutter contre les activités illicites dépend notamment, mais pas seulement, des risques que des mesures de prévention font peser sur les libertés publiques.
– Deuxième question : qui doit déterminer les contenus qui doivent être bloqués ? Cette question renvoie au problème, plus récent au niveau législatif, de l’intervention du juge ou de l’autorité administrative pour prononcer des mesures obligatoires de blocage.
– Troisième question : les effets positifs attendus de la mise en œuvre de mesures de blocage sont-ils supérieurs aux effets négatifs ? Il s’agit du problème classique de l’efficacité du filtrage, qu’il convient toutefois de replacer dans le contexte plus large d’une analyse coûts-bénéfices. La question qui se pose au législateur n’est pas seulement de savoir : (i) si les mesures obligatoires de blocage procèdent d’une conciliation équilibrée entre la liberté d’expression et d’autres intérêts publics (peut-être) ; (ii) si elles sont efficaces (pas totalement) ; mais aussi (iii) si les bénéfices à en attendre sont supérieurs aux coûts ou aux risques (il semble que non). À cet égard, un exemple peut être éclairant. Téléphoner en conduisant est dangereux et constitue une communication « illégale », que la police et la gendarmerie répriment lorsqu’elles la constatent, et qui fait l’objet de mesures de prévention dans le cadre de la sécurité routière. Faut-il pour autant mettre en œuvre un dispositif complexe et coûteux pour bloquer les communications au volant en géolocalisant les appels et en analysant le signal vocal de manière systématique afin de repérer les appels passés au volant et pouvoir les bloquer ?
► Orientations.
Les arguments cités contre le blocage sont nombreux : faible efficacité sur les personnes ayant une réelle volonté de commettre des infractions ; effets pervers en raison du surblocage et de résilience de réseau ; coût disproportionné pour des techniques plus fines comme le filtrage hybride par rapport aux gains espérés… Un argument additionnel, qui a émergé au cours des travaux de la mission, revêt une importance particulière : il n’est pas certain que le bilan du blocage légal en terme de sécurité soit positif. En effet, beaucoup d’internautes sont attachés à la liberté de communication et capables de développer de manière collaborative des applications permettant de masquer leurs communications pour échapper à la surveillance. Cela pourrait conduire à la convergence entre les pratiques du grand public et celles d’organisations criminelles utilisant déjà des méthodes sophistiquées de masquage de leur communication (anonymisation, chiffrement, etc.). Ces éléments motivent les propositions de la mission d’information, présentées dans la troisième partie du rapport, de faire intervenir systématiquement le juge, de conduire des investigations supplémentaires sur les effets du blocage et, dans l’attente, d’éviter d’instituer de nouvelles mesures.
En conclusion, le blocage systématique n’apparaît pas comme la solution aux difficultés que fait peser le développement d’internet sur l’avenir des industries culturelles et, de manière plus générale, aux difficultés liées à la territorialisation du droit dans des secteurs d’activités fortement dématérialisés.
► Si la question des mesures légales de blocage qui vient d’être évoquée constitue un aspect important de la neutralité d’internet, le cœur du débat porte sur un sujet plus obscur pour le grand public : la « gestion de trafic ».
Il est utile de définir plusieurs notions avant d’entamer la présentation du problème :
– la « gestion de trafic » renvoie, selon la définition retenue par l’ARCEP, à toutes les formes techniques d’intervention sur les flux de données mises en œuvre en prenant en compte la nature du trafic, ou encore l’identité ou la qualité de son émetteur ou de son destinataire (52) ;
– l’internet public est dit « best effort » car, par construction, il n’offre pas de garanties de performance dans l’acheminement du trafic (délai, perte d’informations, etc.) (53) ;
– les « services gérés » peuvent être définis comme tous les services d’accès à des contenus, services et applications par voie électronique, pour lesquels l’opérateur de réseau garantit des caractéristiques spécifiques de bout en bout (par opposition à l’internet public best effort) grâce aux traitements mis en œuvre, soit directement sur le réseau qu’il contrôle, soit au travers d’accords avec les opérateurs chargés d’acheminer le trafic (54).
► Le débat sur la gestion de trafic renvoie fondamentalement à l’architecture de l’internet et à l’opportunité que celui-ci comporte de l’intelligence dans le réseau plutôt qu’aux seules extrémités (55). Il a concentré jusqu’à aujourd’hui l’essentiel de la réflexion sur la neutralité (56). Un des apports des travaux de la mission d’information, par rapport aux travaux conduits précédemment, notamment par l’ARCEP, est peut-être de mettre mieux en lien ce problème avec ceux que soulèvent les mesures obligatoires de blocage et d’interconnexion (57). La gestion de trafic pose cependant des problèmes propres, notamment concernant la priorisation de certains flux et la qualité de l’internet.
Les méthodes de gestion de trafic sont plus difficiles à documenter que celles relatives au blocage légal. Il est cependant possible d’apporter des précisions à partir d’études réalisées par des autorités publiques ou des opérateurs (58).
► La performance d’un réseau de communications électroniques peut être définie à partir de la bande passante (« taille » du tuyau), la latence (délai de transmission du point de départ au point d’arrivée), la gigue (variation de ce délai), du taux de perte de paquet et du taux d’erreur (absence de transmission des données ou transmission de données erronées) (59).
Les besoins des différents services et applications en termes de performance du réseau sont variables ; il est notamment possible de distinguer entre les applications consommatrices de bande passante (comme la vidéo) et celles qui ne le sont pas (comme la messagerie électronique), et entre applications en temps réel dites « synchrones » (comme la téléphonie) et applications « asynchrones » (comme l’échange de fichier).
Il faut aussi noter que, dans le cas d’internet, la qualité du point de vue de l’utilisateur, souvent appelée « qualité d’expérience », ne correspond pas forcément aux performances du réseau de l’opérateur auquel il est connecté :
– elle dépend d’abord de la bande passante de la connexion aux extrémités : la visualisation d’une vidéo haute définition sera ainsi difficile avec un accès à internet, du côté de l’internaute, ne permettant un débit maximal que de 512 Kbps et, du côté du fournisseur de contenu, si les serveurs sont saturés ou si le débit par utilisateur est limité ;
– la plupart des communications passant ensuite par plusieurs réseaux, la qualité perçue par l’utilisateur dépend de la performance des réseaux des autres opérateurs, mais aussi de la manière dont les différents réseaux sont raccordés entre eux, c’est-à-dire de l’interconnexion ;
– la qualité est ensuite fortement dépendante de la localisation des contenus ou services auxquels l’internaute souhaite accéder : plus le contenu est localisé loin et plus la qualité de la communication a des chances de baisser en traversant des points du réseau congestionnés, ce qui explique le développement des CDN mais aussi l’intérêt des réseaux de peer-to-peer, qui permettent de distribuer les échanges de fichiers entre plusieurs utilisateurs.
Le terme de « qualité de service » (en anglais QoS pour quality of service) est utilisé en un sens restreint pour désigner les garanties de qualité apportées aux services d’acheminement, ce qui se fait essentiellement sur les réseaux IP mutualisés en définissant des classes de services ayant différents niveaux de priorité. Le terme est aussi utilisé dans un sens large pour désigner la performance des réseaux, telle que définie précédemment, voire la qualité d’expérience.
► La gestion de trafic telle que définie précédemment, c'est-à-dire comme intervention des opérateurs sur les flux de données, a des effets ambigus sur l’acheminement du trafic :
– d’un côté, elle permet d’offrir des garanties en terme de qualité de service, donc de fournir un meilleur service aux utilisateurs ; elle peut aussi permettre une gestion plus intelligente qui économise de la bande passante (60) ;
– d’un autre côté, elle conduit à favoriser certains flux, ce qui se fait, à bande passante égale, au détriment des autres flux et dégrade donc leur qualité. D’où le problème de discrimination dans l’acheminement des flux que pose la gestion de trafic au regard du principe de neutralité de l’internet.
b) Les technologies de gestion de trafic
Pour comprendre les débats sur la gestion de trafic, il est utile de disposer d’indications sur les méthodes disponibles et celles qui sont aujourd’hui mises en œuvre par les opérateurs.
Tout réseau fait l’objet d’opérations d’« ingénierie de trafic », qui permettent d’assurer la bonne transmission des communications électroniques. L’ingénierie de trafic comprend plusieurs types d’activités :
– la « planification de capacités », qui se fait à l’échelle du mois ou de l’année et qui consiste à organiser les infrastructures physiques afin de disposer des capacités nécessaires pour acheminer le trafic injecté sur le réseau ;
– la « gestion de trafic », qui peut se faire à une échelle de temps beaucoup plus courte, vise à éviter les congestions et s’appuie notamment sur : (i) la redéfinition des routes par lesquelles acheminer le trafic, (ii) la réservation de capacités et (iii) la « mise en forme » du trafic.
Pour comprendre le débat sur la gestion de trafic, il faut apporter deux précisions sur le fonctionnement d’internet. Premièrement, internet est, comme rappelé précédemment, historiquement un réseau best effort, c’est-à-dire n’offrant pas de garantie de qualité de service. Cela ne signifie pas que la qualité de l’internet soit faible : l’accroissement de la capacité des fibres et des routeurs a permis d’acheminer des volumes de données en forte hausse avec une augmentation de la qualité perçue par l’internaute. La plupart des applications n’ont d’ailleurs pas besoin de garantie de qualité. Deuxièmement, la convergence des réseaux vers le tout IP fait que les services d’acheminement avec garantie de qualité, ou « services gérés » dans la terminologie adoptée par l’ARCEP, empruntent la plupart du temps les mêmes « tuyaux » et équipements que l’internet.
Des routeurs permettent aujourd’hui de faire de la gestion de trafic à très haut débit soit en prédéfinissant des routes (par exemple en MPLS), soit en réservant des ressources (par exemple en RSVP), soit en traitant de manière différenciée les flux (par exemple en DiffServ). Quelques précisions sur le fonctionnement des routeurs DiffServ sont utiles :
– lorsque les paquets d’information arrivent à un routeur, ils forment une file d’attente avant que le routeur lise l’adresse de destination et, à partir de sa table de routage, et oriente le paquet dans la bonne direction ;
– en l’absence de congestion, le traitement par le routeur est presque instantané et il n’y a pas de problème de qualité de service ; en cas de congestion, en revanche, les paquets qui arrivent sont normalement mis dans une mémoire tampon puis, s’ils n’ont pas eu le temps d’être traités par le routeur alors que de nouveaux paquets arrivent, supprimés pour que le routeur puisse recevoir les nouveaux paquets ;
– les routeurs DiffServ permettent de traiter de manière différenciée les flux en cas de congestion en les mettant dans différentes mémoires tampon en fonction du niveau de priorité de chaque paquet et en programmant le routeur pour qu’il traite par priorité les paquets des mémoires tampons prioritaires, suivant des règles de priorité qui peuvent varier.
Une grande partie du débat vient du développement de techniques d’inspection approfondie (DPI) qui permettent de discriminer les paquets non seulement en fonction d’un niveau de priorité noté sur leur en-tête mais aussi « à la volée », à partir de l’identification par les routeurs de caractéristiques qui ne figurent pas dans l’en-tête (par exemple par extrapolation du protocole).
Enfin, le blocage et le filtrage utilisant des techniques décrites dans la partie sur le blocage légal à l’initiative de l’opérateur, par exemple pour bloquer certaines applications à partir de leur numéro de port normalisé figurant dans l’en-tête des paquets, peuvent constituer des techniques de gestion de trafic.
Premièrement, la gestion de trafic est surtout utile en donnant aux opérateurs la capacité de garantir la qualité des services gérés dans des réseaux tout IP (61). Son utilisation pour faire face à l’accroissement du trafic et lutter contre la congestion paraît limitée (62).
Deuxièmement, il faut rappeler que la gestion de trafic n’est qu’une méthode parmi d’autres pour assurer la qualité de l’acheminement des communications électroniques. Celle-ci dépend en grande partie de la saturation, des besoins des applications et de la localisation des contenus demandés par le consommateur, donc des investissements que font les opérateurs pour dimensionner correctement leurs réseaux et leurs interconnexions, de l’intervention des CDN et du format des données échangées.
Troisièmement, s’il est relativement aisé de déterminer quelles sont les technologies disponibles, il est beaucoup plus difficile de savoir quelles sont les technologies mises en œuvre. Quelques remarques : (i) les opérateurs gèrent apparemment les services de téléphonie et de télévision proposés dans le cadre des offres triple play, en leur réservant des capacités : (ii) les opérateurs proposent des offres aux entreprises avec des garanties de qualité de services, et recourent dans ce cadre à des techniques de priorisation du trafic susceptibles de dégrader la qualité de l’internet (63) ; (iii) les fournisseurs d’accès à internet français affirment qu’ils n’ont pas de contrats commerciaux avec des fournisseurs de contenu sur internet pour acheminer de manière prioritaire leurs contenus (64).
Avant d’entamer la présentation des règles relatives à la gestion de trafic, il est utile de faire quelques remarques générales à ce propos : (i) il n’existe pas de réelle contrainte constitutionnelle ou de droit européen ; (ii) le cadre juridique est dans son ensemble relativement peu contraignant pour les opérateurs ; (iii) le contenu des règles en vigueur est incertain car elles procèdent pour l’essentiel, soit de la régulation sectorielle ou concurrentielle générale, sans que les applications existent à l’heure actuelle, soit de pouvoirs nouveaux issus du troisième paquet télécoms, qui ne sont pas encore entrés en vigueur (65).
a) L’encadrement découlant directement de la loi
L’analyse de ces obligations montre que leur portée est relativement faible :
– Les opérateurs et les membres de leur personnel doivent, en application de l’article L. 32-3 du code des postes, respecter le secret des correspondances. L’application du secret des correspondances au réseau internet pose des difficultés qui peuvent être illustrées à travers deux exemples : (i) le mail entre manifestement dans la catégorie des correspondances mais qu’en est-il d’un échange de fichier initié sur un site web ou de l’écriture d’un texte sur un forum ? (ii) l’en-tête du paquet IP constitue l’analogue de l’adresse sur une lettre physique, mais l’extrapolation du protocole ou d’autres méthodes d’inspection approfondie des paquets doivent-elles être assimilées à la lecture d’un message ?
– L’article L. 32-3-3 du code des postes et des communications électroniques dispose que toute personne assurant une activité de transmission de contenus sur un réseau de communications électroniques ou de fourniture d'accès à un réseau de communications électroniques ne peut voir sa responsabilité civile ou pénale engagée à raison de ces contenus que dans les cas où, soit elle est à l'origine de la demande de transmission litigieuse, soit elle sélectionne le destinataire de la transmission, soit elle sélectionne ou modifie les contenus faisant l'objet de la transmission. Ce régime de responsabilité limitée des opérateurs à raison des contenus qu’ils acheminent est issu de la loi pour la confiance dans l’économie numérique de 2004 transposant la directive de 2000 « commerce électronique ». La mise en œuvre des techniques de gestion de trafic laisse clairement subsister la responsabilité limitée des opérateurs car, comme le montre la présentation technique précédente, elle ne repose ni sur le choix du destinataire, ni sur la modification du contenu.
– En application de l’article L. 33-1 du code des postes et des communications électroniques, les opérateurs de réseaux ouverts au public peuvent être soumis à des obligations relatives aux conditions de confidentialité et de neutralité au regard des messages transmis et des informations liées aux communications. L’article D. 98-5 du même code qui précise ces obligations se contente à cet égard d’indiquer que les opérateurs doivent prendre « les mesures nécessaires pour garantir la neutralité de leurs services vis-à-vis du contenu des messages transmis sur son réseau et le secret des correspondances » et qu’ils doivent assurer leurs services « sans discrimination quelle que soit la nature des messages transmis ». Les remarques déjà faites sur l’ambiguïté de la notion de « correspondance » sur internet s’appliquent ici aux notions de « contenu » et de « message ».
b) L’encadrement découlant directement de la régulation sectorielle et concurrentielle
La régulation concurrentielle et la régulation sectorielle ont pour objet d’imposer des obligations aux acteurs économiques en cas de défaillance de marché, notamment des « remèdes » en cas de problèmes concurrentiels. Il apparaît nécessaire, pour comprendre les garanties qu’elles apportent, de se fonder sur un exemple. Un des principaux problèmes soulevés par la gestion de trafic étant le traitement discriminatoire de flux du même type, les analyses qui suivent partiront de l’exemple d’un opérateur qui prioriserait les contenus qu’il délivre et refuserait de vendre la même priorité à une entreprise concurrente.
► La régulation sectorielle.
Le cadre juridique encadrant l’action du régulateur sectoriel, en France l’ARCEP, lui permet en théorie de réagir face à la discrimination évoquée.
Les objectifs fixés à l’ARCEP, d’abord, à l’article L. 32-1 du code des postes et des communications électroniques, d’ailleurs complétées dans le cadre de la transposition du troisième paquet télécoms, comprennent la protection de plusieurs composantes de la neutralité, notamment la non-discrimination entre les opérateurs et fournisseurs de services introduite dans le cadre de la transposition du paquet télécoms (au 4° bis A de l’article précité).
L’ARCEP dispose ensuite de trois types d’instruments afin de faire face au problème de discrimination. La portée pratique de ces trois instruments apparaît aujourd’hui, sinon limitée, du moins incertaine.
– Le pouvoir de régulation asymétrique permet à l’ARCEP d’imposer des obligations spécifiques, appelé « remèdes », aux opérateurs exerçant une influence significative sur un marché (66). L’utilisation de ce pouvoir pour régler l’exemple de discrimination proposé se heurterait cependant à deux difficultés : (i) ce marché ne figure pas dans la recommandation de la Commission européenne de 2007 déterminant les marchés pouvant directement être régulés asymétriquement, ce qui implique de démontrer qu’il satisfait le test des « trois critères » prévu au deuxième point de la recommandation (67), alors même que la Commission européenne s’est déjà prononcée dans un cas d’espèce contre la conformité au test de marchés du transit et du peering (68) ; (ii) même si ce marché passait le test des « trois critères », il n’est pas sûr, étant donné son évolution rapide, que les outils de régulation asymétrique, conçus pour fonctionner dans l’univers beaucoup plus stable de la téléphonie, seraient adaptés.
– Le pouvoir de régulation symétrique dont dispose l’ARCEP, notamment en matière d’accès et d’interconnexion, a été étendu par le troisième paquet télécoms, qui donne explicitement aux autorités réglementaires nationales la capacité d’imposer des obligations aux opérateurs desservant les clients finals afin de les obliger à assurer l’interopérabilité (69). Comme le note toutefois le BEREC, « étant donné la nouveauté de la disposition, il reste à voir comment cet article sera mis en œuvre dans les différents États membres et dans quelle mesure il sera capable d’apporter des solutions [aux problèmes de discrimination] » (70).
– Enfin, l’article 20 de la nouvelle directive « cadre », conjuguée à une nouvelle définition de la notion « d’accès », qui sera transposée par voie d’ordonnance dans le droit français (71), élargit le pouvoir de règlement des différends des autorités réglementaires nationales. Il est utile de préciser ici les observations du BEREC et de l’ARCEP sur la portée de cet élargissement : (i) le pouvoir de règlement ne constitue pas un véritable outil de régulation puisqu’il n’a vocation qu’à régler des cas d’espèce ; (ii) il peut néanmoins constituer une menace crédible imposant une forme d’unité aux pratiques des opérateurs ; (iii) si l’ARCEP se prononce en équité, le demandeur doit faire la preuve du traitement discriminatoire, ce qui peut s’avérer compliqué, notamment pour les petits acteurs, et limite de facto la portée du dispositif.
► Le droit de la concurrence
Le renvoi à l’application des règles générales de droit de la concurrence constitue la réponse qu’avancent de nombreux acteurs contre la proposition d’édicter des règles spécifiques pour éviter les discriminations engendrées par la gestion de trafic. Cette réponse n’est cependant pas entièrement convaincante, d’une part parce que les procédures de droit de la concurrence sont souvent longues et complexes, d’autre part parce qu’il n’est pas certain que le droit de la concurrence soit à même de régler des problèmes comme l’exemple choisi (72), ni à travers la prohibition des ententes ni à travers l’interdiction des abus de position dominante (73).
– Si le droit de la concurrence sanctionne les ententes à but anticoncurrentiel, il autorise néanmoins les accords d’exclusivité, « analysés [par les autorités concurrentielles] au cas par cas en tenant compte de leurs éventuels effets négatifs sur la dynamique du marché, à mettre en regard de leurs effets potentiellement positifs sur l’innovation » (74).
– Les abus de position dominante sont caractérisés par l’existence : (i) d’un abus, relativement facile à démontrer dans notre exemple – le refus d’acheminer les contenus de l’entreprise concurrente avec la même priorité ; (ii) d’une position dominante ce qui suppose d’identifier un marché sur lequel l’opérateur serait en position dominante, qui peut être difficile à démontrer. En effet, il n’est pas certain que l’opérateur soit dominant sur le marché de gros de l’interconnexion (peering et transit), fortement concurrentiel, ou sur le marché de détail (sur lequel les parts de marché restent partagées entre plusieurs fournisseurs d’accès à internet). Reste la possibilité, comme dans le cas de la terminaison d’appel, de définir pour chaque opérateur desservant des clients finals un marché spécifique consistant justement en la desserte de ces clients finals ; comme mentionné ci-dessus, la Commission européenne n’a pas suivi ce raisonnement dans un cas d’espèce (75).
c) Les dispositions issues du troisième paquet télécoms
Il n’est pas inutile, même si certaines d’entre elles ont déjà été mentionnées, de rappeler les dispositions visant à encadrer la gestion de trafic par les opérateurs qui figuraient dans le troisième paquet télécoms et concernaient la gestion de trafic.
– Il s’agit d’abord de nouvelles obligations de transparence. L’ordonnance de transposition prévoit que de nouvelles mentions devront obligatoirement figurer dans les contrats de services de communications électroniques sous une forme claire, détaillée et aisément accessible, concernant notamment : les procédures de gestion de trafic mises en œuvre, les restrictions à l’accès à des services ou à des équipements, les réactions prévues pour assurer la sécurité et l’intégrité du réseau (article L. 121-83 modifié du code de la consommation).
– Il s’agit ensuite de l’extension du pouvoir de règlement des différends de l’ARCEP aux litiges entre des opérateurs et d’autres entreprises sur les conditions tarifaires et techniques d’acheminement du trafic (art. L. 38-4 du code des postes et des communications électroniques).
– Il s’agit enfin d’une disposition importante, qui n’a pas encore été évoquée, prévoyant que les autorités réglementaires nationales pourront imposer aux opérateurs des exigences minimales en matière de qualité de service sur les réseaux afin d’éviter la congestion. Cette disposition devrait être transposée dans un article L. 36-15 nouveau du code des postes et des communications électroniques disposant qu’« afin de prévenir la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux, l’Autorité de régulation des communications électroniques et des postes peut fixer, dans les conditions prévues à l’article L. 36-6, des exigences minimales en matière de qualité de service. Avant d’imposer de telles exigences, l’Autorité informe la Commission européenne et l’ORECE des raisons de son intervention, des exigences envisagées et de la démarche proposée. Elle tient le plus grand compte des commentaires ou recommandations de la Commission européenne lorsqu’elle fixe ces exigences. » Ce pouvoir a un rapport direct avec la gestion de trafic puisqu’il a été introduit dans le paquet télécoms afin d’apporter des garanties face à un risque « d’écrasement » de l’internet public par les services gérés,
Les éléments techniques et juridiques qui viennent d’être rappelés permettent d’apporter des précisions sur les problèmes de neutralité que soulève la gestion de trafic. Plusieurs remarques peuvent être faites à ce stade :
– concernant l’opportunité d’une intervention législative, il faut rappeler que ce n’est pas : (i) parce que la gestion de trafic n’est pas encadrée qu’elle devrait l’être (le marché est peut-être capable de fonctionner sans régulation), (ii) parce qu’il serait souhaitable que certaines pratiques de gestion de trafic n’aient pas cours, que des mesures devraient être prises par les pouvoirs publics pour les éviter (encore faut-il que les bénéfices de l’intervention excèdent les coûts, y compris ceux liés à l’inflation juridique) ;
– il est possible d’identifier trois thèmes au sein du problème de la gestion de trafic : (i) la transparence, qui apparaît relativement consensuelle et est laissée de côté dans la présentation du débat (tous les acteurs souhaitant que le consommateur puisse savoir quels sont les mécanismes de gestion de trafic mis en œuvre par les opérateurs et ce qu’il implique au niveau des fonctionnalités offertes) ; (ii) la discrimination, qui concerne en fait trois types de pratiques différentes que sont le blocage, la dégradation ciblée de qualité et la priorisation (qui renvoie au problème des services gérés) ; (iii) la qualité de l’internet, qui apparaît à première vue un peu annexe mais est en réalité fortement liée aux deux autres thèmes.
a) Les positions des acteurs et les solutions avancées par les régulateurs
► Les positions des acteurs.
Il est plus difficile pour la question de la gestion de trafic que pour les questions relatives aux mesures obligatoires de blocage et à la terminaison d’appel data, de distinguer clairement les positions des différentes catégories d’acteurs. Cette difficulté provient en partie de : (i) l’existence d’un consensus relativement large autour de l’idée qu’à côté de l’internet public sur lequel la gestion de trafic pourrait être encadrée, une place devrait être laissée aux services gérés, n’appelant pas la même régulation ; (ii) la définition variable de la notion de services gérés.
Selon la gestion de trafic admise sur internet et l’extension accordée à la notion de services gérés, deux positions peuvent néanmoins être identifiées parmi les acteurs :
– les « maximalistes » de la neutralité sont opposés à : (i) tout blocage et (ii) toute priorisation de trafic sur l’internet public, donc toute utilisation des techniques de « mise en forme » du trafic sur internet, et (iii) n’admettent la mise en œuvre de services gérés que pour les applications qui en ont réellement besoin ou qui ne sont pas disponibles sur l’internet public (76) ;
– les « minimalistes » de la neutralité sont favorables à : (i) la possibilité, au moins dans le cas de la téléphonie mobile, de commercialiser des offres comportant des restrictions d’accès à certains services (par exemple sans VoIP), (ii) des pratiques raisonnables de gestion de trafic, c’est-à-dire à l’utilisation de techniques de mise en forme du trafic sur l’internet public en fonction des besoins objectifs des applications notamment en heure de pointe, et (iii) la possibilité de commercialiser sous forme de services gérés des services qui peuvent être délivrés sur internet sans la même garantie de qualité (77) ;
– comme l’ont fait apparaître les éléments transmis par les acteurs auditionnés par la mission d’information en réaction à ses premières orientations, il n’existe pas aujourd’hui au niveau français d’acteurs prenant explicitement position pour une liberté complète dans la gestion du trafic, et notamment pour la priorisation de contenus, services ou applications accessibles sur internet sur une base purement commerciale (78).
► Comparaison des positions des régulateurs français et américain.
La question de la gestion de trafic ayant été la plus étudiée, les solutions recommandées par les régulateurs sont assez sophistiquées et il est utile de les présenter de manière détaillée.
– L’ARCEP a édicté les recommandations suivantes : (i) principe d’absence de blocage et de discrimination (79) ; (ii) exceptions à ces règles acceptables à condition qu’elles soient pertinentes, proportionnées, efficaces, non discriminatoires entre les acteurs, transparentes (80) ; (iii) libre développement des services gérés, comme définis précédemment, mais avec garantie de la qualité de l’internet, non définie, pour éviter que le développement des services gérés ne lui nuise (81).
– La FCC a édicté les règles suivantes : (i) pas de blocage sur le fixe, et pas de blocage du web et des services de voix et de vidéo concurrents à ceux que les opérateurs distribuent sur le mobile ; (ii) pas de discrimination déraisonnable dans la qualité de l’acheminement ; (iii) libre développement des services gérés mais surveillance attentive de leur impact sur internet.
La position de l’ARCEP paraît plus protectrice de la neutralité que celle de la FCC dans la mesure où elle contient : (i) une garantie de qualité de l’internet ; (ii) le principe d’interdiction de tout blocage. Il faut cependant noter que : (i) l’ARCEP n’a fait qu’édicter des recommandations tandis que le régulateur américain a entendu édicter des obligations contraignantes (82) ; (ii) la décision de la FCC s’applique à tous les services de données passant par les réseaux IP, tandis que celle de l’ARCEP ne concerne vraisemblablement que les services appelés « accès à internet » (83) ; (iii) concernant la garantie de qualité, le troisième paquet télécoms a donné aux autorités réglementaires nationales le pouvoir d’imposer aux opérateurs des exigences minimales en terme de qualité de service et la recommandation n’entend pas définir une qualité minimale garantie, ce qui constitue le vrai problème ; (iv) concernant la non-discrimination, les exceptions que l’ARCEP recommande de ménager ne permettent pas de trancher plus clairement que la notion de discrimination « déraisonnable » de la FCC les questions concrètes difficiles soulevées dans le cadre des débats sur la neutralité de l’internet.
Les réflexions menées jusqu’à aujourd’hui et les cadres de régulation proposés laissent subsister des incertitudes sur les normes qu’il est opportun d’édicter. L’absence de recommandation claire de la part des régulateurs sur les principaux cas concrets de gestion de trafic litigieux le montre : ainsi, ni les règles de la FCC, ni celles de l’ARCEP ne permettent de se prononcer clairement sur les options payantes de déblocage des services de VoIP sur le mobile, le ralentissement du peer-to-peer en heure de pointe pour faire face à la congestion, ou encore le refus de mettre à niveau les interconnexions ciblées contre des acteurs.
Il ne paraît pas opportun d’instituer des règles qui reposent sur des éléments incertains. Il faut donc en revenir à des certitudes : (i) le consommateur doit pouvoir choisir clairement entre les différentes offres qui lui sont proposées ; (ii) l’internet ne doit pas être discriminatoire pour permettre un maximum d’innovation. C’est sur ce constat solide que sont fondées les préconisations de la mission d’information en matière de gestion de trafic, visant à bien séparer deux couches : une couche d’internet neutre, sans gestion de trafic, dont la qualité doit être mesurée et garantie ; une couche de services gérés développés librement par les opérateurs, dans la mesure où la qualité de l’internet reste à un niveau suffisant.
► Il est utile en introduction d’apporter des précisions sur la notion d’interconnexion qui renvoie :
– de façon générale à la manière dont les réseaux des opérateurs internet sont reliés les uns aux autres ou « interconnectés » ;
– de manière plus spécifique : (i) aux règles juridiques et pratiques relatives aux « échanges de trafic » directs entre opérateurs, et parfois entre opérateurs et fournisseurs de contenu ; (ii) aux lieux physiques où ces échanges ont lieu appelés « points d’interconnexion ».
► L’interconnexion est fondamentale pour le fonctionnement d’internet à la fois : (i) d’un point de vue technique, puisque celui-ci est un réseau mondial composé de plusieurs dizaines de milliers de réseaux qui doivent être interconnectés les uns aux autres ; (ii) d’un point de vue économique puisque c’est à travers les échanges de trafic que se noue l’essentiel des rapports économiques entre les différentes catégories d’acteurs du réseau internet et que sont déterminés les flux financiers qui existent entre eux.
L’interconnexion est en rapport avec les problèmes précédemment étudiés. Ainsi, le grand nombre d’interconnexions des réseaux français avec les réseaux étrangers rend plus difficile la mise en œuvre d’obligations de filtrage. Autre exemple : la qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, pour faire simple de la « taille » des tuyaux, entre les fournisseurs d’accès à internet et les autres opérateurs internet. Mais elle soulève aussi des questions spécifiques, comme celle de la « terminaison d’appel data ».
a) Le fonctionnement technique
Les interconnexions sont fondamentales pour le fonctionnement d’internet, puisque celui-ci est un réseau mondial composé de plusieurs dizaines de milliers de réseaux qui doivent être interconnectés les uns aux autres. Comme rappelé précédemment, chaque réseau constitue un système autonome (AS) géré par un opérateur qui dispose d’un bloc d’adresses IP. Grâce à un protocole appelé BGP les opérateurs échangent automatiquement des « routes », c’est-à-dire des informations sur les chemins à emprunter pour joindre de manière efficace les adresses IP. Selon la manière dont les routes sont échangées, il existe au moins deux types d’interconnexion :
– Le « transit » est une interconnexion par laquelle un opérateur annonce toutes les routes de l’internet à un autre opérateur, qui ne lui annonce que les routes menant à ses adresses IP. Il est nécessaire pour assurer la connectivité de l’internet, c'est-à-dire le fait que chaque personne connectée à l’internet puisse communiquer avec toutes les autres personnes connectées : étant donné le nombre d’opérateurs internet, il n’est en effet pas possible pour chaque opérateur de se connecter directement avec tous les autres opérateurs.
– Le « peering » est une interconnexion par laquelle deux opérateurs s’annoncent uniquement les routes menant à leurs adresses IP. Il améliore la qualité de l’internet car il permet de raccourcir le chemin parcouru par les flux internet en évitant de passer par des fournisseurs de transit.
Il faut noter que, même si les services de voix sont aujourd’hui largement fournis sur IP, l’interconnexion téléphonique est encore réalisée de manière physiquement distincte de l’interconnexion internet, car il n’existe pas de standard largement répandu pour échanger du trafic VoIP et, plus généralement, du trafic IP avec garantie de qualité (84).
Malgré l’opacité du marché, tenant pour partie à l’absence actuelle d’intervention des régulateurs, à une évolution rapide et aux tensions qui en découlent, il est possible de fournir quelques précisions d’ordre économique sur les accords d’interconnexion (85).
► Les acteurs.
Pour comprendre les accords d’interconnexion, il faut distinguer plusieurs catégories d’acteurs :
– les opérateurs de premier rang ou « tier one » sont connectés à la quasi-totalité des réseaux composant l’internet, acheminent d’énormes volumes de données et proposent des contrats de transit aux opérateurs de niveau inférieur (il s’agit par exemple de AT&T, Cogent, Comcast, Level 3, Orange…) ;
– les opérateurs de second rang ou « tier two » comprennent des opérateurs internet, notamment des fournisseurs d’accès à internet de dimension nationale, qui achètent du transit aux tier one, passent entre eux des contrats de peering gratuit et peuvent proposer des contrats de peering payants à des fournisseurs de contenu (il s’agit par exemple de Free, SFR…) ;
– etc.
► Les contrats.
Les accords de transit sont payants, le transitaire facturant son cocontractant. Ils prévoient en règle générale : (i) une facturation au débit mensuel maximal, entrant ou sortant, écrêté au 95ème centile ; (ii) un engagement de débit.
Les accords de peering sont parfois gratuits, notamment le cas lorsque deux opérateurs de tailles équivalentes souhaitent s’échanger directement du trafic, ce qui leur permet : (i) d’améliorer la qualité de l’acheminement ; (ii) d’éviter de passer un transitaire ; (iii) d’éviter des coûts de transaction alors que les volumes qu’ils prévoient d’échanger sont du même ordre de grandeur. Il existe aussi des accords de peering payants qui permettent généralement aux fournisseurs de contenus d’accéder directement au réseau d’un fournisseur d’accès à internet sans passer par un transitaire.
► Les points d’interconnexion.
Il existe différents types de lieux physiques à travers lesquels les opérateurs s’interconnectent. Il est notamment utile de distinguer : (i) les points de « peering publics » dans lesquels tous les opérateurs qui le souhaitent peuvent s’échanger du trafic et les points de « peering privés » dans lequel un nombre fermé d’opérateurs s’interconnectent ; (ii) les points de peering qui imposent d’acheter des services annexes et ceux qui ne le font pas ; (iii) les points de peering qui imposent des conditions « symétriques », c’est-à-dire identiques pour les acteurs, et ceux qui imposent des conditions « asymétriques » (86).
Il faut aussi noter que le peering engendre des coûts dans tous les cas : même dans le cas du peering gratuit, si le trafic est échangé gratuitement, les opérateurs doivent payer l’acheminement du trafic jusqu’au point de peering et éventuellement les coûts liés au point de peering (par exemple les routeurs et l’hébergement dans un data center).
Le développement des points d’interconnexion français accuse un retard assez important : Francfort, Amsterdam, Londres et New-York apparaissent comme des places de peering plus importantes que Paris, y compris pour le trafic entrant sur le réseau français. Le peering français a notamment souffert pendant longtemps d’un fort éclatement des points de peering publics.
L’essentiel des débats sur l’interconnexion provient de la hausse du trafic sur les réseaux d’accès et de son asymétrie croissante. Un certain nombre de fournisseurs d’accès à internet demandent que cette évolution s’accompagne d’une évolution des flux financiers liés à l’interconnexion, ce qui engendre des tensions. Parallèlement, la fin de la période d’expansion rapide du marché de l’accès à internet entraîne une consolidation du marché de l’internet comme marché de distribution de services, ce qui accroît sans doute cette tendance (87). Les controverses récentes entre Netflix-Level 3-Comcast aux États-Unis (88) et Orange-Cogent-Megaupload (89) en France, ainsi que le non renouvellement des accords de peering gratuit qu’avaient passés les FAI avec des CDN (90) sont autant d’indices que les négociations d’échange de trafic sont aujourd’hui instables.
Comparé à ceux du blocage légal et de la gestion de trafic, le cadre juridique relatif à l’interconnexion apparaît : (i) contraignant pour le législateur, soumis à des normes communautaires précises ; (ii) potentiellement contraignant pour les opérateurs, les pouvoirs accordés aux régulateurs étant assez nombreux bien que les obligations réglementaires actuelles soient faibles.
► Les normes européennes et législatives.
Au niveau communautaire, le régime de l’accès et de l’interconnexion est fixé par la directive 2002/29/CE. Cette directive définit l’accès et l’interconnexion (91) et pose les principes suivants : interdiction faite aux États membres de restreindre la possibilité de négocier des accords d’accès ou d’interconnexion (92) ; obligation faite aux opérateurs de négocier une interconnexion réciproque pour fournir des services de communications électroniques accessibles au public, selon des modalités et conditions compatibles avec les obligations imposées par l’autorité réglementaire nationale (93) ; pouvoir donné aux autorités réglementaires nationales d’imposer à tous les opérateurs des obligations d’interconnexion, suivant des modalités objectives, transparentes, proportionnées et non discriminatoires (94) ; pouvoir donné aux autorités réglementaires nationales d’imposer des obligations spécifiques aux opérateurs puissants (95).
L’accès et l’interconnexion sont définis de manière similaire à la directive à l’article L. 32, 8° et 9°, du code des postes et des communications électroniques (96). Les principes posés dans la directive sont par ailleurs déclinés : liberté de négociation de l’interconnexion ou l’accès (97) ; obligation de faire droit aux demandes d’interconnexion des opérateurs de réseaux ouverts au public (98) ; pouvoir donné à l’ARCEP d’imposer de manière objective, transparente, non discriminatoire et proportionnée, les modalités équitables de l’accès et de l’interconnexion, soit de sa propre initiative (99) soit dans le cadre d’un règlement de différends (100) ; pouvoir accordé à l’ARCEP d’imposer des obligations spécifiques aux opérateurs en situation de puissance de marché (101).
Ces règles fournissent peu d’indications sur les obligations qui pèsent sur les opérateurs en matière d’interconnexion, qui découlent du cadre réglementaire. De ce fait, il est important de décrire celui-ci dans ses grandes lignes.
Aucune obligation réglementaire en matière d’accès et d’interconnexion ne porte aujourd’hui sur l’interconnexion IP. La présentation des obligations portant sur d’autres types d’interconnexion, notamment téléphonique, apporte un point de comparaison utile.
Deux types d’obligations doivent être distingués : (i) les obligations « symétriques », c’est-à-dire qui s’appliquent de la même manière à tous les opérateurs ; (ii) les obligations « asymétriques », qui pèsent sur les opérateurs en situations de position puissante sur un marché. Il est important de comprendre qu’une partie des obligations d’interconnexion téléphonique a été édictée par l’ARCEP sur le fondement de ses pouvoirs de régulation asymétriques mais, le réseau de chaque opérateur ayant été défini comme constituant un marché propre, qu’elles s’appliquent de façon presque identique.
Concernant la régulation asymétrique :
– sur la téléphonie fixe, c’est la décision n° 2008-0896 qui fixe les obligations en matière d’interconnexion, notamment les obligations concernant la terminaison d’appel (interdiction de fixer des tarifs excessifs pour les opérateurs fixes alternatifs et obligation d’orientation vers les coûts d’un opérateur efficace pour France Télécom) avec plafonds tarifaires ;
– sur la téléphonie mobile, c’est la décision de l’ARCEP n° 2010-1149 qui s’applique, et pose notamment une obligation de terminaison d’appel mobile orientée vers les coûts, avec ici aussi des plafonds tarifaires ;
– en outre, des obligations sont imposées aux opérateurs puissants sur d’autres marchés, comme la terminaison SMS, le marché de gros des offres d'accès aux infrastructures physiques constitutives de la boucle locale filaire ou encore les marchés des offres d'accès haut débit et très haut débit activées livrées au niveau infranational.
Concernant la régulation symétrique, il faut signaler qu’outre les normes techniques, des obligations symétriques sur la boucle locale de fibre optique ont été édictées par l’ARCEP sur le fondement de dispositions législatives spécifiques (102). Ce cadre devrait d’ailleurs prochainement s’étoffer avec l’édiction prochaine des règles s’appliquant au déploiement de la boucle locale en fibre optique dans les situations laissées dans l’ombre par les décisions précédentes de l’ARCEP.
b) Les interventions possibles
La question juridique restant en suspens est celle de savoir quels instruments juridiques pourraient permettre, si des problèmes de neutralité au niveau de l’interconnexion IP étaient avérés, de les réguler.
► Les dispositions prévues dans le cadre du troisième paquet télécoms.
L’interconnexion apparaît comme le « parent pauvre » du troisième paquet en ce qui concerne la neutralité. Ainsi :
– le renforcement de la transparence porte uniquement sur la gestion de trafic, alors même que le dimensionnement a un fort impact sur la qualité de l’internet ;
– la nouvelle faculté accordée aux autorités réglementaires nationales d’imposer, en cas de congestion sur le réseau, des exigences minimales en terme de qualité de service, a été adoptée pour faire face à un risque d’écrasement de l’internet public par les services gérés ; le dimensionnement des interconnexions n’est mentionné ni dans le dispositif ni dans les considérants qui l’accompagnent et rien ne permet de penser qu’elle pourrait juridiquement s’y appliquer ;
– il a par ailleurs déjà été fait part des doutes sur la portée des dispositions nouvelles prévues à l’article 5-1 de la directive accès ;
– enfin, l’extension du pouvoir de règlement des différends aux litiges portant sur les conditions techniques et tarifaires d’acheminement du trafic entre un opérateur et une autre entreprise permettra de couvrir les cas de peering payant mais elle ne changera pas la régulation de l’interconnexion.
► L’intervention des régulateurs sectoriels et concurrentiels.
Comme cela a déjà été évoqué dans les développements consacrés à la gestion de trafic, la portée de ces régulations paraît incertaine, notamment du fait de la difficulté qu’il y a à identifier un marché sur lequel les fournisseurs d’accès à internet seraient en position dominante.
Le principal instrument d’intervention du régulateur sectoriel reste le règlement de différends. Outre les limitations déjà évoquées dans les développements sur la gestion de trafic, la capacité de l’ARCEP a réguler le marché de l’interconnexion via le règlement de différends se heurte à plusieurs difficultés :
– le risque de délocalisation des points d’interconnexion par les acteurs étrangers auquel une décision serait défavorable ;
– la difficulté à déterminer un prix équitable sur des marchés bifaces ;
– la difficulté à établir une discrimination entre acteurs du fait de l’hétérogénéité des accords d’interconnexion.
Il faut enfin signaler qu’une intervention du législateur aurait de fortes chances de priver d’effet des dispositions de la directive « accès » et, partant, d’être contraire au droit européen. Ainsi, les possibilités d’intervention au niveau national et dans le cadre juridique actuel apparaissent tout à fait limitées.
L’interconnexion soulève des problèmes de régulation variés, la question se posant par exemple de savoir s’il ne faudrait pas établir des règles afin de : (i) garantir un dimensionnement des interconnexions qui assure une bonne qualité de l’internet ; (ii) empêcher des pratiques de routage et de dimensionnement des interconnexions ciblées contre certains acteurs.
L’essentiel du débat porte cependant sur la « terminaison d’appel data ». Bien que des incertitudes subsistent sur la manière dont ce dispositif pourrait et fonctionner s’il était mis en place, il est possible de présenter l’idée de manière schématique en disant qu’il s’agit d’instituer un mécanisme par lequel les opérateurs induisant le trafic paieraient aux fournisseurs d’accès à internet un montant dépendant de la partie asymétrique du trafic échangé et couvrant les coûts incrémentaux qu’elle engendre.
a) Le débat sur la terminaison d’appel data
La question de la terminaison d’appel data n’a émergé au niveau politique qu’après la négociation du troisième paquet télécoms, qui ne contenait pas de mesures relatives à l’évolution du partage des coûts liés au réseau. Le rapport du CGIET de mars 2010 retenait ainsi parmi les solutions envisagées pour faire face aux coûts liés à l’accroissement du trafic la possibilité de « faire participer financièrement les fournisseurs de contenu ». Celui du Gouvernement restait prudent sur la question, se contentant de rapporter la proposition des opérateurs d’accès de faire évoluer les modalités techniques et tarifaires de l’interconnexion et demandant à l’ARCEP de mettre sous surveillance ce marché. Les analyses de l’ARCEP apparaissaient beaucoup plus détaillées, l’ARCEP notant qu’un désaccord profond s’est installé entre les fournisseurs d’accès à internet et les fournisseurs de contenus sur la manière dont doivent être couverts les coûts liés au réseau internet. Dans leurs réponses à la consultation publique organisée par la Commission européenne, plusieurs acteurs français ont mentionné la question de l’évolution des modalités tarifaires d’interconnexion et de la terminaison d’appel data (103). Pour l’instant, les pouvoirs publics français ont pris des positions prudentes, mais qui apparaissent globalement en avance par rapport aux autres autorités européennes (104).
Il faut enfin noter que : (i) cette question n’a pas fait l’objet d’une attention particulière de la part de certains acteurs (105) ; (ii) d’autres acteurs ont demandé que le problème ne soit pas abordé dans les débats en cours au motif qu’il n’aurait pas de rapport avec la neutralité. Il paraît toutefois justifié de traiter cette question car : (i) elle est au cœur des réflexions des économiques sur la neutralité de l’internet (106) ; (ii) il s’agit d’une question importante de régulation d’internet, qui impacte les autres dimensions de la neutralité (107).
Trois enseignements incitant à la prudence en matière de régulation peuvent être tirés, pour le débat sur la terminaison d’appel data, des éléments techniques et juridiques rappelés précédemment :
– les modèles économiques de tous les intermédiaires techniques du réseau internet sont fortement dépendants des flux financiers liés à l’interconnexion ;
– les réseaux d’accès constituent un marché biface sur lequel la répartition des coûts sur chacune des faces comporte une part d’arbitraire et où l’optimum économique est difficile à déterminer ;
– les interconnexions des réseaux français peuvent être situées en France comme à l’étranger.
b) Les positions des acteurs et les arguments mobilisés
À partir des contributions des acteurs aux différentes consultations publiques, des auditions réalisées par la mission et des réactions qu’ont suscitées ses premières propositions, le débat peut être résumé comme suit :
► Les arguments échangés.
Il existe un large consensus sur le fait que le trafic et son degré d’asymétrie augmentent, engendrant des coûts pour les fournisseurs d’accès à internet. En revanche, il existe des divergences importantes sur les points suivants :
– La nécessité d’aider les fournisseurs d’accès à internet à faire face à ces coûts par la régulation : selon les opposants à la terminaison d’appel data, la tarification sur le mobile et le développement des services gérés pourraient suffire à couvrir les coûts liés à l’accroissement du trafic.
– Le caractère équitable de la terminaison d’appel data : les partisans de la terminaison d’appel data soulignent que (i) les fournisseurs de contenu ne paient pas pour la totalité des coûts qu’engendrent leur trafic, (ii) la terminaison d’appel data permettrait de protéger le consommateur d’une hausse des forfaits fondée sur l’accroissement du trafic, (iii) en apportant de la transparence, elle réduirait aussi le risque de discrimination entre petits fournisseurs de contenu, grands fournisseurs de contenu, et fournisseur de contenu filiale d’un fournisseur d’accès à internet. Les opposants à la terminaison d’appel data font valoir en réponse que (i) les fournisseurs de contenu paient déjà des montants importants pour l’écoulement de leur trafic, (ii) le trafic qu’ils injectent sur le réseau est demandé par les consommateurs.
– L’efficacité économique de la terminaison d’appel data : les partisans de la terminaison d’appel data font valoir que la mise en œuvre de ce dispositif permettait d’envoyer un signal tarifaire aux agents économiques pour les inciter à une gestion économe de la bande passante. Les opposants à la terminaison d’appel data répliquent (i) qu’une telle incitation existe déjà, puisque les fournisseurs de contenu paient pour l’écoulement de leur trafic et (ii) que la théorie économique suggère plutôt que les fournisseurs de contenu ne devrait pas payer leur accès à internet.
► Les positions des acteurs.
Globalement, les fournisseurs d’accès à internet sont plutôt favorables à la mesure, tout en soulignant qu’une solution concurrentielle doit d’abord être recherchée. Les associations de consommateurs et d’internautes y sont aussi plutôt favorables, surtout en raison de la transparence que permettrait le dispositif. Les fournisseurs de contenu et les opérateurs de transit y sont opposés pour les raisons évoquées et parce que cela bouleverserait leur modèle économique.
L’analyse de la mission peut être résumée en trois points :
– aujourd’hui, les consommateurs paient effectivement une plus grande partie des coûts liés au réseau internet que les fournisseurs de contenu, ce qui correspond d’ailleurs aux enseignements de la théorie économique ;
– les arguments en faveur de la terminaison d’appel data semblent convaincants, notamment parce que sa mise en œuvre permettrait de mieux comprendre qui paie quoi, de faire la vérité sur les coûts et d’éviter des tarifs d’interconnexion discriminatoires et défavorables aux petits acteurs qui n’ont pas de pouvoir de marché ;
– des incertitudes subsistent néanmoins, notamment sur l’impact qu’aurait la mise en œuvre de la terminaison d’appel data sur les modèles économiques des acteurs.
Dans tous les cas, la mise en œuvre de ce dispositif n’est pas possible au niveau français pour des motifs techniques et juridiques. C’est pourquoi la mission recommande que cette solution soit analysée en détail par la Commission européenne. Quelles qu’en soient les conclusions, ces investigations auraient le mérite de permettre une meilleure compréhension du fonctionnement du marché de gros de l’interconnexion.
III.— PROPOSITIONS DE LA MISSION
La philosophie qui anime les propositions de la mission d’information est de protéger l’internet, tout en permettant le développement des réseaux de demain et en défendant les intérêts des consommateurs. Il s’agit donc de garantir les formidables avancées sociétales en matière de communication, de liberté d’expression, d’innovation et de croissance économique par un contexte économique, technique et réglementaire favorable à l’écosystème numérique.
Ces orientations conduisent à l’idée que, dans le cadre de la convergence numérique et de la mutualisation des réseaux de communications électroniques devenant les différentes « couches » d’une même infrastructure, il faut garantir le maintien d’une couche internet de qualité. La question qui se pose est de savoir comment apporter cette garantie.
La réponse que propose la mission d’information se décline en trois temps. Premièrement, garantir la liberté d’expression : internet est un instrument de communication révolutionnaire et cette dimension doit être protégée, notamment en limitant et en encadrant les techniques de filtrage et de blocage, qui constituent une menace pour la liberté d’expression et de communication. Deuxièmement, garantir l’innovation : internet est un réseau qui a permis jusqu'à aujourd’hui d’acheminer de manière satisfaisante tous les contenus et services, ce qui a fait son succès et doit être maintenu. Troisièmement, garantir le financement : internet n’est pas gratuit, ni au niveau des applications ni au niveau du réseau, et chaque catégorie d’acteurs ne pourra, notamment au regard de l’accroissement du volume de trafic, continuer d’innover que si son modèle économique reste viable.
La mission d’information avance des propositions pour apporter ces garanties. Plusieurs éléments doivent toutefois inciter le législateur à la modestie quant à sa capacité d’intervention : (i) la mission générale assignée à la loi par l’article 34 de la Constitution est de fixer les règles mais pas le détail de la réglementation ; (ii) la réglementation des communications électroniques mise en œuvre par l’ARCEP avec succès est très détaillée et l’encadrement précis de la neutralité d’internet doit trouver sa place dans cet édifice réglementaire ; (iii) les problèmes soulevés par la neutralité sont d’une grande complexité et, comme le réseau lui-même, fortement évolutifs. C’est pourquoi la portée normative des propositions avancée par la mission d’information est variable : certaines pourront se traduire par des dispositions législatives d’effet direct (par exemple, l’intervention systématique du juge pour prononcer des mesures obligatoires de blocage, ou l’usage exclusif de l’appellation internet pour des offres d’accès respectant le principe de neutralité) mais l’essentiel consiste à définir correctement le cadre d’action du régulateur, l’ARCEP, pour qu’il protège la neutralité d’internet. Le fait pour le législateur de s’appuyer sur le régulateur ne signifie pas pour autant qu’il se décharge de sa responsabilité ou qu’il se contente d’édicter un droit « mou ».
Les propositions de la mission constituent une solution pragmatique aux problèmes concrets de neutralité et vont au-delà de la déclaration de principe. Le cadre de régulation proposé peut apparaître sophistiqué, mais il découle de la complexité des enjeux liés au développement des usages du réseau internet.
L’objectif du premier axe de proposition est de protéger internet en le faisant entrer explicitement dans le champ de la régulation des communications électroniques. Il existe aujourd’hui un risque que se développent des pratiques non neutres qui réduiraient la capacité des utilisateurs d’internet à choisir l’usage qu’ils font du réseau. Pour faire face à ce risque, il est proposé de donner une portée juridique au principe de neutralité de l’internet, en fixant de manière générale sa promotion comme objectif aux autorités réglementaires (ce qui est l’objet du premier axe) et, de manière plus spécifique, en apportant des garanties sur les points qui suscitent le plus d’inquiétudes (ce qui est l’objet des axes suivants). La proposition n°1 consiste à définir dans la loi la neutralité de l’internet et la proposition n°2 à fixer sa promotion comme objectif aux autorités réglementaires.
L’objectif du deuxième axe est d’éviter au maximum d’obliger les opérateurs à bloquer des communications électroniques car le blocage a des effets négatifs directs (restriction de la liberté d’expression et de communication) et indirects (surblocage, développement du chiffrement, etc.). Ces effets négatifs ne sont pas toujours correctement pris en compte dans les décisions législatives. De plus, l’éclatement des bases législatives (LCEN de 2004, loi sur les jeux en ligne de 2010, code de la propriété intellectuelle) est un facteur de confusion. C’est pourquoi il est proposé de s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer (proposition n°3) et de prévoir dès à présent l’intervention systématique du juge pour prononcer des mesures obligatoires de blocage afin de mieux protéger la liberté d’expression (proposition n°4).
L’objectif du troisième axe est qu’internet reste la plateforme ouverte qu’il est aujourd’hui. Le risque vient du fait que la qualité de l’internet public pourrait rapidement se dégrader à cause de l’augmentation importante des flux, si les fournisseurs d’accès à internet n’investissaient pas dans les réseaux ou s’ils privilégiaient la commercialisation des services gérés. Renforcer le choix du consommateur semble être la première solution permettant de faire face à ce risque : en l’absence de défaillances de marché, il semble suffisant, pour protéger ce choix, d’assurer la transparence sur l’accès à internet en réservant l’appellation internet aux seuls accès neutres (proposition n°5) et en instituant un observatoire de la qualité de l’internet (proposition n°6) ; dans l’hypothèse où la concurrence ne permettrait pas au consommateur d’opter pour un accès à internet neutre de qualité à un prix raisonnable, la capacité de choix du consommateur devrait être rétablie par des moyens plus contraignants en imposant aux fournisseurs d’accès à internet des exigences garantissant la qualité d’internet (proposition n°7).
L’objectif du quatrième axe est de ménager un bon équilibre économique entre les différentes catégories d’acteurs afin que l’écosystème d’internet continue à se développer et à innover, tout en garantissant la couverture des investissements de réseau permettant de maintenir un internet de qualité. Le risque vient de ce que la hausse asymétrique du trafic internet, conjuguée au plafonnement du prix payé par les consommateurs et au caractère arbitraire des flux financiers sur les marchés bifaces font peser une forte incertitude sur l’évolution des rapports économiques des différentes catégories d’acteurs et la soutenabilité de leurs modèles économiques. Il faut s’assurer que, si les fournisseurs d’accès à internet sont obligés de fournir un internet de qualité suffisante, leur modèle économique leur permette de le faire. L’institution d’une « terminaison d’appel data » permettant de couvrir les coûts variables du réseau constitue, selon les informations recueillies par la mission, une piste intéressante. La réflexion doit se poursuivre sur ce point car les marchés liés au réseau internet sont encore mal connus (proposition n°8) et l’opportunité de mettre en œuvre cette solution demande à être évaluée de façon approfondie (proposition n° 9).
► Premier axe : consacrer la neutralité de l’internet comme objectif politique
Proposition n°1 : définir le principe de neutralité
Proposition n°2 : faire de la neutralité un objectif politique et donner au pouvoir réglementaire la capacité d’imposer des obligations pour la promouvoir
► Deuxième axe : encadrer strictement les obligations de blocage de l’internet
Proposition n°3 : s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer
Proposition n° 4 : établir dès à présent une procédure unique faisant intervenir le juge
► Troisième axe : protéger l’universalité et garantir la qualité de l’internet
Proposition n°5 : réserver l’appellation « internet » aux seules offres respectant le principe de neutralité
Proposition n°6 : mettre en place un observatoire de la qualité de l’internet
Proposition n°7 : charger l’ARCEP de garantir l’accès à un internet de qualité suffisante
► Quatrième axe : assurer le financement pérenne de l’internet
Proposition n°8 : documenter les enjeux économiques liés au réseau internet
Proposition n°9 : évaluer de manière approfondie la mise en œuvre d’une terminaison d’appel data au niveau européen
► PREMIER AXE : CONSACRER LA NEUTRALITÉ DE L’INTERNET COMME OBJECTIF POLITIQUE
L’objectif du premier axe de proposition est de protéger internet en le faisant entrer explicitement dans le champ de la régulation des communications électroniques. Il existe aujourd’hui un risque que se développent des pratiques non neutres qui réduiraient la capacité des utilisateurs d’internet à choisir l’usage qu’ils font du réseau. Pour faire face à ce risque, il est proposé de donner une portée juridique au principe de neutralité de l’internet, en fixant de manière générale sa promotion comme objectif aux autorités réglementaires (ce qui est l’objet du premier axe) et, de manière plus spécifique, en apportant des garanties sur les points qui suscitent le plus d’inquiétudes (ce qui est l’objet des axes suivants). La proposition n°1 consiste à définir dans la loi la neutralité de l’internet et la proposition n°2 à fixer sa promotion comme objectif aux autorités réglementaires.
Proposition n°1 : définir le principe de neutralité
Le principe de neutralité devrait être défini dans la loi comme :
(i) la capacité pour les utilisateurs d’internet
(ii) d’envoyer et de recevoir le contenu de leur choix, d’utiliser les services ou de faire fonctionner les applications de leur choix, de connecter le matériel et d’utiliser les programmes de leur choix, dès lors qu’ils ne nuisent pas au réseau,
(iii) avec une qualité de service transparente, suffisante et non discriminatoire,
(iv) et sous réserve des obligations prononcées à l’issue d’une procédure judiciaire et des mesures nécessitées par des raisons de sécurité et par des situations de congestion non prévisibles.
Positionnement : ces dispositions pourraient être introduites à l’article L. 32-1 du code des postes et des communications électroniques (création d’un IV).
Envoyer un signal politique clair
Le législateur doit envoyer un message clair aux acteurs, publics ou privés, sur son attachement à la protection de l’internet, et la consécration dans la loi du principe de neutralité est un bon procédé. Il s’agit à la fois d’envoyer un signal politique :
– aux acteurs économiques afin de les inciter à s’organiser en amont de la régulation pour protéger l’internet ;
– aux autorités réglementaires afin de les inciter à surveiller l’évolution des pratiques sur internet ;
– aux citoyens afin les assurer que l’action publique poursuit la protection de leurs droits.
Répondre à l’insuffisance du droit en vigueur et à venir
Dans la rédaction que le Gouvernement entend adopter par ordonnance dans le cadre de la transposition du troisième paquet télécoms, l’article L. 32-1 du code des postes et des communications électroniques fixera aux autorités réglementaires les objectifs liés à la neutralité suivants : exercice au bénéfice des consommateurs d’une concurrence pour la transmission de contenu (2°), absence de discrimination, dans des circonstances analogues, dans les relations entre opérateurs et fournisseurs de services de communications au public en ligne pour l'acheminement du trafic et l'accès à ces services (4° bis A), favorisation de l’accès des utilisateurs finals à l’information et à préserver leur capacité à en diffuser ainsi qu’à utiliser les applications et les services de leur choix (15°).
Ces dispositions répondent à certaines préoccupations liées à la neutralité de l’internet mais pas à toutes notamment : l’encadrement des mesures obligatoires de filtrage (cf. les débats sur l’article 4 de la LOPPSI II de 2011), la discrimination entre des flux marchands et non marchands (cf. la dégradation rapportée du peer-to-peer en heure de pointe), les conflits en matière d’interconnexion (cf. l’affaire Megaupload-Cogent-Orange, début 2011) ou encore la garantie d’une qualité suffisante de l’internet, qui pourrait pâtir du développement des services gérés. C’est pourquoi il est proposé de définir la neutralité dans toutes ses dimensions (proposition n°1) et de faire de sa promotion un objectif des autorités réglementaires (proposition n°2).
La définition du principe de neutralité présente aussi l’avantage, par rapport au droit actuel, d’apporter de la cohérence dans les décisions prises par les autorités réglementaires, en leur fournissant une base législative unique.
S’appuyer sur une bonne définition
Il faut noter que les premières orientations de la mission d’information proposaient de définir le principe de neutralité « à partir des objectifs définis précédemment, comme absence de filtrage, hors mesures techniques ou mesures obligatoires prononcées par un juge, garantie d’une qualité de service suffisante, absence de mesures ciblées de dégradation de la qualité de service, accès non discriminatoire aux différents niveaux de qualité de service et garantie de conditions techniques et tarifaires d’interconnexion équitables » (§ 23). Suite aux remarques qui ont été faites par les acteurs sur cette proposition, le choix a été fait de retenir une définition faisant référence aux fonctionnalités que devrait offrir internet à ses utilisateurs, afin d’insister sur l’importance de la liberté de choix dans l’utilisation de la connexion. Cette définition paraît susceptible de faire l’objet d’un consensus.
La suite de l’argument justifie chacune des composantes de la définition retenue.
(i) Les différentes définitions qui ont été proposées montrent qu’il existe deux approches pour définir la neutralité. Les définitions proposées par l’ARCEP la FCC (« pour promouvoir le développement du haut débit et préserver et promouvoir la nature ouverte et interconnectée de l’internet public, les consommateurs devraient avoir la capacité : 1. d’accéder à tous les contenus internet légaux de leur choix ; 2. de faire fonctionner les applications et services de leur choix, sous réserve des obligations légales ; 3. de connecter des équipements légaux de leur choix qui n’endommagent pas le réseau ; 4. de bénéficier de la compétition entre opérateurs et fournisseurs de services, d’applications et de contenu. ») sont centrées sur les consommateurs finals. La définition proposée par Tim Wu est centrée sur l’acheminement des communications électroniques (« la neutralité doit être comprise comme un principe d’architecture de réseau. L’idée est qu’un réseau d’information publique est d’autant plus efficace qu’il aspire à traiter tous les contenus, sites et plateformes de la même manière »). Chacune de ces approches présente des mérites : la première parce qu’elle se centre sur ce qui importe au final, les fonctionnalités offertes par le réseau aux utilisateurs, tout en laissant les opérateurs faire leur métier, c’est-à-dire choisir l’architecture de leur réseau et gérer le trafic ; la seconde parce qu’en se focalisant sur l’acheminement du trafic, elle met l’accent sur le traitement équitable par le réseau de tous les acteurs, qu’il s’agisse des consommateurs finals ou des acteurs économiques, qui ne sont pas directement couverts par la première approche. C’est pour faire la synthèse entre ces deux approches qu’il est proposé de définir la neutralité à partir des fonctionnalités offertes par le réseau à tous les « utilisateurs d’internet », et non des seuls consommateurs finals ou internautes.
(ii) La liste de fonctionnalités établie à ce point a fait l’objet d’un large consensus tant aux États-Unis lorsqu’elle a été proposée par la FCC qu’en France lorsqu’elle a été mise en avant par l’ARCEP et n’appelle pas de justification particulière. L’idée générale qui la sous-tend est de garantir aux utilisateurs qu’ils puissent déterminer librement l’usage qu’ils font de leur connexion.
(iii) La référence à une qualité de service « transparente » ne pose pas de difficultés. En revanche, la mention d’une qualité « suffisante » et « non discriminatoire » est susceptible de soulever des oppositions et appelle des commentaires :
– La mention d’une qualité « suffisante » est justifiée par le caractère consensuel de l’objectif d’un internet de qualité, son lien avec la notion de neutralité et ses effets juridiques. Elle figure d’ailleurs dans la définition de la neutralité proposée par l’ARCEP dans ses premières orientations. Il faut noter qu’elle est indépendante de la proposition n°8, qui a pour objet de garantir une qualité de l’internet suffisante. Elle ne constitue pas une innovation juridique notable car l’ARCEP disposera prochainement, en application de l’article 22 de la directive service universel qui sera transposé à un nouvel article L. 36-15 du code des postes et des communications électroniques, de la possibilité d’imposer aux opérateurs des « exigences minimales » en terme de qualité de service afin d’éviter la congestion des réseaux. Cette mention au niveau de la définition de la neutralité aurait donc pour effet essentiel de clarifier les objectifs fixés à l’ARCEP.
– La mention d’une qualité « non discriminatoire » est, pour sa part, justifiée par le fait que l’absence de discrimination est une composante fondamentale de la neutralité. Comme l’exprime la définition avancée par Tim Wu, la neutralité renvoie à l’idée de l’absence de discrimination entre les flux. Dans ses premières orientations, la mission d’information notait que la notion de non-discrimination peut être interprétée de différentes manières notamment : comme traitement homogène des flux, comme différentiation de la manière dont sont traités des flux en fonction des besoins objectifs des usages qu’ils supportent, ou comme accès non discriminatoire aux différents niveaux de qualité de service. La mission précise qu’elle emploie ici la notion de non-discrimination dans le sens d’acheminement homogène des flux.
(iv) La gestion de trafic est rendue nécessaire par la loi dans le cas des obligations de blocage et, hors obligations légales, pour assurer la sécurité du réseau – il y existe un consensus sur ce point. Il faut donc prévoir des exceptions aux conditions précédemment énoncées, notamment celles de non-discrimination et d’accès à tous les contenus, services et applications. La difficulté est de déterminer quelles sont les exceptions légitimes et celles qui ne le sont pas. Il paraît justifié que les seules mesures de gestion de trafic compatibles avec la neutralité, autres que celles découlant de la loi ou des besoins de sécurité, soient celles prises en cas de congestion non prévisibles. En effet, le réseau ne serait pas neutre si le peer-to-peer était par exemple dégradé en heure de pointe, et une telle pratique n’est pas souhaitable car elle risquerait d’entraver les innovations qui pourraient se faire en utilisant ce protocole.
Proposition n°2 : faire de la neutralité un objectif politique et donner au pouvoir réglementaire la capacité d’imposer des obligations pour la promouvoir
Les autorités réglementaires nationales devraient avoir pour objectif de promouvoir la neutralité de l’internet, telle que définie à la proposition n°1.
Pour poursuivre cet objectif, les opérateurs de réseaux ouverts au public et les fournisseurs de services de communications électroniques devraient pouvoir être soumis au respect de règles portant sur les conditions permettant de promouvoir la neutralité de l’internet.
Positionnement : ces dispositions pourraient être respectivement introduites au II de l’article L. 32-1 et au I de l’article L. 33-1 du code des postes et des communications électroniques.
S’assurer que les autorités réglementaires prennent en compte internet
Le travail réalisé par la mission d’information a permis de constater que le fonctionnement du réseau internet restait encore peu connu des pouvoirs publics, la régulation des communications électroniques étant traditionnellement centrée sur la téléphonie et les infrastructures physiques, notamment la boucle locale. Or la plupart des services de communication convergent désormais sur internet et le débat sur la neutralité peut être compris comme la prise de conscience politique de cette évolution. De ce fait, il importe que les pouvoirs publics, notamment les autorités réglementaires, élargissent leur « horizon de régulation » à internet, pour mieux comprendre ce qui s’y passe, mesurer l’effet qu’ont sur internet les décisions de régulation classiques et protéger son fonctionnement en cas de besoin. La fixation du principe de neutralité comme objectif aux autorités réglementaires permettra d’orienter les décisions de régulation.
Donner une portée normative adéquate au principe de neutralité
En fixant la promotion du principe de neutralité de l’internet comme objectif au ministre chargé des communications électroniques et à l’ARCEP et en leur donnant la possibilité de soumettre les opérateurs à des obligations pour le faire respecter, le contenu de la proposition n°2 répond à deux points :
– Premier point : la neutralité de l’internet doit être protégée afin de garantir l’accès de tous à la plateforme d’échange ouverte que constitue internet et le libre choix par chacun de l’utilisation qu’il souhaite faire de sa connexion. La poursuite de cet objectif ne doit cependant pas masquer que : (i) des innovations utiles pourraient avoir lieu à l’avenir non seulement aux extrémités des réseaux de communications électroniques mais aussi au cœur de ces réseaux ; (ii) conformément au principe de neutralité technologique, il n’appartient ni au législateur, ni au régulateur de définir la manière dont les opérateurs doivent gérer leurs réseaux ou l’architecture pour laquelle ils doivent opter. Les opérateurs doivent notamment conserver la possibilité de développer, à côté de l’internet, des services gérés. La transparence vis-à-vis du consommateur justifie que soient clairement distingués ces services gérés librement par les opérateurs de l’internet, neutre. C’est pourquoi la portée du principe de neutralité doit être limitée à l’internet. (cf. proposition n° 5).
– Deuxième point : le caractère émergent des problèmes de neutralité, la complexité des problèmes techniques et les incertitudes qui affectent le développement du réseau internet, justifient de définir des objectifs clairs et de donner aux autorités réglementaires des moyens juridiques suffisants pour les poursuivre, mais pas d’édicter une réglementation détaillée.
Deux précisions peuvent être apportées sur la portée juridique des obligations qui pourraient être imposées aux opérateurs en application de cette proposition n°2 :
– le cadre général fixé à l’article L. 32-1 imposant aux autorités réglementaires de « prendre, dans des conditions objectives et transparentes, des mesures raisonnables et proportionnées aux objectifs poursuivis », s’appliquerait à ces obligations, ce qui constitue une garantie ;
– si l’ARCEP édictait de telles obligations, leur méconnaissance par les opérateurs pourrait être sanctionnée dans le cadre du pouvoir général de sanction dont dispose l’ARCEP à l’article L. 36-11.
► DEUXIÈME AXE : ENCADRER STRICTEMENT LES OBLIGATIONS DE BLOCAGE DE L’INTERNET
L’objectif du deuxième axe est d’éviter au maximum d’obliger les opérateurs à bloquer des communications électroniques car le blocage a des effets négatifs directs (restriction de la liberté d’expression et de communication) et indirects (surblocage, développement du chiffrement, etc.). Ces effets négatifs ne sont pas toujours correctement pris en compte dans les décisions législatives. De plus, l’éclatement des bases législatives (LCEN de 2004, loi sur les jeux en ligne de 2010, code de la propriété intellectuelle) est un facteur de confusion. C’est pourquoi il est proposé de s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles susceptibles d’engendrer (proposition n°3) et de prévoir dès à présent l’intervention systématique du juge pour prononcer des mesures obligatoires de blocage afin de mieux protéger la liberté d’expression (proposition n°4).
Proposition n°3 : s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer
Les autorités publiques compétentes devraient travailler en coordination afin d’évaluer l’opportunité du blocage, notamment d’un point de vue opérationnel.
Positionnement : pas de proposition de dispositions législatives codifiées.
Ne pas oublier que le droit général s’applique à internet
Lorsqu’on prend en compte l’ensemble des coûts, des risques et des bénéfices, il n’est pas évident qu’il faille empêcher la communication de tous les « contenus illégaux ». À cet égard, un exemple peut être éclairant. Téléphoner en conduisant est dangereux et constitue une communication « illégale », que la police et la gendarmerie répriment lorsqu’ils la constatent, et qui fait l’objet de mesures de prévention dans le cadre de la sécurité routière. Faut-il pour autant mettre en œuvre un dispositif complexe et coûteux pour bloquer les communications au volant en géolocalisant les appels et en analysant le signal vocal de manière systématique afin de repérer les appels passés au volant et pouvoir les bloquer ?
Il faut noter par ailleurs que l’absence de blocage des « contenus illégaux » ne signifie pas l’absence de sanction. Ainsi, l’échange de fichiers soumis au droit d’auteur sans autorisation constitue, en application de l’article L. 335-3 du code de la propriété intellectuelle, un acte de contrefaçon constituant un délit. Le Conseil constitutionnel avait d’ailleurs censuré dans sa décision sur la loi DAVDSI de 2006 les dispositions visant à réduire les sanctions pénales en cas d’échange de fichiers soumis au droit d’auteur sans autorisation sur internet au motif que « les particularités des réseaux d'échange de pair à pair ne permettent pas de justifier la différence de traitement qu'instaure la disposition contestée » : manière de rappeler que le droit général doit s’appliquer sur internet.
Prendre en compte des considérations techniques
L’importance de la liberté d’expression et de communication, rappelée à l’appui de la proposition n°4, invite évidemment le législateur à limiter les cas dans lesquels des mesures obligatoires de blocage pourraient être prononcées aux situations dans lesquelles la liberté de communications et d’expression se heurte à un droit fondamental ou à un objectif de valeur constitutionnel pour lequel elle constitue une menace grave. La recherche de cet équilibre devrait constituer la première étape du raisonnement du législateur.
Mais il ne faut pas s’en tenir à ce raisonnement portant sur les valeurs. Dans un second temps, le législateur devrait évaluer si, au plan pratique, les bénéfices attendus de la mise en œuvre de mesures obligatoires de filtrage ne sont pas inférieurs aux risques engendrés et, lorsque c’est le cas, s’abstenir d’introduire de nouvelles bases légales donnant au juge le pouvoir de prononcer des mesures obligatoires de blocage. Ce second temps de la réflexion est d’autant plus important qu’existent, sur un plan pratique, des arguments sérieux contre la mise en œuvre de mesures de blocage :
– les techniques de contournement des mesures de filtrage sont relativement accessibles. Dans les cas où le blocage vise des échanges de contenu réellement odieux, comme des images pédopornographiques, les pouvoirs publics font face à des groupes criminels organisés qui utilisent internet de manière sophistiquée et réussiront à échapper aux obligations de blocage. Le simple blocage d’un site web est difficile ;
– à l’inefficacité partielle des mesures de blocage s’ajoutent des risques de « surefficacité », les techniques disponibles engendrant des surblocages (blocage d’autres contenus, services ou application que ceux visés) et des menaces pour la résilience du réseau ;
– il existe enfin un risque global lié au développement de techniques de contournement des mesures de blocage. Dans les cas où le blocage vise des échanges « grand public », comme des jeux en ligne, il peut être dissuasif à court terme. À long terme, cependant, il ne faut pas sous-estimer la capacité des internautes à utiliser massivement des techniques de contournement (par exemple, des modules de chiffrement ou permettant d’accéder à des proxys installés directement sur les navigateurs web). Une telle évolution serait une menace pour la sécurité du réseau et constituerait de surcroît un grave problème dans les relations entre le monde virtuel de l’internet et les pouvoirs publics. Elle suscite d’ailleurs l’inquiétude des forces de cybersécurité.
Identifier précisément les effets du blocage
Ces éléments et la prudence justifient a minima qu’un moratoire soit observé sur le blocage – aucun nouveau cas de filtrage n’étant ajouté aux cas existants – et que l’intervention du juge soit prévue dans tous les cas, conformément à la proposition n°4. Ils invitent aussi à aller plus loin : leur robustesse devrait être évaluée sérieusement par les autorités publiques concernées ; sur cette base, les conditions dans lesquelles des mesures de blocage doivent être mises en œuvre devraient être réexaminées et le choix entre les trois options envisageables – étendre le blocage, conserver le droit actuel, abandonner toute mesure de blocage – pourrait ainsi être fait de manière complètement éclairée, ce qui est une attente forte du législateur.
Encourager le développement des logiciels de filtrage de type « contrôle parental »
Le recours à des dispositifs de filtrage à l’extrémité du réseau peut être justifié, notamment dans le cadre du contrôle parental. Ces dispositifs doivent rester sous le contrôle complet de l’utilisateur, activables et paramétrables par celui-ci.
Proposition n°4 : établir dès à présent une procédure unique faisant intervenir le juge
Les fournisseurs d’accès à internet ne devraient pouvoir être obligés de bloquer des communications électroniques, sauf pour des motifs de sécurité, qu’à l’issue d’une procédure unique permettant à l’autorité judiciaire d’ordonner l’arrêt de l’accès à un contenu, un service ou une application.
Positionnement : ces dispositions pourraient être introduites dans le code des postes et des communications électroniques, ou dans un autre code.
Protéger la liberté d’expression et de communication
Le législateur dispose d’une marge de manœuvre pour déterminer la manière dont il entend assurer la conciliation entre la liberté d’expression et de communication et la protection d’autres intérêts – qu’il s’agisse la lutte contre la pédopornographie ou la cybercriminalité, la protection de l’intérêt patrimonial de l’État ou encore du droit d’auteur. Plusieurs points peuvent être rappelés à cet égard :
- le droit européen impose que les restrictions l’accès à internet soient soumises à des « garanties procédurale adéquates » (article 1er de la directive 2009/140) ;
- le Conseil constitutionnel n’a pas admis qu’une mesure de suspension de l’accès à internet puisse être prononcée par l’autorité administrative (décision sur la loi HADOPI) mais il a permis que celle-ci ordonne aux fournisseurs d’accès à internet de bloquer l’accès à des contenus pédopornographiques, la décision de blocage étant contestable devant le juge (décision sur la loi LOPPSI) ;
- ces règles européennes et constitutionnelles laissent une large marge de manœuvre à la loi, à laquelle il revient notamment, en application de l’article 34 de la Constitution, de fixer les règles concernant les droits civiques et les garanties fondamentales accordées aux citoyens pour l'exercice des libertés publiques.
L’importance politique et sociale éminente qui s’attache à la libre communication des pensées et des opinions justifie que le législateur lui donne la priorité dans la conciliation qu’il a à réaliser avec d’autres intérêts politiques légitimes. Il faut le dire clairement : il vaut mieux que les individus puissent communiquer, même si cette communication cause des dommages, jusqu’à ce qu’un juge en ait décidé autrement. Les risques de dérive liés à l’établissement d’une liste de services, contenus ou sites à bloquer établie par l’administration – notamment concernant sa publicité et mise à jour – constituent un argument supplémentaire et pragmatique en faveur du choix d’une procédure passant systématiquement par le juge plutôt que par une décision administrative de blocage contestable ensuite devant le juge.
Disposer d’un cadre légal unifié
La multiplication des lois permettant d’imposer des mesures obligatoires de blocage au cours des dernières (LCEN en 2004, loi sur les jeux en ligne en 2009, LOPPSI II en 2011) montre que la pression visant à restreindre la liberté de communication sur internet s’accroît. L’établissement d’une procédure unique permettrait d’assurer la cohérence des décisions législatives et de « consolider » les débats sur le blocage en les ancrant clairement dans un article de code.
Rationaliser la procédure judicaire
L’institution d’une procédure unique aurait aussi pour avantage de confier à un juge unique – par exemple le tribunal de grande instance de Paris, si le choix fait dans la loi pour les jeux en ligne de 2010 était repris – le rôle de prononcer des mesures obligatoires de blocage, permettant une montée en compétence et un meilleur suivi de la jurisprudence.
► TROISIÈME AXE : PROTÉGER L’UNIVERSALITÉ ET GARANTIR LA QUALITÉ DE L’INTERNET
L’objectif du troisième axe est qu’internet reste la plateforme ouverte qu’il est aujourd’hui. Le risque vient du fait que la qualité de l’internet public pourrait rapidement se dégrader à cause de l’augmentation importante des flux, si les fournisseurs d’accès à internet n’investissaient pas dans les réseaux ou s’ils privilégiaient la commercialisation des services gérés. Renforcer le choix du consommateur semble être la première solution permettant de faire face à ce risque : en l’absence de défaillances de marché, il semble suffisant, pour protéger ce choix, d’assurer la transparence sur l’accès à internet en réservant l’appellation internet aux seuls accès neutres (proposition n°5) et en instituant un observatoire de la qualité de l’internet (proposition n°6) ; dans l’hypothèse où la concurrence ne permettrait pas au consommateur d’opter pour un accès à internet neutre de qualité à un prix raisonnable, la capacité de choix du consommateur devrait être rétablie par des moyens plus contraignants en imposant aux fournisseurs d’accès à internet des exigences garantissant la qualité d’internet (proposition n°7).
Proposition n°5 : réserver l’appellation « internet » aux seules offres respectant le principe de neutralité
Les fournisseurs d’accès à internet ne devraient être autorisés à commercialiser sous le nom d’accès à internet que les services de communications électroniques respectant le principe de neutralité tel que défini à la proposition n°1.
Positionnement : ces dispositions pourraient être introduites dans la section « contrats de communications électroniques » du code de la consommation.
Accroître la transparence en posant une équation simple : internet = neutre
Le troisième paquet télécoms contient des dispositions renforçant la transparence vis-à-vis des consommateurs. L’ordonnance de transposition prévoit que de nouvelles mentions devront obligatoirement figurer dans les contrats de services de communications électroniques sous une forme claire, détaillée et aisément accessible, concernant notamment : les procédures de gestion de trafic mises en œuvre, les restrictions à l’accès à des services ou à des équipements, les réactions prévues pour assurer la sécurité et l’intégrité du réseau (article L. 121-83 modifié du code de la consommation). Ces dispositions, même intéressantes, ne garantissent pas pour autant que les consommateurs puissent comparer facilement les différentes offres et avoir accès à un internet de qualité. C’est pour pallier ces insuffisances que sont avancées les propositions n°6 et n°7.
Le premier moyen permettant de clarifier le choix du consommateur est d’introduire des exigences garantissant que le service fourni au consommateur souscrivant un contrat d’accès à internet correspond bien à ce à quoi il s’attend. Lorsque le consommateur souscrit un abonnement pour un accès à internet, il s’attend à pouvoir accéder à tout l’internet, sans discrimination et avec une qualité suffisante. Ces attentes sont bien résumées par la définition de la neutralité avancée dans la proposition n°1. C’est pourquoi il est proposé de réserver l’appellation d’internet aux offres respectant le principe de neutralité.
Inciter les fournisseurs d’accès à internet à fournir des accès à internet
Un second argument motivant cette proposition est de trouver un moyen d’inciter les fournisseurs d’accès à internet à fournir le meilleur accès possible à internet, en respectant le principe de neutralité et à un coût raisonnable. L’écosystème de l’internet repose sur le fait qu’un très grand nombre d’utilisateurs puissent accéder à tous les contenus, services et applications mis en ligne par d’autres utilisateurs, ce qui suppose de disposer d’un véritable accès à internet. Le terme « internet » possède une attractivité commerciale indéniable et la réservation de l’emploi de ce terme pour des accès neutres semble constituer une incitation efficace.
Proposition n°6 : mettre en place un observatoire de la qualité de l’internet
L’ARCEP devrait mettre en place un observatoire de la qualité de l’internet permettant de mesurer la qualité des services d’accès à internet fournis par les différents opérateurs et de mieux comprendre l’effet des pratiques des opérateurs, notamment en terme de routage, d’interconnexion et de gestion de trafic, sur la qualité de l’internet.
Positionnement : pas de proposition de dispositions législatives codifiées.
Permettre au consommateur de choisir parmi les offres d’accès à internet en fonction de leur qualité
La réservation de l’appellation « internet » aux seules offres respectant le principe de neutralité est, comme le montrent les arguments présentés à l’appui de la proposition n°6, un premier moyen pour assurer la transparence « effective » des offres pour le consommateur. La mise en œuvre de mesures publiques de la qualité de l’internet, comme il existe des mesures publiques de la qualité du téléphone fixe ou mobile réalisées sous le contrôle de l’ARCEP, en constitue un second. Cette mesure paraît d’autant plus nécessaire que la qualité des services d’accès à internet est plus hétérogène que celle des services téléphoniques, dépendant d’une multiplicité de facteurs et devant être mesurée suivant plusieurs dimensions et étant donc moins susceptible d’être directement appréciée par le consommateur.
Développer les outils de mesures existants
Il n’existe pas aujourd’hui de mesure publique de la qualité de l’internet proposé par chaque fournisseur d’accès à internet, ni d’accord sur ce qui devrait être précisément mesuré. Des techniques variées sont cependant disponibles pour mesurer la qualité de l’acheminement du trafic : certaines sont centrées sur les équipements et les performances de réseaux ; d’autres sur l’utilisateur et le résultat de l’échange d’information ; d’autres, enfin, sur des référentiels de qualité objectifs élaborés service par service. Étant donné les enjeux, il est nécessaire d’assurer le développement d’outils objectifs de mesure de la qualité de service.
Impliquer l’ARCEP dans le suivi des pratiques des opérateurs
La mise en place d’un observatoire de la qualité de l’internet garantirait par ailleurs que l’ARCEP suive de manière continue les pratiques des opérateurs internet, notamment leur politique de routage, leurs interconnexions et leur gestion de trafic. Ce suivi permettrait à l’ARCEP non seulement d’évaluer l’impact de ces pratiques sur la qualité de service mais aussi d’être mieux armée pour régler les conflits qui pourraient apparaître sur les marchés liés au réseau internet.
Proposition n°7 : charger l’ARCEP de garantir l’accès à un internet de qualité suffisante
Si la concurrence ne le permettait pas, l’ARCEP devrait utiliser sa faculté d’édicter des exigences minimales en terme de qualité de service pour garantir aux consommateurs la capacité de choisir une offre d’accès à internet respectant le principe de neutralité tel que défini à la proposition n°1 à un prix raisonnable. L’ARCEP devrait aussi définir ex ante les caractéristiques de qualité suffisante d’un accès à internet.
Positionnement : ces dispositions pourraient être introduites à l’article L. 36-15 du code des postes et des communications électroniques que créera l’ordonnance de transposition du troisième paquet télécoms.
Intervenir en cas de défaillance de marché
Il existe un certain consensus autour de l’idée que des obligations de transparence sont suffisantes en matière de qualité de l’internet tant que la concurrence fonctionne correctement, c’est-à-dire qu’elle conduit au moins un opérateur à proposer une offre d’accès à internet de bonne qualité à un prix raisonnable. Il paraîtrait justifié de prendre des mesures contraignantes si la concurrence ne fonctionnait pas correctement.
Le troisième paquet télécoms comporte des dispositions prévoyant que les autorités réglementaires nationales doivent pouvoir imposer aux opérateurs d’exigences minimales en matière de qualité de service sur les réseaux afin d’éviter la congestion. Cette disposition sera introduite à l’article L. 36-15 du code des postes et des communications électroniques par l’ordonnance de transposition. Elle confie à l’ARCEP une simple faculté, que l’autorité pourra exercer de manière discrétionnaire. L’argument précédent et la crainte que l’ARCEP puisse hésiter à intervenir, justifient la proposition qui est faite de lier la compétence de l’ARCEP en cas de défaillance de marché. L’ARCEP devrait aussi définir ex ante les caractéristiques de qualité suffisante d’un accès à internet.
► QUATRIÈME AXE : ASSURER LE FINANCEMENT PÉRENNE DE L’INTERNET
L’objectif du quatrième axe est de ménager un bon équilibre économique entre les différentes catégories d’acteurs afin que l’écosystème d’internet continue à se développer et à innover, tout en garantissant la couverture des investissements de réseau permettant de maintenir un internet de qualité. Le risque vient de ce que la hausse asymétrique du trafic internet, conjuguée au plafonnement du prix payé par les consommateurs et au caractère arbitraire des flux financiers sur les marchés bifaces font peser une forte incertitude sur l’évolution des rapports économiques des différentes catégories d’acteurs et la soutenabilité de leurs modèles économiques. Il faut s’assurer que, si les fournisseurs d’accès à internet sont obligés de fournir un internet de qualité suffisante, leur modèle économique leur permette de le faire. L’institution d’une « terminaison d’appel data » permettant de couvrir les coûts variables du réseau constitue, selon les informations recueillies par la mission, une piste intéressante. La réflexion doit se poursuivre sur ce point car les marchés liés au réseau internet sont encore mal connus (proposition n°8) et l’opportunité de mettre en œuvre cette solution demande à être évaluée de façon approfondie (proposition n° 9).
Proposition n°8 : documenter les enjeux économiques liés au réseau internet
Les autorités réglementaires nationales et la Commission européenne devraient mener des investigations approfondies sur les marchés liés au réseau internet et les services gérés, les flux financiers entre les différentes catégories d’acteurs et l’évolution de leurs modèles économiques.
Positionnement : pas de proposition de dispositions législatives codifiées.
Se fonder sur des données objectives
Les informations disponibles ne permettent pas d’établir un diagnostic précis sur les coûts liés au réseau internet et aux services gérés, le partage de la valeur ajoutée et les flux financiers exacts entre les différents acteurs. La littérature économique disponible est largement théorique et, lorsqu’elle est plus appliquée, ne contient pas de données chiffrées. Les travaux, essentiellement juridiques, consacrés spécifiquement à la neutralité ne permettent pas non plus de répondre à ces questions en dépit de la sophistication des raisonnements qu’ils mettent en jeu. Les rapports disponibles sur les aspects proprement économiques ont été réalisés par des cabinets de conseil et financés par des acteurs de l’internet ; ils contiennent peu d’éléments chiffrés. Les rapports des autorités publiques sur la neutralité contiennent peu d’informations économiques et ne permettent pas d’objectiver ces enjeux économiques. Les éléments collectés par la mission d’information ne constituent que la première étape d’un travail beaucoup plus détaillé qui devrait être mené par des organismes disposant de moyens adaptés, comme l’ARCEP, les services de l’État et la Commission européenne.
Développer une connaissance « panoramique » des marchés
La difficulté à présenter clairement les enjeux économiques liés au réseau internet procède peut-être aussi de l’éclatement du marché, découpé en plusieurs segments d’intermédiation dont chaque acteur ne voit qu’un ou deux bouts (hébergement, CDN, transit, accès, etc.). Face à cet éclatement, il est d’autant plus nécessaire d’élaborer une vision économique globale du réseau internet.
Disposer de la prudence nécessaire pour ne pas déséquilibrer les modèles économiques
Enfin, la collecte d’information sur l’économie du réseau internet est fondamentale car le débat sur la neutralité est né des inquiétudes liées à l’accroissement du trafic sur internet, en particulier l’explosion des flux vidéo, aux coûts engendrés et à la réaction des fournisseurs d’accès à internet. Il faut donc faire toute la lumière sur ces coûts. De manière plus générale, il est indispensable de disposer d’une représentation suffisamment précise du fonctionnement des marchés liés au réseau internet afin de pouvoir prendre des décisions de régulation prudente qui ne déstabilisent pas les modèles économiques des différentes catégories d’acteurs.
Proposition n°9 : évaluer de manière approfondie la mise en œuvre d’une terminaison d’appel data au niveau européen
La Commission européenne devrait analyser de manière approfondie les effets qu’aurait la mise en œuvre d’une terminaison d’appel data au niveau européen.
Positionnement : pas de proposition de dispositions législatives codifiées.
Il est possible de présenter l’idée de la terminaison d’appel data de manière schématique en disant qu’il s’agit d’instituer un mécanisme par lequel les opérateurs induisant le trafic paieraient aux fournisseurs d’accès à internet un montant dépendant de la partie asymétrique du trafic échangé et couvrant les coûts incrémentaux qu’elle engendre. Deux raisons motivent d’analyser les effets de ce dispositif au niveau européen :
– la mise en place d’une terminaison d’appel data au seul niveau français ne paraît pas opportune : en effet, les acteurs n’ayant pas intérêt à se soumettre à la terminaison d’appel data pourraient facilement délocaliser leurs points d’interconnexion pour y échapper, la perte de qualité étant minime s’ils pouvaient s’interconnecter ailleurs en Europe ;
– il est peu probable qu’une décision de l’ARCEP ou du législateur mettant directement en œuvre cette régulation soit compatible avec le droit européen.
Prendre en compte des arguments sérieux en faveur de la « terminaison d’appel data »
La mise en œuvre d’une terminaison d’appel data :
– stabiliserait le partage des coûts du réseau, comportant une part d’arbitraire sur un marché biface, entre les consommateurs finals et les inducteurs de trafic ;
– apporterait de la clarté sur le marché, ce qui constituerait un élément améliorant la prévisibilité pour les acteurs et la capacité des pouvoirs publics à évaluer les discriminations ;
– constituerait un signal tarifaire encourageant les bonnes pratiques, par exemple en matière d’encodage ou de routage, et réduisant les investissements inutiles ;
– pourrait favoriser les petits acteurs du contenu, qui ne peuvent s’appuyer aujourd’hui sur un pouvoir de marché pour négocier leur bande passante.
Évaluer précisément l’impact de la mise en œuvre de la « terminaison d’appel data » sur les modèles économiques des différentes catégories d’acteurs
Des incertitudes importantes subsistent cependant sur :
– le tarif permettant la couverture des coûts incrémentaux supportés par les fournisseurs d’accès à internet du fait de la hausse du trafic ;
– l’impact qu’aurait, de ce fait, la terminaison d’appel data sur les fournisseurs de transit et les fournisseurs de contenu.
Encourager la Commission européenne à approfondir le sujet
La Commission européenne devrait analyser de manière approfondie l’opportunité de mettre en œuvre une terminaison d’appel data au niveau européen. Cette analyse devrait d’ailleurs permettre de mieux comprendre les pratiques d’interconnexion, ce qui paraît urgent dans le contexte actuel : l’intensification des conflits relatifs à l’interconnexion au cours des derniers mois (par ex. Netflix-Level3-Comcast ou Megaupload-Cogent-Orange) montre que ce problème est parmi les plus vifs que soulève la question de la neutralité aujourd’hui. La France devrait soutenir l’engagement de ces réflexions au niveau européen.
Lors de sa réunion du 13 avril 2011 la commission des affaires économiques a examiné le rapport d’information de Mme Laure de La Raudière sur la neutralité de l’internet et des réseaux.
La commission a examiné le rapport d’information de Mme Laure de La Raudière sur la neutralité de l’internet et des réseaux.
M. le président Serge Poignant. Nous sommes réunis ce matin, en application de l’article 145 du règlement de l’Assemblée nationale, pour examiner le rapport de la mission d’information sur la neutralité de l’internet et des réseaux et nous prononcer sur sa publication. Cette mission a été constituée en septembre 2010 et ses travaux ont été confiés à Mmes Corinne Erhel, présidente, et Laure de La Raudière, rapporteure. Ils s’inscrivaient dans le prolongement d’une réflexion entamée dès la loi relative à la fracture numérique, de décembre 2009, dans laquelle le Parlement avait demandé au Gouvernement de lui remettre un rapport sur le sujet.
Je reviens brièvement sur les travaux qui ont été menés par la mission, pour souligner l’ampleur du travail fourni : une première série d’auditions a été réalisée de septembre 2010 à janvier 2011, conduisant à entendre plus de quatre-vingt acteurs ; fin janvier, de premières orientations ont été présentées en commission et diffusées aux acteurs entendus pour recueillir leurs réactions ; une table ronde a aussi été organisée en commission en mars sur le fonctionnement d’internet afin que de mieux comprendre les enjeux liés au réseau internet, qui fait l’objet des réflexions sur la neutralité.
La neutralité de l’internet est un sujet complexe, qui a des facettes techniques, économiques et juridiques. Je ne doute pas que le rapport présenté aujourd’hui nous permettra d’y voir plus clair sur le fonctionnement d’internet, ce qu’est la neutralité et les problèmes qui se posent aujourd’hui. Je pense aussi qu’il nous proposera des pistes opérationnelles pour régler ces problèmes. Mesdames les rapporteure et présidente, je vous passe la parole pour présenter votre travail.
Mme Laure de La Raudière, rapporteure. Avec la présidente, Mme Corinne Erhel, nous allons alterner la présentation de notre rapport. Je commencerai par rappeler l’importance d’internet sous ses différents angles dans la vie d’aujourd’hui. L’article 11 de la Déclaration des droits de l’homme et du citoyen énonce « la libre communication des pensées et des opinions ». Quel support aujourd’hui respecte mieux ces principes qu’internet ? Aussi nous devons œuvrer pour préserver les formidables avancées sociétales qu’il représente : démocratisation de l’accès au savoir, comme le fut en son temps la révolution de l’imprimerie ; participation des citoyens aux débats politiques ; promotion facile de nouvelles idées ; diffusion rapide des nouvelles technologies ; commercialisation universelle des produits et services ; coopération facilitée entre acteurs de toutes tailles au sein d’une filière industrielle ; développement économique des PME…
Ce sont autant d’opportunités, touchant tous les secteurs d’activité, porteuses de croissance que la France doit saisir. En France, internet représente aujourd’hui plus de 72 milliards d’euros de revenus, soit 3,7 % du PIB ; le numérique est la source d’un quart de la croissance et des créations nettes d’emploi ; il compte pour 40 % des gains de productivité.
Tous ces enjeux méritent que l’on fixe certaines règles pour préserver l’internet universel, immense bien collectif, qui ne doit pas être transformé au gré des intérêts de ses différents acteurs... C’est un objectif politique, économique et de société.
J’ajoute que nous nous sommes concentrées sur la question de la neutralité de l’internet. Il existe d’autres enjeux, notamment la fracture numérique territoriale ou sociale, qui seront traités lors du prochain contrôle d’application de la loi de lutte contre la facture numérique.
Mme Corinne Erhel, présidente. Comme vient de le rappeler la rapporteure, Mme Laure de La Raudière, les impacts économiques et sociétaux d’internet sont fondamentaux.
Le débat sur la neutralité de l’internet s’engage dans un climat très passionné. Il est apparu aux États-Unis au début des années 2000, dans un contexte marqué par le maintien des monopoles locaux des câblo-opérateurs. En Europe, du fait d’une plus grande régulation sectorielle, le débat ne s’est développé qu’en 2008 à l’occasion de l’examen du troisième paquet télécoms, qui sera transposé très prochainement par voie d’ordonnance.
Or aujourd’hui, l’accroissement du trafic et les pressions pour instaurer des mesures de blocage mettent clairement en danger cette neutralité. Comme vous pouvez le voir dans le document qui vous a été distribué, la hausse du trafic s’accroît de manière importante, linéaire et continue sur le fixe et le mobile. Cette hausse du trafic s’accompagne d’une asymétrie croissante des flux, qui tient à l’utilisation de plateformes d’hébergement par de nombreuses applications du web 2.0. Elle fait peser des coûts sur les fournisseurs d’accès à internet, qui recherchent, de ce fait, des moyens de financement additionnels.
Par ailleurs, le législateur cherche de plus en plus à faire face à la dématérialisation qu’implique internet en mettant en œuvre des mesures obligatoires de blocage, avec la LCEN de 2004, la loi HADOPI de 2009, la loi sur les jeux en ligne de 2010 et la LOPPSI de 2011 et son « fameux » article 4 permettant à l’autorité administrative de prononcer des mesures de blocage sans l’intervention du juge.
La mission d’information a auditionné plus de cent acteurs, publié un pré-rapport le 27 janvier 2011 qui a été transmis aux membres de la commission et aux acteurs auditionnés, et réalisé des auditions complémentaires sur les sujets méritant un approfondissement, de façon à affiner les points les plus importants. C’est sur le fondement de ce travail que nous présentons ce rapport et nos préconisations.
Mme Laure de La Raudière. La mission avance neuf propositions pragmatiques équilibrées entre la nécessité absolue de garantir un accès à internet neutre et universel et les potentialités liées à l’innovation dans les réseaux : autant d’intérêts parfois antagonistes qu’il convient certainement de réguler avec doigté.
Le premier axe de proposition a pour objectif de protéger internet en le faisant entrer explicitement dans le champ de la régulation des communications électroniques. Il existe aujourd’hui un risque que se développent des pratiques non neutres qui réduiraient la capacité des utilisateurs d’internet à choisir l’usage qu’ils font du réseau. Pour faire face à ce risque, il est proposé de donner une portée juridique au principe de neutralité de l’internet, en fixant de manière générale sa promotion comme objectif aux autorités réglementaires (ce qui est l’objet du premier axe) et, de manière plus spécifique, en apportant des garanties sur les points qui suscitent le plus d’inquiétudes (ce qui est l’objet des axes suivants).
La première proposition de cet axe est de définir dans la loi le principe de neutralité, comme « la capacité pour les utilisateurs d’internet d’envoyer et de recevoir le contenu de leur choix, d’utiliser les services ou de faire fonctionner les applications de leur choix, de connecter le matériel et d’utiliser les programmes de leur choix, dès lors qu’ils ne nuisent pas au réseau, avec une qualité de service transparente, suffisante et non discriminatoire, et sous réserve des obligations prononcées à l’issue d’une procédure judiciaire et des mesures nécessitées par des raisons de sécurité et par des situations de congestion non prévisibles ».
La deuxième proposition est, une fois défini dans la loi le principe de neutralité, d’en faire un objectif politique et de donner au pouvoir réglementaire la capacité d’imposer des obligations pour le promouvoir, dans le cadre de la neutralité.
Mme Corinne Erhel. L’objectif du deuxième axe de proposition est d’éviter au maximum d’obliger les opérateurs à bloquer des communications électroniques car le blocage a des effets négatifs directs (restriction de la liberté d’expression et de communication) et indirects (surblocage, développement du chiffrement, etc.). Ces effets négatifs ne sont pas toujours correctement pris en compte dans les textes législatifs. De plus, et c’est ce que j’ai souligné tout à l’heure, l’éclatement des bases législatives (LCEN de 2004, loi sur les jeux en ligne de 2010, code de la propriété intellectuelle) est un facteur de confusion. D’où deux propositions assez fortes : la première étant de s’interroger plus avant sur la justification des mesures de blocage légales, en dépit de leur légitimité apparente, du fait de leur inefficacité et des effets pervers qu’elles sont susceptibles d’engendrer ; et la seconde d’établir, dès à présent, une procédure unique faisant intervenir le juge, ce qui implique de revenir sur l’article 4 de la LOPPSI.
Mme Laure de La Raudière. Je souhaite apporter un complément sur ce dernier point. Nous avons rencontré de très nombreux acteurs, une des idées qui a émergé au cours de ces discussions est que le bilan entre les coûts et les risques du blocage d’un côté et ses bénéfices d’un autre côté risque souvent d’être négatif. Il faut que les pouvoirs publics évaluent précisément si la généralisation de pratiques réservées aujourd’hui aux geeks (chiffrement, recours à des proxy, etc.) ne ferait pas de cette solution un remède pire que le mal.
Mme Corinne Erhel. L’objectif du troisième axe est qu’internet doit rester la plateforme ouverte qu’il est aujourd’hui. Le risque vient du fait que la qualité de l’internet public pourrait rapidement se dégrader à cause de l’augmentation importante des flux, si les fournisseurs d’accès à internet n’investissaient pas suffisamment dans les réseaux ou s’ils privilégiaient la commercialisation des services gérés. Renforcer le choix du consommateur apparaît être la première solution permettant de faire face à ce risque : en l’absence de défaillances de marché, il semble suffisant, pour protéger ce choix, d’assurer la transparence sur l’accès à internet en réservant l’appellation internet aux seuls accès neutres (proposition n° 5) et en instituant un observatoire de la qualité de l’internet (proposition n° 6) ; dans l’hypothèse où la concurrence ne permettrait pas au consommateur d’opter pour un accès à internet neutre de qualité à un prix raisonnable, la capacité de choix du consommateur devrait être rétablie par des moyens plus contraignants en imposant aux fournisseurs d’accès à internet des exigences garantissant la qualité d’internet (proposition n° 7).
La proposition n° 5, dont je souligne l’importance et la nouveauté, est de réserver l’appellation « internet » aux seules offres respectant le principe de neutralité. La proposition n° 6 est de mettre en place un observatoire de la qualité de service. Nous avons vu au cours des auditions que cette qualité est mesurable. Enfin, la proposition n° 7 consiste à charger l’ARCEP de garantir la qualité de l’internet, donc à renforcer ses pouvoirs en la matière.
Mme Laure de La Raudière. L’objectif du quatrième axe est de ménager un bon équilibre économique entre les différentes catégories d’acteurs afin que l’écosystème d’internet continue à se développer et à innover, tout en garantissant la couverture des investissements de réseau permettant de maintenir un internet de qualité. Le risque vient de ce que la hausse asymétrique du trafic internet, conjuguée au plafonnement du prix payé par les consommateurs et au caractère arbitraire des flux financiers sur les marchés bifaces font peser une forte incertitude sur l’évolution des rapports économiques des différentes catégories d’acteurs et la soutenabilité de leurs modèles économiques. Il faut s’assurer que, si les fournisseurs d’accès à internet sont obligés de fournir un internet de qualité suffisante, leur modèle économique leur permette effectivement de le faire. L’institution d’une « terminaison d’appel data » permettant de couvrir les coûts variables du réseau constitue, selon les informations recueillies par la mission, une piste intéressante. La réflexion doit se poursuivre sur ce point car les marchés liés au réseau internet sont encore mal connus (proposition n° 8) et l’opportunité de mettre en œuvre cette solution demande à être évaluée de façon approfondie (proposition n° 9).
Les fournisseurs d’accès à internet reçoivent aujourd’hui des internautes le prix des abonnements forfaitaires illimités ; ils échangent du trafic avec d’autres opérateurs, ce trafic étant de plus en plus asymétrique. Traditionnellement, ce peering était gratuit. Depuis quelques années se développent des pratiques de peering payant. Le marché de l’interconnexion n’est pas régulé, ni transparent et ne couvre que partiellement les coûts variables engendrés par l’augmentation du trafic sur les réseaux d’accès. Nous pensons qu’une des solutions pourrait être d’établir une facturation au niveau de l’interconnexion afin de couvrir ces coûts variables. Je mets tout au conditionnel car il n’est pas possible, pour des raisons concurrentielles et juridiques, d’imposer ce système seulement en France, et même si nous avons cherché à documenter les questions économiques, en demandant d’abord des informations aux acteurs, puis leur renvoyant un questionnaire, nous ne sommes pas en mesure de présenter une analyse très robuste sur ce point. Il faut donc que l’opportunité d’établir une terminaison d’appel data, c’est-à-dire ce tarif régulé d’interconnexion, soit analysée en profondeur au niveau européen (proposition n° 9) et que, de manière plus générale, les enjeux économiques soient mieux mesurés (proposition n° 8).
M. le président Serge Poignant. Je vous remercie, mes chères collègues, pour cette présentation à la fois nourrie et claire, sur un sujet ô combien complexe. Je laisse maintenant la parole aux représentants des groupes.
M. Lionel Tardy. Je souhaiterais, à mon tour, remercier les deux rapporteures pour cet excellent travail, qui fait suite à la remise de nombreux documents qui nous ont permis d’y voir plus clair et qui succède également à une proposition de loi qu’avait déposée M. Christian Paul il y a quelques semaines et dont je souligne également le travail. Je salue donc cette étude de grande qualité, qui comporte de réelles propositions (dont certaines sont étonnantes, comme celles qui figurent dans le deuxième axe) consécutives à plusieurs auditions extrêmement riches, puisque vous avez notamment entendu des personnes qui sont en dehors des circuits habituels, et qui défendent des démarches tout à fait intéressantes. Je souligne également cette démarche participative avec la distribution très utile d’un pré-rapport aux membres de la commission et aux personnes auditionnées.
Ce rapport était indispensable car, avant de légiférer, il importe de savoir exactement où nous en sommes : une expertise, émanant du Parlement et non d’un groupe ayant quelque intérêt en ce domaine, était donc nécessaire. La neutralité de l’internet est un sujet très important et il est essentiel de bénéficier d’un tel document avant d’étudier la transposition dans notre droit interne du troisième paquet télécom.
M. François Brottes. Je salue, à mon tour, l’excellent travail réalisé par nos deux rapporteures dont la Commission des affaires économiques peut légitimement être fière, ce rapport faisant à la fois preuve de pédagogie et comportant une analyse extrêmement approfondie des problèmes en présence.
Je souhaiterais néanmoins à l’avenir que, lorsqu’une commission comme la nôtre effectue un travail transversal de la sorte, l’audience soit élargie aux autres commissions qui pourraient également être intéressées à ce sujet comme, en l’espèce, la commission des Lois ou celle des Affaires culturelles. Je profite de cette digression pour mettre en garde la majorité quant au texte de révision constitutionnelle sur les finances publiques qui va bientôt être débattu : je le dis avec gravité, ce texte comporte une atteinte grave et intolérable à l’égard des droits du Parlement, notamment de son droit d’amendement. Si les initiatives budgétaires et fiscales ne peuvent plus être présentées que dans le cadre d’une loi de finances, notre commission verrait sa capacité d’initiative extrêmement réduite ! Qu’on fasse une étude sur le nombre d’amendements que nous n’aurions pu, dans ce cadre, déposer sur des textes comme la loi de modernisation de l’économie (LME) ou la loi de modernisation de l’agriculture et de la pêche (LMAP) ! C’est un sujet extrêmement grave.
Pour en revenir au sujet qui nous réunit ce matin, je souhaiterais poser quelques questions rapides à nos rapporteures :
– vous avez fait allusion tout à l’heure à une somme de 6 milliards d’euros mais sait-on mesurer les milliards d’euros car, certes, internet crée un chiffre d’affaires mais c’est fatalement au détriment d’autres activités (je pense au courrier par exemple) : de ce fait, comment mesurer ce solde de 6 milliards puisque c’est en valeur nette qu’il est intéressant de le mesurer ?
– est-il, par ailleurs, pertinent de n’avoir qu’une approche strictement nationale sur ce sujet ? Ne faut-il pas avoir une perspective qui soit plus large ?
– existe-t-il un véritable risque d’embouteillage d’internet ou un risque de mainmise d’un opérateur sur internet (je pense, par exemple, à Google qui impose ses choix et ses critères lorsqu’on utilise son moteur de recherche) ? Vous avez à ce sujet souligné qu’il pouvait être pertinent de revoir certains points de la loi sur les jeux en ligne, de celle sur la HADOPI ou sur la LOPSSI : c’est bien la preuve que d’autres commissions que la nôtre sont intéressées par ce sujet !
– avez-vous des espoirs quant à l’amélioration de la desserte territoriale? J’avoue être assez pessimiste sur ce sujet car le Gouvernement ne me semble pas faire preuve de beaucoup de volontarisme alors qu’internet apparaît plus que jamais comme un bien essentiel ;
– enfin, il existe un droit au respect de la vie privée, un droit à l’oubli pour tout ce qui a pu être mis en ligne sur internet. Vous défendez d’emblée la liberté d’expression et c’est une très bonne chose mais que pensez-vous de ce droit à l’oubli qui me semble tout aussi important ?
M. le président Serge Poignant. J’ai les mêmes préoccupations que vous en ce qui concerne certaines dispositions du projet de loi de révision constitutionnelle, à l’instar d’ailleurs des autres présidents de commission : c’est un sujet de la plus haute importance, de même que je suis sensible aux problèmes afférents à la question des études d’impact ou non à l’égard des propositions de loi, de leur évaluation…
M. Jean Dionis du Séjour. Je tiens, à mon tour, à féliciter les rapporteures pour le travail considérable accompli, pour ce travail bipartisan qui pourrait presque être qualifié de centriste ou, en tout cas, de travail d’union nationale !
Je tiens également à marquer mon accord avec les propos de M. François Brottes sur cet éventuel affaiblissement du droit d’amendement contenu dans le projet de loi de révision constitutionnelle : quelle serait, de ce fait, notre capacité à agir, à déposer des propositions de loi ?
Sur le blocage d’accès à internet, il faut en effet revoir et reconsolider le cadre légal applicable : les textes sont nombreux, contestés et forment un ensemble qui manque de cohérence. Il faut réétudier cet ensemble. Vous avez présenté de bonnes propositions à ce sujet mais comment pensez-vous pouvoir les mettre en œuvre ?
La neutralité d’internet ne se pose pas de la même manière chez nous et aux États-Unis, par exemple, où des producteurs de contenus sont également des FAI : en France, ce qui pose avant tout question, c’est l’encombrement, notamment de l’internet mobile. Comment pensez-vous qu’il soit possible de gérer cet encombrement ?
Sur la question du financement que vous avez abordée en introduction, ce sont les abonnements des internautes qui, en France, financent internet : comment se fait-il que les points de financement ne soient pas apparus d’eux-mêmes sur le marché ?
Mme Frédérique Massat. À mon tour, je salue ce travail remarquable, qui se concrétise notamment par des propositions intéressantes. Je souhaiterais d’ailleurs savoir comment les rapporteures comptent désormais les mettre en œuvre : par le biais du dépôt d’une proposition de loi ? Sous une autre forme législative ?
Sur la question du financement, il faut assurer le financement pérenne par le biais de deux interventions que vous nous avez présentées en introduction de votre rapport : documenter les enjeux économiques liés au réseau internet et évaluer de manière approfondie la mise en œuvre d’une terminaison d’appel data au niveau européen. Il semblerait qu’il existe sur ce sujet des contraintes de mise en œuvre au niveau de l’Union européenne : existe-t-il une possibilité pour que la France puisse avoir une vision claire de ce sujet, permettant ensuite de conduire une démarche au plan européen ? Quant à votre seconde proposition, pourriez-vous la détailler ? Vous avez soumis vos propositions à d’autres acteurs, certains y étant favorables, d’autres non : pouvez-vous nous en donner les raisons ?
M. Michel Piron. La neutralité de l’internet peut être technique mais également économique et politique. La question du blocage se pose car on ne doit pas confondre liberté d’expression et liberté de diffuser n’importe quoi (programmes pédophiles ou pédo-pornographiques par exemple). Vous semblez préférer l’intervention du juge a priori plutôt que le recours à un blocage de la part de l’autorité administrative avec possibilité de la contester ensuite devant le juge, alors que cette seconde formule présente pourtant l’avantage d’être beaucoup plus rapide. Ne pensez-vous pas que le recours systématique au juge pose des problèmes de délais de mise en œuvre ?
M. Kléber Mesquida. Je souligne également l’excellente qualité de ce rapport d’information qui peut laisser présager un consensus ou, en tout cas, une convergence de vues sur ce sujet pour l’avenir. Notre groupe avait déposé une proposition de loi sur ce thème mais on nous avait demandé d’attendre le dépôt de ce rapport ainsi que de celui qui doit être fait par la Commission européenne. Attendons de voir ce qu’il en ressortira ! Dans l’immédiat néanmoins, avez-vous des informations sur les intentions que pourrait avoir le Gouvernement sur la neutralité de l’internet ou sur l’éventuel dépôt d’une proposition de loi sur ce sujet ? Et, dans l’affirmative, sous quel délai ? Enfin, comment pensez-vous qu’il soit possible de traduire un juste équilibre entre accès à internet et liberté d’investir ?
M. François Loos. J’aimerais connaître votre opinion sur l’utilisation des logiciels libres dans la gestion d’internet. En effet, les partisans des logiciels libres affirment que les logiciels propriétaires peuvent être manipulés. Par ailleurs, l’examen de la neutralité d’internet n’a de sens qu’à l’échelle internationale. À cet égard, vous indiquez que la loi américaine utilise depuis 2005 le critère de l’absence de discrimination déraisonnable. Que faut-il entendre par là ? Peut-il y avoir des discriminations raisonnables ? Enfin, vers qui se tourner pour obtenir une amélioration de la qualité du service, rendue indispensable par le recours croissant à internet ? Des objectifs de qualité peuvent-ils être définis dans le respect de la neutralité ?
Mme Pascale Got. Le principe du libre-accès à internet n’est-il pas déjà battu en brèche par la persistance de zones blanches ? Par ailleurs, comment l’action des régulateurs nationaux se concilie-t-elle avec celle des institutions européennes ? Enfin, dans quelle mesure allez-vous prendre en compte les derniers événements politiques au Moyen-Orient et l’utilisation faite par la Chine du réseau dans la suite de votre travail ?
M. Jean-Pierre Nicolas. Je tiens également à insister sur la grande qualité de ce rapport. Cela étant dit, je m’interroge, comme d’autres collègues, sur la possibilité de n’avoir qu’une approche franco-française de ce sujet. Je crois, par ailleurs, que la question du financement doit être précisée. Enfin, s’agissant du deuxième axe de vos propositions, n’y a-t-il pas d’incompatibilité avec les lois « Hadopi » et « Loppsi » ? Faut-il modifier ces textes ?
Mme Catherine Coutelle. Vous soulignez à juste raison les avancées sociales et le bien-être collectif suscités par internet. C’est un aspect extrêmement favorable de la mondialisation. Mais vous ne parlez pas des risques ; or, internet inquiète pourtant beaucoup de parents. Vous évoquez, par ailleurs, la participation des citoyens au débat relatif à internet. À cet égard, existe-t-il des associations d’utilisateurs et se font-elles entendre ? S’agissant du deuxième axe de vos propositions, vous rappelez que l’éclatement législatif est facteur de confusion. Allez-vous déposer une proposition de loi qui harmoniserait et simplifierait la législation, tout en consacrant les deux principes que sont la reconnaissance de la neutralité d’internet et l’intervention du juge ?
M. Alain Suguenot. Je tiens à souligner le chemin parcouru depuis 2005 et l’institution des « Digital Rights Management », à l’heure où Orange vient d’inventer la licence globale optionnelle. En premier lieu, il me paraît nécessaire de préciser les moyens de financement nécessités par le recours croissant aux bandes passantes. En tout état de cause, il me semble que l’on est condamné à un réseau internet à plusieurs vitesses. Enfin, concernant le deuxième axe de vos propositions, je préfère la notion de filtrage à celle de blocage, qui me paraît inconciliable avec la neutralité, car il renvoie à certaines pratiques des autorités chinoises ou libyennes.
M. Jean-Louis Gagnaire. Les membres de cette commission sont convaincus par votre démonstration, mais il convient de persuader le reste de nos collègues, qui ne s’intéressent parfois à internet qu’à travers le prisme de la couverture des zones blanches. Internet constitue un enjeu économique majeur et la France a rattrapé son retard en ce domaine. Toutefois, il convient de reconstruire un cadre juridique fiable, plus unifié. S’agissant du mode de financement, l’usager doit prendre la plus grande part, l’intervention publique étant limitée à l’aménagement du territoire. En ce sens, plus la bande passante est utilisée, moins le coût global est élevé ; à cet égard, on constate que le très haut débit concerne essentiellement des usages ludiques. Plus globalement, on peut dire qu’un écosystème est en train de se développer. Quelles suites entendez-vous donner à ce travail ?
M. Jean-Charles Taugourdeau. Vous faites référence à la libre communication des pensées et des opinions, mentionnée à l’article 11 de la Déclaration des droits de l’homme et du citoyen. Mais je crois également nécessaire d’insister, à l’instar de M. François Brottes, sur le droit à l’oubli. La loi du 29 juillet 1881 relative à la liberté de la presse prévoit la publicité des condamnations. Or, nous sommes tous menacés par la divulgation d’opinions diffamatoires sur internet. Il convient donc d’opérer une publicité comparable des condamnations pour diffamation au titre d’écrits publiés sur le réseau.
M. Philippe Armand Martin. Les moyens de filtrage que vous avez évoqués peuvent être utilisés à des fins très différentes, selon qu’ils empêchent l’accès aux sites pédo-pornographiques ou qu’ils restreignent les libertés. Rappelons-nous les levées de boucliers suscitées par la loi « Hadopi ». Comment concilier les impératifs de protection contre les dangers d’internet et de respect de la vie privée ? Par ailleurs, comment faire en sorte qu’internet demeure un média technologique et non un simple marché ?
M. René-Paul Victoria. On prend conscience à la lecture de cet excellent rapport des enjeux économiques et sociétaux d’internet, ainsi que de la nécessité de sécuriser le réseau. Vous avez employé à de nombreuses reprises les termes de filtrage et de blocage, ce qui montre bien l’étendue des actions à mener en la matière. Vous faites également référence à l’article 11 de la Déclaration des droits de l’homme, mais n’oublions pas que tout le monde n’a pas accès à internet. Peut-être pourriez-vous faire un ajout pour souligner l’importance de l’accès de tous au réseau ?
M. Lionel Tardy. Les affaires Stanjames et Wikileaks ont montré que les procédés de filtrage pouvaient être contournés, notamment grâce à des sites miroirs. Pour revenir au thème général du rapport, il y a deux questions fondamentales : la neutralité du réseau lui-même et la neutralité des moyens permettant son utilisation – terminaux et moteurs de recherche. Beaucoup d’interrogations concernent l’attribution des licences 4G, les flux vont devenir exponentiels. Il faudrait approfondir certains sujets : les interconnexions, l’équilibre des flux financiers et la répartition équitable des revenus. Le financement est la priorité absolue. Pour le reste, je partage pleinement vos recommandations concernant les moyens de remédier au filtrage.
Mme Corinne Erhel. Plusieurs d’entre vous nous ont posé des questions concernant des thèmes qui sont ou qui vont être portés dans d’autres missions. Je pense tout particulièrement à l’aménagement numérique du territoire, préalable essentiel. Ce thème sera abordé au terme de la présente mission, dans le cadre du rapport d’application de la loi de lutte contre la fracture numérique. Nous reviendrons alors sur l’ensemble des dispositions votées il y a un an, nous les évaluerons et formulerons des préconisations. La présente mission porte sur la neutralité des réseaux et nous avons fait en sorte de bien calibrer nos travaux et d’en délimiter le périmètre de façon à ne pas interférer avec d’autres travaux. Les commissions des Lois et des Affaires culturelles mènent également une mission d’information commune sur la protection des droits de l’individu dans la révolution numérique : cette mission abordera des sujets tels que le droit à l’oubli.
Quant aux neuf propositions réparties en quatre axes que nous formulons dans notre rapport, elles me paraissent interdépendantes. Il ne me paraît pas censé de mettre en œuvre l’une de ces mesures isolément, sans tenir compte des autres. Les premières mesures que nous préconisons sont liées à l’inscription du principe de neutralité : elles concernent le filtrage, le blocage et l’intervention du juge, et sont complémentaires à la réflexion à mener sur l’instauration potentielle d’une terminaison data au niveau européen. Tout se tient.
Plusieurs d’entre vous s’interrogent quant à la capacité de mise en œuvre de ce rapport. Il est évident qu’il faudra trouver une majorité pour le faire dans la mesure où nous revenons sur un certain nombre de dispositions votées récemment, notamment l’article 4 de la LOPPSI. M. Michel Piron soulevait le risque de lenteur de la prise de décision en cas d’intervention du juge dans le cadre d’un blocage. Mais d’un point de vue politique, si la justice disposait de davantage de moyens, on pourrait aller plus vite.
Sur les aspects économiques de notre rapport, on a eu du mal à trouver de la documentation, des raisonnements et des chiffres. On dispose d’ordres de grandeur mais pas de chiffres précis sur les évolutions et les relations financières entre les différents acteurs. À la page 22 de notre rapport, nous citons deux études en notre possession : l’une, réalisée par McKinsey, qui concerne l’impact d’internet sur l’économie française, commandée par Google, l’autre, d’AT Kearney, intitulée Internet Value Chain Economics, commandée par les fournisseurs d’accès à internet. On a donc absolument besoin de disposer d’une base d’informations économiques plus précise et plus indépendante de manière à avoir une meilleure connaissance des flux financiers entre les différents acteurs, afin de pouvoir évaluer de façon beaucoup plus précise les difficultés qu’il peut y avoir dans la répartition de la chaîne de valeur. Ainsi que nous le préconisons dans notre proposition n° 9, la réflexion sur la neutralité et sur les enjeux économiques en général a une dimension mondiale. Il doit aussi y avoir une réflexion à l’échelle européenne.
Enfin, il faut absolument cesser de légiférer au coup par coup sur le thème d’internet. On a besoin d’une base législative consolidée. C’est dans ce sens qu’est orienté notre rapport. Parfois on adopte des amendements portant sur des textes très différents qui ne sont pas nécessairement consacrés à internet, et qui peuvent être en contradiction avec les objectifs globaux que nous nous fixons en la matière. Nous devons disposer d’un environnement juridique stable dans le temps, afin de légiférer de manière beaucoup plus efficace.
Mme Laure de La Raudière. Avant d’aborder d’autres thèmes, je commencerais par une requête à l’attention du président de la Commission. Nos collègues commissaires saluent le travail de la commission des Affaires économiques, mais comme l’a rappelé Mme Corinne Erhel, la commission des Lois et la commission des Affaires culturelles mènent une mission d’information commune sur la protection des droits de l’individu dans la révolution numérique. Cette mission couvre plusieurs sujets parmi lesquels le droit à l’oubli. De notre côté, outre le présent rapport d’information, nous allons rédiger un rapport sur l’application de la loi relative à la lutte contre la fracture numérique dont nous évaluerons l’efficacité. L’ensemble de ces travaux devrait être prêt au début du mois de juillet. Il serait donc possible de mettre en commun les travaux de ces trois commissions, d’en faire la synthèse et d’organiser ensuite un grand débat sur internet.
M. le président Serge Poignant. Je vais me rapprocher de mes collègues présidents des commissions des Lois et des Affaires culturelles. Je ne peux pas encore vous indiquer aujourd’hui la forme que prendra ce travail de synthèse.
Mme Laure de La Raudière. Concernant le filtrage et le blocage, je comprends bien les remarques de MM. Michel Piron, Philippe Armand Martin, René-Paul Victoria, Mme Catherine Coutelle et M. Jean-Charles Taugourdeau sur le fait que l’on ne mentionne guère dans notre rapport les risques liés à internet. Cela relève en effet plutôt de la mission commune des commissions des Lois et des Affaires culturelles. Cela étant, dans le cadre de nos propositions relatives au filtrage et au blocage, on demande – préalablement à toute décision de filtrage ou de blocage – que l’on en mesure l’efficacité. Car, de toute manière, toute décision dans ce domaine a des effets pervers par rapport à l’évolution du comportement des internautes et par rapport à celle du fonctionnement du réseau. Selon les méthodes utilisées, on peut aboutir à des situations de surblocage. Un exemple emblématique : le Pakistan a voulu bloquer l’accès à Youtube. Il a utilisé la technique dite de blocage « BGP » et cela a bloqué Youtube dans le monde entier ! C’est pourquoi la mission préconise que l’on vérifie, avant de mettre en œuvre de telles mesures, si l’on ne risque pas d’engendrer un remède pire que le mal. Il est donc nécessaire d’analyser techniquement comment ces mesures fonctionnent et de comparer les coûts et les risques avec bienfaits escomptés.
Notre deuxième proposition consiste à saisir systématiquement un juge : en effet, un délit commis sur internet est de même nature qu’un délit commis en dehors d’internet. Il doit donc être jugé suivant la même procédure. Les sanctions pourront être différentes mais rien ne justifie des différences procédurales pour un même délit. La raison en est que tout le droit existant s’applique sur internet. La semaine dernière, nous avons voté une disposition dans le code électoral, qui s’applique spécifiquement à internet. C’est une loi bavarde et inutile. On sait très bien qu’un amendement peut être adopté en toute bonne foi pour couvrir un risque avéré, même si la disposition législative que l’on introduit n’est pas absolument nécessaire, parce que le droit s’applique sur internet.
S’agissant de la gestion de trafic sur internet, on préconise le « best effort ». On ne souhaite pas, comme aujourd’hui, d’écrasement spécifique sur certains protocoles en heure de pointe, y compris sur le mobile. Si on appelle le service « internet », il n’est pas justifié que l’on écrase, en heure de pointe, un protocole particulier. Si on le fait pour des raisons de dimensionnement des réseaux mobiles, mieux vaut alors appeler ce service de la « data mobile » qu’« internet ». Il s’agit d’une défense très politique de ce qu’est internet. Lorsque l’on vend internet, on vend de l’accès à tout internet. Les acteurs ne nous ont pas demandé de pouvoir procéder à la différenciation de services sur internet, mais de pouvoir développer les services gérés, qui ne sont pas sur internet. Ils utilisent les mêmes tuyaux mais ne sortent pas sur le réseau d’internet. Nous sommes favorables au libre développement des services gérés à condition que l’on ait une garantie de qualité suffisante sur internet – en d’autres termes, que les services gérés n’occupent pas toute la place dans les tuyaux – et que l’on étudie de manière beaucoup approfondie la possibilité de développer une terminaison d’appel data.
La terminaison d’appel data constituerait un véritable risque si elle était mise en œuvre au niveau« franco-français ». Si l’on impose à tous les acteurs, quels qu’ils soient, de n’utiliser le terme d’internet que pour désigner internet, il n’y a pas en revanche pas, selon nous, de risque de distorsion de concurrence entre acteurs.
S’agissant de la suite, nous ne disposons pas encore de la communication de la Commission européenne. Nous avons cependant décidé de vous présenter notre rapport. Je ne me vois cependant pas déposer une proposition de loi avant la publication de cette communication, prévue fin mai. Certains groupes de travail sont organisés sur le sujet et nous aurons accès aux travaux de la Commission européenne vers le mois de juillet. Avant de déposer une proposition de loi, je devrai discuter avec le Gouvernement puisque l’une de nos propositions remet en cause un dispositif voté : l’article 4 de la LOPPSI.
M. Jean Dionis du Séjour. Un travail considérable a été accompli. Toujours est-il qu’un certain nombre de points durs ne sont pas réglés : la gestion de l’encombrement et le calendrier législatif. Il n’y aura pas d’initiative parlementaire avant 2012 : ce sont des sujets qui sont « chauds » sur le plan politique et de plus, on attend la publication du Livre blanc européen.
Mme Corinne Erhel. C’est là un point sur lequel j’avais insisté lors de l’examen de la proposition de loi de M. Christian Paul et du groupe socialiste. Il y a en effet un risque de report sine die du fait du retard dans la publication de la communication de la Commission européenne puis du calendrier électoral de 2012 avec l’élection présidentielle et les élections législatives. Cependant, c’est un sujet central qui touche l’ensemble de l’économie et de la société. Si l’on souhaite rendre nos propositions efficaces, il ne faut guère tarder à les mettre en place.
Mme Laure de La Raudière. Je souhaiterais répondre à une dernière question, qui consiste à savoir pourquoi le marché de l’interconnexion n’est pas apparu avant : c’est parce qu’il n’est absolument pas transparent, car les fournisseurs d’accès à internet ont vis-à-vis des fournisseurs de contenu un monopole d’accès par rapport aux internautes et par rapport à leurs clients. C’est pourquoi il y a des tensions sur ce marché de l’interconnexion.
Enfin, je souhaiterais discuter avec le Gouvernement pour que soit inscrite la proposition de loi dans l’une des niches parlementaires. Du fait de l’examen du budget, la prochaine niche parlementaire sera en décembre ou en janvier.
M. le président Serge Poignant. Il me reste à vous demander l’autorisation de publier ce rapport.
La Commission autorise la publication du rapport.
ANNEXE 1 — PREMIÈRES ORIENTATIONS DE LA MISSION
La Commission des affaires économiques de l’Assemblée nationale a constitué, le 29 septembre 2010, une mission d’information sur la neutralité de l’internet et des réseaux. Les travaux de cette mission sont dirigés conjointement par Mme Corinne Erhel, présidente, et Mme Laure de La Raudière, rapporteure. Ce document présente les premières orientations de la mission. Afin de préciser ces orientations, la mission invite les députés et les acteurs auditionnés à lui transmettre leurs commentaires avant le 28 février 2011.
1. Le débat sur la « neutralité de l’internet » renvoie à deux types de préoccupations : (i) la neutralité du réseau internet ; (ii) la neutralité d’autres moyens sur lesquels repose l’utilisation d’internet (terminaux, moteurs de recherche, etc.). La commission des affaires économiques étant compétente en matière de réseaux, la mission a concentré ses travaux sur la neutralité du réseau internet.
2. La neutralité des réseaux peut être définie comme le principe selon lequel est exclue toute discrimination à l'égard de la source, de la destination ou du contenu de l'information transmise sur les réseaux. Suivant cette définition, les questions qui se posent au législateur en matière de neutralité du réseau internet sont les suivantes :
- Faut-il donner une portée normative au principe de neutralité des réseaux ?
- Comment définir la non-discrimination ?
- Faut-il prévoir des exceptions ?
3. Internet est un réseau informatique mondial qui permet à ses utilisateurs d’échanger toutes sortes d’informations (sous forme de paquets IP) et d’accéder à des services (web, mails, etc.). Le fonctionnement du réseau repose sur l’intervention d’intermédiaires techniques dont les équipements informatiques sont reliés les uns aux autres, notamment des fournisseurs d’accès à internet et des opérateurs de transit qui les interconnectent.
4. Tous les acteurs d’internet expriment leur attachement au principe de neutralité. Ils ont toutefois des points de vue divergents sur : (i) la définition de ce principe ; (ii) l’utilité d’une intervention législative pour le protéger. Les débats se cristallisent autour de trois problèmes pratiques : le filtrage, la gestion de trafic, l’interconnexion. Pour bien comprendre ces problèmes, la mission a entendu plus de cent personnes. Elle s’est ensuite attachée à trouver des solutions qui garantissent la préservation du « bien public » qu’est internet et l’équilibre économique des acteurs du numérique.
5. L’attachement à la neutralité de l’internet fait écho au souci de préserver le caractère universel de l’internet, réseau qui constitue une plate-forme d’échanges particulièrement simple d’utilisation et accessible partout dans le monde. Le développement d’internet constitue une révolution des modes de communication qui a des impacts à la fois sociétaux et économiques.
6. Le débat sur la neutralité de l’internet est apparu aux États-Unis au début des années 2000, dans un contexte marqué par le maintien des monopoles locaux des câblo-opérateurs, incités à restreindre l’accès aux contenus concurrents à ceux qu’ils distribuent et peu susceptibles d’être sanctionnés par des abonnés qui ne peuvent pas faire jouer la concurrence. En Europe, la plus grande libéralisation des réseaux a décalé le débat, qui ne s’est développé qu’en 2008 à l’occasion de l’examen du troisième « paquet télécoms ». De nombreuses raisons techniques, économiques et juridiques expliquent l’importance prise aujourd’hui par la question de la neutralité et les risques d’atteinte à la neutralité des réseaux.
7. Raisons économiques. L’arrivée à maturité du marché de l’accès à internet en France pousse les différentes catégories d’acteurs, et principalement les opérateurs d’accès, à rechercher de nouvelles sources de revenu, et leurs modèles économiques évoluent aujourd’hui rapidement. Les opérateurs de réseau d’accès font face à un accroissement important du trafic internet du fait du développement de la vidéo sur internet et de nouveaux terminaux (smartphones, tablettes, TV connectées), ce qui les oblige à investir dans leur réseau pour éviter la congestion et s’ajoute à des coûts élevés de déploiement de nouvelles boucles locales fixe ou mobile (Ftth ou 4G). La qualité de service est par ailleurs un paramètre économique déterminant pour de nombreux services en ligne (100 ms de latence supplémentaires pour Amazon représenteraient une baisse des ventes de 1 %), ce qui fait que les fournisseurs de services sont demandeurs de qualité de service. Enfin, certains opérateurs d’accès qui payaient les opérateurs de transit pour se connecter à eux (accord payant de transit) et laissaient gratuitement les fournisseurs de contenus se connecter à leur réseau (accord gratuit de peering) cherchent à être rémunérés pour offrir une interconnexion de bonne qualité à ces acteurs.
8. Raisons techniques. Le développement technologique a conduit à l’apparition de moyens permettant de différencier la performance de l’acheminement des différents flux et de garantir une qualité de service sur les réseaux IP (architectures DiffServ ou MPLS et routeurs permettant de les implémenter, par exemple). La différentiation des flux repose soit sur des informations contenues dans l’en-tête des paquets IP, soit sur l’analyse du contenu des paquets au-delà de l’en-tête (Deep packet inspection). Des moyens à l’efficacité limitée existent par ailleurs pour filtrer les informations échangées.
9. Raisons légales. Des acteurs demandent la mise en œuvre de mesures de filtrage d’internet ou de blocage de contenus sur Internet pour empêcher que les communications sur le réseau ne servent de support à des activités illégales (consultations d’œuvres sous droit d’auteur, échange d’images pédo-pornographiques, etc.).
10. Trois dimensions de la neutralité peuvent être distinguées.
- La dimension sociétale est liée au souci qu’internet continue d’être un vecteur de développement de la liberté de communication et que les internautes puissent accéder à tous les contenus mis en ligne partout dans le monde et échanger toute information. Ce problème renvoie aux questions de filtrage et de blocage.
- La dimension consommateur concerne les conditions d’accès des consommateurs à internet : simplicité, bonne qualité de service offerte et prix raisonnable. Ce problème renvoie aux questions de gestion de trafic et d’interconnexion, qui ont toutes deux un impact sur la qualité de l’accès à internet et sur les ressources des fournisseurs d’accès à internet (donc le prix qu’ils facturent aux consommateurs pour l’accès à internet).
- La dimension économique est en rapport avec l’objectif de maintenir une économie numérique innovante, à la fois dans les contenus et dans les réseaux, sur un secteur en forte croissance et générateur d’emplois. Pour cela, l’accès à internet pour les fournisseurs de services en ligne doit rester simple et peu coûteux. Mais les opérateurs de réseaux doivent aussi pouvoir financer leurs réseaux et développer des services d’acheminement répondant aux nouveaux besoins (cloud computing, domotique, etc.).
Le fonctionnement actuel d’internet
11. Internet est un réseau permettant d’échanger des informations codées numériquement. Afin de faciliter leur transmission, ces informations sont fractionnées en morceaux appelés paquets IP (pour internet protocol). Une adresse unique, dite adresse IP, est attribuée à chaque terminal connecté à internet et mise en tête du paquet. À chaque carrefour du réseau, des équipements appelés routeurs orientent les paquets dans la bonne direction pour qu’ils parviennent à leur destinataire. Cette présentation schématique est au fondement de la conception de base de la neutralité, selon laquelle les fournisseurs d’accès à internet devraient acheminer de manière homogène tous les paquets IP.
12. Le fonctionnement d’internet est plus complexe que ne le laisse supposer cette présentation schématique. Trois faits importants peuvent être retenus.
- Les différents réseaux qui composent l’internet ont une architecture en couche normalisée qui facilite leur interconnexion. L’adressage des paquets IP, dont le fonctionnement est décrit ci-dessus, n’est que la fonction d’une couche parmi d’autres : la couche IP. Au-dessus d’elle, les couches transport et application permettent de gérer les sessions entre utilisateurs et la fourniture de services. En dessous, la couche réseau permet d’implémenter la couche IP avec différents protocoles et médias physiques.
- Ce sont aujourd’hui pour l’essentiel les mêmes supports de transmission qui servent pour différents types de communications électroniques, qu’il s’agisse du trafic internet, de téléphone, de télévision, etc. Outre ces équipements de transmission, des infrastructures de stockage et d’interconnexion sont nécessaires pour qu’internet fonctionne correctement.
- Les fournisseurs de contenu, les fournisseurs d’accès à internet et les internautes ne sont pas les seuls acteurs qui interviennent. Les fournisseurs de contenu font appel à des hébergeurs qui stockent leurs données ainsi qu’à des entreprises appelées Content delivery networks (CDN) fournissant des services de caching consistant à rapprocher temporairement les contenus des internautes afin d’améliorer la qualité de service. Les fournisseurs d’accès à internet recourent à des intermédiaires appelés fournisseurs de transit qui leur offrent une connectivité mondiale.
13. Ces précisions montrent que la non-discrimination des informations transmises par internet et la qualité de leur transmission dépendent : (i) des modalités d’acheminement du trafic internet par les fournisseurs d’accès à internet mais aussi ; (ii) des modalités d’acheminement du trafic internet par d’autres intermédiaires techniques de l’internet, notamment les fournisseurs de transit ; (iii) de la qualité des interconnexions entre les différents intermédiaires techniques de l’internet ; (iv) des modalités d’acheminement des autres flux sur les réseaux de communications électroniques, qui partagent la bande passante disponible avec le trafic internet ; (v) des services de stockage temporaires de contenu, qui permettent d’apporter de la qualité de service.
14. Comme mentionné en introduction, les auditions réalisées par la mission ont permis d’identifier trois problèmes pratiques.
15. Filtrage. Le premier problème est celui du filtrage, c’est-à-dire des restrictions apportées aux échanges d’information sur internet.
- Technique : les opérateurs disposent de plusieurs solutions techniques pour empêcher la transmission de certaines informations. Il faut distinguer deux grands types de filtrage : (i) le blocage de certains types de flux, par exemple le blocage de ports (numéros inscrits dans l’en-tête des paquets IP et identifiant certains types de services, comme le serveur de messagerie pour le port 25) ; (ii) le filtrage de contenus. Ce second type de filtrage peut être réalisé avec différentes techniques, notamment : filtrage d’url à partir des serveurs DNS des opérateurs pour empêcher l’accès à des sites web en ne donnant pas l’adresse IP correspondant à leur adresse web ; le filtrage IP à partir du protocole BGP par la diffusion de fausses « routes » dans le réseau de l’opérateur pour bloquer les paquets adressés vers une adresse IP donnée. Le blocage de certains types de flux comme le filtrage de contenus peuvent reposer non seulement sur la lecture des en-têtes de paquets IP mais aussi sur des mécanismes d’analyse de contenu des paquets (Deep packet inspection).
- Efficacité : ces techniques ne sont que partiellement efficaces et peuvent toutes être contournées. Elles engendrent par ailleurs des effets pervers, notamment en empêchant l’accès à des contenus qu’il n’est pas souhaité filtrer (phénomène de « surblocage »).
- Problème : ces moyens peuvent être utilisés à des fins très différentes (rendre inaccessible des sites pédo-pornographiques, répondre à des attaques informatiques, éviter que certains flux ne consomment toute la bande passante, etc.). Ils restreignent la capacité des internautes à communiquer et peuvent poser des problèmes de protection de la privauté des communications électroniques.
16. Gestion de trafic. Le second problème est celui de la gestion de trafic, qui renvoie à l’ensemble des pratiques déployées par les opérateurs de réseaux pour différencier l’acheminement des différents flux de paquets IP.
- Technique : de manière basique, internet est un réseau best effort qui ne garantit pas la qualité de transmission des informations (notamment délai de latence, variation de ce délai et taux de perte d’information). En l’absence d’intervention des opérateurs, la qualité de l’acheminement dépend du dimensionnement du réseau (rapport entre le volume de données transmises et la bande passante). Les intermédiaires techniques de l’internet disposent toutefois de moyens techniques pour améliorer et dégrader la qualité de service de certains flux, soit au niveau de la couche IP (avec des architectures de type DiffServ par exemple) soit en dessous de la couche IP (avec des architectures de type MPLS par exemple).
- Usages : la gestion de trafic peut notamment servir à : (i) assurer la sécurité et répondre aux attaques informatiques ; (ii) améliorer les performances du réseau en traitant les différents types de flux différemment selon la qualité dont ils ont besoin ; (iii) répondre aux problèmes de congestion en dégradant l’acheminement de certains flux ; (iv) distinguer différentes classes de service d’acheminement pour mieux « monétiser » le réseau…
- Problème : certaines applications peuvent nécessiter une gestion de la qualité de service (comme la vidéoconférence ou la TV3D) et ce besoin devrait s’accroître pour les applications de demain (cloud computing, domotique, etc.). La qualité de service peut être apportée par la gestion de trafic mais aussi par les services de caching que fournissent les CDN. La différentiation de la qualité de service soulève des problèmes de transparence vis-à-vis du consommateur et d’équité concurrentielle et peut conduire à la dégradation de la qualité de service de l’internet public de base.
17. Interconnexion. Les intermédiaires techniques de l’internet (opérateurs de transit, opérateurs d’accès, CDN) sont interconnectés.
- Technique : il faut distinguer deux modes de connexion : le peering, accord par lequel des intermédiaires s’échangent les adresses IP de leurs réseaux ; et le transit, par lequel un opérateur fournit à un intermédiaire toutes les adresses IP de l’internet, lui offrant ainsi une connectivité mondiale.
- Économie : tous les intermédiaires techniques se trouvent sur des marchés bifaces et peuvent se rémunérer des deux côtés ; en pratique, les flux financiers vont des opérateurs d’accès et des fournisseurs de contenus vers les opérateurs de transit (accord de transit payant) et parfois des fournisseurs de contenus vers les opérateurs d’accès (accord de peering payant). Les opérateurs de réseau qui acheminent des volumes comparables de données sont interconnectés par des accords de peering gratuits.
- Problème : le dimensionnement des interconnexions a un impact sur la qualité de service car s’il n’est pas suffisant, la qualité de l’acheminement des informations transmises sera dégradée. Les flux financiers déterminent la répartition de la valeur ajoutée entre les différentes catégories d’acteurs de l’internet, donc leur capacité à financer leur activité. L’asymétrie croissante des flux est à l’origine d’une crispation entre, d’un côté, les fournisseurs de contenus et les opérateurs de transit et, de l’autre coté, les opérateurs d’accès, et tend à faire évoluer le modèle de base d’échange gratuit du trafic.
18. Sur la base de ce diagnostic, la mission a déterminé les objectifs qu’il paraît légitime de poursuivre avant de proposer des mesures législatives permettant de les atteindre.
19. En matière de filtrage, l’objectif doit être d’empêcher les restrictions aux échanges d’information sur internet, sauf dans les cas les plus graves et sur intervention du juge. D’où les recommandations suivantes :
- Encadrement des mesures obligatoires de filtrage d’internet. Le filtrage limite la liberté de communication et engendre des effets pervers (surblocage, risques liés à la tenue d’une « liste noire » de contenus filtrés…). De ce fait, les obligations de filtrage devraient être limitées aux contenus les plus nuisibles ou lorsqu’elles ne risquent pas de conduire au développement de pratiques de détournement néfastes pour le fonctionnement d’internet. Elles ne doivent être imposées qu’à l’issue d’une procédure faisant intervenir un juge. La mise en œuvre des mesures obligatoires devrait également être contrôlée. La volonté de certains internautes d’avoir accès à un internet filtré ne doit être réalisée que par des dispositifs de filtrage individuel, de type contrôle parental, et paramétrable par l’internaute, s’il le souhaite.
- Interdiction du filtrage d’internet hors mesures obligatoires ou nécessité technique. L’accès à internet doit permettre d’accéder à tous les contenus et toutes les applications disponibles en ligne. Certaines mesures de filtrage ou de blocage peuvent être justifiées par le bon fonctionnement du réseau, par exemple pour sa sécurité, mais il faut que leur justification soit contrôlée.
- Encadrement des techniques d’analyse des informations transmises. La mise en œuvre de dispositifs d’analyse des paquets peut être nécessaire pour mettre en œuvre des mesures de filtrage ou faire de la qualité de service, mais leur utilisation doit être encadrée et contrôlée afin de protéger la privauté des communications électroniques.
20. En matière de gestion de trafic, l’objectif doit être d’assurer aux consommateurs la possibilité d’accéder à des offres internet de qualité et transparentes ainsi que le développement de l’innovation dans les réseaux sans qu’il soit porté atteinte à la simplicité de la distribution des services en ligne et à l’équité concurrentielle.
- Imposition d’une qualité de service suffisante sur internet et d’obligations de transparence. Pour que l’accès à internet permette effectivement d’accéder aux contenus et services en ligne, il faut qu’une qualité de service suffisante soit garantie ; la définition précise de cette qualité de service sera difficile, notamment concernant la prise en compte du dimensionnement de la boucle locale et des interconnexions et la différentiation fixe/mobile. Les consommateurs doivent par ailleurs pouvoir faire jouer la concurrence entre opérateurs afin que la qualité s’améliore ; pour cela la transparence doit être assurée sur la qualité des accès proposés par les différents opérateurs d’accès et sur les mesures de gestion de trafic qu’ils mettent en œuvre.
- Interdiction des mesures de dégradation ciblée de la qualité de service. Des mesures de gestion de trafic, nécessaires pour assurer le bon fonctionnement du réseau, peuvent conduire à la dégradation de la qualité de service. Ces mesures ne doivent pas être utilisées de manière ciblée contre un acteur et leur justification doit pour cela être contrôlée.
- Développement de la qualité de service de façon non discriminatoire. Si une qualité suffisante de l’accès à internet, la transparence et l’interdiction des mesures de dégradation ciblée de la qualité de service sont assurées, il n’y a pas de raison d’empêcher les opérateurs de réseaux de proposer des services d’acheminement avec différents niveaux de qualité. Cette qualité devrait notamment pouvoir être assurée par des services gérés de bout en bout par les opérateurs, par des services de caching, ou par la différentiation de classes de services. Conformément aux règles de droit de la concurrence, l’accès aux différents niveaux de qualité de service ne doit cependant pas être discriminatoire.
21. En matière d’interconnexion, l’objectif doit être : (i) d’avoir des interconnexions bien dimensionnées afin d’assurer une bonne qualité de service ; (ii) d’avoir des flux financiers équilibrés afin d’assurer une répartition équitable du revenu sur l’ensemble de la chaîne de valeur ; (iii) de disposer d’un cadre permettant le développement des points d’interconnexion sur le territoire national.
Les mesures législatives à prendre
22. Le droit en vigueur et les mesures qu’il est prévu de prendre dans le cadre de la transposition du troisième « paquet télécoms » répondent en partie à ces objectifs.
- Le droit en vigueur apporte des garanties concernant la neutralité des opérateurs au regard des contenus transmis et le respect du secret des correspondances (art. L. 32-1, L. 32-3 et L. 33-1 du CPCE), le bon fonctionnement de la concurrence à travers le pouvoir général de l’Autorité de la concurrence et la possibilité donnée à l’ARCEP d’imposer des obligations spécifiques aux opérateurs exerçant une influence significative sur un marché (art. L. 38 et suiv. du CPCE) et le droit à l’interconnexion et l’accès entre opérateurs (art. L. 34-8 du CPCE).
- La transposition du troisième paquet télécoms comporte par ailleurs des mesures complémentaires : (i) objectif fixé aux autorités réglementaires nationales de « favoriser l'accès des utilisateurs finals à l'information et préserver leur capacité à diffuser ainsi qu'à utiliser les applications de leur choix » (art. L. 32-1 du CPCE) ; (ii) faculté donnée à l’ARCEP de « fixer, dans des conditions prévues à l’article L. 36-6, des exigences minimales en matière de qualité de service » (art. L. 36-15 du CPCE) ; (iii) extension du pouvoir de règlement des différends de l’ARCEP aux litiges portant sur les « conditions techniques et tarifaires d’acheminement du trafic entre un opérateur et une entreprise fournissant des services de communication au public en ligne » (art. L. 36-8 du CPCE) ; (iv) transparence vis-à-vis du consommateur, avec de nouvelles mentions obligatoires dans les contrats de services de communications électroniques « sous une forme claire, détaillée et aisément accessible » : procédures de gestion de trafic, restrictions à l’accès à des services ou à des équipements, réactions pour assurer la sécurité et l’intégrité du réseau (art. L. 121-83 du code de la consommation).
23. La mission recommande de prendre les mesures complémentaires suivantes :
- définition dans la loi du principe de neutralité, à partir des objectifs définis précédemment, comme absence de filtrage, hors mesures techniques ou mesures obligatoires prononcées par un juge, garantie d’une qualité de service suffisante, absence de mesures ciblées de dégradation de la qualité de service, accès non discriminatoire aux différents niveaux de qualité de service et garantie de conditions techniques et tarifaires d’interconnexion équitables ;
- fixation du respect du principe de neutralité comme objectif à l’ARCEP et au ministre chargé des communications électroniques ;
- consolidation des dispositions législatives concernant les mesures obligatoires de filtrage et établissement d’une procédure commune avec intervention du juge ;
- détermination des conditions dans lesquelles l’ARCEP devra fixer un niveau minimal de qualité de service et de ses caractéristiques ;
- renforcement des obligations de transparence des opérateurs, notamment publication périodique par l’ensemble des opérateurs d’indicateurs de qualité de service et différentiation claire des offres permettant l’accès à internet de celles ne fournissant qu’un accès restreint ;
- commercialisation d’offres sous le nom d’accès à internet à condition que la qualité de service atteigne un niveau suffisant et qu’aucune mesure de filtrage, hors mesures obligatoires et nécessité technique, ou de dégradation ciblée de la qualité de service ne soit mises en œuvre ;
- renforcement des pouvoirs de contrôle de l’ARCEP des mesures de gestion de trafic mises en œuvre.
24. La mission s’interroge par ailleurs sur les éléments suivants :
- l’opportunité d’instituer une exigence de proportionnalité des mesures légales de filtrage et d’en confier l’application à l’ARCEP ;
- l’opportunité de confier à l’ARCEP le pouvoir de fixer les conditions tarifaires de l’interconnexion, soit à travers un prix plafond pour garantir l’accès au réseau à un prix raisonnable des fournisseurs de contenu et des intermédiaires techniques, soit à travers un prix plancher afin que les injecteurs de trafic contribuent à l’investissement dans les réseaux ;
- l’opportunité de prendre des mesures législatives spécifiques afin d’assurer un accès non discriminatoire aux moyens techniques permettant de fournir de la qualité de service ;
- l’opportunité d’adapter le secret des correspondances afin de mieux garantir la privauté des communications électroniques ;
- les mesures permettant de développer, en plus des offres actuelles, des offres d’accès à internet sans services gérés ;
- les avantages et inconvénients liés au développement de différentes classes de service sur l’internet public ;
- le partage exact de la valeur ajoutée entre les différentes catégories d’acteurs (qui paie quoi aujourd’hui), son évolution probable sous l’effet de la mutation de leurs modèles économiques et la manière dont elle serait modifiée par la mise en œuvre des mesures préconisées dans ce document ; la mission souhaite affiner son analyse sur ce sujet et demande pour cela aux acteurs qu’elle a entendus de lui transmettre des informations détaillées permettant de mieux le documenter.
ANNEXE 2 — COMPTE RENDU DE LA PRÉSENTATION DES PREMIÈRES ORIENTATIONS DE LA MISSION
Lors de sa réunion du 26 janvier 2011, la commission a examiné le rapport d’étape de la mission d’information sur la neutralité de l’internet et des réseaux (Mmes Corinne Erhel, présidente, et Laure de La Raudière, rapporteure).
Mme Laure de La Raudière, rapporteure. La mission d’information relative à la neutralité de l’internet et des réseaux a été constituée le 29 septembre 2010. Lors de l’examen de la proposition de loi relative à la lutte contre la fracture numérique, en décembre 2009, nous avions demandé un rapport au Gouvernement concernant la neutralité des réseaux, qui nous a été remis fin juillet 2010. Parallèlement, l’ARCEP a conduit des travaux sur le même sujet et a rendu un rapport fin septembre. Il est apparu nécessaire que la Commission des affaires économiques puisse approfondir certains des sujets abordés, afin d’étudier l’opportunité d’adopter des mesures législatives ou réglementaires. Par ailleurs, je vous rappelle que la Commission des lois et la Commission des affaires culturelles conduisent actuellement une mission d’information commune sur la protection des droits de l'individu dans la révolution numérique. Les travaux de notre mission d’information ont été centrés sur les problèmes de réseau, les questions liées aux contenus relevant de la mission commune que je viens de citer.
Mme Corinne Erhel, présidente. Nous avons déjà auditionné plus de cents personnes, représentant quatre-vingts acteurs différents. J’insiste sur le fait que l’internet constitue un enjeu social, économique et industriel fondamental. La neutralité des réseaux étant un sujet très technique, nous avons souhaité prendre le temps nécessaire à la compréhension du fonctionnement d’internet et des relations entre les acteurs, très nombreux.
La question de la neutralité est celle de l’avenir d’internet. Nous considérons qu’internet constitue un bien essentiel. En effet, c’est à la fois une plate-forme unique de distribution de services mais aussi, et surtout, un espace public mondial de discussion, d’échanges, caractérisé par une réelle liberté d’expression. À cet égard, protéger la neutralité de l’internet, c’est également veiller à son caractère universel et à la simplicité de son utilisation par l’ensemble des citoyens.
Force est de constater qu’aujourd’hui, la presse et les forums sociaux s’en sont grandement fait l’écho, l’internet est à un tournant technique et économique, ce qui ne manque pas de susciter des inquiétudes parmi les différents acteurs. Ainsi, au cours de nos auditions, les questions liées à la protection de la neutralité de l’internet et aux circuits de financement du réseau ont fréquemment été abordées. Après une phase d’expansion, il semble que nous soyons parvenus à une stabilisation du marché l’accès à l’internet : les opérateurs recrutent de moins en moins de nouveaux abonnés et le marché est peut-être proche de la saturation, bien que l’on constate parallèlement un accroissement très rapide du trafic, dû notamment à la vidéo en ligne. La période récente se caractérise également par la rapidité de l’innovation et par des conflits portant sur la répartition de la chaîne de valeur. Ainsi, aux États-Unis, des différends opposent les cablo-opérateurs aux fournisseurs de contenu et, en France, les opérateurs Cogent et Orange. Il faut également rappeler que les acteurs de l’internet – opérateurs d’accès, opérateurs de transit, content delivery networks (CDN), fournisseurs de contenu – doivent pouvoir continuer à innover. Le pouvoir de décision appartenant à chaque État membre paraît limité au regard de la dimension planétaire du réseau.
Pour protéger la neutralité, nous nous sommes fixé un objectif de non-discrimination entre les informations transmises, tant à l’égard de la source, du destinataire que du contenu, et de protection de la capacité des différents acteurs à innover, développer leurs applications et financer leurs réseaux.
Mme Laure de La Raudière, rapporteure. Je vais décrire le fonctionnement de l’internet de façon schématique en présentant chacun des acteurs du réseau. Je vous invite à vous reporter au schéma qui vous a été distribué.
L’internaute est branché au « nuage » de l’internet par le biais des fournisseurs d’accès à internet (FAI). Ces derniers sont ceux que nous connaissons le mieux puisqu’il s’agit des grands opérateurs commerciaux (SFR, France Telecom, Free) soumis au code des postes et des communications électroniques.
À l’opposé, on trouve les fournisseurs de contenus (Google, Facebook, Dailymotion, etc.) hébergés sur des serveurs. Ces contenus sont aujourd’hui majoritairement localisés aux États-Unis.
Pour assurer la qualité de service, les fournisseurs de contenus font appel à des « Content Delivery Network » (CDN) ; il n’existe pas de traduction française pour ce terme qui désigne les entreprises qui copient temporairement les contenus les plus populaires sur des serveurs plus proches des internautes. Un fournisseur de contenu comme Google a des serveurs sur les cinq continents, dans de très nombreux pays, afin de fournir aux internautes une grande qualité de service possible. Un des très grands CDN, qui ne nous est pas familier, est l’entreprise américaine Akamai, implantée en Europe et qui représenterait selon certaines sources 20 % de notre trafic internet.
Il faut également mentionner les opérateurs de transit, qui assurent la connectivité internationale entre les fournisseurs de contenus et les fournisseurs d’accès à internet. Les lieux où se fait l’interface entre ces acteurs sont appelés points d’interconnexion.
À la base, le modèle économique d’internet est fondé sur des échanges gratuits de trafics au niveau de l’interconnexion : l’internaute paye son accès à internet ; les fournisseurs de contenu payent également leur raccordement à la bande passante ; les FAI et les fournisseurs de contenus payent au volume transmis les opérateurs de transit ; mais en revanche, entre les opérateurs de transit ou entre FAI, on s’échange gratuitement le trafic. Mais le trafic est devenu de plus en plus asymétrique, du fait du développement des flux vidéo notamment, ce qui n’est pas sans poser problème.
M. François Brottes. Peut-être manque-t-il dans votre présentation la mention de tous ceux qui fournissent en amont les contenus ? Comment cela s’articule-t-il avec les serveurs ? Chaque producteur de contenus dispose-t-il de son propre serveur ?
Mme Laure de La Raudière, rapporteure. Non, il y a aussi des hébergeurs mais nous avons souhaité simplifier la présentation car il y a vraiment de nombreux types d’acteurs. Le rapport final entrera bien entendu davantage dans les détails. Je profite de cette remarque de François Brottes pour plaider en faveur d’une sensibilisation de l’ensemble de notre commission à la connaissance des acteurs d’internet. C’est essentiel, compte tenu des enjeux économiques de ce secteur.
M. François Brottes. Qui fait de l’argent ? Qui en fait moins ? Qui doit-on taxer ? La régulation de ce secteur suppose qu’on puisse bien identifier la position exacte de chaque acteur.
Mme Corinne Erhel, présidente. Je partage votre point de vue sur la nécessaire clarification du rôle de chacun des acteurs : ce sera l’un des objectifs majeurs des travaux qu’il nous reste à mener.
Pour revenir sur les enjeux liés à la neutralité des réseaux, il faut tout d’abord de protéger l’universalité de l’accès à internet : il importe que ne se crée pas un fossé entre un de base et un internet haut de gamme. Ensuite, il faut continuer de permettre le développement de l’innovation à chaque niveau du système, qu’il s’agisse des contenus ou des réseaux. Il faut également maintenir les équilibres économiques, en garantissant l’accès au réseau de l’internaute à un prix raisonnable, en permettant aux fournisseurs de contenus ou de services en ligne de bénéficier d’une bonne qualité de service : accès facile et rapide, temps de latence minimal. Il faut enfin réfléchir aux moyens donnés aux fournisseurs d’accès de résoudre une équation économique difficile, entre d’un côté des prix d’abonnement auprès des usagers qui pour l’instant n’augmentent pas et d’un autre coté l’absence actuelle de rémunération du côté des fournisseurs de contenus et des opérateurs de transit alors qu’ils font face à des besoins d’investissement croissants.
La mission s’est concentrée sur les enjeux techniques sous-jacents à ces évolutions économiques, avec comme objectif de faire en sorte de conserver « la magie d’internet » en permettant un accès non discriminatoire aux réseaux pour les abonnés et les fournisseurs de contenus. Nous allons désormais vous présenter les objectifs précis qu’il nous semble qu’il faille poursuivre et les moyens juridiques que nous envisageons pour les atteindre.
Mme Laure de La Raudière. Au regard des enjeux actuels de l’internet, il nous apparaît fondamental d’empêcher un certain nombre de dérives.
Il s’agit tout d’abord de la question du filtrage d’un site précis par un opérateur dans le but de décongestionner le réseau : une telle opération doit être prohibée car ce site serait alors très défavorisé par rapport à ses concurrents. Les opérateurs doivent être capables de réaliser des opérations de gestion de trafic en toute transparence et sans porter atteinte aux intérêts des fournisseurs de contenu ; à titre d’exemple la société Amazon considère qu’une dégradation de 100 millisecondes du temps de transit pour avoir l’information correspond à une perte de 1 % de chiffre d’affaires. Le filtrage ciblé serait contraire aux règles de concurrence et au principe de non discrimination de l’accès à internet.
Le second point concerne la qualité de l’accès à internet qui doit toujours être suffisante et ne doit pas être dégradé pour mieux vendre des services gérés. Il est évident que si l’on rempli des tuyaux de dimension constante avec plus de services gérés, il n’y aura plus suffisamment de place pour l’internet. Il est souhaitable de développer les services gérés, mais à condition de ne pas dégrader la qualité de l’internet public.
Il ne nous semble également pas souhaitable que les opérateurs puissent bloquer des applications qui fonctionnent bien sur internet, pour les vendre aux consommateurs sous forme de services gérés. À titre d’exemple, Skype, qui est un service de voix sur IP, est actuellement bloqué sur les services mobiles afin de préserver le modèle économique des opérateurs mobile fondé sur la voix. On peut imaginer d’autres services à valeur ajoutée se développant sur l’internet et étant « bridés » par des opérateurs souhaitant les commercialiser sous forme de services gérés. Or nous ne savons pas aujourd’hui où va se situer l’innovation de demain, sur les services gérés ou sur internet. Il faut donc que les deux modèles puissent exister en parallèle et que l’on dispose d’un environnement réglementaire qui permette l’épanouissement de l’innovation aux deux niveaux.
Je termine la présentation des enjeux en disant qu’à notre sens, les opérateurs doivent pouvoir déterminer librement leur politique commerciale, dans le respect évidemment du cadre réglementaire existant, et proposer différentes qualités de service dès lors qu’est assurée une qualité suffisante et que l’accès à ces différents niveaux de qualité de service n’est pas discriminatoire.
J’en viens aux recommandations. Nous avons choisi de présenter à la fois les premières propositions de la mission et les interrogations qui demeurent. Il nous est en effet apparu nécessaire d’avoir un retour de nos interlocuteurs sur les différentes propositions ; nous avons par ailleurs des interrogations qui demeurent, notamment sur le modèle économique, pour lequel nous avons recueilli des informations contradictoires sur le besoin de financement des opérateurs réseau.
La première recommandation de la mission consiste à définir dans la loi le principe de neutralité à partir des objectifs définis précédemment, comme l’absence de filtrage, hors mesures techniques ou mesures obligatoires prononcées par un juge, garantie d’une qualité de service suffisante sur internet, l’absence de mesures ciblées de dégradation de la qualité de service, l’accès non discriminatoire aux différents niveaux de qualité de service et la garantie de conditions techniques et tarifaires d’interconnexion équitables. Il convient également de proposer dans la loi les moyens de garantir l’application de ces principes, et vous trouverez sur ce point des propositions détaillées dans notre document de synthèse.
La mission s’interroge par ailleurs sur l’opportunité de confier à l’ARCEP le pouvoir de contrôler la proportionnalité des mesures techniques de filtrage mise en œuvre suite à une décision judiciaire, afin d’éviter toute mesure de surblocage lorsque l’on effectue des filtrages. Il en va de même en ce qui concerne l’opportunité de confier à cette autorité le pouvoir de fixer les conditions tarifaires de l’interconnexion, soit à travers un prix plafond pour garantir l’accès au réseau à un prix raisonnable des fournisseurs de contenu et des intermédiaires techniques, soit à travers un prix plancher afin que les injecteurs de trafic contribuent à l’investissement dans les réseaux. On voit bien en effet qu’il y a différents modèles économiques pour cette interconnexion, soit du peering public gratuit, soit du peering privé payant, soit de l’achat de transit. Cette question de l’encadrement tarifaire de l’interconnexion mérite d’être éclaircie. Enfin la mission s’interroge sur l’opportunité de prendre des mesures législatives spécifiques afin d’assurer un accès non discriminatoire aux moyens techniques permettant de fournir de la qualité de service, et en particulier aux services gérés.
Mme Corinne Erhel. J’insiste sur l’attention que nous avons portée, dans le cadre de cette mission, à la question de savoir comment se réalise concrètement l’interconnexion afin de mieux en appréhender les enjeux, à la fois économiques et en terme d’accès, ce dont la presse s’est récemment fait l’écho.
Toujours parmi les interrogations de la mission, je signale l’utilité d’adapter le secret des correspondances afin de mieux garantir la privauté des communications électroniques. Il s’agit d’une question très importante puisqu’elle intéresse tous les citoyens.
La question du développement d’offres d’accès à internet sans services gérés, c'est-à-dire d’offres plus basiques, se pose également. Nous sollicitons les professionnels sur cette question et sur les différentes solutions envisageables. Il est souhaitable que les consommateurs aient le choix entre différentes formules.
La mission souhaite également que soit ouvert le débat sur les avantages et inconvénients liés au développement de différentes classes de service sur l’internet public, c'est-à-dire du traitement différencié sur l’internet public entre les mails, les vidéos ou encore le search.
Enfin dernier point qui nous paraît fondamental et qui a été soulevé par François Brottes, il s’agit d’évaluer le partage exact de la valeur ajoutée entre les différentes catégories d’acteurs, son évolution probable sous l’effet de la mutation de leurs modèles économiques et la manière dont elle serait modifiée par la mise en œuvre des mesures préconisées dans ce document au regard du principe de la neutralité de l’internet. La mission souhaite affiner son analyse sur ce sujet et nous demandons pour cela aux acteurs que nous avons entendus de nous transmettre des informations détaillées permettant de mieux documenter cette question.
La mission a mené un travail très complet sur ces sujets éminemment techniques avec le souci de trouver une position d’équilibre entre l’objectif de sauvegarder l’accès universel à l’internet et celui de protéger la capacité des acteurs à investir et innover au bénéfice de ce que la « magie d’internet ».
M. le président Serge Poignant. Je salue le travail accompli par la mission, avec plus de 80 auditions en moins de 4 mois, et la connaissance approfondie qu’ont la présidente et la rapporteure de ce sujet complexe à la fois sur le plan économique et sur le plan technique. Je suis tout à fait d’accord avec votre souci de préserver l’innovation, c’est fondamental. Au titre des questions je souhaiterais savoir à quelle date vous espérez pouvoir présenter le rapport définitif et quels sont les nouveaux pouvoirs que vous entendez déléguer à l’ARCEP.
M. François Brottes. J’espère que votre réflexion autour de la magie d’internet ne va pas vous conduire à intituler votre rapport « l’internet au pays de candy » ! Je crois en effet que dans le vaste champ d’investigation qui est le vôtre, on ne peut s’abstraire de la réflexion sur la technique et il est notamment nécessaire de combattre l’illusion selon laquelle toute infrastructure permet de gérer la neutralité. La première atteinte à la neutralité c’est de ne pas disposer d’un accès internet. La seconde, c’est de ne bénéficier que d’un accès à faible débit. Certaines applications requièrent le haut débit et, à défaut d’une telle connexion, elles ne sont pas accessibles : c’est un fait.
Une autre approche du principe de neutralité consiste à dire que tout doit être accessible partout et à tout moment. Or, on sait très bien qu’il est parfois nécessaire d’effectuer des actes de gestion technique qui ne sont pas neutres en terme d’accès. Il est nécessaire que cette gestion soit transparente et qu’elle repose sur des règles connues comme c’est le cas pour la gestion du réseau électrique avec une tarification adaptée. Il est également possible de penser que certains services disposent de moyens surdimensionnés par rapport à leurs besoins de diffusion. Il est donc nécessaire de réguler en amont sur des critères techniques les moyens mis à dispositions des différents types de services. Il faut également poser la question des délais de raccordement qui sont à l’heure actuelle souvent trop long et font qu’en cas de déménagement les consommateurs sont privés d’accès durent plusieurs mois. Cela n’est pas normal et constitue une atteinte au principe de neutralité.
Il apparaît enfin nécessaire de mener une réflexion sur le décryptage des factures internet à l’image, là encore, de ce qui a été réalisé pour les factures d’électricité et qui s’est avéré très profitable pour comprendre le rapport coût/prix.
Mme Corinne Erhel. L’ARCEP, qui est chargé de la régulation du secteur, a réalisé un travail approfondi au sujet de la neutralité, dont nous nous sommes inspirés pour élaborer les recommandations qui figurent dans le document de synthèse que nous mettons en consultation. L’indépendance de l’ARCEP est essentielle pour qu’elle puisse conduire correctement les travaux que je viens d’évoquer. Le texte sur le paquet télécoms est actuellement devant le Sénat et plusieurs amendements portent sur ces questions : il convient donc d’être attentif. La Commission européenne travaille également sur la question de la neutralité et publiera prochainement ses préconisations.
Le travail de la mission s’est effectué sans a priori et en étant à l’écoute des problématiques de l’ensemble des personnes auditionnées. Les propositions que nous formulons répondent au double souci de préserver l’universalité d’internet et l’innovation, tout en prenant en considération le modèle économique des différents acteurs. La mission a fait des propositions pour encadrer la gestion de trafic, qui est nécessaire mais doit être transparente et proportionnée. L’ARCEP met d’ailleurs en place un groupe de travail sur ce sujet.
La mission s’est concentrée sur la question de la neutralité. Les problématiques liés à l’accès à internet ont vocation à être abordées dans le rapport d’application de la loi relative à la lutte contre la fracture numérique.
Mme Laure de La Raudière. Les problèmes de gestion de trafic sont traités partiellement dans le paquet télécoms, qui comprend des mesures de transparence, et l’ARCEP travaille activement sur ce point. Nous pensons par ailleurs qu’il faut interdire, en dehors de cette gestion technique ou d’une mesure judiciaire, les opérations de filtrage ciblé sur des contenus.
La présentation du rapport définitif devant la Commission des affaires économiques pourrait avoir lieu à la mi-mars. Le décryptage de la facture pourra être conduit dans le cadre de l’étude des modèles économiques des acteurs de l’internet afin de savoir dans le prix de 30 euros que paient aujourd’hui la plupart des consommateurs, quelle est la part de boucle locale, du réseau de collecte, du réseau cœur et de l’interconnexion. Une des questions essentielles porte sur l’évolution des modèles économiques, question qui a donné lieu à des réponses contradictoires de la part des différents acteurs et qui demande donc des investigations complémentaires pour disposer d’informations robustes à présenter à la Commission.
ANNEXE 3 — COMPTE RENDU DE LA TABLE RONDE SUR LE FONCTIONNEMENT D’INTERNET
Lors de sa réunion du 16 mars 2011, la commission a tenu une table ronde sur « le fonctionnement d'Internet et ses enjeux pour le développement de l’économie numérique » avec la participation de M. Giuseppe de Martino, directeur juridique et réglementaire monde de Dailymotion, M. Julien Coulon, cofondateur de Cedexis et Me Winston Maxwell, avocat au cabinet Hogan Lovells.
M. le président Serge Poignant. Mes chers collègues, le Président de la République ayant prévu qu’une réunion interministérielle sur la crise nucléaire du Japon se tiendrait à dix-sept heures à l’Élysée, la séance de travail que nous organisons cet après-midi salle Lamartine, conjointement avec la Commission du développement durable et de l’aménagement du territoire et avec l’Office parlementaire d’évaluation des choix scientifiques et technologiques, en présence de toutes les parties prenantes de la sûreté nucléaire, est avancée à quinze heures trente. Les ministres feront le point sur la situation, avant que nous abordions les questions plus techniques avec les représentants des différentes autorités.
M. François Brottes. L’actualité donne raison à notre Commission, qui travaille depuis des mois sur la filière nucléaire. Dans ce contexte, nous devons pouvoir interpeller le Gouvernement. Il serait choquant que les ministres se contentent d’intervenir devant nous sans répondre à nos questions, puis nous laissent avec les experts. Je trouve extravagant que le Président de la République fixe une réunion le jour où le Gouvernement rend compte à la représentation nationale d’un sujet aussi grave. Notre démocratie ne peut pas prendre le risque d’éluder un tel rendez-vous, alors que ladite réunion d’urgence aurait pu se tenir il y a quatre jours. Que dirons-nous à l’opinion si nous ne pouvons pas interroger les ministres ?
M. le président Serge Poignant. Compte tenu de nos engagements, il m’a semblé plus facile d’avancer notre rendez-vous que de nous retrouver après dix-huit heures. J’essaierai cependant de faire retarder la réunion qui se tiendra à l’Élysée afin que les ministres restent au moins une heure et demie avec nous et qu’ils répondent à nos questions dès qu’ils auront fini leur exposé, avant que nous procédions à l’audition des autorités de sûreté. Dès lors, il serait bon que chaque groupe se limite à une intervention. Une autre audition des ministres pourrait avoir lieu la semaine prochaine, ce qui nous permettrait de suivre l’évolution de la situation.
M. François Brottes. La situation du Japon est la première de nos préoccupations, mais il est logique que nous nous interrogions aussi sur la manière dont le nucléaire est traité en Europe, particulièrement en France. Les deux sujets n’ont pas à être abordés au cours du même débat.
M. le président Serge Poignant. Notre réunion permettra aux parlementaires de recevoir des informations des ministres, des autorités de sûreté et des industriels sur ce qui se passe aujourd’hui au Japon. Je ne suis pas opposé à l’ouverture d’un débat plus vaste, mais, pour l’heure, il faut rester sur l’événement et tenter de comprendre ce qui s’est passé.
Nous en venons à la table ronde sur le fonctionnement de l’internet et ses enjeux pour l’économie numérique, dont Mmes Laure de La Raudiere et Corinne Erhel ont demandé qu’elle soit organisée à l’occasion de la présentation du rapport d’étape de leur mission d’information sur la neutralité d’internet et des réseaux. Nous entendrons successivement M. Julien Coulon, directeur général de Cedexis, M. Giuseppe de Martino, directeur juridique de Dailymotion et M. Winston Maxwell, avocat associé chez Hogan Lovells. Au cours de leurs exposés, par dérogation à notre habitude, les membres de la Commission pourront poser des questions, sur lesquelles nous ne reviendrons pas par la suite.
Mme Laure de La Raudière. Vous connaissez tous mon engagement sur les sujets qui touchent au numérique. Cette table ronde, que nous avons en effet voulue interactive, me semble essentielle parce qu’internet a un impact considérable sur l’économie de tous les pays. Le réseau représentera 5,5 % de notre PIB en 2015, contre 3,2 % et 25 % des créations d’emploi aujourd’hui. Il bouleverse les enjeux économiques de tous les secteurs d’activité : commerce de proximité, musique, presse… Un article paru hier dans Les Échos souligne que, désormais, les Américains s’informent plus via internet que par la presse papier. Il importe donc que les députés comprennent le fonctionnement du réseau. J’ai également mis à leur disposition les résultats d’une étude de McKinsey relative à l’impact d’internet sur notre économie.
C’est à la demande des intervenants que notre table ronde se déroule à huis clos, ce qui garantit une totale liberté de parole. Par ailleurs, nous n’avons pas invité d’opérateur fournisseur d’accès à internet, parce que nous avons l’habitude de les rencontrer et parce que nous avons jugé plus intéressant d’interroger un acteur réseau, dont le rôle capital est de fluidifier le trafic sur internet et d’améliorer la qualité de service pour les internautes.
Mme Corinne Erhel. Les parlementaires sont amenés à voter des textes qui touchent à internet, domaine complexe et mouvant. C’est pourquoi, dans le cadre de notre mission d’information, il nous a semblé important de ménager un moment d’échange pour comprendre le fonctionnement d’internet, l’interdépendance de ses acteurs et leurs modèles économiques, information à laquelle on n’accède pas facilement. Nous espérons que la possibilité d’intervenir pendant les exposés nous permettra de parfaire notre connaissance d’internet et de ses enjeux démocratiques, économiques et industriels.
M. Julien Coulon, directeur général de Cedexis. Cofondateur de la société Cedexis, je vais bientôt fêter mon dixième anniversaire dans internet, après avoir commencé dans le minitel et développé le premier site internet chez France Télécom, à une époque où le seul fait de prononcer le mot « internet » justifiait presque un licenciement pour faute grave.
Cedexis n’est pas un opérateur, un diffuseur ou un éditeur de contenu, mais un aiguilleur, qui joue à l’égard du trafic sur internet le même rôle que les aiguilleurs du ciel envers le trafic aérien. Notre mission est de « monitorer » l’état de santé d’internet en temps réel afin d’orienter chaque internaute vers le prestataire le plus performant. Nous permettons ainsi aux éditeurs de contenu d’améliorer leurs performances tout en optimisant leurs coûts. En tant que tiers certificateur, nous ne servons aucun intérêt particulier, à la différence de certains lobbies, qui peuvent chercher à influencer les parlementaires. Notre seul objectif est d’améliorer la performance et la transparence de la qualité du service apporté aux éditeurs de contenu. Start-up née à Cachan il y a plus d’un an, Cedexis a quasiment atteint l’équilibre financier, avec 110 clients, qui sont de grands comptes.
J’ai la lourde mission de vous présenter la partie immergée de l’iceberg, c’est-à-dire les dessous d’internet, sa technique et l’impact de la croissance du trafic sur les fournisseurs d’accès à internet (FAI) ou internet service providers (ISP), les éditeurs de contenus et l’économie globale des métiers du numérique. Le nôtre est « de faire économiser des milliards d’heures de temps perdu aux internautes du monde entier ».
On peut représenter internet comme un nuage. D’un côté, se situent les hébergeurs, qui mettent les contenus à disposition, de l’autre, les internautes, qui cherchent une information. La connexion traverse le nuage. Le principe est simple mais il y a dans le monde pas moins de 32 000 réseaux, entre lesquels il existe de multiples interconnexions, à travers lesquelles l’internaute doit se frayer un passage pour chercher un contenu. Sa circulation s’effectue à travers certains goulots d’étranglement pareils à ceux du trafic routier où se croisent autoroutes, nationales ou départementales. Un internaute peut passer par un opérateur pour accéder à un contenu, mais il arrive que le site ne soit pas accessible ou que la donnée se perde en route. La concurrence qui se crée au passage d’un réseau à un autre produit des latences, des goulots d’étranglement, des pannes électriques ou des pannes de réseau, ce qui fait que beaucoup d’informations vont et viennent sur le réseau.
Il faut concevoir internet comme un être vivant, en qui rien n’est figé. Hier encore, des pannes importantes sont survenues chez les opérateurs, ce qui peut être lié à tel ou tel événement. Au Japon, le trafic s’est réduit de 27 % lors du tsunami. La coupure brutale d’internet en Égypte a eu un impact sur les pays voisins. En Libye, le réseau a pu être coupé en soirée, rebranché vers deux heures du matin, peut-être par les mouvements de résistance, coupé à nouveau vers quatre heures et remis en fonction à neuf. Les coupures n’ont pas toujours la même forme. En Égypte, elles n’ont affecté que certains réseaux : celui des entreprises financières continuait de fonctionner, alors que l’accès classique à internet était suspendu. En Libye, on peut accéder à un site comme LeMonde.fr mais non à Facebook, You Tube ou Google, ce qui est pour le moins surprenant.
Internet est moins fiable qu’on ne le croit généralement. Il n’est pas « scalable », c’est-à-dire qu’il répond difficilement à une importante montée en charge du nombre d’utilisateurs. Quand un match commence à Roland-Garros, les internautes se ruent sur le site ; or l’impact du passage de 10 000 à 10 000 connexions simultanées sur le réseau est important.
J’ajoute que les opérateurs ne travaillent pas pour rien : internet n’est pas gratuit et l’on doit poser le problème des coûts.
Pour anticiper ce qui se produira au cours de la prochaine décennie, observons l’évolution constatée aux Etats-Unis depuis vingt ans. Le trafic web, c’est-à-dire le trafic vers les pages d’accès à internet, qui a pu atteindre 57 % du trafic total, est retombé à 23 %. La partie FTP (file transfer protocol), qui correspond aux transferts de contenus et de fichiers, est en forte baisse. Le pear to pear, procédé utile pour soulager les réseaux mais qu’on associe le plus souvent au piratage, est en léger recul. Enfin, la vidéo, qui ne représentait pratiquement rien en 2000, occupe à présent une part considérable du trafic.
Le développement exponentiel constaté par Cisco entre 2005 et 2010 n’est pas prêt de s’interrompre. Les FAI envisagent la télévision connectée comme un véritable cauchemar. S’il suffit d’introduire une clé wifi, pour transformer la télévision en un accès à internet, l’internaute voudra zapper entre les sites aussi rapidement qu’entre des chaînes télévisées. On imagine le débit qu’il faudra pour offrir sur 107 cm de diagonale une image de même qualité que sur 10x10 cm… L’éventualité de la télévision connectée justifie les conclusions de Cisco, qui anticipe, entre 2010 et 2015, une croissance exponentielle d’internet.
En 2008-2009, quelque 400 millions d’utilisateurs regardaient en moyenne des vidéos d’une dizaine de minutes, dont la qualité était de 300 kilobits/seconde ; dans dix ans, ils seront deux milliards et ils regarderont en moyenne, surtout s’ils disposent de la télévision connectée, des films de deux heures, dont la qualité sera de 7,5 mégabits/seconde, ce qui multipliera par vingt-cinq la taille des données à transmettre. En moins de cinq ans, les capacités nécessaires pour absorber le trafic seront donc multipliées par 1 500 !
Mme Corinne Erhel. Qu’entend-on par « qualité » ?
M. Julien Coulon. Pour faire une comparaison, depuis que le Blu-ray existe, plus personne n’envisage de projeter une VHS dans une salle de cinéma. Les vidéos transmises sur internet ont suivi la même évolution.
(Une projection montre l’évolution, année après année entre 1998 et 2011, de la qualité des vidéos transmises sur internet.)
Ce qui pose problème n’est plus la qualité des vidéos transmises sur internet, qui est excellente, ni le terminal, puisqu’on peut accéder à internet depuis un PC, une télévision, un iPad, un iPhone ou un DS (dual screen), c’est leur livraison. Pour le comprendre, il faut examiner la chaîne de valeur qui sépare l’endroit où les contenus sont hébergés : Data center, ISP, last mile – c’est-à-dire dernier kilomètre permettant de se connecter au réseau de l’opérateur – et internaute.
M. Jean Gaubert. Quel rapport y a-t-il entre vitesse et débit ?
M. Julien Coulon. Les deux notions sont liées. Le débit correspond à la taille de la tuyauterie disponible ; la vitesse, au temps de chargement. On peut utiliser un gros tuyau sans réduire le temps de connexion, c’est-à-dire la latence, qui dépend du trajet à parcourir sur le réseau. Nous y reviendrons, mais plus la distance est longue, plus le temps de chargement est long. Quand on change d’opérateur, on perd des paquets, ce qui suppose chaque fois de revenir en arrière pour les chercher. C’est pourquoi certains opérateurs se spécialisent dans la vidéo et d’autres dans les petits contenus ou les petites images.
M. Jean Gaubert. De même, l’eau parvient parfois à un débit et à une vitesse suffisants à un consommateur unique situé au bout d’une petite canalisation, alors que le débit et la vitesse sont trop faibles si elle passe par un tuyau trop large.
Mme Laure de La Raudière. Un des rôles de Cedexis est d’améliorer la vitesse de réception des informations, quelle que soit la taille du tuyau. La qualité est essentielle pour les internautes, donc pour la valorisation des services sur internet.
M. Jean Gaubert. Un gros tuyau utilisé par beaucoup d’usagers est moins efficace qu’un petit tuyau desservant un seul utilisateur.
M. Julien Coulon. C’est ce qui explique le danger de la surscription de l’accès à internet.
M. Alain Suguenot. La fibre optique ne garantit-elle pas de manière illimitée la qualité de l’image et le débit ?
M. Julien Coulon. Si, mais elle ne représente qu’un maillon de la chaîne : un internaute connecté en fibre optique qui va chercher un contenu en Californie passera tellement de réseaux que la qualité sera nécessairement mauvaise. C’est pourquoi, les CDN (content delivery networks) rapprochent le contenu des internautes. Il semble qu’Orange, SFR et Free se lanceront bientôt sur ce marché.
M. Jean-Pierre Nicolas. Mme Erhel dit avoir eu du mal à accéder à certaines informations. Est-ce parce que le sujet est difficile ou parce qu’il existe des zones d’ombre ? Certains documents ne vous ont-ils pas été transmis ?
Mme Laure de La Raudière. Pour un mégabit de plus transmis sur un réseau, il est difficile de faire la part du coût supplémentaire lié à l’achat du trafic en amont, au cœur du réseau ou à la distribution à l’internaute.
M. Julien Coulon. Examinons les investissements réalisés au cours des cinq dernières années par Wanadoo ou SFR d’un bout à l’autre de la chaîne, qui va de l’accès à internet au last mile. En amont, l’investissement au niveau de l’hébergement a été multiplié par vingt, en aval, au niveau des internautes, par cinquante. Mais au milieu de l’internet, il n’a été multiplié que par six, d’où ce goulot d’étranglement qui dégrade la qualité du service.
Mme Catherine Coutelle. Qui assume les investissements ?
M. Julien Coulon. Ce sont les gros opérateurs « Tier 1 », qui ne perçoivent pas d’argent. Une société comme Level (3) Communications, en déficit année après année, ne fera jamais faillite car le gouvernement américain utilise son réseau. La réflexion doit se concentrer sur le milieu de l’internet, qu’il est toutefois difficile de cerner, puisqu’il s’agit de tout le monde et de personne…
Mme Catherine Coutelle. Si rien n’est gratuit sur internet, qui assume les investissements pour la partie centrale : les fournisseurs de contenu ou l’internaute ?
M. Julien Coulon. Pour l’instant, ce sont les opérateurs.
Mme Laure de La Raudière. Dans le modèle d’origine, c’est le raccordement à internet soit du fournisseur de service soit de l’internaute, qui finance l’ensemble. Mais le financement du milieu, c’est-à-dire de l’interconnexion, fait débat. M. de Martino posera peut-être le problème de la terminaison data. Il n’est plus certain que l’accès puisse tout financer.
M. Julien Coulon. Chaque fois qu’un fichier situé chez un hébergeur passe par un goulot d’étranglement, le confort de l’internaute en pâtit.
Mme Catherine Coutelle. Est-ce là que se situe la neutralité d’internet ?
M. Julien Coulon. En partie. J’y reviendrai. Internet ne permettant pas la montée en charge de la vidéo, les CDN ou les diffuseurs de contenus déploient des serveurs au plus près des internautes afin de diffuser en local. En copiant le contenu provenant de l’hébergeur, ils contournent le goulot d’étranglement, puisqu’ils n’effectuent qu’une seule requête pour servir des milliers d’internautes. C’est un des pans du débat sur la net neutralité.
Au sortir du serveur d’Amazon, le plus gros site de commerce électronique, concurrent d’eBay, une latence de 100 millisecondes induit une diminution de 1 % des ventes. On peut parler d’un effet papillon : une cause minime produit un effet considérable. Au sortir du serveur de Yahoo, une latence de 400 millisecondes fait perdre 5,9 % de trafic. Quand la société Google a mis sur son site une photo en fond d’écran, elle a perdu 500 millisecondes, soit 20 % de recherches. Aussitôt qu’une vidéo met du temps à démarrer ou « bufferise », c’est-à-dire se bloque, 81 % des internautes cessent de la regarder. En revanche, une amélioration de 20 % de la performance de France Télévisions représente 10 % de revenus supplémentaires, soit plus de 360 000 euros par an. En effet, l’efficacité du site permet à l’internaute de voir plus de pages, donc plus de publicité, ce qui se traduit par des rentrées d’argent. Si un site de commerce électronique comme RueDuCommerce « saute à la figure » de l’internaute, celui-ci découvre plus de fiches-produits, donc achète davantage. Il est de plus en plus rare qu’un site tombe en panne et les éditeurs de contenu rivalisent à la milliseconde près, tant les internautes sont devenus impatients.
Un pour cent des internautes représente 20 % du trafic et 20 % des coûts des ISP ; 10 % d’entre eux consomment 60 % du trafic. En conséquence, les FAI doivent s’interroger : faut-il que les gros consommateurs paient plus cher, tandis que 40 % des internautes, qui consomment peu, acquitteraient moins de 30 euros ? À cause des coûts du dernier kilomètre d’accès, l’internaute qui verse chaque mois 30 euros TTC, soit 25 euros hors taxe, est connecté à un DSLAM (digital subscriber line access multiplexer), c’est-à-dire à un petit Data center, qui est proche de lui. Ce centre est connecté à un BAS (broadband access server), c’est-à-dire à un Data center plus important, qui regroupe plusieurs DSLAM et peut être connecté à un réseau comme Orange. La consommation mensuelle d’un internaute, qui représentait en moyenne 46 kilobits/seconde en 2008, ayant doublé une première fois en 2009 et une deuxième fois en 2010, les coûts d’un ISP sur le dernier kilomètre ne cessent d’augmenter, alors que le prix de vente reste fixe. La fibre, qui permet une économie d’échelle, peut régler une partie du problème mais elle n’est pas déployée partout.
En déplaçant ses services, un fournisseur d’accès peut économiser de l’argent et s’offrir une bouffée d’oxygène. Pour cela, il devra recourir à des sociétés qui sont toutes américaines ou chinoises. Mais en Angleterre, en Nouvelle-Zélande, en Allemagne, en Italie ou en Espagne, les FAI commencent à proposer un service au plus proche, comme le font SFR et Orange. Ils développent leur propre technologie et achètent du Cisco, du Varnish ou du Alcatel-Lucent pour servir en local. Ils réalisent ainsi une économie, dégagent la concurrence du réseau et permettent d’améliorer la qualité de service de l’éditeur de contenu.
En somme, l’éditeur de contenu versait de l’argent à un CDN, qui le reversait à un backbone correspondant au milieu de l’internet, qui était payé par l’ISP qui lui-même recevait 30 euros par mois de l’internaute. Or le CDN et l’ISP, qui financent tous deux, se mettent en rapport pour court-circuiter le backbone. Reste à financer le milieu de l’internet. Un éditeur de contenu comme Dailymotion calcule que, puisque le CDN est cher, il peut se connecter directement à l’ISP, ce qui réduit ses frais en permettant une meilleure qualité de service. Le FAI peut aussi imposer aux gros diffuseurs de payer un accès au réseau. Est-ce une mesure équitable ou une forme de racket ? M. de Martino répondra mieux que moi à la question. Quoi qu’il en soit, le fournisseur d’accès devient CDN et contrôle une partie du trafic, ce qui ouvre le débat de la net neutralité.
Mme Corinne Erhel. Vous soulevez le problème de la répartition de la valeur ajoutée sur l’ensemble de la chaîne. On constate une migration des modèles économiques : les opérateurs vont devenir des fournisseurs de contenus.
M. Julien Coulon. Pour les ISP, le gain est évident. Orange Business Services chez Orange et SFR Business Team chez SFR, Illiad chez Free disposent de solutions d’hébergement, qu’ils proposent aux éditeurs de contenu. Non seulement le système permet une économie, mais il dégage même une marge supplémentaire. Le système s’autofinance tout en améliorant la qualité de service. En revanche, certains maillons de la chaîne risquent d’en pâtir, ce qui pourrait vous amener à intervenir.
Mme Catherine Coutelle. Ce qui circule s’autofinance, mais qui finance l’installation des tuyaux ?
M. Julien Coulon. SFR a proposé une nouvelle offre, qui a été financée par les éditeurs de contenu. La société paie pour un nombre donné de serveurs du Data center et ajoute des services que finance l’amélioration de la qualité.
Mme Catherine Coutelle. Cela fonctionne pour des publics qui ont déjà accès à internet, mais qui financera l’installation des réseaux permettant aux autres d’accéder à l’ADSL ou au haut débit ? En fait, le prix acquitté par l’internaute finance les accès, mais, quand il s’agit de couvrir les zones blanches, ce sont les collectivités qui paient.
M. Julien Coulon. Les serveurs sont centrés à Paris, mais les Data center régionaux sont situés à Perpignan, Lille, Marseille ou Lyon, ce qui devrait permettre d’accélérer la couverture des derniers kilomètres. L’accès à internet est bien financé par l’abonnement de 30 euros par mois.
Qui se préoccupe de perdre 10 ou 100 millisecondes en téléchargeant un film de deux heures ? Il faut 12 minutes pour servir en local, depuis un serveur régional, un DVD qui représente 4 gigaoctets. Pour parcourir 500 ou 1 000 kilomètres de réseau, il faut plus de 2 heures ; et 20 heures si l’on change de continent, c’est-à-dire si l’on dépasse 6 000 kilomètres. Même si la fibre réduit le temps de chargement de 12 minutes à 1, il faudra toujours 20 heures pour télécharger un fichier depuis l’autre côté des États-Unis.
M. Claude Gatignol. Vous avez montré que les CDN pouvaient « court-circuiter » le backbone. Est-ce à dire que celui-ci devient inutile, alors qu’il a coûté fort cher aux collectivités locales qui ont investi en lieu et place des opérateurs ?
M. Julien Coulon. Tout dépend du point de vue qu’on adopte. Les CDN, qui court-circuitent le backbone, argueront qu’ils soulagent le réseau central en augmentant leur chiffre d’affaires. Si plus personne ne finance le milieu d’internet, on se tournera massivement vers eux. Ils diffusent déjà 40 à 50 % du trafic mondial et leur part ne fait qu’augmenter. Ils deviennent une commodité, au même titre que l’électricité, ce qui valide en somme le court-circuitage, qu’on peut considérer comme un palliatif. Il ne m’appartient pas, en temps que tiers certificateur, de trancher le problème.
En 1999, les internautes acceptaient d’attendre 8 secondes pour qu’une page s’affiche. En 2009, 60 % d’entre eux abandonnaient dès qu’il fallait attendre plus de 3 secondes. En 2013, l’affichage devra être immédiat.
Le marché des CDN régionaux tend à se concentrer. Quand plusieurs prestataires interviennent, on constate, sur le marché du cloud computing, le même phénomène que sur le marché de la diffusion de contenu. De ce fait, certaines zones géographiques seront desservies mieux et plus rapidement que d’autres. D’autre part, l’impact des performances sur le référencement de Google impose certaines améliorations. Aujourd’hui, un gros éditeur comme France Télévisions ou TF1 aura tendance à travailler avec un FAI hébergeur. Dès lors, le marché des hébergeurs comme Colt ou Easynet, spécialisés dans l’infogérance, qui n’ont pas d’accès direct aux internautes et ne peuvent pas garantir la même qualité de service, doit-il mourir, évoluer ou être régulé ?
Orange et SFR sont impatients de lancer leur offre de CDN. Les éditeurs de contenu attendent ce moment avec impatience. Les FAI qui sont aussi diffuseurs de contenu sont prêts. Il leur faut seulement une validation de votre part. Les blocages ont été levés en Grande-Bretagne, en Allemagne et en Nouvelle-Zélande. Il n’y a plus qu’à prendre la décision. Quant au filtrage des contenus, Cedexis, qui « monitore » tout ce qui se passe sur internet, est à même de l’évaluer. Pour l’instant, on observe assez peu de filtrage avant seize heures…
Mme Frédérique Massat. Qui sont et où sont vos clients ? J’imagine que votre société est internationale, puisque votre site n’est pas rédigé en français.
M. Julien Coulon. Une version française est prête, mais n’a pas encore été mise en ligne. Notre société est franco-américaine, puisque mon associé est américain. Nous venons de la société Akamai, leader de la diffusion de contenu. Notre activité commerciale a commencé en février 2010. Nous avons 110 clients en production : toutes les télévisions, le site vidéo SIG du Premier ministre, AlloCiné et certains sites de commerce électronique comme Cdiscount, RueDuCommerce ou Yves Rocher. Nous avons stabilisé notre santé financière avec le chiffre d’affaires français. Nous commençons à travailler avec l’Allemagne, puisque nous avons signé un contrat avec ProSieben et Volkswagen, avant de nous déployer en Chine et aux États-Unis. L’équilibre financier sera atteint fin avril.
M. Daniel Fasquelle. Quelle est la place de la France sur le marché mondial ? Internet étant de plus en plus utilisé non seulement pour concevoir les séjours touristiques, mais sur le lieu de séjour, avez-vous parmi vos clients des opérateurs qui appartiennent au marché du tourisme ?
M. Julien Coulon. Un éditeur de contenu dont 80 % de l’audience est en France a intérêt à utiliser toutes les solutions de diffusion régionale et à recourir au multisourcing. France Télévisions use de solutions créées par des sociétés françaises pour diffuser en France et réserve à 20 % du trafic destiné aux expatriés des solutions globales, dont la qualité est relative. Les éditeurs de contenu versent des sommes significatives qui s’investissent dans des sociétés américaines, mais, dès lors que la diffusion régionale améliore la qualité de service, ils récupèrent leur investissement en augmentant le nombre de visites, donc leurs recettes publicitaires. L’enveloppe financière affectée aux sociétés américaines revient ainsi aux sociétés locales. Un site comme RueDuCommerce n’est pas intéressé par les internautes qui habitent à l’autre bout du monde, auxquels la société ne pourra pas adresser ses produits. C’est parce qu’on se focalise sur la qualité que les budgets reviennent en France. Pour la technologie, en revanche, les sociétés recourent à Cisco ou à Alcatel. Le marché du freeware et de l’open source, qui offrent des solutions maison, est majoritairement américain et chinois.
M. Jean Dionis du Séjour. Les FAI doivent-ils augmenter leur prix ? Est-ce la fin du forfait ? Allez plus loin dans vos propositions : êtes-vous favorable à une facturation au volume, comme pour l’eau ou l’électricité, ou à une augmentation du forfait ? Par ailleurs, on comprend mal comment répartir la facturation entre les diffuseurs et les CDN. On dit souvent qu’il s’agit d’un marché biface, mais les gros diffuseurs ont investi dans les réseaux.
Mme Laure de La Raudière. Je suggère que cette question, qui s’adresse aux trois intervenants, soit examinée en fin de séance.
M. François Brottes. Quelles que soient les évolutions attendues, le réseau conservera-t-il une partie passive ou neutre, c’est-à-dire qui, sans électronique particulière, concerne exclusivement le transport des signaux ? Dans la composition de plus en plus complexe du réseau, avec les possibilités de court-circuitages que vous avez mentionnées, peut-on imaginer que demeurent des « rails » sur lesquels s’adapteront toujours les éléments actifs du réseau ?
Mme Laure de La Raudière. Il existera toujours une composante physique, dépourvue d’électronique, c’est-à-dire du câble en cuivre ou coaxial, ou bien de la fibre optique.
M. Julien Coulon. On peut aussi utiliser le satellite mais les temps de latence sont insupportables, sauf bien sûr pour les zones éloignées.
M. Giuseppe de Martino, directeur juridique et réglementaire « monde » de Dailymotion. Je suis ici pour vous parler de la partie visible de l’iceberg. J’ai passé dix ans dans l’univers de l’accès à internet. Je me place maintenant dans celui de la fourniture de services, étant notamment président de l’Association des fournisseurs d’accès et de services internet (AFA).
À Dailymotion, nous avons été victimes de la toute première atteinte à la net neutralité, un fournisseur d’accès ayant décidé un beau jour que ses abonnés ne pouvaient plus consulter ses vidéos sur notre site. Nous nous sommes demandé pourquoi et comment on pouvait ainsi attenter à la liberté de navigation des internautes. Nous avons donc essayé de théoriser notre approche de la net neutralité.
Je rappelle qu’internet résulte d’une idée américaine et que les États-Unis disposent dans ce domaine d’une large domination. Toutefois, des acteurs français essaient de survivre et le poids économique de la filière est considérable : un rapport publié ce mois-ci par McKinsey montre qu’internet, longtemps évoqué comme un gadget ou comme un produit américain sans grande influence sur notre économie, pèse désormais plus lourd, dans le produit intérieur brut français, que des secteurs-clé comme les transports ou l’agriculture.
La filière du contenu sur internet illustre le caractère protéiforme du numérique : on ne peut plus parler d’un seul internet. Dailymotion – sur lequel Orange a pris une option d’achat dans deux ans – est maintenant disponible sur une multitude de supports. Le temps où un nouveau site n’était visible que sur internet est révolu. Dorénavant, notre approche doit être globale et la filière numérique doit être vue comme s’insérant dans notre vie quotidienne.
La fréquentation d’un site internet lambda montre que ce mode de communication n’est plus réservé aux adolescents boutonneux : tout le monde l’utilise et en profite et ce sera de plus en plus vrai.
Aujourd’hui, grâce à des sociétés françaises, l’image et la voix de la France se diffusent dans le monde entier. Nous comptons ainsi davantage d’utilisateurs aux États-Unis qu’en France, alors que nous élaborons tout depuis la place de Clichy dans le XVIIe arrondissement de Paris. Internet représente ainsi le moyen de réaliser ce qu’aucun géant de l’audiovisuel national n’avait réussi à faire : sortir de nos frontières et donner au monde un autre reflet de la France, qui plus est en temps réel.
Notre financement, en tant que fournisseur de services, provient essentiellement de la publicité. Sans être encore florissant, ce marché nous permet de gagner de l’argent. Qu’en faisons-nous ? Nous l’employons d’abord à payer très cher nos salariés, qui souvent le méritent. Ensuite, 40 % de nos dépenses sont consacrées à l’investissement en bande passante et en réseaux. Nous sommes un client important de tous les opérateurs évoqués précédemment. On a parlé des CDN et des fournisseurs d’accès par la voie du peering payant ; on pourrait aussi mentionner les opérateurs de transit qui jouent un rôle d’intermédiaire.
Notre force, en tant que fournisseurs de services, consiste à intervenir un peu comme des brokers, c’est-à-dire à pouvoir choisir, quand on le souhaite et où on le souhaite, nos clients fournisseurs de bande passante. La dépense sur internet, du moins pour la vidéo, se mesure à raison du visionnage de 1 000 clips de cinq minutes. Leur mise à disposition du public coûte 0,25 euro au fournisseur de services, contre 1,50 euro il y a trois ans. Cela s’explique par le fort développement du marché – nous comptons chaque mois 100 millions de visiteurs uniques et un milliard de vidéos vues, ce qui nous permet de bénéficier d’un effet de volume – mais aussi parce que nous possédons cette expertise consistant à savoir choisir le bon client au bon moment.
Dès lors, tout ce que l’on peut mettre en place dans le sens de la neutralité de l’internet ne doit pas obérer notre capacité à décider avec qui nous allons travailler et à négocier les tarifs en vue du meilleur service possible. C’est essentiel car la diminution de nos coûts d’infrastructures nous permet d’être plus « généreux » avec nos autres clients et nos autres partenaires qui constituent l’industrie du contenu. Nous sommes, en effet, des « agrégateurs » de contenus, entretenant deux types de relations, d’une part avec les fournisseurs d’accès, les CDN et les opérateurs de transit, qui nous permettent de diffuser nos services, d’autre part avec les détenteurs de droits qui mettent à notre disposition les œuvres de l’esprit. Nous jouons donc un rôle de développement du « darwinisme » de l’industrie du contenu.
Prenons l’exemple de la radio : il y a encore cinq ans, on disait ce médium condamné, avec de moins en moins d’auditeurs, dans une frange bien déterminée de la population. Or, le fait de filmer, au moyen d’une simple webcam manipulée par un stagiaire, une émission en studio et de la mettre ensuite en ligne sur Dailymotion lui donne une dimension nouvelle. On ne se contente plus d’« écouter » une émission de France Inter : on la visionne et on la commente, à une autre heure que celle de sa diffusion en direct. Nous nous mettons ainsi au service de l’industrie des médias, du divertissement et de la culture en général.
Le débat autour de la neutralité est primordial pour nous qui représentons le dernier maillon de la chaîne. Il y a trois ans, lorsque SFR décida d’empêcher ses abonnés de lire des vidéos de Dailymotion, les internautes nous en jugèrent responsables. Nous souhaitons remettre en perspective ce principe inhérent à internet : le fournisseur d’accès, ou l’opérateur de réseau au sens large, doit adopter une approche non discriminante, transparente de la fourniture de son service aux fournisseurs de contenus.
S’agissant du financement du système, Barry Diller, magnat de l’industrie américaine, s’est demandé cette semaine si « le grille-pain doit payer l’électricité ». À partir du moment où l’on demande aux fournisseurs de services d’investir de plus en plus dans le réseau, et qu’ils y sont disposés – je rappelle que nous le faisons déjà à hauteur de 40 % de nos dépenses – ne devrait-on pas se poser la question de l’abonnement que touchent exclusivement les opérateurs ? Ne devrait-il pas être partagé avec le fournisseur de services qui a pour objectif de proposer des services satisfaisant l’utilisateur dans un contexte concurrentiel particulièrement vif : il est, en effet, bien plus facile, en navigant sur internet, de choisir le site procurant les services et les contenus les plus attrayants, que de changer d’opérateur de réseau.
Nous continuerons certes de financer les réseaux et d’assurer l’existence des champions français sur la toile. Mais, je vous en prie, faites en sorte que les fournisseurs de services ne soient pas écrasés par des tarifs les empêchant de développer leur offre ! Surtout, qu’on ne nous oblige pas, à l’avenir, à choisir entre tel ou tel mode de fourniture de services.
Mme Corinne Erhel. L’internaute, en sa qualité de consommateur, souhaite pouvoir accéder à tous les contenus possibles à un prix raisonnable. Telle est bien la problématique qui se noue entre eux, au surplus dans un contexte économique difficile, et les différents acteurs du système.
Mme Catherine Coutelle. Vous avez évoqué la neutralité du net mais les « courts-circuits » dont il a été fait état ne vont-ils pas à son encontre ?
M. Giuseppe de Martino. Nous avons pu peser sur les prix en travaillant avec toute l’offre possible, celle des fournisseurs d’accès, des opérateurs de CDN et de transit. Qu’un fournisseur d’accès se transforme demain en opérateur de CDN ne nous gêne pas si le tarif et la qualité restent au rendez-vous. Nous ne pratiquons aucune religion quant à l’identité de nos fournisseurs ; nous voulons simplement profiter de la liberté de choix et ne pas passer sous les fourches caudines de certains opérateurs.
M. Jean Gaubert. Dailymotion doit être racheté par Orange. Cela ne pose-t-il aucun problème quant à la neutralité que vous avez évoquée et à la stratégie d’entreprise développée auparavant ?
M. Giuseppe de Martino. Orange a toujours été notre fournisseur de peering. Nous travaillons ensemble depuis le premier jour et nous ne collaborons avec aucun autre fournisseur d’accès. Rien ne sera changé à notre activité dès lors que nous continuerons à bénéficier des bons tarifs. Il faudra plutôt demander à nos concurrents s’ils bénéficieront des mêmes tarifs de la part d’Orange.
La question de la neutralité peut aussi se poser autrement : Orange, ou Vivendi, n’aura-t-elle pas tendance, sur ses portails, à privilégier les contenus de ses propres partenaires ? C’est alors la concurrence qui joue. La tentation de brider les concurrents de ses propres filiales a déjà été expérimentée par Google avec sa filiale You Tube, mieux référencée que Dailymotion. Il s’agit d’un problème d’algorithmes sur lequel nous travaillons ensemble. La question se posera d’une façon plus générale par rapport au consommateur : abonné demain à Orange, il désirera néanmoins voir aussi des vidéos de You Tube. L’intérêt de l’opérateur est d’offrir le service le plus riche possible dans un milieu très concurrentiel.
M. Jean Dionis du Séjour. Revenons à la question du modèle économique. Il me paraît un peu naïf de considérer, comme le fait apparemment M. de Martino, que le consommateur devrait, en partie, payer le fournisseur de services. C’est ce que l’on dit des agriculteurs depuis cinquante ans, à ceci près que la grande distribution est apparue dans le circuit. De façon analogue, vous n’allez pas pouvoir agir comme si les FAI n’existaient pas. Quel modèle économique peut donc se dessiner entre ceux-ci et les consommateurs, comme entre les diffuseurs et les CDN ? En faveur de quel système de financement militez-vous ? Arrivons-nous à la fin de celui du forfait ? Va-t-on vers d’autres assiettes de facturation ? Ce ne serait pas forcément illégitime : quand je consomme beaucoup d’eau, ou d’électricité, je paie davantage que lorsque j’en consomme peu. Que proposez-vous pour réguler le marché entre les FAI, les diffuseurs et les CDN ?
M. Giuseppe de Martino. Jamais nous n’avons souhaité faire payer directement le consommateur. Nous rappelons simplement qu’on s’abonne aujourd’hui à internet, non pour envoyer des courriels ou pour proclamer qu’on est abonné, mais pour accéder à des sites comme les nôtres. Nous représentons un produit d’appel en raison de la richesse de nos contenus et, partant, un produit de marketing pour les fournisseurs d’accès. Il nous semble donc que nous les payons, une première fois, en termes financiers, et une deuxième fois en nature puisque nous leur permettons de mettre en avant nos services et de recruter ainsi de nouveaux abonnés.
Pour le modèle de demain, nous souhaitons la liberté, c’est-à-dire ne pas devoir passer obligatoirement par tel ou tel fournisseur d’accès. Si l’un d’entre eux devient CDN et que son offre est intéressante, tant mieux ! Mais gardons la faculté de travailler ou non avec lui. Selon la transposition en droit interne du « paquet télécom » européen, l’ARCEP veillera à ce qu’il n’y ait pas de discrimination et à ce que la relation entre opérateur et fournisseur de services de communication au public en ligne s’établisse de façon équitable et transparente afin d’offrir au consommateur le service le mieux approprié.
M. Julien Coulon. Depuis toujours, les éditeurs de contenus paient les CDN. Qu’il s’agisse d’une société américaine ou d’un opérateur régional, comme SFR ou Orange CDN, l’enveloppe bascule d’un fournisseur à un autre.
S’agissant du forfait payé par les consommateurs, je rappelle que, 1 % des internautes consommant 20 % d’internet, une modification du système consisterait nécessairement à faire payer moins cher ceux qui consomment le moins. En bout de course, le fournisseur d’accès verrait ainsi son chiffre d’affaires diminuer. Certes, quelques gros utilisateurs seraient prêts à payer davantage mais à condition de bénéficier de services différenciés, par exemple l’accès à la voix sur IP plutôt que la télévision, et d’une excellente qualité de service. Mais, au total, le fournisseur d’accès y perdrait.
M. Jean-Louis Gagnaire. En achetant, par la téléphonie mobile, un forfait pour accéder à internet on acquiert de la capacité de bande passante. Les abonnements proposés par Orange comportent des accès plus ou moins limités et la surconsommation coûte très cher.
En écoutant notre collègue Dionis du Séjour, j’ai craint un instant que l’on revienne au vieux système dans lequel on payait des unités téléphoniques. Le succès d’internet tient beaucoup à son paiement au forfait.
La frontière entre usages particuliers et usages professionnels tend à s’estomper. Comment peut-on payer, d’un côté, des services haut de gamme, dont les entreprises ont spécialement besoin, sécurisés contre toutes les perturbations, y compris les fenêtres publicitaires, et maintenir une offre néanmoins de qualité pour les particuliers ?
M. Lionel Tardy. Le modèle a changé. Jusqu’à présent, internet se diffusait en France par un réseau en fils de cuivre, que le contribuable avait financé pour des usages limités. Or les nouveaux usages, y compris ceux de l’internaute de base, vont conduire ce réseau à saturation. Il faudra donc trouver une solution, incluant un service minimum pour l’usager lambda.
M. Julien Coulon. En matière de téléphonie mobile, nous avons pris l’habitude de payer un forfait pour un certain nombre d’heures de communications. D’ici peu, cette partie « audiophonique » sera offerte et l’abonné ne paiera plus que le service de transfert de données (la data), c’est-à-dire ce qui coûte cher à l’opérateur, à la différence de la voix. En d’autres termes, on ne paye que ce qu’on consomme sur la bande passante, avec des tarifs dégressifs. Dans ces conditions, il ne me paraît pas anormal de payer spécialement une haute qualité de service, en plus de l’offre forfaitaire.
M. Winston Maxwell, avocat au cabinet Hogan Lovells. La problématique posée consiste à conserver le système internet que nous connaissons, dans lequel le plus petit des sites peut communiquer avec le monde entier et, en même temps, à financer demain un internet haut de gamme. Le 3 mars dernier, s’est tenue, sur cette question, une réunion entre le commissaire européen Nelly Kroes et plusieurs opérateurs d’internet.
En la matière, la liberté d’action du législateur national rencontre ses limites dans les directives communautaires. Il n’existe pas de loi unique sur l’internet : en France plusieurs textes en traitent, par le biais des télécommunications, de la presse, de l’audiovisuel ou des droits d’auteurs. Mais, en tant que réseau, internet est surtout régi par le cadre communautaire applicable aux communications électroniques qui résulte de plusieurs directives, rassemblées dans les « paquets » de 2002, base de référence, et de 2009, en cours de transposition.
La philosophie de la régulation des réseaux de communications électroniques selon la Commission européenne repose sur l’idée que la régulation sectorielle doit, à terme, disparaître. Toutefois, pendant un certain temps, la régulation est rendue nécessaire par les traces qu’a laissées le monopole historique des réseaux : à défaut, la concurrence ne pourrait jamais émerger. Après quoi, la régulation doit peu à peu s’effacer et faire place, pour l’essentiel, au droit de la concurrence.
C’est pourquoi, on distingue régulations asymétrique et symétrique. La première vise à établir la concurrence dans un secteur où elle ne verrait pas d’elle même le jour, du fait de la présence d’un ou de plusieurs grands acteurs dressant des barrières considérables à l’entrée du marché. Il en allait ainsi, en France, de France Télécom, disposant de la boucle locale en cuivre qu’il n’était pas économiquement viable de dupliquer. Il fallait donc permettre aux concurrents de venir utiliser ce réseau, ce que France Télécom aurait naturellement refusé dans un marché ouvert. Le régulateur constate donc qu’il existe un goulot d’étranglement justifiant d’imposer à l’opérateur historique de laisser ses concurrents utiliser son réseau en pratiquant des tarifs orientés vers les coûts.
Au fur et à mesure qu’émerge ainsi la concurrence, la régulation asymétrique décroît, ce qui est actuellement le cas : l’ARCEP est en train de réduire le nombre de marchés dans lesquels elle impose des obligations à France Télécom, conformément à ce qu’exige la Commission européenne.
De l’autre côté, la régulation symétrique prend une importance croissante, en faveur de la protection du consommateur, de la net neutralité, de la transparence des publicités et des contrats des opérateurs, de la préservation de l’environnement et, même, en France, de l’accès à la fibre optique dans les immeubles collectifs. Cette deuxième forme de régulation n’est pas près de disparaître. Elle incombera à l’ARCEP dans les années à venir.
Intervenant en novembre 2009, le nouveau « paquet télécom » a conservé la dualité de régulation, symétrique et asymétrique, ainsi que le principe selon lequel le doute sur la nécessité d’une régulation doit conduire à y renoncer. La philosophie de la Commission et de ses directives consiste à déréguler chaque fois que possible car la régulation ne constitue pas la meilleure façon de parvenir à un marché fluide.
Le nouveau « paquet télécom » traite aussi de la neutralité et renforce la libéralisation du spectre radioélectrique. Les radiofréquences, qui appartiennent en France au domaine public de l’État, sont un peu le pétrole de demain pour l’économie numérique. Aux États-Unis comme en Europe, il s’agit d’une ressource naturelle et rare. Une grande partie du spectre est bien utilisée mais d’autres sont sous-exploitées. Le « paquet télécom » de 2009 oblige donc, progressivement, les États membres à adopter une approche plus libérale et, surtout, plus efficace de l’utilisation du spectre dans l’intérêt de la collectivité. Ainsi, dans les années qui viennent, nous verrons probablement se profiler un deuxième dividende numérique.
En France, comme ailleurs en Europe et aux États-Unis, des plans pour le haut débit ont été arrêtés. Le plan américain vise 100 mégabits par seconde pour 100 millions d’habitants d’ici à 2020. Le plan français, présenté par M. Eric Besson il y a deux ans, nourrit des ambitions similaires. Il existe aussi un plan européen : l’Agenda numérique. Ces plans incluent de nombreux éléments relatifs à tout ce qu’internet peut apporter à la collectivité en matière de santé, d’éducation, ainsi que d’environnement et de croissance économique à travers les réseaux intelligents. Sont également pris en compte les défis lancés par le développement du numérique, notamment la déstabilisation de la presse écrite et les problèmes posés au secteur musical.
Si ces plans sont menés à bien, la fibre optique aura été généralisée dans dix ans et le câble en cuivre sera devenu démodé. Se pose donc la question des investissements et de leur financement. Car, si la fibre optique est viable dans les grandes agglomérations, elle ne l’est pas dans d’autres zones. Faudra-t-il alors financer sa mise en place par des subventions publiques, nécessairement limitées ? Les FAI se demandent aussi comment bâtir un plan d’affaires avec des investissements de plusieurs milliards d’euros avec pour seule ressource les 30 euros par mois d’abonnement. Le grand défi consiste donc à définir un modèle économique dans lequel les FAI puissent bénéficier de revenus en amont provenant de différents types d’acteurs, tels que les CDN ou les fournisseurs de contenus. Les formules les mieux adaptées restent à définir.
Il faut ici rappeler que les réseaux de téléphonie mobile se sont développés, en partie, grâce aux abonnements souscrits par les consommateurs mais, surtout, grâce aux revenus qu’ils tiraient de la terminaison d’appel auprès d’autres opérateurs. Cela leur a permis, selon la logique des marchés bifaces, comme celui de la presse vivant à la fois de la vente et de la publicité, de pratiquer des abonnements à bon marché et de bénéficier d’importantes ressources indirectes.
Aujourd’hui les FAI ne sont pas certains de pouvoir activer pleinement ce marché biface et des menaces pèsent sur le principe de neutralité si des accords particuliers se concluent entre opérateurs et fournisseurs de contenus. Le marché de l’internet pourrait se trouver faussé par des différences de traitement selon la taille des partenaires.
Sur le plan réglementaire, aux yeux des instances européennes, les relations commerciales entre les FAI et les CDN doivent être régies par le droit de la concurrence. Son application consiste donc à surveiller l’existence d’abus de positions dominantes et d’ententes anticoncurrentielles, du genre des exclusivités pratiquées par Orange et remises en cause par l’Autorité de la concurrence.
Mais, pour l’internaute de base, il est tout de même peu probable que l’on puisse assister à une limitation de l’information disponible par une sélection du contenu diffusé qu’exercerait l’autorité publique, comme cela s’est vu en Égypte, en Chine et en Iran. Si un opérateur agissait ainsi, il perdrait une part importante de sa clientèle. Dans ce cas, le régulateur devrait intervenir.
Hormis cette hypothèse, la régulation de l’internet est en phase de décroissance, comme le montre la courbe projetée, qui ressemble au dessin de l’éléphant du Petit Prince.
M. Jean Dionis du Séjour. Je voudrais revenir sur la question du modèle économique. Selon M. Julien Coulon, l’existence de facturations entre diffuseurs et CDN n’empêcherait pas d’envisager de faire évoluer le forfait.
Les rapports récents sur la net neutralité semblent dessiner l’image future d’un internet à service universel, basé sur un forfait pouvant évoluer, coexistant avec un internet à services gérés. Quelle serait l’assiette de la facturation pour ces services ? S’agirait-il du volume de l’information, de la garantie d’un certain niveau de débit ? Quel serait donc, à la fois, le modèle économique du service public universel et des services gérés ?
M. Giuseppe de Martino. La notion de service géré ne constitue pas une nouveauté. La voix sur IP en est déjà un, de même que, dans le triple play, la téléphonie et la télévision. L’idée d’extraire du play internet des services spécifiques afin de les transformer en services gérés poserait aux fournisseurs de services un problème de fond : sur quelle base devenir service géré, selon quels critères, et au bénéfice de qui ? Sur ce thème, des discussions s’engageront avec l’ARCEP dans les prochaines semaines. Mais, pour le moment, je crains qu’il ne s’agisse d’une fausse bonne idée.
M. Winston Maxwell. Le débat sur la place des services gérés et sur la possibilité de les développer sans provoquer d’abus fait également l’objet de controverses aux États-Unis. Personne, aujourd’hui, ne détient la bonne réponse.
Mme Catherine Coutelle. Vous semblez donc envisager un internet à deux vitesses, vous considérez que le spectre radioélectrique est le pétrole de demain et vous assurez que, dans dix ans, tout le monde sera équipé en fibre optique… Ce qui soulève en effet de nombreuses interrogations.
Au XIXe siècle, des compagnies privées exploitèrent les chemins de fer tant qu’ils furent rentables ; quand ils ne le furent plus, on mit en œuvre, en 1879, le plan Freycinet, financé par l’État. Quel que soit le type de réseau, on arrive toujours à ce genre de solution. Sera-t-on capable de le faire pour internet compte tenu de l’endettement public ? On ne saurait, en tout cas, en faire supporter la charge aux particuliers, aux collectivités locales ou aux entreprises privées. Il ne serait donc pas anormal que l’État intervienne, notamment en raison du poids du secteur dans le produit intérieur brut.
M. Lionel Tardy. Nous parlons aujourd’hui de neutralité d’internet parce que nous allons vers une congestion du réseau. Si la fibre optique était présente partout, la question perdrait de son acuité.
Quelle est donc la position des personnes auditionnées sur le déploiement du très haut débit ? SFR prône un réseau mutualisé, que partageraient les différents opérateurs. Le ministre chargé de l’industrie serait favorable à cette idée et France Télécom plutôt ouverte. Faut-il donc prendre des initiatives dans nos départements ?
En Haute-Savoie nous avons décidé de mettre en place un réseau départemental, compte tenu de l’immobilisme de France Télécom. On nous annonce maintenant l’équipement gratuit en fibre optique des principales villes du département, ce qui remet en cause le modèle économique que nous avions défini. D’où une impression de grand désordre. Comment voyez-vous l’avenir ? Faut-il créer une société « Fibre de France » ou « France fibre » pour accompagner le déploiement des réseaux à très haut débit dans les campagnes, voire s’appuyer sur un réseau « Télécoms de France », selon le modèle de RFF ou de RTE, à partir des infrastructures héritées de l’exploitation du téléphone ?
Nous voyons bien que le trafic va exploser et qu’il faut donc remplacer la vieille « paire de cuivre » autrefois payée par le contribuable.
M. Daniel Fasquelle. Nous parlons d’un secteur économique auquel on ne peut appliquer purement et simplement le droit de la concurrence. Le marché doit être régulé, ne serait-ce qu’en raison de l’existence des réseaux. L’exemple est comparable à celui du secteur ferroviaire.
Vous n’avez pas encore évoqué les obligations de service public, qui n’impliquent pas nécessairement, je le dis à notre collègue Brottes, la présence d’entreprises publiques. Comment imposer de telles obligations aux opérateurs ? Un accès de tous à l’information est évidemment nécessaire : il en va du respect du principe d’égalité des citoyens sur l’ensemble du territoire, auquel nous sommes tous très attachés.
Mme Laure de La Raudière. Rappelons que l’enjeu du déploiement de la fibre optique réside dans la boucle locale. Or, nous avons surtout parlé jusqu’à maintenant de ce qui se situe en amont. Nous nous sommes ainsi davantage préoccupés de la lutte contre la fracture numérique que du développement de l’économie numérique, auquel va certes servir la boucle locale. Mais, quel que soit le niveau du débit au point terminal, si le fichier vient des États-Unis, il lui faudra toujours 20 heures pour arriver, contre 12 minutes si sa source est locale.
On peut, en France, développer l’économie numérique avec tout ce dont on dispose déjà. Ne nous en privons pas. Et veillons à ne pas légiférer de façon à restreindre les chances de ce développement, quel que soit l’état de la boucle locale.
M. Winston Maxwell. Sur le plan réglementaire, la garantie d’un service minimum pour l’accès à internet comme de la qualité et du choix des services, dépend, selon les directives européennes, de la libre concurrence. En France, celle-ci est plutôt vive, entre Free, SFR et Orange. C’est une chance. Mais si le jeu normal de la concurrence n’assurait pas l’existence du service minimum, l’ARCEP serait appelée à intervenir, conformément aux dispositions du « paquet télécom ».
M. Alain Suguenot. Nous en sommes venus à des questions d’aménagement du territoire qui nous éloignent du débat initial. Pour résoudre le problème de l’hétérogénéité des services sur le territoire, une solution réside dans la péréquation, mais cela dépasse bien sûr le problème de la neutralité.
Il faudra bien, demain, se donner les moyens de faire face à la progression considérable des besoins. Comment se fait-il que les 20 heures de latence entre les États-Unis et la France ne puissent être réduites par des systèmes plus performants ?
M. Julien Coulon. Les opérateurs, bien que concurrents, essaient actuellement d’échanger des informations dans ce but. Par exemple, sachant que les internautes allemands viennent chercher le logo de Facebook un million de fois par minute, n’y aurait-il pas moyen de mettre celui-ci en cache dans le CDN local, lui permettant ainsi de ne traverser qu’une seule fois l’océan avant d’être redistribué localement à tous les internautes ? C’est ainsi que l’on cherche à résoudre le problème du goulot d’étranglement. La création de CDN inter-opérateurs soulagerait déjà un peu le milieu de l’internet. On peut comparer cette démarche à celle pratiquée dans le domaine du transport aérien avec l’alliance conclue entre Sky Team et plusieurs partenaires pour offrir à leurs clients des possibilités d’échanges de miles. Ce qui résoudrait une partie du problème des 20 heures de transmission. Le plus gros diffuseur mondial, à savoir l’américain Akamai, ne dispose en effet de serveurs que dans 900 réseaux, sur les 32 000 recensés dans le monde entier. Or, optimiser la qualité de service exigerait une présence dans tous les réseaux. La mise en place de CDN inter-opérateurs offre également un début de réponse à ce problème. Rien que cette accélération des transmissions assurerait le retour sur investissement pour l’éditeur de contenus.
M. François Brottes. Déjà au siècle dernier, nous nous battions pour que l’Europe accepte qu’internet figure dans le panier du service universel. Son refus se fondait sur l’argument qu’il revient à la concurrence de traiter la question. Comment l’ARCEP pourrait-elle intervenir, ainsi que cela vient d’être dit ? Peut-elle enjoindre un opérateur d’apporter internet dans nos campagnes ? Sur la base de quels textes et en fonction de quelles capacités d’action peut-elle agir sans que les opérateurs ne lui répondent par un bras d’honneur ?
M. Winston Maxwell. Cela résulte de la nouvelle directive « service universel », prévoyant qu’en cas d’insuffisance de la qualité du service, l’ARCEP peut intervenir pour qu’au moins un opérateur fournisse le service téléphonique et l’accès fonctionnel à internet. Il existe actuellement un débat sur la signification de ces termes, ce qui donne une marge de manœuvre au législateur. Cette possibilité, portant sur le droit à un débit minimum, ne va toutefois pas jusqu’à assurer à l’internaute l’accès à tous les contenus disponibles.
M. François Brottes. Notre Commission, grâce à ses administrateurs de talent, ne devrait-elle pas expertiser la faisabilité juridique et technique de ce point très particulier ?
Mme Laure de La Raudière. Nous y avons pensé : cela fait partie de notre travail sur le contrôle de l’application de la lutte contre la fracture numérique.
Mme Catherine Coutelle. Il existe des porosités entre tous les terminaux, ce qui permet notamment à la téléphonie mobile d’accéder à internet.
S’installant en Poitou-Charentes, au Futuroscope, un opérateur chinois de téléphonie mobile, ZTE, bénéficie d’une licence expérimentale mais demande une licence définitive. ZTE prétend vouloir conquérir le marché africain et ouest-européen. Faut-il s’attendre à ce que la Chine prenne une place importante sur le marché de l’internet ?
M. Julien Coulon. Nous sommes en train de créer une filiale en Chine. De très nombreuses initiatives sont prises en Asie, notamment en Chine et en Inde, à tel point que la dernière plaisanterie dans le monde du CDN est de dire : « mon téléphone a sonné : ma belle-mère vient de créer son CDN »… L’augmentation du trafic en Asie est terriblement impressionnante. On est proche de la saturation, ce qui nuit à la qualité de service. Mais tous les contenus sont filtrés. En Chine, on exige une licence, intégrée dans chaque page web. Il en va de même en Iran et en Irak.
M. Winston Maxwell. De très nombreuses entreprises chinoises sont présentes en Europe et entendent participer à toutes les enchères de spectre qui vont avoir lieu. C’est bien parce que cette ressource est stratégique et que l’on peut la comparer au pétrole.
M. Daniel Fasquelle. Sensible à la défense de notre langue et à celle de la francophonie, je constate qu’on utilise beaucoup de mots anglais pour parler d’internet ; mais ne pourrait-il justement aider à toucher les populations francophones partout dans le monde et à diffuser des contenus jusqu’ici réservés au public français ? Nous devons nous intéresser à cet aspect de la question.
M. Giuseppe de Martino. Dailymotion enregistre 100 millions de visiteurs uniques dans le monde, dont seulement 15 millions en France. Nous diffusons dans toutes les langues mais la façon de présenter notre service relève de la french touch, qui dépasse l’aspect linguistique. Nous essayons de mettre le français en avant chaque fois que possible, ce qui nous plaît et contribue à nous singulariser. Mais nous restons une entreprise commerciale privée…
Mme Corinne Erhel. Je remercie les intervenants, qui nous ont montré combien le sujet était complexe. Cela explique pourquoi les textes récents ont donné lieu à de longs débats : il n’est pas simple de légiférer en la matière, compte tenu notamment de la multiplicité des enjeux : démocratiques, économiques, industriels et d’aménagement du territoire. Notre mission parlementaire sur la neutralité des réseaux a déjà élaboré un pré-rapport et, à sa suite, entendu l’ensemble des acteurs concernés. Nous essaierons de présenter mi-avril des orientations et de formuler des préconisations.
Mme Laure de La Raudière. Je remercie également nos invités, ainsi que nos collègues pour leurs questions et pour l’intérêt qu’ils portent à ces sujets.
M. le président Serge Poignant. Je vous remercie également toutes deux d’avoir pris la bonne initiative de proposer cette table ronde.
ANNEXE 4 — SCHÉMA RÉCAPITULATIF DU FONCTIONNEMENT DU RÉSEAU INTERNET
ANNEXE 5 — LISTE DES PERSONNES AUDITIONNÉES
M. Pierre Lagoutte, directeur technique de BLUWAN et expert en réseau IP.
M. Lucien Rapp, professeur de droit, université Toulouse 1.
UFC-QUE CHOISIR :
– M. Edouard Barreiro, chargé de mission nouvelles technologies.
M. Michel Riguidel, directeur d’études à Télécom Paris.
M. Olivier Bomsel, professeur à l’École des Mines et chercheur au CERNA.
M. Jean-Michel Planche, président du conseil d’administration, fondateur de Witbe.
M. Nicolas Guillaume, consultant TIC indépendant.
M. Michel Lebon, consultant, directeur de projets télécoms et réseaux.
GOOGLE :
– M. François Sterin, senior manager global network acquisition,
– M. Olivier Esper, government affairs,
– Mme Alexandra Laferrière, policy manager.
M. Winston Maxwell, avocat, cabinet Hogan Lovells.
ASIC (Association des services internet communautaire) :
– M. Benoit Tabaka, secrétaire général de l’ASIC et directeur des affaires réglementaires de PriceMinister,
OVERBLOG :
– M. Nicolas Poirier, responsable juridique wikio group (Overblog - Nomao - eBuzzing - Wikio),
GESTE (Groupement des éditeurs de services en ligne) :
– M. Emmanuel Parody, président de la commission nouveaux usages et publisher chez CBS Interactive,
– M. Guillaume Monnet, juriste au sein de l’équipe permanente du GESTE.
Beezik :
– M. Jean Canzoneri, co-fondateur de Beezik et actuel président.
AFNIC (Association française pour le nommage des noms de domaine en coopération) :
M. Mathieu Weill, directeur général
SACD (Société des auteurs et compositeurs dramatiques) :
– M. Pascal Rogard, directeur général,
– M. Guillaume Prieur, directeur des relations institutionnelles.
ANSSI (Agence nationale de sécurité des systèmes d’information) :
– M. Patrick Pailloux, directeur général.
SFR :
– Mme Marie-Georges Boulay, directeur de la réglementation,
– M. Philippe Logak, Secrétaire général,
– M. Jean-Dominique Pit, directeur de la stratégie,
– Mme Marie Lamoureux, responsable des affaires européennes.
BOUYGUES TELECOM :
– M. Emmanuel Forest, directeur général délégué.
FREE :
– M. Alexandre Archambault, directeur des affaires réglementaires,
– M. Olivier De Baillenx, directeur des relations institutionnelles.
FDI (Forum des droits sur internet) :
– Mme Isabelle Falque-Pierrotin, présidente.
LA QUADRATURE DU NET :
– M. Philippe Aigrain, président,
– M. Jérémie Zimmermann, co-fondateur,
FDN (French Data Network) :
– M. Benjamin Bayart, president.
M6 :
– Mme Karine Blouët, secrétaire générale,
– M. Valéry Gerfaud, directeur général de M6 web,
– Mme Marie Grau-Chevallereau, directeur des études réglementaires du groupe M6.
TF1 :
– M. Gilles Maugars (directeur général adjoint Technologies, Systèmes d'Information, Moyens internes et Développement Durable).
CANAL + :
– M. Christophe Roy, directeur adjoint distribution et concurrence,
– Mme Séverine Fautrelle, responsable des affaires européennes.
AT&T Global Network Services France SAS :
– M. Dominique Baroux, directeur des affaires règlementaires,
– M. Karim Lesina, executive director european affairs.
– M. Bernard Benhamou, Délégué aux usages de l’internet.
SACEM (Société des auteurs, compositeurs et éditeurs de musique) :
– M. Miyet, président du directoire.
CISCO :
– Mme Pastora Valero, director government affairs EU,
– M. Frederic Geraud de Lescazes, head of government affairs France,
– M. Marc Latouche, senior manager IBSG service providers,
– M. Bernard Jegoux, consulting system engineer.
ARCEP (Autorité de régulation des communications électroniques postales) :
– M. Philippe Distler, directeur général,
– Mme Nadia Trainar, chef d'unité adjoint « affaires européennes » (direction des affaires européennes et internationales),
– M. Guillaume Mellier, chef d'unité « marchés des services de capacités et de la téléphonie fixe » (direction des services fixe et mobile et des relations avec les consommateurs).
SIMAVELEC (Syndicat des industries de matériels électroniques audiovisuels) :
– M. Bernard Heger, délégué général,
– M. Chevallier, délégué général adjoint,
– M. Bousquet, vice-président consumer, Samsung France,
– M. Brunet, directeur des relations extérieures, Sony France.
AUTORITÉ DE LA CONCURRENCE :
– M. Bruno Lasserre, président.
SNEP (Syndicat national de l’édition phonographique) :
– M. David El Sayegh, directeur général.
ARP (Société civile des auteurs-réalisateurs-producteurs) :
– Mme Florence Gastaud, déléguée générale.
ALCATEL-LUCENT :
– M. Olivier Duroyon, président public affairs,
– M. Marc Charrière, vice-président public affairs.
LEVEL 3 :
– M. Laurent Taieb, regional business development director,
– M. Emmanuel Arnould, director, sales, european markets group
HADOPI (Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet) :
– Mme Marie-Françoise Marais, présidente,
– M. Jean Musitelli, membre du collège,
– M. Eric Walter, secrétaire général,
– Mme Sarah Jacquier, directrice juridique,
– M. Loic Baud, chargé de la sécurité des systèmes d’information,
– Mme Marion Scappaticci, chargée des relations avec le Parlement.
ARJEL :
– M. Frédéric Epaulard, directeur général,
– M. Frédéric Guerchoun, juriste,
– M. Jérôme Rabenou, réseaux sécurité système d’information.
CFDT Fédération Communication Conseil Culture :
– M. Christian Le Bouhart,
– M. Ivan Beraud,
– M. Vincent Bottazzi,
– M. Jacques Fauritte.
M. Jacques Crémer, directeur de recherche CNRS.
– M. Pierre Louette, secrétaire général,
– M. Éric Debroeck, directeur des affaires réglementaires,
– Mme Florence Chinaud, directrice des relations institutionnelles,
– M. Éric Edelstein, directeur de la sécurité mobile et internet,
– M. Michael Trabbia, directeur des affaires publiques.
M. Olivier Laurelli
M. Jean-Pierre Bigot, juriste
HUAWEI TECHNOLOGIES FRANCE :
– M. Christian Paquet, directeur général délégué,
– M. Benjamin Martin, directeur conseil adjoint affaires publiques.
CEDEXIS INC :
– M. Julien Coulon, co-fondateur,
– M. Stéphane Enten, VP services.
IKOULA :
– M. Jules-Henri Gavetti, president,
– M. Réda Belouizdad, directeur marketing.
COGENT :
– M. François Lemaigre, vice-président ventes Europe,
– M. Vincent Teissier, directeur du développement.
NÉOTELECOMS :
– M. Raphaël Maunier, directeur technique.
– M. Julien Rabier, président de l’association Illico.
TATACOMMUNICATION :
– M. Philippe Duguet, directeur, strategic business development global IP and VPN services.
DAILYMOTION :
– M. Giuseppe de Martino, directeur juridique et réglementaire monde,
– M. Martin Rogard, directeur des contenus France.
DGCIS (Direction générale de la compétitivité, de l'industrie et des services, administration centrale du ministère de l'économie, de l'industrie et de l'emploi) :
– Mme Cécile Dubarry, chef du service des technologies de l'information et de la communication
Conseil général de l'industrie, de l'énergie et des technologies (CGIET) :
– M. François Cholley, ingénieur général des mines.
NUMÉRICABLE :
– M. Jérôme Yomtov, secrétaire général.
AFDEL (Association française des éditeurs de logiciels) :
– transmission d’une contribution écrite
APME (Association pour la promotion des messages électroniques à usage commercial) :
– transmission d’une contribution écrite
EUTELSAT :
– transmission d’une contribution écrite
1 () Ces caractéristiques trouvent notamment leur origine dans la manière dont fonctionnent les protocoles TCP et IP élaborés par Vinton Cerf et Robert Khan : cf. V. G. Cerf et R. E. Kahn, « A protocol for packet network interconnection », IEEE Trans. Comm. Tech., 1974.
2 () Cf. J. H. Saltzer et al. « End-to-end arguments in system design », 1984. Cet article « présente un principe d’architecture qui aide à placer les fonctions parmi les modules d’un système informatique distribué. Ce principe, appelé argument « end-to-end », suggère que les fonctions placées à des niveaux inférieurs du système risquent d’être redondantes ou de faible valeur quand on les compare aux coûts que requiert le fait de les placer à ce niveau. »
3 () Cf. par exemple Lawrence Lessig et Robert McChesney, “No tolls on the internet”, Washington Post, 2006.
4 () Cf. “Network Neutrality, Broadband Discrimination”, Journal of Telecommunications and High Technology Law, 2003.
5 () Cf. Nicholas Economides et Joacim Tag, 2007, “Net Neutrality on the Internet: A Two-sided Market Analysis", Working Papers 07-27, New York University, Leonard N. Stern School of Business, Department of Economics.
6 () Cette dimension du débat est essentiellement européenne..
7 () Il faut rappeler que ce débat avait conduit à un report de plusieurs mois de l’adoption du troisième paquet télécoms et à la censure par le Conseil constitutionnel français du dispositif donnant la possibilité à la HADOPI de suspendre l’accès à internet sans intervention du juge. Cf. avis de Mme Laure de La Raudière n° 2789 de l’Assemblée nationale sur la transposition du troisième paquet télécoms (p. 12).
8 () Démocrates majoritaires vs. républicains minoritaires.
9 () Cf. avis de Mme Laure de La Raudière n° 2789 de l’Assemblée nationale sur la transposition du troisième paquet télécoms (p. 19-21).
10 () Cf. la déclaration de la Commission annexée à la directive 2009/140/CE : « La Commission attache la plus haute importance au maintien du caractère ouvert et neutre de l’internet, en tenant pleinement compte de la volonté des co-législateurs de consacrer désormais la neutralité de l’internet et d’en faire un objectif politique et un principe réglementaire que les autorités réglementaires nationales devront promouvoir, au même titre que le renforcement des exigences de transparence qui y sont associées et la création, pour les autorités réglementaires nationales, de pouvoirs de sauvegarde leur permettant d’éviter la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux publics. La Commission suivra attentivement la mise en oeuvre de ces dispositions dans les États membres et s’intéressera en particulier, dans son rapport annuel au Parlement européen et au Conseil, à la manière dont la préservation des «libertés de l’internet» des citoyens européens est assurée. Dans l’intervalle, la Commission surveillera les répercussions de l’évolution commerciale et technologique sur les «libertés de l’internet» et soumettra avant la fin de l’année 2010 au Conseil et au Parlement européen un rapport sur la nécessité éventuelle de fournir d’autres orientations. En outre, elle se prévaudra de ses compétences existantes en matière de concurrence pour agir à l’égard de toute pratique anticoncurrentielle qui pourrait apparaître. »
11 () Cf. François Cholley et al., « La neutralité dans le réseau internet », CGIET, 2010.
12 () Cf. « La neutralité de l'Internet : Un atout pour le développement de l'économie numérique », rapport du Gouvernement au Parlement, 2010.
13 () Cf. Arcep, « Neutralité de l’internet et des réseaux : Propositions et recommandations », septembre 2010.
14 () Cf. OCDE, Perspectives des communications, 2009 (p. 180).
15 () Cf. notamment Jean-Charles Rochet et Jean Tirole « Platform Competition in Two-Sided Markets » Journal of the European Economic Association, 2003.
16 () Cf. Nicolas Curien et Winston Maxwell, « Le modèle du marché biface », in La neutralité d’internet, 2011.
17 () Cf. Nicholas Economides et Joacim Tag, 2007, “Net Neutrality on the Internet: A Two-sided Market Analysis" Working Papers 07-27, New York University, Leonard N. Stern School of Business, Department of Economics; Robin Lee et Tim Wu, "Subsidizing Creativity through Network Design: Zero-Pricing and Net Neutrality”, Journal of Economic Perspectives, 2009; Jacques Crémer, « La neutralité des réseaux », Les Echos, 3 novembre 2010.
18 () Cf. l’étude de McKinsey“Impact de l’internet sur l’économie française”, 2011, selon laquelle la « filière » internet représente 3,7 % du PIB français, 72 milliards d’euros de revenus, 1,15 million d’emplois, et un quart de la croissance économique et des créations nettes d’emploi depuis quinze ans. Il faut noter que cette étude a été financée par Google.
19 () Cf. l’étude de ATKearney « Internet Value Chain Economics », 2010, selon laquelle au niveau mondial internet représente un revenu de 1930 milliards de dollars et, dans cette masse, les activités liées à la connectivité 325 milliards de dollars. Il faut noter que cette étude a été financée par les fournisseurs d’accès à internet (cf. appendix, pp. 45 et suiv.).
20 () Dans de nombreux pays (Canada, Angleterre, etc.), des clauses « d’usage raisonnable » ont été instituées conduisant au-delà d’une certaine utilisation à réduire le débit ou facturer les volumes en excédant
21 () Cf. “Cisco Visual Networking Index, Forecast and Methodology: 2009-2014”, 2010; et “Cisco Visual Networking Index, Global Mobile Traffic Forecast”, 2011.
22 () Ainsi, dans ses premières orientations l’ARCEP estime prudemment que « la forte croissance des usages en termes de consommation de données, en particulier de la vidéo […] pose la question du financement de l’accroissement nécessaire des capacités à différents niveaux » mais que « simultanément à la croissance des débits, il a été observé une baisse sensible des coûts de stockage, de routage et de transmission ». Les opérateurs de transit affirment ainsi que l’augmentation attendue des capacités de transmission est exponentielle.
23 () Le rapport d’ATKearney « A Viable Future Model for the Internet » estime à 9 milliards d’euros pour le fixe et 19 milliards pour le mobile les financements additionnels dont auront besoin les fournisseurs d’accès à internet pour faire face à l’accroissement du trafic.
24 () Dans l’hypothèse où la troisième option serait retenue, la littérature économique récente indique qu’il serait préférable que les fournisseurs d’accès à internet monétisent leur réseau auprès des fournisseurs de contenu en développant des services d’acheminement premium plutôt qu’en faisant payer tous les fournisseurs de contenu pour l’accès au réseau. Cf. Robin Lee et Tim Wu, "Subsidizing Creativity through Network Design: Zero-Pricing and Net Neutrality”, Journal of Economic Perspectives, 2009.
25 () Cf. avis n° 2789 de Mme Laure de La Raudière sur la transposition du troisième paquet télécoms, Assemblée nationale, 2010.
26 () C'est-à-dire en s’en tenant, dans le cadre des réseau IP, à la lecture des informations contenues dans l’en-tête des paquets et sans mettre en œuvre de mécanisme d’inspection approfondie (ou DPI). Cf. la présentation en première partie du rapport du fonctionnement technique du réseau internet.
27 () Dans le §107 de sa décision de 2010, la FCC rappelle ainsi qu’aucune des règles édictées pour protéger la neutralité n’a vocation à restreindre les obligations qui pèsent sur les fournisseurs d’accès à ou de les priver d’une permission qu’ils possèdent en vertu de la loi, ou à limiter les efforts qu’ils peuvent fournir pour empêcher les activités illégales, notamment l’accès à des contenus illicites.
28 () Sauf de manière indirecte, via la question n° 15 portant sur les autres problèmes liés à la neutralité, notamment concernant la liberté d’expression, le pluralisme des médias et la diversité culturelle.
29 () Cf. les premières orientations de l’ARCEP de 2010 p. 52.
30 () Le rapport traite cependant rapidement la question en constatant qu’un traitement différencié des flux est nécessaire pour respecter des obligations légales de blocage et en rappelant les bases légales existantes en matière de blocage.
31 () Cf. Mission confiée à Denis Olivennes, Le développement et la protection des oeuvres culturelles, 2007 (pp. 27 et suiv.) ; Steven J. Murdoch and Ross Anderson, « Tools and Technology of Internet Filtering », in Ronald J. Debeirt et al. Access Denied: The Practice and Policy of Global Internet Filtering, 2008; « Les enfants du net III », Forum des droits de l’internet, 2008 ; « Principe, intérêts, limites et risques du filtrage hybride à des fins de blocage de ressources pédopornographiques hébergées sur des serveurs étrangers », Christophe Espern, 2008 ; étude d’impact de la LOPPSI (pp. 7-17), 2009 ; « Etude d’impact du blocage des sites pédopornographiques », Fédération française des télécoms, 2009 ; Cormac Callanan et al. Internet blocking balancing cybercrime responses in democratic societies, 2009.
32 () Le seul cas répertorié étant celui du site révisionniste « Aaargh ».
33 () D’après l’étude de la FFT de 2009 précitée, plusieurs pays anglo-saxons et la Suède auraient mis en œuvre du blocage « hybride » tandis que l’Allemagne, l’Italie, le Danemark ont opté pour un filtrage DNS. La liste d’éléments bloqués la plus longue est celle du Canada, qui bloque environ 10 000 éléments.
34 () Cf. pp. 16-17 : « A l’occasion d’une réunion qui s’est tenue le 5 février 2009 sous l’égide du ministère de l’intérieur, à laquelle ont participé des policiers, des informaticiens et des fournisseurs d’accès à Internet norvégiens, le coût avancé pour la mise en place d’un blocage par DNS a été évalué à 4 000 euros pour 100 000 abonnés. A titre de comparaison, ce dispositif a coûté 62 millions d’euros aux autorités australiennes, alors que les FAI sont intervenus à titre gracieux en Norvège. »
35 () Selon l’estimation de la FFT, le blocage BGP coûterait de 100 000 à 3 millions d’euros selon la solution technique retenue, le blocage DNS 5 millions d’euros, le blocage hybride 15 millions d’euros et le filtrage généralisé 140 millions d’euros.
36 () Cf. rapport n° 608, commentaire des articles 2 et 3.
37 () Le rapport faisait référence à l’avis de l’ART n° 01-423.
38 () L’article 809 du code de procédure civile prévoit que le juge peut prescrire dans le cadre d’une action en référé « les mesures conservatoires… qui s’imposent… soit pour prévenir un dommage imminent, soit pour faire cesser un trouble manifestement illicite ».
39 () Cf. rapport n° 5, commentaire de l’article 5.
40 () Cf. Cour de Cassation, arrêt n° 707de 19 juin 2008.
41 () Cf. infra. Cette interprétation était pourtant déjà démentie de manière convaincante par les analyses du rapport de la mission Olivennes, p. 34.
42 () Cf. article 4.
43 () Cf. cahiers du Conseil Constitutionnel n° 20 relatif à la décision n°2005-532 DC du 19 janvier 2006.
44 () Cf. décision n° 2009-580 DC du 10 juin 2009.
45 () Cf. décision n° 2011-625 DC du 10 mars 2011.
46 () Cf. Forum des droits de l’internet, « Les enfants du net III » qui rappelle que « en l’état actuel du droit, l’article 12 de la directive 2000/31/CE du 8 juin 2000 dite « commerce électronique » limite les conditions d’engagement de la responsabilité des fournisseurs d’accès du fait des informations transmises par leur intermédiaire. L’article 12 §3 précise toutefois que ces règles n’affectent pas « la possibilité, pour une juridiction ou une autorité administrative, conformément aux systèmes juridiques des États membres, d'exiger du prestataire qu'il mette un terme à une violation ou qu'il prévienne une violation ». Le rapport de la mission Olivennes notait que « ces dispositions doivent être lues au regard de leur objectif : elles concernent les modalités d’engagement de la responsabilité des prestataires de service, et s’adressent donc au juge de la responsabilité qui estimera l’existence ou non de dommages pouvant être réparés. Les principes de la loi de 2004, reprenant ceux de la directive, visent à éviter que le juge national déduise une faute du prestataire du fait de la simple présence sur ses réseaux d’une information illicite et que lui soit alors reproché un manquement à une obligation générale de surveiller toutes les informations quelconques qu’il transmet. Les articles 14 et 15 soulignent qu’un prestataire de service ne peut être condamné à des dommages et intérêts en raison de violation d’un droit de propriété intellectuelle que pour des faits identifiés. Il s’agit donc de responsabilité civile ou pénale, appréciée de manière étroite. Ces dispositions semblent sans incidence sur une action en cessation ou en filtrage. Un filtre n’aboutit d’ailleurs pas à une surveillance des réseaux : il ne s’agit que d’un instrument technique, qui ne nécessite pas l’intervention du fournisseur d’accès. (v. d’ailleurs la position très argumentée du juge dans la décision, frappée d’appel, du tribunal de première instance de Bruxelles dans la décision SABAM c/ SA Scarlet rendue le 29 juin 2007, n° 04/8975/A). Sur ce point, les considérants 45 et 47 de la directive sont d’ailleurs très clairs. D’une part, il est énoncé que les dispositions de la directive sur la responsabilité ne doivent pas faire obstacle au développement et à la mise en oeuvre effective de systèmes techniques de protection et d'identification ainsi que d'instruments techniques de surveillance rendus possibles par les techniques numériques. D’autre part, il est souligné que les limitations de responsabilité des prestataires de services intermédiaires sont sans préjudice de la possibilité d'actions en cessation de différents types, qui peuvent notamment revêtir la forme de décisions de tribunaux ou d'autorités administratives exigeant qu'il soit mis un terme à toute violation ou que l'on prévienne toute violation, y compris en retirant les informations illicites ou en rendant l'accès à ces dernières impossible. » (p. 37).
47 () Cf. par ex. les réponses de La Quadrature du Net (p. 8) ou de l’UFC-Que Choisir (pp. 4-6 ; 9) à la consultation de la Commission européenne sur la neutralité de l’internet..
48 () Cf. par ex. les positions rapportées dans les rapports législatifs cités précédemment.
49 () Cf. l’interview de M Pascal Rogard, directeur général de la SACD, en introduction au colloque de l’ARCEP d’avril 2010 sur la net neutralité, dans laquelle celui-ci déclarait que « la neutralité du net, ça ne doit pas être l’impunité » (40-48 sec.) repris sous la forme du slogan : « la net neutralité ne doit pas être la net impunité ».
50 () Ces accords prévoyaient que les fournisseurs d’accès à internet s’engagent « dans un délai qui ne pourra excéder 24 mois à compter de la signature du présent accord, à collaborer avec les ayants droit sur les modalités d’expérimentation des technologies de filtrage des réseaux disponibles mais qui méritent des approfondissements préalables, et à les déployer si les résultats s’avèrent probants et la généralisation techniquement et financièrement réaliste » (p. 2).
51 () Cf. notamment l’étude d’impact du Gouvernement (pp. 7-17), la saisine, les observations du Gouvernement, les commentaires aux cahiers du Conseil constitutionnel relatifs à la décision n° 2011-625 DC du 10 mars 2011 (p. 3-5), ainsi que le mémoire en Amicus Curiae de La Quadrature du net « Le filtrage administratif du Net est contraire à la Constitution française ».
52 () Cf. les premières orientations de l’ARCEP (p. 10). Il ne s’agit pas de modifier le contenu du trafic, mais de modifier de l’acheminer en fonction de certaines de ces caractéristiques.
53 () Idem.
54 () Idem.
55 () Cf. la défense d’une architecture de réseau « end-to-end », due à J. H. Saltzer et al. « End-to-end arguments in system design”, 1984, reprise notamment par Lawrence Lessig et Robert McChesney, « No tolls on the internet », Washington Post, 2006, mais critiqué, par exemple dans l’« Engineering Background » transmis par AT&T en réponse à la consultation de la Commission européenne sur la net neutralité (p. 13).
56 () Sept des huit recommandations de l’ARCEP dans ses premières orientations, les quatre principes de la FCC de décembre 2010, neuf des quinze questions de la consultation de la Commission européenne y sont notamment consacrées.
57 () Certains blocages réalisés à l’initiative des opérateurs sont susceptibles d’avoir des effets comparables à ceux du blocage légal, comme le développement de techniques de masquage rapprochant les pratiques du grand public de celles des organisations criminelles. L’interconnexion peut, quant à elle, avoir un impact important sur la qualité de l’internet et constituer un vecteur de discrimination.
58 () Cf. notamment OCDE, 2007, « Report on internet traffic prioritization » (pp. 7 et suiv.) ; ERG (08) 26b part 3 « Technical background information », 2008 (pp. 53 et suiv.) ; AT&T, “Engineering Background” transmis en réponse à la consultation de la Commission européenne sur la neutralité de l’internet, 2010.
59 () Cf. Rec. Y 1540, citée dans la réponse du BEREC à la consultation de la Commission européenne sur la neutralité de l’internet (p. 19) et les premières orientations de l’ARCEP (p. 28).
60 () Par exemple, la télévision sur ADSL est diffusée en multicast, ce qui signifie que si plusieurs abonnés souhaitent accéder au même programme, celui-ci ne sera envoyé qu’une fois tant que le même chemin permet d’aller vers les différents abonnés puis « répliqué » lorsque les chemins se séparent. Si la télévision n’était pas gérée, le programme serait envoyé séparément pour chaque internaute sur la totalité du réseau, ce qui consommerait beaucoup plus de bande passante. Autre exemple, la vidéo mobile diffusée par les plateformes des opérateurs est codée dans un format adapté aux capacités d’affichage des terminaux mobiles, tandis que si les internautes accèdent à la même vidéo via internet, il y a de fortes chances pour que le format soit adapté à un terminal fixe, inutilement consommateur de bande passante.
61 () Il faut en effet distinguer les « canaux » des services gérés de l’internet best effort.
62 () D’après les données évoquées par AT&T dans son « Engineering background » transmis en réponse à la consultation de la Commission européenne sur la net neutralité, la priorisation de 10 % du trafic permettrait de doubler virtuellement la bande passante disponible (note 54 p. 19). Des personnes auditionnées par la mission ont évoqué des gains d’un ordre de grandeur inférieur. Dans tous les cas, ces gains sont sans rapport avec l’accroissement récurrent du trafic et avec l’accroissement des capacités des fibres et des routeurs très haut débit
63 () Ce point est difficile à évaluer car on ne dispose d’informations précises ni sur les méthodes de gestion de trafic mise en œuvre par les opérateurs, ni sur le niveau de congestion dans les réseaux, ni sur les volumes acheminés en fonction de leur type.
64 () L’existence de contrats commerciaux de priorisation de l’acheminement de contenus aux Etats-Unis a été évoquée lors des auditions de la mission. Une des difficultés tient au caractère mouvant de la notion de services gérés.
65 () L’interprétation de ces règles se fonde sur les analyses de Winston Maxwell et Nicolas Curien dans La neutralité d’internet, 2011 (pp. 101-104 ; application du droit de la concurrence), du BEREC dans sa réponse à la consultation de la Commission européenne sur la neutralité d’internet (pp. 6-7 ; application du droit de la régulation sectorielle) ainsi que sur des échanges avec l’ARCEP (application des dispositions nouvelles issues du paquet télécoms).
66 () Cf. articles. 8 et suiv. de la directive « accès » transposée aux articles L. 37-1 et suiv. du code des postes et des communications électroniques.
67 () Ces trois critères sont : a) la présence de barrières élevées et non provisoires à l’entrée, qu’elles soient de nature structurelle, légale ou réglementaire ; b) une structure de marché qui ne présage pas d’évolution vers une situation de concurrence effective au cours de la période visée. Il faut pour cela examiner quelle est la situation de la concurrence au-delà des barrières à l’entrée ; c) l’incapacité du droit de la concurrence à remédier à lui seul à la ou aux défaillances concernées du marché.
68 () Cf. la décision de la Commission européenne du 3 mars sur les affaires 2010 PL/2009/1019 et PL/2009/1020.
69 () Cf. les articles L. 34-8 et suivants du code des postes et des communications électroniques (pouvoirs de régulation de l’accès et de l’interconnexion), l’article 5 de la directive « accès » modifiée (pouvoir d’imposer des obligations permettant d’assurer l’interopérabilité)
70 () Cf. réponse à la consultation de la Commission européenne sur la neutralité de l’internet (p. 7).
71 () L’avant projet d’ordonnance prévoit, dans la dernière version qui a été transmise à l’Assemblée nationale, d’introduire un nouvel alinéa à l’article L. 36-8 du code des postes et des communications électroniques, qui disposera que : « en cas d'échec des négociations, l'Autorité de régulation des communications électroniques et des postes peut […] être saisie des différends portant sur […]les conditions techniques et tarifaires d’acheminement du trafic entre un opérateur et une entreprise fournissant des services de communication au public en ligne. »
72 () Comme le notent Winston Maxwell et Nicolas Curien, « puisque le droit de la concurrence, polyvalent par essence, s’applique à l’ensemble de l’économie et donc en particulier à tous les acteurs de la chaîne de valeur d’Internet, et puisqu’il a pour objectif de sanctionner les comportements anticoncurrentiels, il semblerait a priori que ce droit soit la panacée pour traiter cette question. La réalité est beaucoup plus nuancée » (cf. La neutralité d’internet, 2011, p. 101).
73 () Cf. les articles 101 (prohibition des ententes) et 102 (prohibition des abus de position dominante) du Traité sur le fonctionnement de l’Union européenne.
74 () Cf. Winston Maxwell et Nicolas Curien, La neutralité d’internet, 2011, p. 104.
75 () Cf. la décision de la Commission européenne du 3 mars sur les affaires 2010 PL/2009/1019 et 2010 PL/2009/1020.
76 () Cf. par exemple la position de la Quadrature du net ou de French Data Network.
77 () Cf. les positions de la plupart des fournisseurs d’accès à internet.
78 () Plusieurs acteurs ont fait remarquer qu’il n’existe pas de normalisation des « classes de services » sur internet et qu’une garantie de priorité de bout en bout nécessiterait une refonte complète des accords actuels d’interconnexion, portant seulement sur le best effort. Par ailleurs, l’existence d’une frontière poreuse d’un point de vue technique entre internet et « services gérés » ainsi qu’une définition assez variable du service géré pouvant aller jusqu’à tout flux autre que le pur best effort, donnent la possibilité de considérer comme « service géré » des contrats d’acheminement avec qualité de service qui pourraient très bien passer par internet et servent de vitrine commerciale à des accords de distribution entre fournisseurs de contenus et fournisseurs d’accès à internet. Dans ce contexte, il n’est pas évident de circonscrire ce que pourrait être un internet « à plusieurs vitesses » : l’internet actuel « best effort » est déjà la classe de service inférieure des réseaux tout-IP.
79 () Ces principes découlent directement des recommandations n°1 et n°2.
80 () Les exceptions dérivent du cadre posé à la recommandation n°3.
81 () Cette règle est fixée à travers les recommandations n°1 et n°4.
82 () Il existe cependant un vif débat sur sa capacité juridique à édicter ses recommandations : cf. notamment Commissaire Robert. M. McDowell, « Extended Legal Analysis: The Commission Lacks Authority to Impose Network Management Mandates on Broadband Networks », in Dissenting statement, 2010.
83 () Cet élément dérive du fait que la seule sanction prévue dans les premières orientations de l’ARCEP de septembre 2010 est l’interdiction d’utiliser le terme d’accès à internet pour commercialiser des services ne respectant pas le principe de neutralité.
84 () Cf. le document de l’ARCEP : « Analyse des marchés de la téléphonie fixe, troisième cycle : 2011-2014, Consultation publique 23 février-23 mars », février 2011dans lequel l’ARCEP rappelle : (i) qu’alors même que de nombreux opérateurs fournissent la totalité de leurs services de voix sur IP (VoIP, différente de la « voix sur internet » fournie directement sur internet comme application, sans garantie de qualité de service), il n’existe pas aujourd’hui d’interface standardisée pour la VoIP, en raison de « la diversité des technologies de transmission de la voix sur IP, que ce soient les codecs utilisés pour compresser la voix ou les protocoles de signalisation pour contrôler les flux voix en mode IP (absence de normalisation) » ; (ii) de ce fait, les interfaces TDM (time division multiplexing) qui étaient utilisées pour les réseaux téléphoniques commutés classiques sont toujours employées et, lorsqu’elle est acheminée sur IP, la voix doit être convertie avant l’interconnexion, ce qui est inefficace.
85 () Il faut toutefois noter que la plupart des tiers one ainsi que certains fournisseurs d’accès à internet publient leur politique d’interconnexion.
86 () Cette asymétrie peut défavoriser ou non les petits acteurs, certains ayant profité de l’intérêt qu’avaient les opérateurs à agréger du trafic pour pouvoir peerer gratuitement avec des opérateurs plus importants et qui proposaient à cette fin des conditions de peering gratuit intéressantes.
87 () Cf. Olivier Bomsel, L’économie immatérielle, Gallimard, 2010, Paris.
88 () Megaupload et Cogent accusaient Orange de dégrader l’accès à la plate-forme d’échange de vidéos offerte par Megaupload, Orange rétorquant que c’est la mauvaise qualité du service de transit fournie par Cogent qui était en cause. Cf. Guerric Poncet, « Orange et Megaupload s'affrontent sur Internet », 14 janvier 2011, LePoint.fr.
89 () Netflix, un site de vidéo à la demande très développé aux Etats-Unis, et son fournisseur de transit, Level 3, accusaient le fournisseur d’accès à internet Comcast de dégrader le qualité de l’interconnexion pour favoriser sa propre plate-forme de distribution de vidéo à la demande. Cf. Guillaume de Calignon, « USA : vive concurrence entre Netflix et Comcast », 9 décembre 2010, La Correspondance de la Presse.
90 () Cf. http://www.itespresso.fr/reseaux-akamai-est-il-en-froid-avec-les-fai-francais-41169.html.
91 () Cf. art. 1er : l’accès est « la mise à la disposition d’une autre entreprise, dans des conditions bien définies et de manière exclusive ou non exclusive, de ressources et/ou de services en vue de la fourniture de services de communications électroniques, y compris lorsqu’ils servent à la fourniture de services de la société de l’information ou de contenu radiodiffusé » ; l’interconnexion « la liaison physique et logique des réseaux de communications publics utilisés par la même entreprise ou une entreprise différente, afin de permettre aux utilisateurs d'une entreprise de communiquer avec les utilisateurs de la même entreprise ou d'une autre, ou bien d'accéder aux services fournis par une autre entreprise ». L’interconnexion est donc une modalité particulière de l’accès.
92 () Cf. art. 3.
93 () Cf. art. 4.
94 () Cf. art. 5 : il s’agit notamment d’obligations permettant d’assurer la connectivité de bout en bout et permettant de rendre les services interopérables pour les opérateurs qui contrôlent l’accès aux utilisateurs finals.
95 () Cf. art. 8 : il s’agit notamment d’obligations de transparence concernant l’interconnexion et/ou l’accès (art. 9); d’obligations de non-discrimination de sorte que les opérateurs appliquent des conditions équivalentes dans des circonstances équivalentes aux entreprises fournissant des services équivalents (art. 10) ; d’obligations de séparation comptable en ce qui concerne certaines activités dans le domaine de l'interconnexion et/ou de l'accès (art. 11) ; d’obligations relatives à l'accès à des ressources de réseau spécifiques et à leur utilisation (art. 12) ; et, lorsque ces mesures n’ont pas permis d’instaurer une concurrence effective, de la séparation fonctionnelle (art. 13 bis).
96 () Art. L. 32 : « 8° Accès. On entend par accès toute mise à disposition de moyens, matériels ou logiciels, ou de services, en vue de permettre au bénéficiaire de fournir des services de communications électroniques.» « 9° Interconnexion .On entend par interconnexion la liaison physique et logique des réseaux ouverts au public exploités par le même opérateur ou un opérateur différent, afin de permettre aux utilisateurs d'un opérateur de communiquer avec les utilisateurs du même opérateur ou d'un autre, ou bien d'accéder aux services fournis par un autre opérateur.»
97 () Art. L. 34-8 : « I. L'interconnexion ou l'accès font l'objet d'une convention de droit privé entre les parties concernées. »
98 () Art. L. 34-8 : « II. Les exploitants de réseaux ouverts au public font droit aux demandes d'interconnexion des autres exploitants de réseaux ouverts au public, y compris ceux qui sont établis dans un autre Etat membre de la Communauté européenne ou dans un autre Etat partie à l'accord sur l'Espace économique européen, présentées en vue de fournir au public des services de communications électroniques »
99 () Art. L. 34-8.
100 () Il faut noter que dans le cadre de son pouvoir de règlement des différends, l’ARCEP détermine « les conditions équitables, d’ordre technique et financier, dans lesquelles l’interconnexion et l’accès doivent être assurés » (art. L. 36-8).
101 () Art. L. 38 : ces obligations peuvent être de « rendre publiques des informations concernant l'interconnexion ou l'accès […] ; fournir des prestations d'interconnexion ou d'accès dans des conditions non discriminatoires […] ; faire droit aux demandes raisonnables d'accès à des éléments de réseau ou à des moyens qui y sont associés […] ; ne pas pratiquer de tarifs excessifs ou d'éviction […] ; isoler sur le plan comptable certaines activités […] ».
102 () Cf. les décisions n° 2009-1106 et n° 2010-1312 prises en application de l’article L. 34-8-3 du code des postes et des communications électroniques.
103 () Cf. les réponses d’Orange, de Dailymotion, et du Gouvernement français à la consultation de la Commission européenne sur la neutralité de l’internet.
104 () Cf. la réponse du Berec.
105 () Cf. la réponse de La Quadrature du Net, qui ne mentionne pas le sujet, ou encore la décision de la FCC de 2010 qui n’aborde pas ce point.
106 () Cf. Nicholas Economides et Joacim Tag, 2007, “Net Neutrality on the Internet: A Two-sided Market Analysis" Working Papers 07-27, New York University, Leonard N. Stern School of Business, Department of Economics; Robin Lee et Tim Wu, "Subsidizing Creativity through Network Design: Zero-Pricing and Net Neutrality”, Journal of Economic Perspectives, 2009; Jacques Crémer, « La neutralité des réseaux », Les Echos, 3 novembre 2010.
107 () Faisant référence à l’article de Robin Lee et Tim Wu mentionné ci-dessus, Nicolas Curien et Winston Maxwell notent dans La neutralité d’internet, La découverte, 2011 (p. 40), que « la théorie économique sait [...] apporter une réponse [au problème de la priorisation de certains contenus] qui préserve la neutralité, ou presque : les FAI continueraient d’appliquer la règle générale de libre accès gratuit de tous les fournisseurs de contenus à tous les internautes, avec une qualité de services minimale garantie, tout en proposant parallèlement des offres d’accès premium. »