Vous êtes sur la page 1sur 119

Mémoire pour lʼobtention du diplôme

Sciences Po Aix

NEUTRALITÉ DU NET, FILTRAGE


ET RÉGULATION DU RÉSEAU :
LIBERTÉS AMÉRICAINES, LIBERTÉ FRANÇAISE

Samuel Goëta
@samgoeta
samgoeta@gmail.com

Creative Commons
Paternité - Pas d'Utilisation Commerciale
UNIVERSITE PAUL CEZANNE - AIX-MARSEILLE III

INSTITUT DʼETUDES POLITIQUES

MEMOIRE

pour lʼobtention du Diplôme

NEUTRALITÉ DU NET, FILTRAGE


ET RÉGULATION DU RÉSEAU :
LIBERTÉS AMÉRICAINES, LIBERTÉ FRANÇAISE

Par M. Samuel GOËTA

Mémoire réalisé sous la direction de


Athissingh RAMRAJSINGH

Page 2
L’IEP n’entend donner aucune approbation ou improbation aux
opinions émises dans ce mémoire. Ces opinions doivent être considérées
comme propres à leur auteur
Mots-clés : Internet / réseau / neutralité / filtrage / net neutrality / libertés /
cryptage / sécurité / innovation

Résumé : Présent dans le débat public depuis 2003, le principe de neutralité


des réseaux stipule que tout contenu, tout service et toute application circulent sans
restriction ni discrimination quels que soient leur source, leur destination et leur objet.
La neutralité du net sʼappuie sur un argumentaire qui souligne les problèmes
techniques, économiques et juridiques posés par les techniques de blocage et
dʼinspection des paquets échangés sur Internet. Aux États-Unis, le débat se polarise
sur les risques pour lʼinnovation et la liberté du consommateur en cas dʼingérence des
opérateurs et des fournisseurs dʼaccès sur le réseau, tandis quʼen Europe et en France,
la neutralité du net est aussi conçue comme une garantie contre le filtrage dʼInternet par
les États.
REMERCIEMENTS

Je tiens à remercier sincèrement, Athissingh Ramrajsingh, mon directeur de


mémoire, qui a exprimé un vif intérêt pour mon sujet tout au long de la réalisation de ce
mémoire, ainsi que pour l'inspiration, l'aide et les longues discussions qu'il a bien voulu
me consacrer.

Mes remerciements sʼadressent également au Professeur Guy Drouot pour son


écoute et son attention. Dʼautre part, je tiens à saluer les nombreuses personnes qui
mʼont encouragé à me lancer dans le traitement de ce sujet passionnant.

Le professeur Bob Frost, qui, à lʼUniversité du Michigan, a attiré mon attention


sur les enjeux de la neutralité du net et de la société de lʼinformation en général, je
garde un grand souvenir de ses enseignements. Xavier Moisant qui mʼa convaincu de
traiter du sujet de la neutralité et du filtrage dʼInternet.

Aux personnes qui ont accepté de sʼentretenir avec moi sur le sujet de la
neutralité du net à Paris le 15 janvier. Howard Rheingold, pour cette discussion
sympathique dans les rues de Saint-Germain. Jérémie Zimmermann pour la qualité et la
richesse des informations et des analyses dont il mʼa fait part. Fabrice Epelboin pour le
long échange que nous avons eu et qui mʼa permis de mieux saisir lʼensemble des
enjeux de mon sujet. Je leur suis reconnaissant de mʼavoir consacré une partie de leur
temps.

A mes amis qui mʼont encouragé tout au long de ce mémoire. En particulier à


Katrina et Geoffroy, mes colocataires.

A Camille pour son soutien, sa patience, sa relecture attentive, et ses


encouragements.
A mon père, ma mère, mon frère et ma sœur, qui mʼont toujours soutenu et
encouragé dans mes études.
SOMMAIRE

!"#$%&'(#!%")*+"+$,-.)

(/,0!#$.)-!1!",!$.)2)&+3!"!#!%"4).#),(#',-!#+)&.)-,)".'#$,-!#+)&')".#)

0$.1!5$.)0,$#!.6)&.)-,)".'#$,-!#+)&')".#)(%11.)0$!"(!0.)3%"&,#.'$)&.)
-7)8)+(%494#51.):)&')$+4.,')

!"#$%&'()*+),-&('-(&).)/-)'01(#/)2/3('&)4#-1)12-)#'5"%&(5&/'()
!"! #$%&'()*+,+&-%&.+'%/01!
!!"! 2/&).+/,*($&%,&3/&).(*''/$)%&-4!$,%.$%,!

!"#$%&'()6+)!#1)(&)$'27(&1)48#&&(%-&()#/)$'%-5%$()4()-(/&'#9%&0)(-):'#-5()(&)#/;)<&#&1=>-%1)
!"! 5/.&3%'&6(0.$*''%0.'&-4/))7'!
!!"! 5/.&3%'&8,/,'!

!"#$%&'()?+))@8%A$('B(5&%2-)4(1)1C1&DA(1)4()B%9&'#E()
!"! 5.*$)*9%'&-%&6($),*($$%:%$,&-%'&-*66+.%$,%'&,%);$*<0%'&-%&6*3,./=%&-0&.+'%/0&%,&3%'&>&%66%,'&
-%&?(.-&@&*$-0*,'!
!!"! A%'&,%);$*<0%'&)($,(0.$/?3%'&%,&.*'<0+%'!

&.';!51.)0,$#!.6)-,)".'#$,-!#+)&')".#)&,"4)-7.40,(.)0'<-!().")3$,"(.).#),';)
.#,#4='"!4)

!"#$%&'()F+)G'E/A(-&1)(-)B#3(/')4()(&)(-)2$$21%&%2-)H)9#)-(/&'#9%&0)4/)-(&)
!"&2/&-+6%$'%&-%&3/&9.+.(=/,*B%&-%&34C,/,&%,&-%'&*$,+.D,'&)(::%.)*/01&-%'&(9+./,%0.'!
!!"&#$&.+'%/0&>&$%0,.%&@&%,&(0B%.,&)(::%&=/./$,*%&-40$&3*?.%&:/.);+&-%'&*-+%'&%,&-%'&/993*)/,*($'!

!"#$%&'()I+)!#4'()7/'%4%J/()(&)#$$'25"()52A$#'#&%3()4/)40K#&))(&)4(1)#5&(/'1)4()9#)-(/&'#9%&0)
4/)-(&)
!"! C3%:%$,'&-0&)/-.%&E0.*-*<0%&-%&3/&$%0,./3*,+&-0&$%,!
!!"! 2%&-+?/,&'0.&3/&$%0,./3*,+&-0&$%,&%,&3%&6*3,./=%&-4!$,%.$%,!

(%"(-'4!%"))

),"".;.4))

<!<-!%*$,0/!.)
Table des illustrations
&
&

F!G#HC&I"&JHKL!MCKM#HC&CN&OJP2!CH&A4!NMCHNCM& QI&

F!G#HC&Q"&HC5H8OCNMJM!RN&GHJ5L!S#C&A4!NMCHNCM&& QT&

F!G#HC&U"&P2RKJGC&ACO&MHJNOFCHMO&V!J&P!MMRHHCNM&O#H&2C&H8OCJ#&KRWKJOM&5JH&LC#HC&CM&XR#H&

AC&2J&OCWJ!NC& YI&

F!G#HC&Z"&5H!NK!5C&AC&FRNKM!RNNCWCNM&A#&F!2MHJGC&5JH&JAHCOOC&!5& Y[&

F!G#HC&Y"&5H!NK!5C&AC&FRNKM!RNNCWCNM&A#&F!2MHJGC&5JH&HCA!HCKM!RN&ANO& TT&

F!G#HC&T"&5H!NK!5C&AC&FRNKM!RNNCWCNM&A#&P2RKJGC&5JH&HCHR#MJGC&PG5& T[&

F!G#HC&\"&5H!NK!5C&AC&FRNKM!RNNCWCNM&A#&F!2MHJGC&L]PH!AC& \I&

F!G#HC&^&_&2CO&S#JMHC&KRNMHJ!NMCO&AC&2J&H8G#2JM!RN&OC2RN&2J`HCNKC&2COO!G& [Q&

F!G#HC&[&_&CaCW52CO&AbRFFHC&MJH!FJ!HCO&CNV!OJGCJP2CO&JVCK&2J&G8N8HJ2!OJM!RN&A#&A5!& [Z&

F!G#HC&Ic"&RFFHC&F!KM!VC&AbJKKdO&e&!NMCHNCM&OJNO&GJHJNM!C&AC&NC#MHJ2!M8& IcY&
Introduction générale : définition de la neutralité du net

Le 15 décembre 2008, le porte parole de lʼUMP, Frédéric Lefebvre annonçait


dans lʼHémicycle de lʼAssemblée Nationale lors du vote de la loi sur lʼaudiovisuel
public :
« L'absence de régulation du Net provoque chaque jour des victimes !
Combien faudra-t-il de jeunes filles violées pour que les autorités réagissent
? Combien faudra-t-il de morts suite à l'absorption de faux médicaments ?
Combien faudra-t-il d'adolescents manipulés ? Combien faudra-t-il de
bombes artisanales explosant aux quatre coins du monde ? […]
Il nous faut réguler Internet partout dans le monde, afin que toutes les
entreprises respectent le droit de propriété, que les trafiquants et les voyous
en tout genre soient poursuivis, que cet espace continue à se développer
dans le respect de la personne humaine et des principes démocratiques.
Notre pays doit montrer la voie.»
Comment expliquer une telle crainte vis-à-vis à dʼInternet de la part de cet
homme politique ? Existe il quelque chose dans le réseau qui semble à ce point
remettre en cause lʼordre social pour les gouvernants?
En janvier 1995, un reportage diffusé dans le journal de 13 heures de France 2
évoquait les « dangers dʼInternet » à la suite des attentats du RER Saint Michel. Le
présentateur Daniel Bilalien, avec lʼillustration dʼun ordinateur sur le côté de droit de
lʼécran sous-titré en gros caractères « Internet, le danger », déclarait à lʼannonce dʼun
reportage sur la possibilité de trouver un « manuel du parfait terroriste » sur Internet:
« A la suite de l'enquête sur ces attentats, on a découvert que sur le fameux réseau de
communications internationales, Internet, n'importe qui pouvait trouver la recette
destinée à confectionner des bombes et à se livrer à des actes de terrorisme. C'est
aussi simple et terrifiant que cela. » Le reportage dans un cybercafé montre le patron en
train dʼaccéder à un manuel dans lequel la voix off nous explique quʼon peut y
apprendre la recette de la fabrication dʼune bombe, à préparer un attentat, à liquider un
ennemi et même à renverser un régime. Le reportage se termine par le commentateur
qui déclare « aux États-Unis, des voix se font entendre : des magistrats, des utilisateurs
demandent que pour arrêter les dérives que le réseau Internet soit nettoyé ». 1
On peut alors sʼinterroger sur cette crainte que suscite Internet. Des
personnalités politiques et civiles déclarent le réseau comme une zone de non-droit,
dans lequel lʼautorité de lʼÉtat ne sʼapplique plus et où personne ne peut contrôler ce qui
sʼy échange. Dʼautre part, des utilisateurs du réseau célèbrent les possibilités quʼoffre le
réseau en terme de liberté dʼexpression, dʼaccès au savoir et dʼinnovation. Ce nouvel
espace aux possibilités sans bornes a permis à certains dʼaffirmer quʼInternet est
lʼavancée technique qui a permis lʼexercice réel de la liberté dʼexpression. Ainsi, on voit
ici les deux dimensions du discours autour de la technique. Bien quʼelles puissent
paraître oppressantes au niveau collectif, elles sont un instrument de libération au plan
individuel. La difficulté dans lʼexercice de la régulation dʼInternet est de concilier ces
deux dimensions.
Face au malaise que suscite pour la société lʼidée dʼun réseau libre et ouvert, les
discours sur le filtrage dʼInternet se sont multipliés. Or, le filtrage et la discrimination des
contenus sur le réseau portent atteinte aux principes architecturaux dʼInternet qui visent
à la libre circulation des données. Le filtrage, en tant que système automatisé de
discrimination des données échangées comporte une grande part dʼarbitraire qui
restreint la liberté dʼexpression des citoyens. Dʼautre part, lorsque les opérateurs du
réseau décident quels contenus auront la priorité sur le réseau, Internet nʼagit plus que
comme un simple « tuyau » pour ces données. Face à toutes atteintes possibles à
lʼarchitecture dʼInternet, le principe de neutralité du net intègre à la régulation du réseau
des règles visant à préserver lʼarchitecture ouverte du réseau.
La « neutralité du net » est un concept qui a émergé dans le débat public en
2003 sous la plume du professeur Tim Wu dans son article Network Neutrality,
Broadband Discrimination.2 Il reconnaît lui-même que ce concept est clairement
dʼinspiration libérale. En effet, pour Tim Wu, la neutralité du net est un principe de
conception des réseaux, exprimant un « système de pensée en rapport à lʼinnovation »
(a system of belief about innovation) qui a gagné en popularité depuis une vingtaine
dʼannées. Lʼauteur inscrit cette notion dans une conception libérale de lʼinnovation
technique et y voit même une proximité avec la pensée de lʼéconomiste autrichien

1
France 2, Recette bombe, INA Adresse : http://www.ina.fr/economie-et-societe/justice-et-faits-
divers/video/CAB95042655/recette-bombe-internet.fr.html.
2
Wu Tim, « Network Neutrality, Broadband Discrimination », SSRN eLibrary. Adresse :
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=388863 [Accédé : 9 Mars 2010].

Page 11
Joseph Schumpeter, théoricien de la destruction créatrice comme processus
fondamental de lʼinnovation capitaliste. Dʼaprès Tim Wu, ce système de pensée
envisage lʼinnovation comme la lutte pour la survie des techniques les plus adaptées au
dans la compétition entre tous les créateurs de technologie. Ils envisagent un réseau de
communication tel quʼInternet comme la plateforme laissant libre cours à la concurrence
entre les développeurs de technologies. Ainsi, dans lʼoptique de la neutralité du net, la
fonction du réseau est de transmettre les données de manière aussi efficace et flexible
que possible afin de stimuler la concurrence entre les applications du réseau. Tim Wu
spécifie ainsi que la neutralité du net ne doit pas sʼappliquer à lʼensemble des réseaux.
Des réseaux intégrant une fonction de discrimination des contenus peuvent avoir une
très grande utilité dans un usage spécifique.
Selon Tim Wu, Internet est le réseau qui se rapproche le plus de cet objectif de
neutralité. Un réseau neutre doit avoir deux fonctions, une fonction économique et une
fonction sociale. Économiquement, il doit servir de plateforme à lʼinnovation.
Socialement, il a pour but de faciliter des interactions aussi importantes que variées
entre les personnes. Il affirme quʼInternet aspire à la neutralité dès sa conception
décentralisée. Wu estime que cette théorie de lʼinnovation trouve son « incarnation »
aux yeux de ses adeptes dans le principe de bout-à-bout (end-to-end) dans
lʼarchitecture dʼInternet qui stipule que lʼintelligence (les capacités de calcul et de
stockage en lʼoccurrence) doit être située aux extrémités du réseau Le réseau nʼa alors
quʼune utilité unique : acheminer les données de la manière la plus efficiente. Pour Tim
Wu, la neutralité est un but pour les réseaux de communication, lesquels doivent avoir
recours à une législation interdisant la discrimination des données échangées sur le
réseau.
Quelles sont alors les situations dans lesquelles le réseau agit de manière
neutre ? La définition la plus communément admise de la neutralité du net stipule que
tout contenu, tout service et toute application circulent sur le même réseau, à la même
vitesse, sans restriction ni discrimination de la part des tuyaux (opérateurs et
fournisseurs dʼaccès Internet), quels que soient leur source, leur destination et leur
objet. Pour illustrer le concept de neutralité du net, Tim Wu3 reprend la métaphore des
réseaux électriques fréquemment employée. Le réseau électrique est implicitement
géré par un principe de neutralité —aurait-il pu en être différemment ?— car quelque

3
Wu, Tim, « Network Neutrality FAQ », timwu.org. Adresse : http://www.timwu.org/network_neutrality.html.

Page 12
soit le type dʼappareil ou lʼusage de lʼénergie, lʼélectricité est délivrée à lʼappareil qui sʼy
connecte ce qui a permis à ce réseau de perdurer. Pour les défenseurs de la neutralité
du net, Internet doit procéder de la même logique. La neutralité doit garantir que les
opérateurs et le législateur nʼatteignent pas à lʼarchitecture dʼInternet afin que le réseau
perdure en tant que plateforme dʼinnovation technique et sociale. Dans cette optique,
Jean Michel Planche, blogueur et créateur de lʼopérateur Oléane, estime que la
neutralité du net signifie quʼun opérateur « devrait être électriquement neutre. Son
métier devrait être de tout faire pour qu'un paquet qui entre dans son réseau en ressorte
le plus vite possible. Quelque soit le paquet, quelque soit sa provenance et sa
destination. »4
Les divergences parmi les universitaires, les opérateurs ou les militants de ce
principe autour de la définition de la neutralité du net ne manquent pas. Pour Benjamin
Bayart, un des plus fervents défenseurs de la neutralité dans le débat public en France,
la neutralité est inhérente au réseau : « La neutralité du réseau n'est pas un concept.
C'est quasiment la définition d'Internet. »5 Néanmoins, lʼidée dʼune « quasi-neutralité du
net » ou dʼune « neutralité tempérée » émerge et suscite de nombreuses protestations
depuis que cette terminologie est apparue dans le programme du colloque de Autorité
de Régulation des Communications Electroniques et des Postes (ARCEP) sur la
neutralité du net le 13 avril 2010. Pierre Col, blogueur sur le site ZDNet.fr, a dénoncé
une notion quʼil estime aberrante : « Dans le sens commun, mais aussi dans ses
différentes acceptions scientifiques, la neutralité est un concept binaire, manichéen : on
est neutre ou on ne l'est pas. On ne peut pas être « un peu neutre », « presque neutre »
ou « globalement neutre mais pas tout à fait ». »6
Nous verrons au cours de ce mémoire que des contenus et usages du réseau
soulèvent la désapprobation dʼune partie de la société ou sont marqués par lʼillégalité.
Comme lʼa écrit Beaumarchais dans Le Mariage de Figaro, « lʼusage est souvent un
abus ». En effet, certaines pratiques dʼInternet, comme lʼéchange de fichiers protégés
par le droit dʼauteur, sont entrées dans les mœurs, et certains sʼinterrogent sur la
pertinence du copyright à lʼheure des biens culturels immatériels. Ce mémoire

4
Planche Jean-Michel, 2009, « Neutralité du net : j'y reviens car manifestement ce n'est pas compris »,
Adresse : http://www.jmp.net/index.php/internet/evolution/286-neutralite-du-net-jy-reviens-car-manifestement-ce-nest-
pas-compris.
5
Bayart Benjamin, 2009, « Aidons les députés UMP sur la question de la neutralité du réseau... », French
Data Network (blog). Adresse : http://blog.fdn.fr/post/2010/02/24/Aidons-les-deputes-UMP-sur-la-question-de-la-
neutralite-du-reseau...
6
Col Pierre, « Incroyable : l'ARCEP invente la « quasineutralité » des réseaux ! », ZDnet.fr. Adresse :
http://www.zdnet.fr/blogs/infra-net/incroyable-l-arcep-invente-la-quasineutralite-des-reseaux-39713475.htm.

Page 13
nʼabordera pas cette perspective en détail, mais cela pose la question de la place de
lʼÉtat sur Internet. Effectivement lʼaspect le plus délicat de la notion de neutralité du net
est de savoir si ces principes sʼappliquent aussi à lʼÉtat lorsque ce dernier tente de
réguler les usages dʼInternet. Lors de lʼexamen de la loi d'orientation et de
programmation pour la performance de la sécurité intérieure (LOPPSI) au Parlement, le
ministre de lʼintérieur Brice Hortefeux a déclaré que « la neutralité du réseau ne
s'applique pas aux sites illicites »7 suscitant le tollé dʼune partie de la blogosphère. Or,
nous verrons que les techniques de filtrage et de discrimination de contenus posent
dʼimportantes difficultés sur le plan technique avec un « effet de bord » important ou sur
la question de la protection de la vie privée. En sʼobligeant à respecter le principe de la
neutralité du net—lʼabsence de discrimination de toutes sortes appliquée aux paquets
échangés sur le réseau—, cʼest une des caractéristiques essentielles de la
souveraineté de lʼEtat qui est remise en cause, celle de disposer de « la compétence de
ses compétences » selon lʼexpression du juriste allemand Georg Jellinek. Du fait des
appréhensions suscitées par la perte dʼune partie de la souveraineté de lʼEtat, les
autorités semblent plutôt réticentes au principe de neutralité du net.

Néanmoins, dans le cadre de cette étude, nous postulons trois principes


directeurs de la neutralité du net inspirés des indications des autorités norvégiennes8 :
• Les utilisateurs du réseau ont le droit à une connexion avec une capacité
et une qualité minimales prédéfinies afin de sʼassurer que les opérateurs
persistent dans leurs investissements sur le réseau ;
• Les utilisateurs dʼInternet ont le droit à une connexion à Internet leur
permettant : dʼenvoyer et recevoir le contenu de leur choix, utiliser les
services et les applications de leur choix, connecter nʼimporte quel
appareil sur le réseau tant quʼil nʼattente pas à lʼarchitecture logique ;
• Les utilisateurs ont le droit à une connexion à Internet libre de toute
discrimination au regard du type dʼapplication, service ou contenu ou sur
la base de lʼadresse de lʼexpéditeur ou du destinataire.

7
Hortefeux : "la neutralité du réseau ne s'applique pas aux sites illicites", Numérama. Adresse :
http://www.numerama.com/magazine/15072-hortefeux-la-neutralite-du-reseau-ne-s-applique-pas-aux-sites-
illicites.html
8
Guidelines for network neutrality, Adresse : http://www.npt.no/ikbViewer/Content/109604/Guidelines for
network neutrality.pdf.

Page 14
Dans le cadre de ce mémoire, nous avons choisi de limiter le périmètre dʼétude à
lʼEurope et à la France en particulier ainsi quʼaux États-Unis. En prenant le parti de
restreindre le champ dʼétude, nous avons souhaité étudier la façon dont des États
démocratiques sʼaccommodent à adapter les libertés fondamentales à lʼheure
dʼInternet. Lʼimportance de la neutralité du net ne cesse de croître car, par exemple, elle
est devenue un sujet de politique nationale aux États Unis ; la défense de ce principe
faisait partie du programme de Barack. Le directeur de la Federal Communication
Commission Julius Genachowski, proche du président américain, a annoncé sa ferme
intention dʼinscrire la neutralité du net dans une loi garantissant la non-discrimination
des contenus—légaux le 22 septembre 2009 lors dʼune conférence intitulée « Préserver
un Internet libre et ouvert : une plateforme pour lʼinnovation, les opportunités et la
prospérité ».9 En France, la neutralité du net est véritablement entrée dans le débat
public à lʼoccasion de lʼexamen de la loi Création et Internet (HADOPI) et la formation
du collectif « La Quadrature du Net » qui a fait de la neutralité du net un de ses sujets
de prédilection. La neutralité du net a été aussi centrale dans le débat autour du vote de
la loi LOPPSI, du vote par le Parlement Européen du Paquet Télécom et des
négociations autour du traité international sur la contrefaçon ACTA. Enfin, le 13 avril
2010, la neutralité du net fera lʼobjet dʼun colloque organisé par lʼAutorité de Régulation
des Communications Électroniques et des Postes (ARCEP).

9
»"Preserving a Free and Open Internet: A Platform for Innovation, Opportunity, and Prosperity"

Page 15
Première partie. De la neutralité du net comme principe
fondateur de lʼ « écosystème » du réseau

Page 16
(>?@ABCD)E6)!FBDCFDB)2)GF)CHID?G)JGKDCB)L?FI)IJF)?CM>ABDMBGCD)

Conceptuellement, si le Web était destiné à


devenir une ressource universelle, il devait
pouvoir se développer sans entraves.
Techniquement, il suffisait dʼun seul point de
réglementation centralisée pour que ceci
devienne rapidement un goulot
dʼétranglement limitant le développement du
Web, et le Web ne pourrait jamais se
développer. Il était très important quʼil soit
incontrôlable

Tim Berners Lee, ”inventeur” du World Wide


10
Web

!6 -?)MCH?BAJF)DB)N?)MCJAII?FMD)L7!FBDCFDB))

#+ L(&%&()"%1&2%'()48,-&('-(&)
Pour commencer, comme lʼexplique Manuel Castells dans le chapitre de La
Galaxie Internet consacré à lʼhistoire dʼInternet, le réseau des réseaux est né de «la
rencontre hautement improbable entre la “méga-science”, la recherche militaire et la
culture libertaire [au sens européen dʼune idéologie politique fondée sur la défense
intransigeante de la liberté individuelle] ». Lʼenvironnement dans lequel Internet a été
créé, ainsi que les choix politiques et techniques qui ont mené à sa création ont eu un
rôle déterminant dans la croissance phénoménale du réseau.
Lʼorigine dʼInternet remonte à 1958, aux lendemains de la mise en orbite du
satellite Spoutnik par les soviétiques. Le département dʼEtat à la défense américain
entreprend alors de répondre à la menace dʼune supériorité technologique des
soviétiques par la création cette année là de lʼAdvanced Research Project Agency
(ARPA). Un de ses sous départements, lʼInformation Processing Techniques Office
(IPTO), créé en 1962, est chargé de créer des réseaux dʼordinateurs à grande échelle.
Le but de ces réseaux était de partager les plages de calcul des ordinateurs, afin de
stimuler la recherche sur lʼinformatique interactive.
Pour édifier ce réseau dʼordinateurs interactifs, lʼIPTO a alors recours à une
technologie de transmission des données révolutionnaire : la « commutation par
paquets » mise au point par Paul Baran à la Rand Corporation, un think tank californien

10

Page 17
qui travaillait souvent pour le Pentagone. Lʼidée de Baran était de créer un réseau de
communications flexible et décentralisé capable de survivre à une attaque nucléaire.
Dans le cadre de ses attributions, lʼIPTO crée en Septembre 1969 le premier des
réseaux, dont les nœuds reliaient alors les laboratoires de calcul de trois universités en
Californie et lʼUniversité de lʼUtah. ARPANET était né, nommé à partir de ARPA-
NETwork (lʼARPA-réseau). ARPANET utilisait la technologie révolutionnaire imaginé par
la Rand Corporation de transmission par paquets, dont nous verrons lʼimportance dans
la formation et le développement dʼun réseau décentralisé. Le 29 octobre 1969, a lieu la
première télétransmission entre lʼUniversité de lʼUtah et lʼUniversité de Stanford.11
Bien que lʼARPANET connaisse un grand succès dès sa présentation à
Washington en 1972, un des principaux problèmes de lʼinterconnexion des ordinateurs
était lʼincompatibilité des réseaux entre eux. En 1973, Robert Khan, de lʼARPA, et
Vinton Cerf, chercheur à Stanford, publient un article dans lequel ils exposent les bases
de la future langue commune des réseaux informatiques, le Transmission Control
Protocol (TCP). Avec ce protocole inter-réseaux, un pas de plus vers un réseau des
réseaux est franchi. En 1973, un collectif dirigé par Vinton Cerf, Gérard Lelann du
groupe de recherche français Cyclades en charge de la réalisation dʼun réseau entre
plusieurs grands centres de calcul, et Robert Metcalfe, du centre de recherche PARC
de lʼentreprise Xerox, élaborent le TCP sur lequel repose toujours Internet aujourdʼhui.
Grâce au TCP, ARPANET pouvait se connecter avec PRNET et SATNET, deux autres
réseaux de communication créés par lʼARPA. Lʼinteropérabilité des réseaux avait alors
abouti.
Les deux bases dʼInternet posées – la communication par paquets et
lʼinteropérabilité des réseaux – lʼARPANET abandonne progressivement sa tutelle
militaire pour sʼétendre à lʼensemble de la communauté universitaire puis au grand
public. En 1975, ARPANET est transféré à la Defense Communication Agency (DCA),
qui utilise le protocole TCP pour permettre la communication informatisée de plusieurs
réseaux des forces armées, créant ainsi le Defense Data Network. En 1983, inquiet de
possibles risques de sécurité, le Département de la Défense crée un réseau distinct
pour ses activités militaires, et dédie ARPANET, devenu ARPA-Internet à la recherche.
En 1988, le réseau de la National Science Foundation (NSF), NSFNET, utilise comme
épine dorsale ARPA-Internet. Parallèlement, les premiers usages des réseaux

11
Zittrain Jonathan, 2009, The Future of the Internet--and How to Stop It, Yale University Press.p.27.

Page 18
dʼordinateurs comme outil de communication se développent dans le monde étudiant.
En 1977, deux étudiants de Chicago inventent le modem, et en 1978 le Computer
Bulletin Board System, premier BBS (Bulletin Board System ou babillard), donne la
possibilité de mettre en mémoire des messages, à la manière dʼun panneau dʼaffichage
virtuel, lʼancêtre des forums. En 1983, un programmateur de Californie, Tom Jennings,
lance son propre réseau de BBS, Fidonet, nécessitant seulement un ordinateur
personnel, qui dans les années 80 connaissaient une expansion formidable avec le
Macintosh Classic en 1984, suivi par le PC (Personal Computer) dʼIBM. En 2000, le
réseau dʼéchanges de message de Jennings comptait plus de 3 millions dʼutilisateurs.
Un autre BBS, Usenet, a eu un impact important sur la culture de lʼInternet naissant.
Créé par 4 étudiants de Caroline du Nord reprenant le système ouvert dʼéchange de
fichiers dʼUnix, Usenet élargit considérablement la pratique de la communication entre
ordinateurs : le logiciel est distribué gratuitement et en 1980, une équipe dʼétudiants de
lʼUniversité de Californie à Berkeley mettent au point une passerelle entre Usenet et
ARPANET. Lorsque les laboratoires Bell décident de transmettre le code source du
système dʼexploitation aux universités avec lʼautorisation de le modifier, Unix a eu un
impact décisif sur la culture dʼInternet. En effet, il a lancé le mouvement de lʼopen-
source ( source ouverte ).
Au début des années 1990, le Département de la Défense des États-Unis
démilitarise totalement Internet, et donne sa gestion à la National Science Foundation
(NSF) qui procède très vite à la privatisation du réseau. A cette même époque, le World
Wide Web se développe, permettant alors à Internet de se développer dans le monde
entier.Cette application de partage de lʼinformation a été mise au point par un
programmeur anglais employé au CERN (Centre Européeen pour la recherche
nucléaire) de Genève, Tim Berners-Lee. Il sʼinspire de toute une tradition dʼidées et de
projets visant à relier les sources dʼinformation grâce à lʼhypertexte, dont lʼexpression
provient de la réflexion du penseur radical Ted Nelson Avec son projet dʼhypertexte
Xanadu, dont le web est aujourdʼhui lʼaboutissement, il avait imaginé la possibilité de
relier toutes les informations de la planète. Berners-Lee définit les normes qui
permettent de récupérer et dʼenvoyer de lʼinformation vers tout ordinateur : le protocole
http, le langage HTML et la méthode dʼaccès par adresse URL. Avec la complicité du
belge Hubert Caillau, ils créent le premier programme de navigation en décembre 1990
que le CERN envoie en août 1991 sur Internet au monde entier pour être modifié et
amélioré. Un étudiant, Marc Andreessen, et un enseignant de lʼUniversité de lʼIllinois,
Page 19
Eric Bina, sʼengouffrent dans la brèche et développent le premier navigateur web grand
public quʼils rendent public sur Usenet. Ils sʼinspirent du monde du multimédia en
intégrant la possibilité de gérer lʼaffichage dʼimages et de techniques graphiques
avancées. Par la suite, Mosaic devient Netscape Navigator, le premier navigateur
commercial, suivi après Microsoft qui introduit Internet Explorer avec son système
dʼexploitation Windows 95.
Cette brève histoire de lʼInternet, dont nous gardons uniquement les principales
étapes, souligne une des leçons du succès de ce réseau. . En effet, dʼaprès Manuel
Castells, « il sʼétablit un cercle vertueux de rétroaction entre lʼutilisation de la
technologie et son perfectionnement . »12 Johnathan Zittrain, dans The Future of the
Internet, reprend et théorise cette idée en définissant le « modèle génératif » :
« Generativity is a systemʼs capacity to produce unanticipated change
through unfiltered contributions from broad and varied audiences. »
« La générativité est la capacité dʼun système à produire des
changements imprévus à travers les contributions non-filtrées dʼun public
large et varié. »13
Seules deux technologies de lʼinformation ont abouti à un tel système génératif :
le PC et Internet. Ces deux technologies couplées ont mené à la formation dʼun
écosystème de lʼinformation, dont la caractéristique principale est le développement de
multiples usages de ces technologies autour dʼune plateforme commune. Nous allons
maintenant aborder lʼidée que ce modèle génératif résulte dʼun ethos de lʼInternet
commun aux architectes dʼInternet.

12
Castells Manuel, 2003, op.cit, p.42.
13
Zittrain Jonathan, 2009, op.cit, p.70.

Page 20
K+ >-) '01(#/) 405(-&'#9%10) (&) 2/3('&).) 98#'5"%&(5&/'() M)!"#"$%& '$((!&N)
48,-&('-(&)
Schématiquement, dʼaprès Jonathan Zittrain14, qui sʼest inspiré des travaux de
Lawrence Lessig dans Code, le fonctionnement dʼInternet se représente selon un
modèle dit en sablier :

15
Figure 1. Architecture en sablier dʼInternet

Les concepteurs dʼInternet ont conçu le réseau comme un ensemble de couches


reliées par un goulet dʼétranglement, dont la seule mission est de faciliter
lʼacheminement des données : le protocole IP. Internet sʼinspire dʼun modèle
dʼarchitecture de réseau, intitulé OSI (Interconnexion de Systèmes Ouverts), développé
par les ingénieurs de lʼUnion Internationale des Télécommunications et composé de
sept couches; pour leur part, les ingénieurs dʼInternet se sont contentés de quatre
couches. Au niveau inférieur, se trouve le support physique du réseau, qui correspond
aux conduits et câbles par lesquels les données sont acheminées selon plusieurs
protocoles : un protocole de contrôle de lʼaccès au support qui répartit la ressource en

14
Zittrain Jonathan, 2009, op.cit, p.68. Adresse :
http://yupnet.org/popup.html?http://yupnet.org/zittrain/images/fig4-1.jpg
15
Modèle du sablier, Dossier pour la science : lʼère dʼInternet, numéro 66, Janvier - mars 2010. Reproduit
avec lʼautorisation de lʼéditeur du magazine.

Page 21
bande passante entre les utilisateurs, puis un protocole de formatage des données et
de gestion du réseau local. Au niveau supérieur, se trouvent les applications utilisateurs
auxquelles sʼappliquent plusieurs protocoles dʼacheminement des données. Lʼintérêt
dʼun tel modèle stratifié réside dans le fait que les développeurs peuvent se concentrer
sur un seul niveau du réseau, sans se coordonner avec ceux travaillant au niveau
inférieur, ce qui a permis de créer une dynamique dʼinnovation sans précédent. Ces
deux niveaux sʼarticulent autour dʼun goulet dʼétranglement, un protocole universel pour
lʼensemble des réseaux, dont le seul but est dʼacheminer des données : le protocole IP.
LʼInternet Protocol (IP) a été inventé par Vinton Cerf et Robert Kahn en 1973, il
atteint sa version la plus utilisée en 1981 avec lʼIPv4, toujours en vigueur. LʼIP est un
protocole universel pour toutes les applications (courriel, web, messageries
instantanées…) et tous les nœuds du réseau. Le protocole fragmente les données en
paquets, indépendants les uns des autres, qui sont acheminés selon un itinéraire et une
durée de voyage liés au niveau dʼencombrement du réseau.16 On parle de
« communication sans connexion » : il nʼy aucun lien entre les paquets qui circulent sur
Internet. Le protocole IP nʼassure ni la fiabilité ni le débit des transmissions, cʼest un
protocole très simple à visée universelle.
De surcroît, les protocoles de transport localisés sur les machines émettrices et
réceptrices se chargent dʼassurer la fiabilité de la transmission. Le principal protocole, le
TCP (Transport Control Protocol) contrôle la réception des paquets et décide de leur
réémission si le paquet sʼest perdu lors du voyage. LʼUDP (User Datagram Protocol) est
utilisé quand il est nécessaire de transmettre des données très rapidement, et lorsque
la perte d'une partie de ces données n'a pas grande importance (vidéo en lecture
continue dite streaming ou jeux en réseau). Internet est donc fondé sur un principe
simple qui a permis lʼinterconnexion des réseaux : le principe dit de bout-à-bout (end to
end principle). Il stipule que « plutôt que dʼinstaller lʼintelligence au cœur du réseau, il
faut la situer aux extrémités : les ordinateurs au sein du réseau nʼont à exécuter que les
fonctions très simples qui sont nécessaires pour les applications les plus diverses, alors
que les fonctions qui sont requises par certaines applications spécifiques seulement
doivent être exécutées en bordure de réseau. Ainsi, la complexité et lʼintelligence du
réseau sont repoussées vers ses lisières ».17Avec Internet, le rôle du réseau est

16
Dabbous Walid, 2010, « Le protocole IP, simple mais efficace », Dossier pour la Science, n° 66, p. 28.
17
Lawrence Lessig, L'Avenir des idées, 2005, Presses universitaires de Lyon, 1re partie, paragraphe 7

Page 22
simplement dʼacheminer les données, on parle dʼun « réseau stupide »18 (stupid
network) ou dʼun « bête tuyau » (dumb pipe). Dans un tel réseau, les données indiquent
où elles ont besoin dʼaller, à lʼinverse du réseau téléphonique par exemple où les
données sont guidées à chaque nœud. Sur Internet, ce nʼest pas le réseau qui dicte sa
loi, mais les données qui lʼempruntent.
A travers cette description de lʼarchitecture dʼInternet, il apparaît quʼInternet nʼa
pas été conçu pour être contrôlé ni même filtré. Conçu par des universitaires dont lʼétat
dʼesprit bien particulier sera abordé ultérieurement, Internet a été créé et pensé
uniquement pour acheminer des données.

5+ @8)#*(+&4(1)52-5($&(/'1)48,-&('-(&)
Dans sa conception, Internet est manifestement orienté très différemment des
réseaux propriétaires et leur éthique de contrôle. En effet, à cette époque, des réseaux
informatiques de toutes sortes commencent à développer une offre au public, comme
Compuserve aux États Unis ou le Minitel en France. Avec leur architecture centralisée,
développer un nouveau service sur ces réseaux propriétaires nécessitait lʼapprobation
du fournisseur du service. Par exemple, entre 1984 et 1994, Compuserve qui a connu
une forte croissance du nombre de ses utilisateurs, nʼa pas pour autant vu les services
se multiplier en 10 ans. Un terminal Compuserve permettait les services que lʼentreprise
autorisait (chat, flux dʼinformation, e-mail vers dʼautres utilisateurs Compuserve…). A
lʼinverse, Internet nʼavait pas été conçu pour un usage particulier : son but est
seulement de connecter nʼimporte qui à tout autre point du réseau.
Ainsi, les concepteurs dʼInternet ont fait de la simplicité une valeur essentielle. La
conception de protocoles ouverts et universels était leur principale préoccupation. Ces
chercheurs avaient peu de moyens pour implémenter un réseau mondial : quelques
dizaines de millions de dollars entre 1970 et 199019 bien quʼils disposaient du soutien
dʼagences gouvernementales et de quelques grandes entreprises. Du fait de cette
contrainte budgétaire, ces universitaires fonctionnaient selon un principe dit de
procrastination pour résoudre les nouvelles difficultés auxquelles ils font face à chaque
étape du développement du réseau : la plupart des problèmes pourraient être résolus
plus tard et par dʼautres.

18
Isenberg David, 1997, « Rise of the Stupid Network », Adresse :
http://www.hyperorg.com/misc/stupidnet.html.
19
Zittrain Jonatan, 2009, p.27.

Page 23
Cet esprit de simplicité se retrouve dans deux omissions cruciales dans la
conception du réseau. Tout dʼabord, lʼabsence de structure permettant de gérer
dʼidentifier lʼutilisateur sur Internet. Lʼidentification est laissée aux concepteurs
dʼapplication, qui peuvent demander aux utilisateurs de sʼidentifier. LʼIP sert seulement
à étiqueter chaque paquet de données transmis avec deux adresses pour identifier
l'expéditeur et le destinataire. Il est fréquent que lʼadresse IP soit partagée entre
plusieurs ordinateurs, lʼordinateur est alors identifié par un masque de sous-réseau. Sur
Internet, les données ne sont pas attachées à un utilisateur, ce qui rend lʼidentification
de lʼémetteur très difficile. Cela a posé de grandes difficultés lorsque le législateur a
cherché un moyen de sanctionner les utilisateurs de systèmes de partage de fichiers de
pair-à-pair. Une autre omission a eu un rôle fondamental dans le développement dʼun
Internet libre et neutre. Le système nʼincluait pas une “qualité du service”, qui est la
capacité à véhiculer dans de bonnes conditions un type de trafic donné, en termes de
20
débit, délais de transmission, ou de taux de perte de paquets. En effet, lʼarchitecture
dʼInternet ne permet pas de prévoir lʼitinéraire que suivra un paquet. Ainsi, Internet est
connu sous le nom du réseau du meilleur effort (best effort), car il ne propose aucune
différenciation entre plusieurs flux réseaux et ne permet aucune garantie. Comme
lʼexplique David Clark, président de l'Internet Architecture Board de 1981 à 1989, connu
comme l'un des principaux architectes de l'Internet, « chaque paquet est une aventure »
sur Internet.
Derrière la simplicité de lʼarchitecture du réseau, il est nécessaire de revenir sur
lʼethos des concepteurs dʼInternet. Selon Manuel Castells, la culture hacker joue un rôle
pivot dans la construction dʼInternet. La culture hacker, à différencier de la culture des
crackers qui pénètrent les systèmes informatiques pour les perturber ou sʼemparer
dʼinformations, consiste en un « ensemble de valeurs et de convictions apparues au
sein de réseaux dʼinformation coopérant en ligne à des projets de programmation
définis ». Deux éléments définissent la démarche de la culture hacker : lʼautonomie par
rapport aux objectifs des institutions ou des entreprises, et lʼusage de réseaux
dʼordinateurs comme base de cette autonomie. Lʼexemple de la création du World Wide
Web par Tim Berners Lee est significatif de cette culture. Personne ne lui avait
demandé de créer le web, il a même du cacher ses intentions puisquʼil ne travaillait pas

20
Qualité de service, Wikipédia, Adresse : http://fr.wikipedia.org/wiki/Qualit%C3%A9_de_service [Accédé :
17 Février 2010].

Page 24
sur ce quʼon lui avait confié au CERN. Dans lʼesprit de la culture hacker, il a pu compter
sur un large soutien de la communauté Internet pour faire aboutir son projet
dʼhypertexte. Tim Berners-Lee sʼest en outre appuyé sur un des piliers de la culture
hacker pour développer le projet du World Wide Web : il a partagé gratuitement les
fruits de son travail et à son départ du CERN en 1994, il a créé le W3C (World Wide
Web Consortium) pour la promotion des protocoles standardisés et ouverts dans le
développement du web.
Les architectes dʼInternet nʼavaient pas seulement pour projet de concevoir des
systèmes informatiques. Ils pensaient aussi que la technologie pourrait changer la
société dans son ensemble : des influences politiques, essentiellement libertaires, ont
inspiré les concepteurs dʼInternet. Interrogé sur les influences du web, Tim Berners-Lee
explique que la croyance qui animait les concepteurs dʼInternet réside dans « lʼidée
que la société peut fonctionner sans quʼun gouvernement bureaucratique et
hiérarchique sʼinterpose à chaque étape, si seulement nous établissions un ensemble
de règles permettant lʼinteraction de tiers à tiers (peer-peer interaction) Notre quête
spirituelle et sociale est la recherche de règles qui permettent de travailler ensemble en
21
harmonie.» Tim Berners Lee fait allusioin à une citation de David Clark qui illustre le
projet politique libertaire des concepteurs dʼInternet :
« We reject: kings, presidents and voting.
We believe in: rough consensus and running code »
« Nous rejetons les rois, les présidents et le vote.
Nous croyons au consensus approximatif et au code qui fonctionne ».
Ce même David Clark, en 1984, théorise le principe de « bout-à-bout » qui sous
tend le fonctionnement dʼInternet. Dans un essai qui a fait référence22, les auteurs
suggèrent que toute fonction qui nʼest pas utile universellement sur le réseau ne doit
pas être implémentée. Il sʼagit de ne pas favoriser ou discriminer une utilisation du
réseau aux dépends dʼautres qui paraitraient secondaires ou pourraient émerger. En
somme, cʼest dans cet esprit libertaire que David Clark a théorisé le premier la neutralité
du net à travers lʼarchitecture de « bout-à-bout » du réseau qui permettrait aux données
et aux informations de circuler librement, afin de sʼaffranchir des gouvernements établis.

21
Berners-Lee Tim, « Tim Berners-Lee: WWW and UU and I », Adresse :
http://www.w3.org/People/Berners-Lee/UU.html [Accédé : 17 Février 2010].
22
Saltzer J. H., Reed D. P. et Clark D. D., 1984, « End-to-end arguments in system design », ACM Trans.
Comput. Syst., vol. 2, n° 4, p. 277-288.

Page 25
!!6 'FD)IJMAHBH)LD)CHID?GO))

#+ @82'E#-%1#&%2-)'0&%5/9#%'()4()9#)125%0&0)

23
Figure 2. Représentation graphique dʼInternet

Le rhizome comme modèle dʼorganisation décentralisé


Dans Capitalisme et schizophrénie: Mille plateaux24, Gilles Deleuze et François
Guattari théorisent un concept inspiré de la biologie qui permet de décrire lʼévolution de
nos sociétés en réseau : le rhizome. Dans sa définition première, le rhizome désigne les
tiges souterraines des plantes vivaces, ces végétaux « constitués de façon à résister

23
fondée sur un ensemble de données collectées le janvier 2005 par une équipe de chercheurs du site
http://opte.org/. Chaque ligne représente la connexion entre deux adresses IP, la longueur du lien entre deux points
est déterminée par la durée de la connexion. Chaque couleur représente lʼorigine géographique de chaque adresse
IP. Référence : Britt Matt, Carte d'Internet, Adresse : http://commons.wikimedia.org/wiki/File:Internet_map_1024.jpg
[Accédé : 2 Février 2010].
24
Gilles Deleuze et Félix Guattari, Capitalisme et schizophrénie: Mille plateaux, Paris, Éditions de minuit,
1980.

Page 26
longtemps à ce qui peut compromettre leur santé ou leur vie »25. En empruntant ce
terme à la botanique, les deux penseurs lʼadaptent à la logique du réseau. Le rhizome,
en tant que concept abstrait permettant de penser la logique dʼorganisation et de
transformation de la société, désigne plus spécifiquement un mode dʼinterrelations
décentralisé. « N'importe quel point d'un rhizome peut être connecté avec n'importe
quel autre, et doit l'être. C'est très différent de l'arbre ou de la racine qui fixent un point,
un ordre ». Deleuze et Guattari opposent un tel type dʼorganisation aux « systèmes
centrés » nécessitant une autorité centralisée.26 On retrouve là la distinction classique
entre les réseaux de communication centralisés et distribués. Selon Philippe Robert27,
directeur de recherche à lʼINRIA, dès les années 1970, les réseaux de communication
évoluent vers une nouvelle architecture caractérisée par lʼautonomie de chacun des
nœuds du réseau : « Quand un nœud doit diffuser ou rechercher une information, il ne
sʼadresse plus à un contrôleur central qui lui donne ou non la permission dʼémettre.
Chaque nœud utilise de façon indépendante les ressources communes du réseau
mises à sa disposition ». Précisément, lʼarchitecture décentralisée dʼInternet ressemble
à lʼorganisation en rhizome des plantes vivaces, dont la caractéristique est de se
« maintenir sans défaillance, dʼêtre difficile à détruire ». Cʼest cette résistance à tout
contrôle qui séduit Deleuze et Guattari dans le concept de rhizome : « Un rhizome peut
être rompu, brisé en un endroit quelconque, il reprend suivant telle ou telle de ses
lignes et suivant d'autres lignes ». Selon les auteurs, la communication en rhizome
permet à lʼindividu de sʼémanciper le long des « lignes de fuite » du rhizome pour
échapper à la « territorialité », à la « stratification » et aux codes de la société
bureaucratique. Ainsi, cela mènerait au développement dʼun individu nomade, qui sait
se délester de ce qui peut encombrer sa marche, échappant aux appartenances
politiques, de classe ou de statut.
Une « société de réseaux »
Le concept de rhizome apparaît pertinent car il permet de comprendre les
évolutions de la société par rapport au réseau sʼorientant progressivement vers une
« société de réseaux » telle que la définit Manuel Castells, sociologue américano-
catalan. Pour lʼauteur, le développement extrêmement rapide dʼInternet entraîne la fin

25
Alain Rey et Josette Rey-Debove, articles « Vivace »et « Rhizome », Le Nouveau Petit Robert de la
langue française, Paris, 2010 éd., p.2790
26
Xavier de la Vega, “Le devenir du rhizome,” Sciences Humaines, Mai 2005,
http://www.scienceshumaines.com/index.php?lg=fr&id_article=14358&provenance=espaceabo.
27
Robert, Philippe. 1909-2009 : l'Odysée des réseaux. Dossier pour la Science Mars 2010, 44.

Page 27
de ce que Marshall McLuhan avait défini comme la « Galaxie Gutenberg » pour entrer
dans la « Galaxie Internet ». Comme Castells lʼexplique dans lʼintroduction de The
Internet Galaxy28, la doctrine de McLuhan « le médium est le message » ne parvient
plus à décrire de manière complète lʼévolution de la société. Le réseau est lʼagent
structurant de la société, il est le message (« the network is the message ») :
« Les activités économiques, sociales, politiques, et culturelles, sur
toute la planète, sont aujourdʼhui structurées par et autour dʼInternet».
Castells tente de réactualiser la théorie de selon laquelle le médium ne transforme pas
seulement les habitudes de vie, mais aussi les modèles de pensée et l'échelle des
valeurs29. Dans la « Galaxie Internet », le réseau agit en interaction avec la société et
non dans une relation unidirectionnelle, comme lʼenvisage le modèle déterministe
technologiste présent dans lʼœuvre de Marshall McLuhan où seule la technique
influence la société. Pour Castells, le réseau est « malléable » (Castells, 2001) et
caractérisé par son « élasticité ». Ainsi, une relation de co-construction sʼétablit entre le
réseau et la société :
«La pratique humaine est fondée sur cette communication [la
communication humaine et le langage], et Internet modifie notre façon de
communiquer. Cette technologie nouvelle intervient donc dans notre vie de
manière essentielle. Mais nous-mêmes, dʼun autre côté, en nous livrant à
une quantité dʼactivités avec Internet, nous transformons Internet. Une
structure socio-technique neuve émerge de cette interaction. »
Sociétés et réseaux entretiennent donc une relation dʼinteraction. Pour Castells,
le réseau est la « base structurelle de la mondialisation ». Ainsi, la géographie et la
géopolitique conçoivent de manière croissante la mondialisation en termes de flux de
différents types (finances, biens et personnes, information, etc.) Pour le sociologue de
formation marxiste, le réseau influence, forme et domine lʼensemble des territoires de la
planète.
En outre, la société en réseau induit une dimension nouvelle. Chacun peut agir à
son échelle pour modifier à son tour le réseau par son action, ses publications ou ses
programmes : cʼest la dimension « malléable » du réseau. Castells affirme quʼInternet
est particulièrement apte à servir les phénomènes sociaux les plus contradictoires : « Ni
utopie, ni dystopie, Internet est lʼexpression de nous-mêmes à travers des codes

28
Castells Manuel, 2003, The Internet galaxy, Oxford University Press.
29
McLuhan Marshall et Gordon W. Terrence, 2003, Understanding media, Toronto, Gingko Press.

Page 28
spécifiques de communication quʼil nous appartient de comprendre si nous souhaitons
influencer la société ».
Ainsi, le réseau provoque une série de bouleversements dans lʼorganisation
hiérarchique de la société. Il est intéressant de constater que le développement
dʼInternet dans les années 70 a été concomitant à une période de mutation du
capitalisme et des pratiques managériales. Dans lʼanalyse des évolutions récentes de la
société, lʼimage du réseau ressort fréquemment : lʼ « entreprise réseau »,
lʼ « organisation réticulaire » de lʼentreprise sont des expressions courantes dans la
description de la firme dite postmoderne. Reprenant la théorie du rhizome de Deleuze
et Guattari, Luc Boltanski et Eve Chiapello affirme que lʼorganisation en réseau de la
société a mené à un « nouvel esprit du capitalisme ».30 Selon eux, un « bon manager »
de nos jours doit sʼadapter à une organisation semblable au rhizome où la coordination
se fait sur un mode horizontal et décentralisé sans lʼintervention dʼune instance
hiérarchique. Les deux sociologues ont identifié un ensemble de pratiques et de
comportements du bon manager dans le « nouvel esprit du capitalisme » : savoir se
maintenir toujours en activité, travailler en équipe dans le cadre du management par
projets, entretenir ses contacts, ses « réseaux »… Boltanski et Chiapello y voient une
« justification » du capitalisme contemporain qui, en assouplissant lʼorganisation
hiérarchique de la firme, cherche à obtenir lʼadhésion de ses cadres pour apporter une
caution aux politiques de flexibilisation du travail.31
Toutefois, lʼorganisation en réseau ne fait pas disparaître toute forme de
hiérarchie et de pouvoir mais, bien au contraire, les articule autour du réseau. Comme
lʼexplique Gilles Deleuze dans un cours essai publié en 199532, le déclin des « sociétés
disciplinaires », telles que théorisées par Michel Foucault dans Surveiller et Punir, ouvre
sur de nouvelles formes de pouvoir au sein de la « société de contrôle ». Dans
Empire33, Michel Hardt et Antonio Negri se réfèrent aussi à la théorie du rhizome pour
décrire les mutations du pouvoir dans la société de contrôle : « la société de contrôle
pourrait ainsi être caractérisée par une intensification et une généralisation des
appareils normalisants de la disciplinarité qui animent de l'intérieur nos pratiques
communes et quotidiennes ; mais au contraire de la discipline, ce controle s'étend bien

30
Boltanski Luc et Chiapello Eve, 1999, Le Nouvel esprit du capitalisme, Gallimard.
31
De la Vega Xavier, 2009, op.cit.
32
Deleuze Gilles, 1990, « Post-scriptum sur les sociétés de contrôle », L'Autre Journal, vol. , n° 1. Adresse :
http://aejcpp.free.fr/articles/controle_deleuze.htm [Accédé : 2 Février 2010].
33
Hardt Michael et Negri Antonio, 2001, Empire, New edition. Harvard University Press

Page 29
au-delà des sites structurés des institutions sociales, par le biais de réseaux souples,
modulables et fluctuants. » La disparition de la société hiérarchique nʼest quʼapparente :
le pouvoir se restructure dʼune manière différente.
De la surveillance à la sousveillance
La société disciplinaire décrite par Foucault a muté en une société de contrôle, où le
réseau exerce un pouvoir structurant et surveillant. Selon Jean-Gabriel Ganascia34,
professeur dʼinformatique à Paris VI, le pouvoir évolue vers un état dit de
« sousveillance » où le contrôle ne vient plus dʼen haut mais dʼen bas. Ganascia fait
référence à lʼexpérience de Steve Mann35, professeur à lʼUniversité de Toronto,
inventeur du terme sousveillance, qui sʼest employé à capturer et sauvegarder en vidéo
lʼintégralité de plusieurs années de sa vie. Mann explique que la société de
sousveillance, dans laquelle chacun peut contrôler chacun grâce à des outils
technologiques comme un simple téléphone portable, mènerait à un comportement plus
éthique de chacun de ses membres. En outre, Mann postule un principe
dʼequiveillance, selon lequel la sousveillance généralisée devrait mener à une plus
grande transparence des actions des membres de la société, puisque chacun de leurs
actes seront enregistrés et archivés.
Ainsi, la démocratisation des outils de diffusion liée à la logique du réseau
conduit à la redéfinition des règles de la vie publique pour lʼensemble des membres de
la société. Dans Voir et Pouvoir, lʼauteur explique le basculement dʼune société
hiérarchique et centralisé où le contrôle sʼexerce selon le modèle du Panopticon,
théorisé par Bentham et repris par Michel Foucault, à une société du Catopticon
caractérisée par trois principes fondamentaux :
- la transparence totale de la société ;
- la « symétrie totale » : la possibilité pour chacun de voir et par conséquent
contrôler tous les membres de la société ;
- la « communication totale » : la possibilité pour chacun dʼéchanger avec qui que ce
soit.
Le concept de Catopticon illustre lʼévolution fondamentale quʼentraîne la
structure en réseau sur la société. Cette société de la surveillance généralisée sʼancre
progressivement dans les esprits, bien quʼelle suscite légitimement de très nombreuses

34
Ganascia Jean-Gabriel, 2009, Voir et pouvoir : qui nous surveille ?, Editions le Pommier.
35
Sousveillance - Wikipedia, the free encyclopedia, Adresse : http://en.wikipedia.org/wiki/Sousveillance
[Accédé : 3 Février 2010].

Page 30
objections notamment quant à ses conséquences sur le libre arbitre et lʼautonomie de
lʼindividu. Eric Schmidt, PDG de Google, a pu ainsi affirmer : « si vous faîtes quelque
chose que personne ne doit savoir, peut être devriez vous commencer par ne pas le
faire », inquiétant de la part dʼune entreprise à laquelle nous confions une part
croissante de nos données personnelles.
Dès lors, la notion de vie privée est en en pleine mutation; ainsi, la logique du
réseau structure les rapports le plus intimes de lʼêtre humain avec ses semblables. Dʼun
point de vue sociétal, la génération dite des « natifs numériques », un concept qui
mériterait dʼêtre discuté, a un rapport fondamentalement différent avec lʼimage de soi,
lʼintimité et la vie privée. Pour le professeur Ravi Sandhu, responsable de lʼInstitut de la
cyber sécurité à lʼuniversité du Texas à San Antonio, lʼabsence de pudeur des “natifs du
numérique” serait comparable à lʼattitude désinhibée avec laquelle les jeunes des
années 60-70 abordaient la sexualité36. Ayant grandi avec des technologies permettant
le partage social de la vie privée, les « natifs numériques » auraient intégré dans leurs
comportements la possibilité que chaque instant devienne public.
La notion de vie privée ne disparaît pas à lʼâge des réseaux contrairement à ce
quʼa affirmé Marc Zucherberg, fondateur de Facebook, lorsquʼil justifiait sa décision de
rendre public par défaut certains contenus du réseau social. A lʼinstar de lʼensemble des
pans de la société, la vie privée et lʼintimité subissent un changement profond. Comme
lʼexplique Daniel Kaplan sur le site InternetActu.net, la vie privée nʼest plus conçue
« comme une sorte de village gaulois – entouré de prédateurs, bien protégé, mais qui
nʼenvisage pas de déborder de ses propres frontières » à une « tête de pont, que lʼon
défend certes, mais qui sert dʼabord à se projeter vers lʼavant ».
Lʼorganisation du monde en réseau relève dʼun véritable changement de
paradigme pour nos sociétés. Ses conséquences sont globales, et aucune sphère de
lʼorganisation sociale nʼéchappe à cette évolution. Économiquement, lʼorganisation en
réseau entraine la domination dʼun « nouvel esprit du capitalisme » se structurant
autour dʼInternet. La fin des « sociétés disciplinaires » laisse place à une société de
contrôle, dans laquelle le réseau et son architecture ont un rôle crucial. Dans sa
relation dʼinteraction avec la société, Internet, sa logique et ses structures façonnent les
comportements des individus tout autant que le réseau se construit par ses usages.

36
Manach Jean-Marc, « La vie privée, un problème de vieux cons ? Internet-actu.net. Adresse :
http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/ [Accédé : 6 Février 2010].

Page 31
K+ >-()$29%&%J/()4()98%-B2'A#&%2-)
. De plus en plus, nos libertés de toutes sortes sʼexpriment sur Internet. La
garantie dʼun accès libre et sans discrimination à lʼinformation est cruciale pour
lʼautonomie des membres de la société.
La valeur de lʼinformation
Selon lʼun des pères de la science de lʼinformation, Claude Shannon, auteur de
la « théorie mathématique de lʼinformation »37, lʼinformation est une réduction
dʼincertitude. Pour le mathématicien, la quantité d'informations contenue dans un
message est égale à la quantité d'incertitudes réduites par le traitement du message.
Cette définition de lʼinformation sʼinscrit dans le contexte technologique du début du
XXe siècle : dans les réseaux de télécommunication, les propriétés du support (le
câblage) rendent inévitable une atténuation du signal électrique transportant la voix en
fonction de lʼaugmentation de la distance38.Pendant la Seconde Guerre mondiale,
Shannon travaillait pour les services secrets de l'armée, en cryptographie. Il était chargé
de localiser dans le code ennemi les parties signifiantes cachées au milieu du
brouillage. Dans cette optique, lʼinformation a un rôle crucial : tout brouillage peut
résulter en une perte dʼinformations capitales, ici pour le système de renseignement de
lʼarmée.
Lʼhéritage déterminant de lʼapproche cybernétique réside dans une « politique de
lʼinformation » comme lʼexplique Mathieu Triclot dans Le Moment Cybernétique39. Un
des principaux théoriciens de cette « société de lʼinformation », notion qui émerge dans
les années 60, est le sociologue canadien Norbert Wiener40 . Il estime quʼil faut tirer des
conséquences en matière sociale et politique de la cybernétique et de sa conception
particulière de lʼinformation. Dans les travaux de Wiener, lʼinformation devient non
seulement un objet central du discours politique, mais aussi le prisme par excellence à
travers lequel les situations politiques doivent être analysées. Il postule que la société
elle-même doit être étudiée comme un processus de traitement de lʼinformation : « la

37
Shannon Claude Elwood et Weaver Warren, 1949, The mathematical theory of communication, University
of Illinois Press.
38
"Narvic", 2008, « Le moment cybernétique. La constitution de la notion d'information - novövision »,
Novovision 2. Adresse : http://novovision.fr/?Le-moment-cybernetique-La [Accédé : 8 Février 2010].
39
Triclot Mathieu, 2008, Le moment cybernétique : La constitution de la notion d'information, Editions
Champ Vallon.
40
Nous nous basons ici essentiellement sur lʼarticle de Narvic sur son blog Novovision cité précédemment.

Page 32
société ne peut être comprise quʼà travers une étude des messages et des moyens de
communication qui lui sont propres »41.
Découlant de cette approche, les écrits de David Easton42 sur le système
politique insistent sur lʼimportance des mécanismes de filtrage et de sélection dans la
prise de décision politique. Sʼinspirant de la théorie classique de la firme en science
économique, Easton représente le système politique comme une « boite noire » ouverte
aux autres systèmes qui lʼentourent. Il apparait comme une entité dynamique
« réagissant à son environnement par un échange constant de flux. »
Schématiquement, le système se présente comme influencé par des inputs, composé à
la fois dʼexigences (demands) et de soutiens (supports), auxquels le système répond
par des outputs qui sont les décisions et actions politiques. Le système politique est
pour Easton constamment en situation de surcharge dʼinformations au niveau des
inputs. Le système met en place une sélection par un ensemble de gatekeepers, des
« régulateurs dʼaccès » qui déterminent quelles informations peuvent entrer dans le
système politique. David Easton définit les gatekeepers comme :
« Le « maintien du système » implique que le traitement des
exigences (demands) soit maintenu à un niveau acceptable. A cette fin, tous
les systèmes politiques mettent en place des outils de filtrage qui
sélectionnent et limitent les exigences qui parviennent à entrer dans les
étapes importantes du processus dʼélaboration des politiques. Des
gatekeepers (« gardiens») institutionnels, culturels, et structurels de
différents types gardent lʼentrée du processus de conversion” [en politiques
publiques] »43
. A lʼheure où la société de lʼinformation fait lʼobjet dʼun déplacement sur Internet, la
notion de gatekeepers dans le système politique peut être élargie à dʼautres acteurs
que ceux évoqués dans la théorie de David Easton.
Des gatekeepers privés
Dans une démocratie occidentale, ce rôle de gatekeepers est souvent assumé
par les groupes dʼintérêts, les médias ou les partis politiques Or, en déterminant quels
contenus peuvent être diffusés ou ont la priorité sur le réseau comme nous le verrons à
travers de nombreux exemples dans le chapitre 2, les Fournisseurs dʼAccès à Internet

41
Wiener Norbert, 1954, The human use of human beings, Doubleday.
42
Easton David, 1979, A Systems Analysis of Political Life, Univ of Chicago Pr (Tx).
43
Easton David, « Categories for the Systems Analysis of Politics », Adresse :
http://www2.stetson.edu/~gmaris/Easton.htm [Accédé : 9 Février 2010].

Page 33
jouent le rôle des gatekeepers régulant la circulant de lʼinformation qui entre dans le
système politique. Le pouvoir de contrôle et de sélection des informations qui peuvent
entrer dans le système politique est alors transféré à des acteurs privés, sauf dans les
cas de discrimination de contenus sur le réseau initiés par des états. Cʼest alors la
circulation de lʼinformation et qui est régulé par des acteurs privés, et donc le système
politique.
Cela sʼinscrit dans une tendance globale à une place croissante des acteurs
privés dans le fonctionnement de la sphère publique. Comme lʼexplique Dawn
C.Nunziato dans Virtual Freedom44, tant que les régulateurs des télécommunications
[en lʼoccurrence aux Etats-Unis la Federal Communication Commission (FCC) et la
Cour Suprême fédérale] ne mettront pas en place une législation encadrant ou
interdisant la discrimination de contenus par les FAI, des entités privées continueront de
disposer de pouvoirs digne dʼun gouvernement (« government-like power ») pour
censurer à leur bon vouloir quels contenus sont dignes dʼêtre exprimés sur Internet. Or,
Nunziato montre, par lʼétude de la jurisprudence de la FCC et de la Cour Suprême, que
ces deux instances ont refusé depuis une vingtaine dʼannées dʼappliquer une approche
affirmative du 1e amendement à la constitution fédérale. Cette doctrine reconnaît aux
individus un droit à participer à la souveraineté démocratique du peuple (democratic
self-government) en exprimant leur point de vue, et à leur tour en étant exposés à une
diversité de points de vue sur des sujets dʼimportance sociétales et publiques. A cette
fin, cette approche du 1er amendement justifie lʼintervention de lʼEtat pour réguler les
intermédiaires (conduits) et les forums privés nécessaires à lʼexpression dʼune pluralité
de discours45.
En écartant de réguler lʼinfluence dʼacteurs privés sur la sphère publique, les
états et les instances de régulation de la télécommunication prennent part à un
mouvement de privatisation des fonctions publiques. Le contrôle dʼInternet, réseau
autour duquel sʼorganise une part croissante de nos activités publiques et privées, est
alors laissé entre les mains dʼacteurs privés non régulés.
La « privatisation de lʼagora »
En laissant le secteur privé assumer le rôle de gatekeepers, lʼÉtat prend part à
ce que Pascal Robert, maître de conférences à lʼUniversité Aix-Marseille 2, définit

44
Nunziato Dawn, 2009, Virtual Freedom : Net Neutrality and Free Speech in the Internet Age, Stanford,
California, Stanford Law Books.
45
Nunziato Dawn, 2009, op.cit, p.32.

Page 34
comme le « glissement de la prérogative politique »46 auquel les Technologies de
lʼInformation et de la Communication (TIC) ont un rôle déterminant :
« Les technologies de l'information et de la communication (TIC)
opèrent un glissement de la prérogative politique" dans les démocraties
occidentales. Cette nouvelle donne se traduit par la possibilité pour un acteur
dont la logique vise à défendre son propre intérêt, d'exercer des fonctions
politiques renvoyant à l'intérêt général, sans avoir la légitimité de l'élection
démocratique. Sur fond de mondialisation et de déréglementation, les TIC
ouvrent la possibilité technique d'un tel processus.»47
Ainsi, Pascal Robert détermine trois critères qui permettent dʼétablir ce
glissement de la prérogative politique48 :
o Tout dʼabord, des instances privées mobilisent des fonctions publiques,
comme cela intervient lors de la discrimination de contenus par les FAI sur
le réseau restreignant les possibilités dʼexpression des citoyens du fait de
lʼimperfection des systèmes de filtrage et de lʼincompatibilité des intérêts
de ces entreprises avec lʼobjectif démocratique de libre expression.
o De plus, lʼÉtat se met au service dʼinstances privées : tel est le cas avec la
loi « favorisant la diffusion et la protection de la création sur internet » du
12 juin 2009 dite HADOPI, du nom de la Haute Autorité pour la diffusion
des œuvres et la protection des droits sur Internet. Une des missions de
cette haute autorité est dʼagir comme intermédiaire entre l'ayant droit,
chargé de fournir les adresses IP des abonnés suspectés d'avoir mis à
disposition du public une œuvre, et le fournisseur d'accès à Internet,
chargé d'identifier les abonnés et de procéder in fine à la coupure de leur
accès Internet. Comme lʼa expliqué le Conseil Constitutionnel dans sa
censure de la loi, le législateur semble préférer restreindre la liberté
dʼexpression des citoyens au profit des intérêts privés de lʼindustrie du
divertissement.
o Enfin, lʼÉtat a recours à des instances privées pour remplir des missions
de service public : par exemple, lʼÉducation Nationale, après avoir été

46
Robert Pascal, 2005, La logique politique des technologies de l'information et de la communication,
Presses Univ de Bordeaux.
47
Robert Pascal, 2005, op.cit, p.312, in Athissingh Ramrajsingh, 2009, Les nouvelles technologies web,
facteur dʼun glissement de la prérogative politique ?, p.408.
48
Ramarjsingh Athissing, 2005, op.cit, p.447

Page 35
assignée par le ministre dʼune mission de maîtrise des technologies et de
sensibilisation à Internet, a lancé en mars 2009 un concours intitulé
ChercheNet, « initié par Google » et soutenu par le ministère, dont le kit
pédagogique49 présente uniquement des technologies Google sur 19
pages des 21 pages que comporte le manuel50.
Ainsi, comme lʼillustrent ces trois exemples et lʼabsence dʼintervention des
pouvoirs publics pour encadrer la discrimination de contenus par les FAI, les TIC
participent à une tendance générale de réduction de lʼespace public en faveur dʼacteurs
privés qui se substituent à ses fonctions, sans subir les contraintes de défense de
lʼintérêt général à laquelle la puissance publique est assujettie. Cette perte dʼautorité de
lʼEtat en faveur dʼinstances privées prend part à une tendance générale de ce que
Naomi Klein dans No Logo51 appelle la « privatisation de lʼagora ». Selon la militante
altermondialiste, les espaces dʼexpression sont en proie à deux tendances depuis le
début des années 90 qui a vu le triomphe du branding de la sphère publique: lʼérosion
de lʼespace nʼappartenant pas à une entreprise et la privatisation de lʼespace public.
Dans ce contexte de récession de lʼespace dʼexpression physique, Internet par sa
conception ouverte sʼest affirmé comme un lieu paradigmatique pour lʼexercice des
libertés notamment dʼexpression dans les démocraties occidentales.

5+ ,-&('-(&)52AA()(1$#5()4()9%K('&01)
Le principe de neutralité du net est fréquemment invoqué comme un principe
constitutionnel dʼInternet, un premier amendement du réseau. Dʼaprès Benjamin Bayart,
président du FAI associatif French Data Network (FDN), « la neutralité du réseau nʼest
pas en elle-même une liberté fondamentale. Mais cʼest un élément important, parce que
cʼest sur cette neutralité que sont adossés des libertés. […] elle est nécessaire à
garantir dʼautres libertés, tout comme la séparation et lʼéquilibre des pouvoirs nʼest pas
une liberté en elle-même, mais une condition nécessaire. » En effet, lʼabsence de
discrimination des contenus échangés sur Internet a permis dʼen faire un espace
privilégié dʼexercice des libertés.
Un forum public de libre expression

49
http://www.framablog.org/public/_docs/cherchenet_kit-pedagogique_version1.pdf
50
« Google attendra pour attirer nos enfants dans sa Toile », 2009, Adresse :
http://www.framablog.org/index.php/post/2009/03/26/google-education-kit-pedagogique [Accédé : 10 Février 2010]
51
Klein Naomi, 2002, No space, no choice, no jobs, no logo, Picador.

Page 36
Ainsi, la liberté dʼexpression sur Internet a été reconnue au sommet de lʼEtat
pour son rôle essentiel dans lʼexercice des libertés constitutionnelles en matière
dʼexpression. En France, le Conseil Constitutionnel dans sa décision n°2009-580 DC du
10 juin 2009 censurant la loi dite HADOPI a posé les bases de la législation dʼInternet
en affirmant le rôle crucial joué par la communication en ligne dans la vie démocratique
et lʼexercice de la liberté dʼexpression :
“Considérant quʼaux termes de lʼarticle 11 de la Déclaration des droits
de lʼhomme et du citoyen de 1789 : « La libre communication des pensées et
des opinions est un des droits les plus précieux de lʼhomme : tout citoyen
peut donc parler, écrire, imprimer librement, sauf à répondre de lʼabus de
cette liberté dans les cas déterminés par la loi » ; quʼen lʼétat actuel des
moyens de communication et eu égard au développement généralisé des
services de communication au public en ligne ainsi quʼà lʼimportance prise
par ces services pour la participation à la vie démocratique et lʼexpression
des idées et des opinions, ce droit implique la liberté dʼaccéder à ces
services”.
Ainsi, la plus haute juridiction de lʼEtat établit une dépendance directe entre
lʼaccès à Internet et la liberté dʼexpression et de communication; il en fait la traduction
moderne des principes de liberté de communication garantis par lʼarticle 11 de la
Déclaration des Droits de lʼHomme et du Citoyen de 1789. De fait, lʼobjectif de défense
de la propriété intellectuelle des ayant-droits contenu dans la loi HADOPI doit se
soumettre au principe supérieur de liberté de communication dont lʼaccès à Internet
permet à chacun lʼexercice. En conséquence, la rupture dʼaccès à Internet est une
sentence que seul le juge peut prononcer et non une autorité administrative « eu égard
à la nature de la liberté garantie par l'article 11 de la Déclaration de 1789, le législateur
ne pouvait, quelles que soient les garanties encadrant le prononcé des sanctions,
confier de tels pouvoirs à une autorité administrative dans le but de protéger les droits
des titulaires du droit d'auteur et de droits voisins »
La Cour Suprême fédérale américaine sʼest exprimée pour établir le rôle crucial
dʼInternet dans la traduction des principes du premier amendement sans pour autant
sʼengager en faveur de la protection dʼun accès libre et sans discrimination à Internet.

Page 37
En 2005, avec la décision Brand X52, la Cour Suprême sʼest prononcée en faveur de la
dérégulation du marché des opérateurs de télécommunication. Cette dernière a été
initiée par la décision Turner Broadcasting System53 qui enlève aux opérateurs du câble
et de lʼADSL toute contrainte de non-discrimination de contenus. Selon Dawn
Nunziato54, il est nécessaire de légiférer pour imposer une clause de non-discrimination
aux opérateurs dʼaccès à Internet car lʼespace dʼexpression mis à disposition sur le
réseau correspond à toutes les caractéristiques dʼun forum public, une des doctrines qui
permet à la Cour Suprême dʼimposer à un acteur privé les contraintes du 1er
amendement. Plus que les rues et les parcs lieux à lʼorigine de la doctrine du forum
public, Internet est « le lieu paradigmatique (paradigmatic loci) pour les valeurs du
premier Amendement car il permet aux personnes de sʼexprimer à une large audience à
un faible coût » comme lʼa reconnu la Cour Suprême dans sa décision Reno vs
American Civil Liberties Union55. Dans cette même décision, la Cour Suprême a
déclaré quʼInternet était « la forme la plus participative dʼexpression de masse jusquʼici
développée » (« the most participatory form of mass speech yet developped »).
Lʼère de la communication de masse individuelle
Avec Internet, la sphère de la communication opère une mutation essentielle.
Alors quʼautrefois lʼinformation se faisait essentiellement via des médias de masses,
Internet introduit une nouvelle ère pour lʼindividu qui dispose désormais dʼun réseau
permettant la communication de masse individuelle (mass self communication selon
lʼexpression de Manuel Castells56). Chacun dispose, grâce aux réseaux et outils
numériques, dʼoutils de coordination puissants, qui pour la première fois dans lʼHistoire,
ne résident plus seulement entre les mains des institutions et des pouvoirs publics.
Techniquement, lʼévolution vers la communication de masse individuelle participe
dʼInternet mais aussi du développement des téléphones portables, lʼoutil le plus
démocratisé de communication et de diffusion de lʼinformation. Il y aurait à ce jour,
selon Internet World Stats, plus dʼ1,6 milliard dʼinternautes dans le monde et plus de 3
milliards dʼutilisateurs de téléphones portables. Ces outils offrent à chacun un puissant
outil de mobilisation politique. Dans Here Comes Everybody, Clay Shirky étudie le

52
National Cable & Telecommunications Assn. v.brand X Internet Services (Syllabus), 2005, Adresse :
http://www.law.cornell.edu/supct/html/04-277.ZS.html [Accédé : 14 Février 2010].
53
Turner Broadcasting System, Inc., Et Al. v. Federal Communications Commission Et Al., 1994, Adresse :
http://www.law.cornell.edu/supct/html/93-44.ZS.html [Accédé : 14 Février 2010].
54
Nunziato Dawn, 2009, op.cit, p.
55
Reno, Attorney General of the United States, Et Al. v. American Civil, 1997, Adresse :
http://www.law.cornell.edu/supct/html/96-511.ZS.html [Accédé : 15 Février 2010].
56
Castells Manuel, 2010, « Naissance des "médias de masse individuels" », Manière de voir, n° 109, p. 44.

Page 38
phénomène de mobilisation sans institutions (organizing without organization) permis
par ces technologies. Lʼélément déterminant dans le potentiel de mobilisation des outils
numériques est, selon lʼexpression de lʼauteur, la chute des « couts de transaction »
dans la formation et la coordination des groupes sʼorganisant en ligne. Illustration de ce
pouvoir mobilisateur, la Biélorussie, où en 2006 le président a été réélu
frauduleusement avec 85% des voix. Risquant la répression du régime, la jeunesse de
Minsk trouvant ses seuls espaces de liberté sur Internet, décide dʼimiter le phénomène
américain des « flashmobs » pour exprimer son mécontentement en se retrouvant sur
la place centrale de la ville avec une glace à la main, manière de faire un pied de nez
pacifiste au régime.57
La « mobilisation politique instantanée » selon lʼexpression de Manuel Castells
dans Mobile Communication and Society est devenue un phénomène décisif dans la vie
des sociétés politiques partout dans le monde. Les réseaux de communications ont
conduit à la naissance de mouvements dʼopinion importants comme en 2004 en
Espagne, lors de la défaite aux élections législatives du Parti Populaire de José Maria
Aznar. Soupçonnant une manipulation de lʼinformation par les autorités qui tentaient
dʼimputer la responsabilité des attentats de Madrid à lʼETA, les téléphones portables et
les blogs ont permis lʼorganisation dʼune immense manifestation de protestation et de
recueillement qui a fortement contribué à la défaite du parti dʼAznar.
Un des autres aspects du rôle dʼInternet dans lʼexercice de la liberté dʼexpression
est la possibilité offerte par la technologie pour les opinions impopulaires qui dʼordinaire
trouvent peu dʼespaces dʼexpression. Pour Tocqueville, la démocratie comporte le
risque d'une toute puissance de la majorité : en légitimant son autorité par la
souveraineté populaire sʼexprimant par le suffrage majoritaire, un pouvoir peut s'avérer
oppressif à l'égard de la minorité qui a nécessairement tort puisqu'elle est minoritaire.
Ainsi, les démocraties ont créé un ensemble de règles permettant aux opinions
minoritaires de sʼexprimer, et dʼavoir la possibilité dʼinfluencer le processus de
délibération démocratique. Comme lʼexplique Dawn Nunziato, lʼaspect le plus important
de la liberté dʼexpression est la possibilité pour des opinions minoritaires
(countermajoritarian) et impopulaires de sʼexprimer librement, et pour le citoyen dʼêtre
exposé à une variété dʼopinions. Internet facilite cet aspect essentiel de la liberté
dʼexpression, les opinions les plus controversées peuvent facilement circuler et trouver

57
Rheingold Howard, « Ice cream politics: flash mob in Belarus », Smart Mobs. Adresse :
http://www.smartmobs.com/2006/10/03/ice-cream-politics-flash-mob-in-belarus/ [Accédé : 15 Février 2010].

Page 39
un écho sur le web. Les mouvements politiques les plus divers utilisent Internet comme
ressource de communication, mais aussi dʼorganisation du mouvement et de débat. Par
exemple, le mouvement altermondialiste sʼest organisé en grande partie sur Internet et
a développé par ce biais une capacité dʼinfluence sur les médias dʼinformation
traditionnels. Selon Manuel Castells, « lʼinfluence la plus déterminante que les médias
exercent sur la politique ne procède pas de ce qui est publié, mais de ce qui ne lʼest
pas. De ce qui est occulté, passé sous silence ? […] Seul existe dans lʼesprit du public
58
ce qui existe à travers les médias. » A lʼheure de la communication de masse
individuelle, cette occultation est rendue de plus en plus difficile par le fait que chacun
dispose des outils pour rendre publique une information occultée.
A travers ce panorama des mutations de la société en réseau, nous pouvons
affirmer quʼune part grandissante des sphères de notre vie sʼorganise par Internet.
Contrôler ce réseau revient à disposer dʼune influence déterminante sur lʼensemble de
la société : tel est lʼenjeu de la neutralité du net. Comme lʼexplique Manuel Castells,
auteur référence sur la société en réseau, « Dans la société en réseau, […] le pouvoir
ne réside pas dans les institutions, ni même dans lʼEtat, ou dans les grandes
entreprises. Il se situe dans les réseaux qui structurent la société. Ou plutôt dans ce que
je propose dʼappeler les “interrupteurs” (switchers) ; cʼest à dire, les mécanismes
connectant ou déconnectant des réseaux sur la base de certains programmes ou
stratégies »59.
Au terme de ce premier chapitre, nous avons pu voir quʼInternet est apparu à un
moment de mutation de lʼéconomie et des sociétés vers la fin des organisations
disciplinaires hiérarchiques. Internet a pu accompagner leurs mutations depuis les
années 90 et joue un rôle fondamental dans lʼorganisation de nos sociétés. Dans lʼesprit
des concepteurs du réseau et dans lʼarchitecture dʼInternet, lʼidée dʼun contrôle de la
circulation de lʼinformation était exclue. Lʼenjeu de la neutralité du net est donc essentiel
pour lʼensemble des individus : pourrons-nous toujours communiquer librement en ligne,
indépendamment des intérêts commerciaux et politiques ? Nous allons analyser, dans
le chapitre suivant, comment les opérateurs et les États ont discriminé, bloqué et filtré à
de multiples reprises les contenus circulant sur Internet.

58
Castells Manuel, 2010, op.cit.
59
Castells, M, ʻAfterword: why networks matterʼ in H McCarthy, Network Logic: Who governs in an
interconnected world? 2004. Adresse http://www.kirkarts.com/wiki/images/5/51/Castells_Why_Networks_Matter.pdf

Page 40
(>?@ABCD)P6)(?I)DB)@CJQDBI)L7?BBDAFBD)?G)@CAFMA@D)LD)FDGBC?NABH)DF)
3C?FMD)DB)?GO)+B?BI='FAI)

Dans ce chapitre, nous allons voir que les cas de filtrage et de discrimination de
données échangées sur Internet ont connu une forte croissance ces dix dernières
années. Les atteintes au principe de neutralité du net ont pour source soit (I.) lʼaction de
Fournisseurs dʼAccès à Internet (FAI), soit peuvent être (II.) à lʼinitiative des Etats.
Nous verrons dans ce chapitre que les atteintes au principe de neutralité du net se
déroulent dans des circonstances très différentes aux Etats-Unis ou en Europe. Alors
que la discrimination de contenus découle majoritairement du fait des opérateurs
dʼaccès à Internet dérégulés depuis une décision de la Federal Communication
Commission de 2002 confirmée en 2005 par la Cour Suprême, les cas dʼatteinte au
principe de neutralité dʼInternet se multiplient en Europe du fait dʼune pression
législative visant à réguler Internet.

!6 0?C)NDI)RJGCFAIIDGCI)L7?MMSI)
Dans un premier temps, nous allons aborder les mécanismes dʼatteinte au
principe de neutralité du net par les fournisseurs dʼaccès et leurs conséquences. Ce
type dʼatteinte au principe de neutralité du net sʼest particulièrement développé aux
États-Unis, où les autorités ont adopté depuis 2002 une jurisprudence enlevant toute
obligation de non-discrimination des contenus pour les FAI. En effet, jusquʼau
développement de lʼaccès à Internet à haut débit, les fournisseurs dʼaccès étaient
soumis à la règle dite du common carriage (transport dʼintérêt public) imposé alors aux
opérateurs de téléphonie par le Communications Act de 1934. Selon cette règle, les
opérateurs sont soumis à une obligation de transmettre par leur réseau lʼensemble des
conversations légales, étendues par la suite à la communication de tout contenu légal
échangé sur Internet. En 2002, la FCC sʼest prononcé sur le fait que les fournisseurs
dʼaccès à Internet à haut débit nʼétaient pas soumis aux mêmes obligations que leurs
homologues opérant à bas débit. Décision confirmée par la suite par la plus haute
législation fédérale, la Cour Suprême, dans sa décision National Cable &
Telecommunications Assn. v.brand X Internet Services de 2005. Ainsi, les opérateurs
du haut débit aux États-Unis ont été affranchis de toute contrainte de non-discrimination
Page 41
de contenus, ce qui a mené à de nombreuses atteintes au principe de neutralité
dʼInternet, notamment à lʼégard de contenus à portée politique, ce qui est une atteinte à
la liberté dʼexpression des citoyens. Nous verrons que les opérateurs ont par divers
moyens empêché lʼexpression et lʼaccès à des contenus à caractère politique (a.), filtré
des communications et des usages du réseau allant à lʼencontre de leurs intérêts
commerciaux (b.) et nous étudierons en détail lʼaffaire Comcast (c.) sur la question du
filtrage des échanges de pair à pair (peer-to-peer).

#+ :%9&'#E()4()52-&(-/1)H)5#'#5&D'()$29%&%J/()
Plusieurs exemples de filtrage de contenus à caractère politique ont eu lieu aux
États-Unis depuis la suppression des contraintes dites de common carriage envers les
opérateurs du haut débit.
En juin 2005, lʼopérateur Comcast, leader de lʼADSL haut débit aux États-Unis, a
bloqué lʼenvoi et la réception dʼemails contenant le terme www.AfterDowningStreet.org
pour lʼensemble des adresses hébergées par Comcast.60 Le mouvement
AfterDowningStreet, sʼorganisant uniquement en ligne, cherchait alors à communiquer
avec ses dizaines de milliers de supporters par courriel pour annoncer le lancement
dʼune campagne de lobbying auprès du Congrès pour obtenir le lancement dʼune
procédure dʼimpeachment (mise en accusation pouvant conduire à la destitution du
président) à lʼencontre du président Bush. Leur mise en accusation portait sur lʼaffaire
dite « des mémos du Ten Downing Street »61, à propos dʼun document divulgué par la
presse britannique en 2005 à portant dʼune possible réunion secrète en 2002 du
gouvernement britannique avec des membres des services secrets américains faisant
référence à des documents classifiés prévoyant dans le détail la stratégie en vue de
destituer Saddam Hussein. Pendant plusieurs semaines, les usagers avec Comcast
comme opérateur de messagerie électronique nʼont pas pu recevoir tout mail faisant
référence à lʼorganisation AfterDowningStreet. Il fallut plusieurs semaines aux militants
de lʼassociation pour découvrir le blocage de Comcast, ce qui a porté grandement
atteinte à leur projet de lobbying qui impliquait la contribution des militants parmi
lesquels les utilisateurs de Comcast nʼont pas eu accès aux informations de la part
dʼAfterDowningStreet. Comcast nia toute responsabilité et accusa BrightMail, propriété

60
Nunziato C. Dawn, 2009, op.cit., p.4.
61
Downing Street memo, Wikipédia, Adresse : http://en.wikipedia.org/wiki/Downing_Street_memo#Internet
[Accédé : 18 Février 2010].

Page 42
de Symantec en charge du filtrage des courriels des comptes Comcast, AOL et Cox
Cable. De son côté, Symantec a prétendu avoir reçu 46 000 courriels se plaignant de la
réception abusive comportant lʼadresse dʼAfterDowningStreet tout en refusant de mettre
en évidence le moindre courriel de complainte. Au terme dʼune campagne de pression
auprès de la société Symantec, un terme a été mis au filtrage des courriels
dʼAfterDowningStreet dont lʼavenir de lʼorganisation a été grandement compromis par la
campagne de censure de Comcast.
Un mois plus tard, un autre mouvement pacifiste a été victime de la censure de
Comcast exercée sur des courriels. Lʼorganisation MeetwithCindy, dirigée par Cindy
Sheehan militante anti-guerre dont le fils est mort en Irak, a vu ses communications par
courriel bloquées sur lʼensemble des comptes de messagerie Comcast, Cox entre
autres. Comme dans lʼaffaire AfterDowningStreet, ni lʼenvoyeur ni le destinataire des
courriels nʼétaient informés du blocage de leurs télécommunications. Après la
mobilisation de la blogosphère62, il fallut plusieurs jours pour lʼopérateur et son service
de filtrage des courriels pour lever la censure du mouvement MeetWithCindy. Dawn
C.Nunziato évoque dʼautres cas de filtrage dʼInternet ayant eu lieu à la suite des
événements du 11 septembre 2001 et du déclenchement de la guerre en Iraq. En 2005,
le fournisseur dʼaccès Vortech a bloqué lʼaccès au site YellowTimes.org car il avait
publié des images de soldats américains capturés par des Irakiens. 63
Autre exemple de censure de contenu politique sur le réseau : le FAI historique
AT&T a procédé en août 2007 à lʼinterruption de la diffusion sur le web dʼun concert du
groupe de rock Pearl Jam au festival Lollapalooza. Au cours de ce concert, lors dʼune
reprise de la chanson « Another brick in the wall » de Pink Floyd, le chanteur du groupe
a ouvertement critiqué le président George W.Bush, paroles que lʼopérateur AT&T a de
suite censuré.64 En empêchant un artiste de sʼexprimer sur un sujet dʼimportance
cruciale pour la démocratie américaine, lʼopérateur AT&T a ainsi atteint au principe de
neutralité du net et restreint la liberté dʼexpression des citoyens pour la raison que ces
paroles (« George Bush, laisse ce monde tranquille ») pourraient choquer certains
spectateurs.

62
The BRAD BLOG : CENSORING AGAIN: Comcast Blocks Emails Linking to Cindy Sheehan Website!,
Adresse : http://www.bradblog.com/?p=1721 [Accédé : 19 Février 2010].
63
Nunziato C. Dawn, 2009, op.cit., p.
64
Pearl Jam censored by AT&T, calls for a neutral 'Net, Adresse :
http://arstechnica.com/old/content/2007/08/pearl-jam-censored-by-att-calls-for-a-neutral-net.ars [Accédé : 19 Février
2010].

Page 43
Les atteintes à la neutralité du net nʼont pas concerné seulement des
Fournisseurs dʼAccès à Internet. Les registres de noms de domaine ont un rôle
essentiel dans le fonctionnement du web, car ils fournissent une base de données de
tous les noms de domaine réservés. Quiconque souhaite réserver un nom de domaine
pour une certaine période doit passer par leur intermédiaire. En 2008, Network
Solutions Inc. (NSI), un des principaux registres américains, a suspendu le nom de
domaine www.fitnathemovie.com réservé par lʼhomme politique néerlandais Geert
Wilders extrêmement critique de lʼIslam65. Au moment de la suspension du nom de
domaine, une seule page était disponible sur le site web contenant une illustration du
Coran accompagnée du texte « Allah Akhbar » (Dieu est grand en arabe). NSI a alors
justifié sa suspension du nom de domaine par le fait que le site pourrait à terme
héberger du contenu contraire à ses conditions de service qui stipule qui interdit de
« poster ou dʼhéberger un contenu inacceptable (objectionnable) de tout type ou
nature ». Il est intéressant de voir, quʼil sʼagit dʼun opérateur privé ne souhaitant pas
prendre le risque de plaintes dʼutilisateurs pour un contenu hébergé sur ses serveurs
qui fait le choix de suspendre un nom de domaine avant même toute infraction aux
conditions dʼutilisations du service. De plus, NSI agit sans se référer à la loi, mais
seulement à ses propres conditions dʼutilisation du service, pour interdire lʼhébergement
du site incriminé. Seule lʼarbitraire de lʼentreprise a abouti à la censure du site en vertu
de conditions dʼutilisations opaques quant aux contenus acceptables sur son service, et
non la décision dʼun juge.
A notre connaissance, les opérateurs dʼaccès à Internet en France nʼont pas
exercé de filtrage de contenus à caractère politique.
Comme nous lʼavons étudié à travers ces différents exemples, lʼabsence de
régulation des fournisseurs dʼaccès à Internet ainsi que des intermédiaires principaux
qui assurent le fonctionnement du réseau, a conduit à des atteintes à la liberté
dʼexpression. Ce sont alors des acteurs privés qui restreignent lʼexpression de certaines
opinions. Notamment, le filtrage, à de plusieurs reprises, a empêché lʼexpression de
prises de position allant à lʼencontre de lʼopinion de la majorité qui ne trouvent
généralement que peu dʼéchos dans les médias traditionnels. Pour ces organisations,
communiquer par Internet est une nécessité afin de sʼorganiser et dʼavoir de lʼinfluence

65
BBC NEWS | World | Europe | Dutch Islam film website 'shut', Adresse :
http://news.bbc.co.uk/1/hi/world/europe/7310439.stm [Accédé : 19 Février 2010].

Page 44
dans la sphère publique. Un des aspects les plus litigieux dans ces cas de filtrage est
son opacité pour les groupes subissant une telle censure.

K+ :%9&'#E() 4() 52-&(-/1) #99#-&) H) 98(-52-&'() 4(1) %-&0'O&1) 52AA('5%#/;)


(&)052-2A%J/(1)4(1):2/'-%11(/'1)48G55D1)H),-&('-(&)
En lʼabsence de loi imposant leur neutralité, les Fournisseurs dʼAccès à Internet
ont agi à de nombreuses reprises pour restreindre les usages du réseau qui ne
répondent ni à leur modèle économique ou à leur politique interne.
Une des premières remises en cause de la neutralité du net est apparue au
Canada en 2005. Le second FAI canadien, Telus, faisait alors face à un mouvement
social du syndicat Telecommunication Workers Union. Le 21 juillet 2005, après le
déclenchement de la grève, Telus a ordonné le blocage du site voices-for-changes.com
militant pour les droits des syndicats et des travailleurs66. Lʼopérateur a employé une
technique de filtrage par adresse IP, qui a par ailleurs bloqué plus de 750 sites
partageant la même adresse IP que Voices for Changes parmi lesquels figurent le site
dʼune association américaine informant sur le cancer du sein, des sites dʼinformation
sur le recyclage ou sur lʼassurance santé aux États-Unis Medicare. Plus quʼune atteinte
à la neutralité de lʼopérateur technique, cet exemple pose de sérieux problèmes en
terme de liberté syndicale et de liberté dʼexpression. Comme nous le verrons dans le
chapitre 3, cet exemple montre quʼaucun système de filtrage ne parvient à éviter le
surblocage qui restreint la liberté de communication de dizaines dʼindividus ou de
groupes à la faveur des intérêts commerciaux dʼun opérateur technique.
En outre, un autre exemple questionne la neutralité du net : un fournisseur
dʼaccès a censuré des courriels critiquant sa politique commerciale En 2006, le
fournisseur dʼaccès AmericaOnLine (AOL) a proposé de modifier sa politique dʼemail.
Une organisation de consommateurs en ligne, DearAOL.com, se crée à lʼoccasion pour
critiquer ce projet qui instaurerait un système de messagerie à deux vitesses entre des
courriels payants à chaque envoi qui contournerait le système de filtrage dʼAOL, et les
courriels classiques gratuits sans garantie dʼarrivée au destinataire.67Les messages

66
A Canadian Telecom's Labor Dispute Leads to Blocked Web Sites and Questions of Censorship - New
York Times, New York Times. Adresse :
http://www.nytimes.com/2005/08/01/business/worldbusiness/01telus.html?_r=1 [Accédé : 19 Février 2010].
67
Nunziato C. Dawn, 2009, op.cit, p.

Page 45
contenant un lien vers le site DearAOL.com ne sont alors plus acheminés aux
utilisateurs dʼAOL du fait du blocage de ces courriels par lʼopérateur. 68
Lʼexemple le plus courant de remise en cause de la neutralité du net réside dans
les restrictions imposées à lʼaccès à Internet sur téléphone mobile dans la plupart des
pays dʼEurope et aux États-Unis. En effet, la plupart des opérateurs de téléphonie
mobile inscrivent dans leurs contrats des clauses restreignant lʼaccès à Internet des
terminaux mobiles. En particulier, les services de voix sur IP (VoIP) qui acheminent les
conversations vocales par Internet permettent de passer des appels gratuits ou à tarif
réduit. Avec la forte croissante du marché des smartphones (téléphones mobiles
disposant de fonctionnalité avancées proches dʼun ordinateur personnel) connectés aux
réseaux mobiles à haut débit, les appels pourraient être acheminés par Internet, la
Commission Européenne69 cherche à développer la VoIP en imposant le déblocage de
tels usages. La garantie de la neutralité du net, y compris sur les réseaux de téléphonie
mobile, aurait permis de développer la VoIP et réduire le coût de la téléphonie mobile.
Or, en France, ce service est contractuellement bloqué par les trois opérateurs
Bouygues Télécom, SFR et Orange. En Allemagne, T-Mobile surfacture l'abonnement
Internet illimité de 10 euros par mois pour la VoIP. Vodafone fait de même en
Angleterre. Jérémie Zimmermann, porte parole de la Quadrature du net70, préfère ainsi
parler dʼun « pseudo Internet mobile », avis partagé par Jean Jacques Sahel,
responsable des affaires réglementaires de Skype pour qui « les opérateurs disent
vendre de l'Internet alors qu'ils en restreignent l'usage. »71 Dans de telles conditions,
des services de VoIP comme Skype nʼauraient pas pu se développer si elles nʼavaient
pas tiré avantage de la garantie de non-discrimination de leurs services sur Internet en
vigueur au moment de la création. Le concept dʼ « innovation sans permis contribué au
développement de nombreuses entreprises de la net-économie alors que leur modèle
économique allait à lʼencontre dʼautres acteurs du marché, y compris les FAI et les
opérateurs de téléphonie fixe. En dʼautres termes, en restreignant lʼusage de la VoIP et
dʼautres usages de lʼInternet mobile, les opérateurs téléphoniques abusent de leur

68
AOL Censors Opposition Group, Mediacitizen. Adresse : http://mediacitizen.blogspot.com/2006/04/aol-
censors-opposition-group.html [Accédé : 20 Février 2010].
69
Mobile : la téléphonie sur Internet arrivera en 2010, 01Net. Adresse :
http://www.01net.com/editorial/512250/mobile-la-telephonie-sur-internet-arrivera-en-2010/ [Accédé : 19 Février 2010].
70
9 octobre 2009, « La neutralité des réseaux », Place de la Toile, France Culture. Adresse :
http://sites.radiofrance.fr/chaines/france-culture2/emissions/place_toile/fiche.php?diffusion_id=77209.
71
Jean-Jacques Sahel (Skype) : « Les opérateurs mobiles sont en train de changer d'attitude face à la VoIP
», Adresse : http://www.01net.com/editorial/512296/skype-les-operateurs-mobiles-changent-dattitude-face-a-la-voip/
[Accédé : 19 Février 2010].

Page 46
position dominante. Leurs restrictions vont à lʼencontre de la liberté de choix du
consommateur, de la liberté du marché ainsi que de lʼintérêt général qui devrait
prévaloir sur les intérêts particuliers de ces entreprises privées.
Un des arguments les plus fréquemment utilisés par les FAI pour restreindre ou
bloquer lʼaccès à certains sites est quʼils auraient une consommation excessive en
bande passante. Nous verrons dans le chapitre 4 que cet argument est une remise en
cause du modèle de croissance dʼInternet, et pourrait à terme menacer le
développement du réseau et de ces usages. Plusieurs exemples de blocage et de
discrimination de sites par des FAI existent. En août 2007, le site de partage de vidéos
Dailymotion était très difficilement accessible et ralenti pour les abonnés du fournisseur
dʼaccès Neuf Télécom. La raison réside dans le renouvellement dʼaccord dit de
« peering » entre les sites les plus consommateurs de bande passante. Un lien de
peering modifie lʼarchitecture du réseau pour établir une connexion directe entre un site
et un fournisseur dʼaccès, ou entre deux fournisseurs dʼaccès. Lʼaccès au site est alors
bien plus rapide, car il passe par moins dʼintermédiaires72. Or, lʼopérateur Neuf a estimé
que la bande passante utilisée par Dailymotion coutait trop cher et a décidé de
suspendre la liaison de peering entre les deux opérateurs, le débit est alors passé de
10 Gbps (Gigabit par seconde) à 1 Gbps ce qui a rendu la lecture de vidéo quasi
impossible pour les abonnés Neuf. Pour les opérateurs, le développement des vidéos
en streaming a entrainé une hausse de la consommation en bande passante des
abonnés. Selon une étude Comscore de décembre 2009, le nombre total de vidéos
regardées en streaming par les internautes français aurait crû de 141% entre
septembre 2008 et septembre 200973. Par ailleurs, selon le même cabinet, le nombre
de vidéos visualisées en moyenne par chaque internaute français est passé de 64
vidéos par mois en avril 200774 à 156 en septembre 2009. Ainsi, ces quelques chiffres
montrent la très forte croissance du secteur de la vidéo en streaming, très
consommatrice en bande passante. Pour poursuivre la vague dʼinnovation sans
précédent quʼa généré la démocratisation de lʼaccès à Internet, les fournisseurs dʼaccès

72
Neuf et Dailymotion se battent à coups de tuyaux- Ecrans, Adresse : http://www.ecrans.fr/Les-tuyaux-de-
la-colere,1926.html [Accédé : 19 Février 2010].
73
Comscore Inc, « French Online Video Consumption Surges 141 Percent in the Past Year to 5.4 Billion
Videos Viewed In September 2009 », Adresse :
http://www.comscore.com/Press_Events/Press_Releases/2009/12/French_Online_Video_Consumption_Surges_141
_Percent_in_the_Past_Year_to_5.4_Billion_Videos_Viewed_In_September_2009 [Accédé : 20 Février 2010].
74
Internet Users in France Spend 13 Percent of Their Time Online Streaming Videos - comScore, Inc,
Adresse : http://www.comscore.com/Press_Events/Press_Releases/2007/06/Online_Video_Streaming_in_France
[Accédé : 20 Février 2010]

Page 47
doivent poursuivre les investissements dans le réseau et accepter les dépenses en
bande passante entrainée par lʼactivité de ses utilisateurs. Pour cela, inscrire la
neutralité du net dans la loi est nécessaire pour garantir lʼavenir du « système
génératif » dʼInternet décrit par Jonathan Zittrain.

5+ )@8#BB#%'()!2A5#1&)
Lʼaffaire du filtrage des échanges de fichier via les systèmes de Peer-to-Peer
(pair-à-pair en français ou P2P) par lʼopérateur américain Comcast a été une des
premières affaires majeures de la courte histoire de la neutralité du net. Cette affaire
illustre la difficile articulation entre les politiques opaques de filtrage exercées par les
opérateurs, les intérêts du public et la capacité de réaction des autorités de régulation
des télécoms.
Les débuts de lʼ « affaire Comcast » remontent à 200775. En février, Robb
Topolski, abonné de Comcast et expert en ingénierie informatique chez Intel constate
de nombreuses interruptions dans ses échanges de fichiers effectués avec la
technologie dite du peer-to-peer. Après quelques recherches, il constate que le cablo-
opérateur envoie de faux paquets avec le RST (reset) qui, selon le protocole TCP,
réinitialise et casse la connexion entre les deux parties échangeant des fichiers par
peer-to-peer. La chaine MSNBC illustre lʼinterférence de Comcast sur lʼéchange de
fichier en faisant un parallèle avec une conversation téléphonique dans laquelle
lʼopérateur sʼimmisce secrètement et, prenant la voix de lʼautre correspondant, dit
“Désolé je dois raccrocher. Salut !”.
Par la suite, de nombreuses organisations constatent lʼingérence de Comcast
dans les échanges de fichier dont lʼElectronic Frontier Foundation (EFF),76 un des
principaux groupes de défense de la neutralité du net, ainsi que par lʼagence Associated
Press77. Lʼaffaire est alors fortement relayée par la presse durant lʼété 2007 qui accuse
Comcast de filtrer les échanges de contenus utilisant BitTorrent et dʼautres logiciels
utilisant le modèle Peer-to-Peer dʼéchange de fichiers. Or, le P2P est une des
technologies les plus utilisées dʼInternet, qui tire avantage de lʼarchitecture dite de
« bout-à-bout » du réseau. Les systèmes peer-to-peer permettent à plusieurs

75
Pour plus de détail, nous invitons le lecteur à se référer à Girardeau Astrid, 2009, « [Actu] La neutralité du
net : retour sur lʼaffaire Comcast », The Internets. Adresse : http://www.theinternets.fr/2009/12/28/actu-la-neutralite-
du-net-retour-sur-laffaire-comcast/ [Accédé : 20 Février 2010].
76
http://www.eff.org/wp/packet-forgery-isps-report-comcast-affair
77
Comcast blocks some Internet traffic - Internet- msnbc.com, Adresse :
http://www.msnbc.msn.com/id/21376597/ [Accédé : 20 Février 2010].

Page 48
ordinateurs de partager des fichiers le plus souvent, mais également des flux
multimédia continus (streaming), le calcul réparti, un service (comme la téléphonie avec
Skype) sur Internet. Ses usages sont multiples, et ses applications pour lʼéchange de
fichiers ne se résument pas aux fichiers “piratés”. Par exemple, via le protocole de
transfert de données pair à pair BitTorrent, lʼassociation SOS Villages dʼEnfants a mis à
disposition une version CD de lʼencyclopédie en ligne Wikipédia à usage scolaire. De
surcroît, BitTorrent est aussi très utilisé pour échanger des copies du système
dʼexploitation libre Linux. Autant dʼusages devenus impossibles pour les millions
dʼabonnés de Comcast.
Accusé de sʼinterférer dans les communications de ses abonnés, Comcast
persiste à nier et explique que la société ne surveille pas activement ce que
téléchargent ses abonnés, mais quʼelle se réserve le droit de couper le service aux
clients utilisant trop de bande passante. Face à cette atteinte caractérisée à la neutralité
du net, le 1er novembre, la coalition Save the Internet, composée de centaines de
groupes de défense de la liberté dʼexpression avec à leur tête lʼorganisation de défense
de la liberté des médias FreePress, dépose une pétition et une plainte auprès de la
FCC78. Selon lʼInternet Policy Statement de 2005, le rôle de lʼautorité américaine de
régulation des télécoms est de sʼassurer que les fournisseurs dʼaccès à Internet opèrent
de manière neutre ». La coalition réclame alors une indemnité de 195 000$ (135 000 €)
par consommateur. Le même mois, la société californienne Vuze qui utilise le protocole
BitTorrent pour distribuer des vidéos porte plainte contre Comcast, ainsi quʼun abonné
californien, Jon Hart, pour violation des contrats des utilisateurs et publicité mensongère
car lʼoffre haut-débit de Comcast vante « un accès sans entraves à tout ce quʼInternet a
à offrir. » Dans plusieurs Etats, lʼaffaire est portée en recours collectif (class-action) et
portée à la cour fédérale.
En janvier 2008, la FCC décide dʼouvrir une enquête qui, le 1er aout, conclut que
lʼopérateur a violé la loi fédérale de 2005 en bloquant les échanges utilisant le protocole
BitTorrent « sans lien avec les périodes de congestion [du réseau] ni la taille des
fichiers ». En effet, jusquʼici lʼopérateur a revendiqué son droit à employer des
« méthodes raisonnables de gestion du réseau » (reasonable network management)
compris dans lʼInternet Policy Statement. La FCC déboute lʼargument de Comcast et
pointe du doigt lʼabsence de transparence de son filtrage pour les consommateurs. Les

78
http://www.freepress.net/files/fp_pk_comcast_complaint.pdf

Page 49
défenseurs de la neutralité du net se félicitent de cette décision, mais sʼinquiètent
quʼelle ne sʼapplique quʼà un seul cas et que, par ailleurs, Comcast prépare dʼautres
actions de « gestion » du réseau. La décision de la Commission contraint Comcast à
cesser toute discrimination sur la bande passante et à rendre publiques ses pratiques
de gestion du réseau, son plan pour les éliminer et informer ses clients et la FCC de
ses prochaines pratiques. Quelques semaines plus tard, Comcast annonce quʼil va
plafonner les téléchargements de ses abonnés à 250 GB par mois, une limite qui ne
sʼapplique pas à son propre service de VoIP « Comcast Digital Voice ». Face à cette
pratique de priorisation (discriminer et privilégier certains services aux dépens dʼautres
sur le réseau) contraire au principe de neutralité du net, la FCC envoie une lettre à
lʼopérateur lʼinterrogeant pourquoi il traite différemment son service des autres.
Lʼaffaire sʼest finalement conclue le 18 décembre 2009 : Comcast décide de
mettre un terme à lʼaction collective Hart vs Comcast en acceptant de payer 16 millions
de dollars à un fond dʼindemnisation avec la promesse de dédommager jusquʼà 11$ les
abonnés ayant subi les pratiques de filtrage de Comcast. Pourtant, lʼopérateur prévoit
de nouvelles mesures de priorisation avec son service de vidéo en streaming “Fancast
Xfinity TV” qui nécessitera lʼutilisation dʼun logiciel dʼidentification pour que le trafic de
son service soit prioritaire sur le réseau. Selon Benjamin Bayart, président du FAI
associatif French Data Network, et défenseur de la neutralité du net, Comcast abuse de
sa position dominante : « Comcast favorise son service, pourtant sur Internet, par
rapport à celui de ses concurrents. Et donc utilise sa position de fournisseur dʼaccès
pour asseoir sa position de marchand de contenu vidéo ».79
Entre mars 2008 et janvier 2009, une étude de lʼInstitut Max Planck pour les
systèmes informatiques a tenté dʼévaluer lʼampleur du filtrage du trafic BitTorrent80.
LʼInstitut a mis à disposition en ligne un test sur son site Internet intitulé “Glasnost”
(transparence en russe) qui a été effectué par près de 100 000 utilisateurs dans le
monde. Comcast est le FAI qui a exercé le plus de blocage des échanges via BitTorrent
avec 7719 tests effectués, 3416 cas de blocage. Cette étude réfute aussi lʼargument
selon lequel Comcast exerce ses pratiques de blocage des échanges via BitTorrent
puisque les tests ont montré une grande stabilité du filtrage selon lʼheure du jour ou le

79
Girardeau Astrid, 2009.
80
Institut Max Planck, 2009, « Glasnost: Results from Tests for BitTorrent Traffic Blocking », Adresse :
http://broadband.mpi-sws.org/transparency/results/ [Accédé : 21 Février 2010].

Page 50
jour de la semaine comme le montrent les graphiques suivants.

Figure 3. Blocage des transferts via BitTorrent sur le réseau Comcast par
heure et jour de la semaine81
Lʼaffaire Comcast a été une des premières véritables batailles juridiques de la
neutralité du net. Lʼopérateur à de nombreuses reprises, a joué dʼune législation floue
notamment sur la question de la « gestion raisonnable du réseau » (reasonable network
management). Il est en effet difficile de prouver la nécessité de pratiques de régulation
de la bande passante, quand lʼabonné paie pour un service soit disant illimité et que
lʼopérateur cherche à maximiser ses profits en diminuant ses investissements dans le
réseau.

!!6 0?C)NDI)+B?BI)
Alors quʼaux États-Unis les cas dʼatteinte à la neutralité du net sont uniquement
commis par les intermédiaires du réseau, les cas de discrimination, de filtrage et de
blocage sur Internet sont de plus en plus nombreux en Europe du fait de la
multiplication des législations régulant Internet en Europe. Dans la première section (a.),
nous établirons un bref panorama des différents pays dʼEurope exerçant un filtrage de
lʼInternet sur les contenus pédopornographiques. Dans la deuxième section (b.), nous
aborderons le projet actuellement discuté de lʼaccord ACTA pouvant instaurer le filtrage
généralisé dʼInternet, et enfin (c.) nous étudierons le dispositif de filtrage mis en place
par loi LOPPSI.

81
Institut Max Planck, 2009, Adresse : http://broadband.mpisws.org/transparency/results/figures/comcast
_perday.png et http://broadband.mpi-sws.org/transparency/results/figures/comcast_perhour.png

Page 51
#+ @() 403(92$$(A(-&) 4/) B%9&'#E() 4#-1) 9#) 9/&&() 52-&'() 9#)
$042$2'-2E'#$"%()(-)P/'2$()
Le filtrage dʼInternet sʼest développé dans de nombreux pays dʼEurope depuis
certaines années. Il sʼest imposé pour répondre aux problèmes posés par certains
contenus diffusés sur Internet82 : les sites pornographiques devant être légalement
inaccessibles aux mineurs dans lʼensemble des pays de lʼUnion Européenne ; la
pédopornographie condamnée dans tous les pays dʼEurope et faisant partie des
infractions prévue par la Convention sur la Cybercriminalité adoptée par le Conseil de
lʼEurope en 200183 ; lʼincitation à la haine raciale et à la xénophobie ; les jeux dʼargent
illégaux sur Internet qui contournent les législations nationales en la matière ; la
violation des droits dʼauteur ; les contenus publiés par des organisations terroristes et
les incitations au crime.
Ici, nous nous intéresserons uniquement au filtrage exercé dans le cadre le la
lutte contre les contenus pédopornographiques échangés sur Internet. Au Royaume
Uni, lʼorganisation non gouvernementale Internet Watch Foundation (IWF) met à
disposition une liste de sites « potentiellement illégaux »84 au terme dʼune collaboration
avec la police, les FAI, et le public. A lʼorigine restreinte uniquement aux sites diffusant
des images pédo-pornographiques, IWF liste aussi des sites incitants à la haine raciale
et considérés comme obscènes (criminally obscene websites). LʼIWF est citée comme
autorité de référence pour la lutte contre la pédopornographie sur internet, et ses
actions sont suivies de près par les pays scandinaves (Suède, Norvège, Finlande,
Danemark), lʼAustralie et le Canada. Le filtrage des sites Internet de la liste noire dʼIWF
est volontaire au Royaume Uni et procède de la décision des FAI par un filtrage dit
hybride (voir chapitre 3 I. b.). Toutefois, fin 2007, le Département de lʼIntérieur (Home
Office) britannique a projeté de rendre obligatoire le filtrage dʼInternet sur la base de la
liste dʼIWF.85 Tenue secrète, cette liste contiendrait entre 800 et 1200 adresses de
sites, mise à jour et envoyée deux fois par jour aux FAI. La technique de filtrage est
laissée au choix des FAI.

82
83
Conseil de l'Europe - Convention sur la cybercriminalité- STE no. 185, 2001, Adresse :
http://conventions.coe.int/Treaty/fr/Treaties/Html/185.htm [Accédé : 21 Février 2010].
84
Internet Watch Foundation, Wikipédia, the Free encyclopedia, Adresse :
http://en.wikipedia.org/wiki/Internet_Watch_Foundation [Accédé : 22 Février 2010].
85
Callanan Cormac et al., 2009, « Internet blocking balancing cybercrime responses in democratic
societies »,p.50. Adresse : http://www.pcinpact.com/media/Internet_blocking_and_Democracy.pdf.

Page 52
Le filtrage exercé par IWF a été particulièrement discuté lors de lʼépisode du
blocage de lʼencyclopédie Wikipédia du 5 au 9 décembre 2008. IWF avait fait suite à
une plainte dʼinternaute concernant la présence sur Wikipédia dʼune couverture de
lʼalbum Virgin Killer de 1976 du groupe Scorpion comportant un enfant nu, contenu que
lʼONG a jugé comme du contenu pédopornographique « potentiellement en violation
avec la loi sur la protection des enfants de 1978 »86. Du fait du système de filtrage
hybride, 95% du trafic venant du Royaume Uni vers en.wikipedia.org sʼest retrouvé filtré
car les 6 principaux FAI du pays pratiquent le filtrage dʼIWF. Il était alors impossible
pour lʼencyclopédie en ligne de déterminer lʼadresse IP des éditeurs des articles
Wikipédia. En effet, pour protéger le contenu de lʼencyclopédie, les adresses IP des
internautes considérés comme des « vandales » sont répertoriées pour empêcher des
modifications ultérieures. Lorsque Wikipédia est entré dans la liste noire dʼIWF,
lʼensemble des adresses IP filtrées par les FAI est passé par un serveur mandataire en
charge du filtrage (proxy) et tous les internautes se retrouvent avec la même adresse.
Bloquer un contributeur revient à les bloquer tous, Wikipédia a donc du désactiver la
fonction dʼédition des articles pendant plusieurs jours pour les internautes britanniques
alors que les 3 millions dʼarticles en anglais de lʼencyclopédie sont uniquement
alimentés par les contributions dʼutilisateurs. Début 2009, IWF a procédé à un autre
surblocage controversé en empêchant lʼaccès à WayBackMachine (archive.org). Ce
site, hébergé par une organisation à but non-lucratif est une sorte de machine à
remonter le temps sur le web et permet dʼaccéder aux versions antérieures de
nombreux sites archivés. Selon IWF, WayBackMachine permettrait aussi dʼaccéder à
des images pédopornographiques parmi les 87 milliards de page archivées. IWF a alors
ajouté certaines pages de WayBackMachine à sa liste noire, ce qui a provoqué un
blocage complet du site entier pour les abonnés de certains FAI britanniques.87
Comme au Royaume Uni, le filtrage volontaire dʼInternet par les FAI est particulièrement
répandu dans les pays dʼEurope du Nord, où les pratiques dʼautorégulation sont
courantes. En Suède, le blocage des sites pédopornographiques relève de la propre
volonté des FAI. Une unité spéciale de la police suédoise pour la lutte contre les
agressions sexuelles sur mineurs et la pédopornographie, est chargée dʼétablir la liste
noire des sites bloqués et de la maintenir à jour. Or, cette liste est très peu mise à jour

86
Girardeau Astrid, « Un Wikipédia sans filtre, s'il vous plaît », Ecrans.fr. Adresse : http://www.ecrans.fr/Un-
Wikipedia-sans-filtre-s-il-vous,5912.html [Accédé : 22 Février 2010].
87
IWF confirms Wayback Machine porn blacklisting • The Register, The Register. Adresse :
http://www.theregister.co.uk/2009/01/14/iwf_details_archive_blacklisting/ [Accédé : 22 Février 2010].

Page 53
ce qui a conduit le premier opérateur du pays (41% de parts du marché), TeliaSonera à
adopter la solution de filtrage hybride proposée par lʼentreprise Netclean88. En juillet
2007, la police suédoise a menacé le site permettant l'échange de fichiers torrents The
Pirate Bay dʼêtre ajouté à la liste noire pour « propagation de contenus pédophiles »89.
Or, les responsables du site nʼont été nullement contactées par la police et ont affirmé
sur leur blog lutter contre la pornographie enfantine en censurant tout torrent menant à
de telles contenus. Cet exemple illustre un des intérêts quʼont les Etats européens à
généraliser le filtrage dʼInternet sous prétexte de lutte contre la pédopornographie : il
permet de mettre en place les mécanismes et infrastructures en vue de filtrer dʼautres
types de contenus illégaux et controversés. De nombreuses associations de défenses
des libertés individuelles craignent que les systèmes de blocages ne soient détournés
de leur finalité première qui est le blocage des sites pédopornographiques, et quʼils ne
soient étendus peu à peu au blocage dʼautres types de contenus.
Le filtrage dʼInternet sur la base volontaire des FAI intervient aussi en Norvège
où la police tient une liste de plusieurs centaines de sites illégaux. La méthode utilisée
en Norvège a pour seul objectif dʼéviter lʼaccès involontaire à de tels sites. Les FAI
utilisent une méthode de filtrage via les serveurs DNS (Domain Name System) qui
permettant d'établir une correspondance entre une adresse IP et un nom de domaine
Selon les pays européens, la réaction du système en cas de blocage est différente. Au
Royaume-Uni, le système retourne des messages dʼerreur de type 404 ou « not
found ». Au contraire, le système norvégien ne cache pas à lʼinternaute lʼobjet du
blocage mais le pointe vers une page administrée par les services de police explicitant
la raison du blocage, les possibilités de recours et stipule quʼaucune donnée
personnelle nʼest enregistrée. Le blocage par DNS peut être facilement contourné par
exemple en tapant directement lʼadresse IP du serveur hébergeant des contenus filtrés,
ou si lʼabonné utilise un autre serveur DNS que celui fourni par son FAI. Cette méthode
est aussi employée sur une base volontaire par les FAI aux Pays Bas et au Danemark.
En Allemagne, un projet de loi du 22 avril 2009 prévoit dʼimposer aux FAI de
bloquer les sites à caractère pédopornographiques. Il y est précisé que la police établit
une liste de sites à bloquer et la transmet régulièrement et de façon sécurisée aux FAI.
Il prévoit dʼemployer la même technique : celle du filtrage par DNS. De nombreux

88
Fédération Française des Télécoms, 2009, « Etude dʼimpact du blocage des sites
pédopornographiques », Adresse : http://www.pcinpact.com/media/RapportfinalSPALUD.DOC.
89
The Pirate Bay bloqué en Suède pour pédophilie ?, Clubic. Adresse : http://www.clubic.com/actualite-
76383-pirate-bay-bloque-suede-pedophilie.html [Accédé : 22 Février 2010].

Page 54
militants de défense de la liberté dʼexpression se sont opposés à ce projet de loi par
des pétitions et des manifestations, mais ont aussi émis des propositions pour lutter
efficacement contre la pédopornographie sur Internet. Un groupe de travail sʼest
constitué autour du site ak-zensur.de et est parvenu en moins de 12 heures à faire
disparaître du web plus de 60 sites pédopornographiques sur la base de listes noires de
sites à filtrer ayant fuité sur le site Wikileaks, qui divulgue, de manière anonyme, non
identifiable et sécurisé, des documents gouvernementaux et privés pour être analysés
et commentés. Ak Zensur a ainsi contacté 348 prestataires de 46 pays différents et
informés des 1943 sites supposés illégaux. 250 hébergeurs ont répondu à la requête,
mais la plupart ont trouvé des contenus légaux. 10 hébergeurs ont indiqué que 61 sites
de contenus illicites ont été supprimés.90 Ayant eu connaissance de lʼaction du groupe
Ak Zensur, le gouvernement allemand a finalement "reconnu que le blocage n'était pas
efficace lorsqu'il sert à restreindre l'accès des contenus d'abus sexuels sur mineurs
hébergés en dehors de l'Union Européenne"91. Suite au changement de gouvernement
en septembre 2009, la nouvelle coalition a refusé de promulguer le projet de loi visant à
filtrer les sites pédophiles.
LʼItalie présente une autre configuration du filtrage dʼInternet. Au début de
lʼannée 2007, le ministre des communications a ratifié un décret qui oblige les FAI de
bloquer les sites pédopornographiques sur la base dʼune liste noire. Le Centre National
de Lutte contre la Pédopornographie (CNCPO) est en charge de créer et de maintenir à
jour une liste noire des sites supposés contenir de la pédopornographie et de la fournir
aux FAI chargés de lʼimplémenter.92 La liste noire du CNCPO contenait moins de 1000
noms de domaine et ou adresses IP à sa création en 2007 et ce nombre évolue assez
peu. Elle est mise à jour 2 fois par jour et les FAI disposent dʼun délai de 6 heures pour
la rendre fonctionnelle.
Dʼaprès lʼAssociation pour la liberté des communications électroniques interactives
(ALCEI), ces mesures préparent le terrain au blocage de nouveaux types de contenus
(comme des sites de vente de cigarettes en contrebande) augmentant ainsi le pouvoir
de la censure en Italie. En effet, le filtrage en Italie pourrait aboutir à dʼimportantes
restrictions de la liberté dʼexpression. Un décret en vigueur depuis le 27 janvier 2010 en

90
Supprimer au lieu de bloquer : ça marche !, 2009, La Quadrature du Net. Adresse :
http://www.laquadrature.net/fr/supprimer-au-lieu-de-bloquer-ca-marche [Accédé : 22 Février 2010].
91
Champeau Guillaume, 2009, « L'Allemagne abandonne : le filtrage de la pédophilie ne sert à rien »,
Numérama. Adresse : http://www.numerama.com/magazine/14308-l-allemagne-abandonne-le-filtrage-de-la-
pedophilie-ne-sert-a-rien-maj.html [Accédé : 22 Février 2010].
92
Fédération Française des Télécoms, 2009, p.62.

Page 55
Italie stipule quʼune autorisation auprès du Ministère italien des Communications est
désormais obligatoire pour "diffuser et distribuer sur Internet des images animées,
accompagnées ou non de son".93 Des sites de partage de vidéo, comme YouTube,
seront ainsi soumis aux mêmes obligations que la RAI. Selon Alessandro Gilioli,
journaliste à L'Espresso cité par LeNouvelObs.com, cette loi vise à écraser la
concurrence des web TV qui devront désormais avoir une autorisation gouvernementale
et franchir une multitude de barrages administratifs. Derrière cette lutte affichée du
gouvernement italien contre les « dérives » d'Internet, plusieurs journalistes et
blogueurs voient surtout une volonté de contrôle des médias. Le filtrage pourrait alors
servir lʼentreprise de Silvio Berlusconi, Mediaset actuellement en guerre contre le site
de partage de vidéos YouTube, à qui elle a réclamé 500 millions d'euros de dommages
et intérêts pour avoir diffusé illégalement ses émissions.
Ainsi, à travers ces différents exemples, nous avons pu voir que le filtrage
dʼInternet se développe dans une grande partie de lʼEurope sous lʼimpulsion dʼune
volonté légitime de la part du législateur dʼéviter la diffusion de contenus
pédopornographiques. Or, dans certains cas, il apparaît que le filtrage de la pédophilie
en ligne nʼest quʼune première étape pour permettre de mettre en place des
infrastructures permettant le filtrage dʼautres contenus et que par ailleurs, ces systèmes
sont bien peu efficaces pour lutter contre un business pédopornographie à lʼabri du
filtrage du fait dʼune innovation technique constante.

K+ @#)92%)@QLLR,)
Le filtrage dʼInternet en France débute avec la loi Création et Internet du 12 juin
2009 qui sanctionne le partage de fichiers par peer-to-peer en cas dʼinfraction au droit
d'auteur et crée la Haute autorité pour la diffusion des œuvres et la protection des droits
sur internet. Parmi ces missions, la HADOPI « évalue (…) les expérimentations
conduites dans le domaine des techniques de reconnaissance des contenus et de
filtrage par les concepteurs de ces technologies, les titulaires de droits sur les œuvres
et objets protégés et les personnes dont lʼactivité est dʼoffrir un service de

93
L'Italie censure la diffusion de vidéos sur Internet, 2010, NouvelObs. Adresse :
http://tempsreel.nouvelobs.com/actualites/medias/audiovisuel/20100118.OBS3978/litalie_censure_la_diffusion_de_vi
deos_sur_internet.html [Accédé : 22 Février 2010].

Page 56
communication au public en ligne. »94Ainsi, une des missions de la HADOPI est
dʼévaluer les techniques pour mettre en place des techniques de filtrage dʼInternet pour
renforcer la législation visant à mettre fin au partage de fichiers protégés par le droit
dʼauteur. Il semblerait, par ailleurs, que la loi HADOPI ne soit quʼune première étape
pour essayer le filtrage afin de le mettre en place pour empêcher lʼaccès à dʼautres
contenus illégaux ou controversés. Comme lʼa annoncé le chef de lʼEtat Nicolas
Sarkozy lors de ses vœux aux acteurs de la culture : « La haute autorité devra
concevoir en permanence les solutions les plus modernes pour protéger les œuvres.
Plus on pourra dépolluer automatiquement les réseaux et les serveurs de toutes les
sources de piratage, moins il sera nécessaire de recourir à des mesures pesant sur les
internautes. Il faut donc expérimenter sans délai les dispositifs de filtrage. »95
En outre, des dispositions relatives au filtrage dʼInternet font partie du projet de
loi relatif à l'ouverture à la concurrence des jeux d'argent et de hasard en ligne96. Dans
son article 50, le projet de loi stipule que les jeux dʼargent en ligne non autorisés feront
lʼobjet dʼune mise en demeure ordonnant la fermeture du site. Si cette mise en demeure
nʼest pas exécutée, lʼAutorité de Régulation des Jeux en ligne peut ordonner lʼarrêt de
lʼaccès à ce service, ainsi que le déréférencement du site dans les moteurs de
recherche. Le juge des référés est alors en charge de prendre la sanction du filtrage du
site. La loi prévoit aussi de très fortes sanctions contre les sites qui feraient de la
publicité pour un site non autorisé de jeux dʼargents en ligne : 30 000 € dʼamende ou le
quadruple du montant des dépenses publicitaires consacrées à lʼactivité illégale. La loi
ne précise pas quelle technique de filtrage devra être adoptée par les FAI, et par
ailleurs le législateur nʼa pas souhaité tenir compte des risques de surblocage
contrairement aux conclusions de lʼétude dʼimpact de la Fédération Française des
Télécoms qui avertissait dʼun fort risque de surblocage dans le filtrage des sites
pédopornographiques.
A lʼinstar de nombreux pays européens, la France a développé une législation
pour empêcher lʼaccès aux sites hébergeant des contenus pédopornographiques. La
Loi d'Orientation et de Programmation pour la Performance de la Sécurité Intérieure

94
Tatouage et filtrage à la source : Hadopi révèle ses ombres, 2009, PC INpact. Adresse :
http://www.pcinpact.com/actu/news/50687-filtrage-experimentation-hadopi-contenu-source.htm [Accédé : 23 Février
2010].
95
Girardeau Astrid, 2010, « [Etc.] Bloquer, filtrer, dépolluer », The Internets. Adresse :
http://www.theinternets.fr/2010/01/08/etc-bloquer-filtrer-depolluer/ [Accédé : 23 Février 2010]
96
Projet de loi relatif à l'ouverture à la concurrence et à la régulation du secteur des jeux d'argent et de
hasard en ligne, Adresse : http://www.senat.fr/leg/pjl09-210.html [Accédé : 23 Février 2010].

Page 57
(LOPPSI) adoptée le 16 février 2010 prévoit de nombreuses mesures en matière
dʼinformatique et dʼInternet telles que la mise en place dʼun délit dʼusurpation dʼidentité
en ligne ou la possibilité pour la police sur autorisation du juge des libertés de
sʼintroduire dans chaque ordinateur pour divers crimes et délits.
A lʼégard de lʼobjectif de filtrage des sites pédopornographiques, la LOPPSI prévoit
dans son article 4 que « lorsque les nécessités de la lutte contre la diffusion des images
ou des représentations de mineurs relevant des dispositions de lʼarticle 227−23 du
Code pénal le justifient, lʼautorité administrative notifie aux personnes mentionnées au
point I les adresses internet des services de communications au public en ligne entrant
dans les prévisions de cet article, et auxquelles ces personnes doivent empêcher
lʼaccès sans délai ». LʼÉtat devra dresser une liste « dʼadresses internet » de sites
hébergeant du contenu pédopornographique, que les intermédiaires (FAI et
hébergeurs) devront obligatoirement bloquer assorti dʼune obligation de résultat : la
sanction pouvant aller jusquʼà 75 000 euros dʼamende en cas de manquement à cette
contrainte. Selon lʼétude dʼimpact de la loi LOPPSI97, lʼOffice Central de Lutte contre la
Criminalité liée aux Technologies de l'Information et de la Communication (OCLCTIC)
devrait être en charge dʼélaborer la liste des sites à filtrer. Composé dʼune dizaine de
gendarmes et policiers spécialisés, cette unité pourra baser sa liste noire sur les
signalements qui lui parviennent. Tout comme dans le cas de la loi de régulation des
jeux dʼargent en ligne, la loi nʼenvisage aucune solution technique particulière pour le
filtrage et laisse le choix à chaque FAI de choisir la technique appropriée.
Toutefois, lʼétude dʼimpact de la loi aborde les problèmes posés par les
différentes techniques de filtrage. Dans une approche comparative, lʼétude prend
lʼexemple de deux pays ayant mis en place un filtrage des contenus
pédopornographiques : la Norvège et la Thaïlande. Concernant la Norvège, lʼétude
insiste sur le faible coût de la technique de blocage et envisage les cas de surblocage.
Quant à la Thaïlande, lʼétude omet de noter que ce pays exerce une importante censure
dʼInternet. En effet, selon Reporters sans Frontières, la Thaïlande est le 3e pays
exerçant la plus grande censure dʼInternet dans son classement de la liberté de la
presse98 et en 2006 plus de 300 sites ont été fermés pour crime de lèse-majesté à

97
Projet de loi dʼorientation et de programmation pour la performance de la sécurité intérieure
ETUDE DʼIMPACT, 2009, Adresse : http://www.ecrans.fr/IMG/pdf/pl1697.pdf.
98
[RSF sʼinquiète du contrôle dʼInternet « au nom de la lutte contre la pédopornographie ou le
téléchargement illégal », 2010, The Internets. Adresse : http://www.theinternets.fr/2010/01/02/express-rsf-sinquiete-

Page 58
lʼencontre de la famille royale thaïlandaise99. Lʼétude évoque seulement quʼ « en 2006,
34 411 sites internet « illégaux » avaient été bloqués parmi lesquels 56 % de sites
pornographiques. »
Par ailleurs, lʼétude dʼimpact prend acte du risque de surblocage impliqué par
lʼensemble des techniques : «le risque de bloquer lʼaccès à des contenus qui ne sont
pas illicites existe du fait, dʼune part, de la volatilité des contenus sur internet et, dʼautre
part, de la technique de blocage utilisée (blocage de lʼaccès à la totalité dʼun domaine
alors quʼun seul contenu est illicite).»
Ainsi, le filtrage dʼInternet se développe du fait de lʼaction du législateur qui
multiplie les projets de loi pour réguler les usages controversés du réseau. Selon Ars
Technica, un des sites les plus influents dʼanalyse des nouvelles technologies, la
France avec la loi LOPPSI devient la démocratie avec la législation de censure
dʼInternet la plus sévère au monde. 100

5+ L'27(&1)4()B%9&'#E()#/)-%3(#/)1/$'#-#&%2-#9).)98#552'4)G!SG)
Enfin, au niveau supranational, le projet de traité ACTA pourrait atteindra de
façon non négligeable le principe de neutralité du net. En imposant la responsabilité des
contenus publiés aux intermédiaires du réseau (hébergeurs et FAI), le réseau pourrait
être transformé. Ces intermédiaires seraient affranchis de leur obligation de neutralité,
ce qui pourrait mener au développement du filtrage des contenus hébergés et
échangés.
En octobre 2007, les États-Unis, lʼUnion Européenne, le Japon, la Corée du Sud,
le Mexique, la Nouvelle Zélande et la Suisse ont annoncé leur volonté de prendre part à
un grand accord multilatéral de lutte contre la contrefaçon, intitulé ACTA comme Anti-
Counterfeiting Trade Agreement ou Accord commercial anti-contrefaçon. L'existence de
ces négociations n'est pas secrète en elle-même, mais les termes de la négociation
font lʼobjet dʼun grand secret.
De juin à décembre 2008, ont eu lieu dans le plus grand secret quatre cycles de
négociation à Genève, Washington, Tokyo et Paris. Le but du traité serait d'harmoniser
la manière dont ces pays protègent la propriété intellectuelle, tant en ce qui concerne la

du-controle-dinternet-au-nom-de-la-lutte-contre-la-pedopornographie-ou-le-telechargement-illegal/ [Accédé : 23
Février 2010].
99
Thaïlande : 400 sites fermés pour crime de lèse-majesté, Adresse : http://www.generation-nt.com/thailande-
fermeture-site-censure-famille-royale-actualite-150541.html [Accédé : 23 Février 2010].
100
Move over, Australia: France taking 'Net censorship lead, Adresse : http://arstechnica.com/tech-
policy/news/2010/02/move-over-australia-france-taking-net-censorship-lead.ars [Accédé : 23 Février 2010].

Page 59
contrefaçon de biens matériels comme les médicaments ou les logiciels que la
contrefaçon numérique via le téléchargement illégal101. Le 22 mai 2008, un document
de discussion a été transmis à Wikileaks et des articles dans les journaux ont été
publiés sur les négociations secrètes. Par la suite, des documents ont fuité,
essentiellement par le biais du site Wikileaks, en février, avril et novembre 2009.102
Les documents publiés, parmi lesquels des documents de travail de l'Union
européenne, ont laissé entrevoir plusieurs mesures étudiées par les négociateurs. Trois
mesures principales ont été révélées par ces documents et pourraient remettre en
cause le fonctionnement dʼInteret.
Dʼabord, l'obligation pour les FAI de fournir l'identité du propriétaire d'une
adresse IP (Internet Protocol), sans mandat judiciaire, aux organismes de défense des
ayants droit. Cette disposition répond du “glissement de la prérogative politique”
quʼopèrent les TIC. En effet, face au développement des usages illégaux et
controversés dʼInternet, de nombreuses critiques sont apparues pour dénoncer
lʼincapacité et la lenteur du système juridique traditionnel à répondre à la rapidité des
évolutions technologiques. De leur point de vue, passer par le juge dans les affaires
ayant trait à Internet laisse le temps aux contrevenants de développer de nouvelles
solutions techniques pour échapper à la justice. En France, ces dispositions enlevant la
responsabilité du juge figurent dans les premières versions de la loi Création et
Internet dans laquelle lʼautorité administrative pouvait appliquer la décision de la rupture
de lʼaccès à Internet dʼelle-même, et de la loi LOPPSI dans laquelle le filtrage des sites
présumés était arrêté sans la décision du juge.
La décision du Conseil Constitutionnel censurant la loi Création et Internet a mis un
terme à ce type de pratiques en stipulant que : « en conférant à une autorité
administrative, même indépendante, des pouvoirs de sanction consistant à suspendre
lʼaccès à internet, le législateur aurait, dʼune part, méconnu le caractère fondamental du
droit à la liberté dʼexpression et de communication et, dʼautre part, institué des
sanctions manifestement disproportionnées ; quʼils font valoir, en outre, que les
conditions de cette répression institueraient une présomption de culpabilité et
porteraient une atteinte caractérisée aux droits de la défense . » Cette disposition du

101
L'ACTA, le traité secret qui doit réformer le droit d'auteur, 2010, LeMonde.fr. Adresse :
http://www.lemonde.fr/technologies/article/2010/01/25/l-acta-le-traite-secret-qui-doit-reformer-le-droit-d-
auteur_1296265_651865.html.
102
Girardeau Astrid et Geist Michael, 2009, « The ACTA Timeline », The Internets. Adresse :
http://www.theinternets.fr/2009/12/11/express-the-acta-timeline/#more-1021 [Accédé : 26 Février 2010].

Page 60
Conseil Constitutionnel réaffirme la primauté du droit à la liberté dʼexpression garanti
par la Constitution, qui ne peut être remis en cause seulement sous la responsabilité
dʼun juge : « eu égard à la nature de la liberté garantie par l'article 11 de la Déclaration
de 1789, le législateur ne pouvait, quelles que soient les garanties encadrant le
prononcé des sanctions, confier de tels pouvoirs à une autorité administrative dans le
but de protéger les droits des titulaires du droit d'auteur et de droits voisins ». Il est fort
à parier que toute disposition législative écartant la responsabilité du juge découlant du
traité ACTA devrait être censuré pour inconstitutionnalité.
Une autre disposition pourrait atteindre grandement à la neutralité des
opérateurs techniques en charges du réseau, notamment les hébergeurs de contenus.
Le traité pourrait se généraliser à lʼensemble des pays signataires du traité le régime
introduit par le Digital Millenium Copyright Act (DMCA) adopté aux États-Unis en 1998.
Le DMCA a mis en place une responsabilité accrue des intermédiaires techniques, par
une procédure dite du Notice & Take Down (notification avec menace). Dans cette
procédure, un ayant droit peut demander la suppression immédiate de contenus
protégés par le droit dʼauteur hébergés sans son accord. Après la réception dʼun avis le
sommant de retirer les contenus incriminés, le fournisseur du service (hébergeur ou
toute plateforme de mise à disposition de contenus comme YouTube) doit dans les plus
brefs délais retirer les contenus mis à disposition du public et notifier la personne ayant
posté les fichiers mis en cause. Le DMCA prévoit toutefois que le dépositaire des
contenus peut arrêter la procédure en répondant à lʼavis (counter-notifcation). Les
opérateurs sont largement incités à complaire aux demandes des ayants droits car leur
statut de Safe Harbor (« Port Sur »), opérateur qualifié de suffisamment sûr pour
recevoir les données personnelles de sociétés basées dans dʼautres États103, est
conditionné au respect des dispositions du DMCA, notamment la procédure du Notice &
Take Down. Dʼaprès les documents connus, le traité ACTA devrait généraliser ces
procédures à lʼensemble des pays signataires, de nombreux observateurs qualifient le
traité ACTA de « global DMCA » (DMCA mondial).
Aux États-Unis, cette procédure du Notice & Take Down a entrainé une série de
censures des contenus publiés sur Internet, sur la base que des contenus protégés par
le droit dʼauteur ont été mis à disposition du public sans lʼaccord des ayants-droits. En
2005, un article du magasine économique Forbes conseillait aux entreprises critiquées

103
Ress Marc, 2009, « Vous avez aimé Hadopi ? Vous allez adorer l'ACTA », PC INpact. Adresse :
http://www.pcinpact.com/actu/news/54030-acta-hadopi-riposte-surveillance-internet.htm [Accédé : 26 Février 2010].

Page 61
par des individus ou des organisations en ligne : « Attaquez lʼhébergeur. Trouvez du
texte soumis au droit dʼauteur quʼun bloggeur a pris de votre site web et menacez son
FAI de le poursuivre en vertu du Digital Millenium Copyright Act. Cela devrait amener
son FAI à le faire taire. » 104
De nombreuses organisations ont profité de la brèche ouverte par le DMCA pour
censurer des prises de parole en ligne compromettantes. Par exemple, en 2003,
lʼÉglise de Scientologie a émis une requête auprès du moteur de recherche Google
pour retirer de son index le site anti scientologie Xenu.net en vertu de la section 512 du
DMCA qui instaure la procédure du Notice & Take Down. Google sʼest plié à la requête
de lʼÉglise et a procédé au déréférencement du site Xenu.net105. Dans un cas similaire,
le fabricant de machines à voter électroniques Diebold a pu supprimer des sites
critiquant les failles de ces appareils après lʼélection présidentielle controversée de
2000. En faisant valoir que ces sites avaient utilisé des documents protégés par le droit
dʼauteur, en dépit des procédures de fair use (« usage raisonnable») qui autorisent
lʼusage partiel de contenus protégés à des fins non-commerciales ou éducatives,
Diebold a pu faire fermer certains sites en envoyant une requête dʼeffacement auprès
des hébergeurs en vertu du DMCA. Cet exemple montre comment ce type de
dispositions peut mener à lʼimpossibilité pour de nombreuses organisations ou individus
dʼexercer leur droit à la liberté dʼexpression au profit des intérêts commerciaux de
grandes entreprises.
Dʼautres dispositions connues du futur traité ACTA devraient accorder la
possibilité pour les douaniers et gardes-frontières de confisquer ordinateurs, baladeurs
ou disques durs contenant des fichiers contrefaits, comme des morceaux de musique
téléchargés illégalement. Par ailleurs, les législations nationales devraient consacrer le
durcissement des sanctions pour la violation des mesures techniques de protection
(Digital rights management systems, DRM), comme les logiciels anti-copie présents sur
les DVD.

En définitive, nous avons pu voir que le filtrage dʼInternet ainsi que les atteintes à
la neutralité des opérateurs techniques se sont développées aux États-Unis, en Europe
et en France dans des proportions importantes. Nous pouvons aussi ajouter que les

104
Nunziato C. Dawn, 2009, op.cit, p.19.
105
Google pulls anti-Scientology links, 2002, CNet. Adresse : http://news.cnet.com/2100-1023-865936.html
[Accédé : 26 Février 2010].

Page 62
atteintes au principe de neutralité du net sont majoritairement le fait dʼacteurs privés aux
États-Unis, alors quʼen Europe, sous lʼimpulsion notamment des politiques visant à
empêcher lʼaccès aux contenus pédopornographiques, cʼest majoritairement le
législateur qui a institué des dispositifs de filtrage et de discriminations de contenus.
Sans une véritable législation garantissant et encadrant la neutralité des réseaux, les
systèmes de filtrage pourraient se généraliser ce qui entrainerait dʼimportantes
conséquences sur la liberté dʼexpression en ligne du fait de lʼimperfection des systèmes
de filtrage.

Page 63
(>?@ABCD)T6))-7AU@DCRDMBAJF)LDI)IVIBSUDI)LD)RANBC?WD)
« Le réseau interprete toute censure comme
un incident technique et sʼy adapte en la
contournant »
106
John Gilmore

Dans ce chapitre, nous abordons les aspects techniques des différentes


techniques de filtrage. Quelles sont leurs principales caractéristiques ? Sur quel principe
de fonctionnement se basent elles ? Quel est le rapport coût/avantage/contrainte
inhérent à chaque système de filtrage ? Dans un second temps, nous verrons
quʼaucune de ces techniques de filtrage ne parvient à réellement éradiquer les usages
quʼelles cherchent à bloquer ou contrôler. En effet, les techniques de filtrage, en allant à
lʼencontre des principes architecturaux de base dʼInternet, se caractérisent par
dʼinévitables possibilités de contournement.

!6 0CAFMA@DI) LD) RJFMBAJFFDUDFB) LDI) LARRHCDFBDI) BDM>FAXGDI) LD) RANBC?WD) LG)


CHID?G)DB)NDI)8)DRRDBI)LD)YJCL):)AFLGABI)

#+ @(1)&(5"-%J/(1)59#11%J/(1)4()B%9&'#E())

Le filtrage par adresse IP


Le filtrage par adresse IP repose sur un principe simple et peu coûteux : il sʼagit
de comparer les adresses IP des paquets à acheminer avec une liste noire dʼadresses
dont les contenus ne devront pas être acheminés. Pour les machines identifiées par
une des adresses IP à filtrer, les paquets seront simplement ignorés par le routeur ainsi
paramétré.

106
Castells, op.cit, p.73
Figure 4. Principe de fonctionnement du filtrage par adresse IP
Page 64
Lʼavantage de cette technique est un investissement minimum pour les FAI car
par défaut, les routeurs IP disposent de systèmes de filtrage appelés Access Control
List (ACL ou « Liste de Contrôle dʼAccès ») qui mettent en place une liste dʼadresse ou
de ports autorisés ou interdits. Les routeurs pratiquent en permanence une analyse des
en-têtes IP pour décider mais en pratique leur capacité de traitement est limitée par la
croissance constante du trafic sur Internet, seules quelques règles de blocage ne
peuvent être appliquées en lʼétat actuel du matériel. Aussi la mise à jour de la liste noire
ne peut être fréquente, car à chaque mise à jour, il faut paramétrer les routeurs à de
nombreux nœuds du réseau du FAI répartis sur le territoire.
Avec cette technique, tout échange avec les adresses IP filtrées devient
impossible. Cette technique peut bloquer lʼaccès à un groupe de serveurs, et ne permet
pas de traiter séparément les différents sites web ou services localisés sur une même
machine. Or, selon une étude conduite en 2003107, plus de 87% des noms de domaine
actifs partagent leur adresse IP et pour deux tiers de ces derniers cela concerne plus de
quinze sites hébergés à la même adresse IP. Les conséquences en terme de
surblocage sont extrêmement importantes avec la technique du filtrage sur lʼadresse IP
du fait du développement des techniques de mutualisation des adresses IP.
Cette technique a été une des premières utilisées pour filtrer lʼaccès à certains sites
web, notamment dans les débuts du filtrage dʼInternet en Chine et au Vietnam. Il
semblerait quʼelle soit encore utilisée par un grand nombre de filtres disponibles sur le
marché et par de nombreuses bibliothèques publiques qui ont très tôt mis en place des
dispositifs de filtrage pour interdire lʼaccès à des contenus pornographiques. Lʼautre
inconviénient du filtrage par adresse IP est son opacité totale pour lʼutilisateur final qui
cherche à se connecter aux machines filtrées puisque, dans le cas de lʼaccès à une
page web par exemple, il ne perçoit quʼune absence de réponse à ses requêtes.
Les possibilités de contournement sont nombreuses et simples à mettre en
place. Lʼutilisateur peut simplement se connecter de manière temporaire ou permanente
à un serveur mandataire qui nʼest pas soumis au filtrage des adresses IP bloquées, via
une passerelle réseau qui achemine lʼensemble des données par le biais du serveur
mandataire (technique de tunneling) ou via un serveur web dédié. Les fournisseurs de
contenus peuvent aussi contourner le filtrage par un changement fréquent de lʼadresse
IP du serveur hébergeant un contenu à bloquer. Cela reste transparent pour lʼutilisateur

107
Benjamin G. Edelman, 2003, « Web Sites Sharing IP Addresses: Prevalence and Significance »,
Adresse : http://cyber.law.harvard.edu/archived_content/people/edelman/ip-sharing/ [Accédé : 26 Février 2010].

Page 65
qui par requête DNS récupère la nouvelle adresse IP du serveur de contenu. Le
fournisseur dʼaccès hollandais xs4all.nl, connu pour avoir hébergé de nombreux sites
anarchistes ou dʼéchanges de fichiers a mis en place un changement dʼadresse IP
toutes les heures pour échapper à cette technique de filtrage facilement contournable.

Le filtrage par redirection DNS

108
Figure 5. Principe de fonctionnement du filtrage par redirection DNS

Un autre type de filtrage peut être pratiqué : le filtrage par redirection DNS
(Dynamic Name System). Il fonctionne par la falsification du système DNS qui permet
d'établir une correspondance entre une adresse IP difficile à retenir (91.198.174.2) et
un nom de domaine (wikipedia.fr). Le filtrage par redirection DNS opère par une
méthode dite du « détournement de noms ». Lorsque lʼutilisateur tente dʼaccéder à un
nom de domaine filtré, il est soit renvoyé vers une page définie par lʼautorité ayant
implémenté le filtrage, soit son navigateur indique une erreur du type « host not found »
(serveur hôte introuvable). Pour faire fonctionner un tel système, lʼautorité en charge du
filtrage doit installer un serveur DNS dit « serveur autoritaire de blocage » qui se
synchronise à intervalles réguliers avec les serveurs DNS des FAI pour définir les noms
de domaine renvoyé vers une page de blocage. Cʼest cette technique qui est employée
en Norvège où les autorités lʼont choisie car elle permet dʼaboutir à une page
avertissant lʼutilisateur que la page quʼil a ciblé est suspectée dʼinclure du contenu
pédopornographique de manière à décourager les internautes cherchant à accéder à de

108
Fédération Française des Télécoms, 2009, « Etude dʼimpact du blocage des sites
pédopornographiques », Adresse : http://www.pcinpact.com/media/RapportfinalSPALUD.DOC.

Page 66
tels contenus et éviter les accès accidentels. En cas de surblocage, la jurisprudence
norvégienne prévoit dʼimportantes sanctions contre les FAI qui peut être poursuivis pour
diffamation.
De surcroit, cette technique génère un « effet de bord » important, avec toutefois
un surblocage de moins grande ampleur quʼavec le filtrage par adresse IP. En effet, ce
nʼest pas le contenu visé qui est filtré, mais lʼintégralité du nom de domaine qui devient
alors inaccessible. Concrètement, un hébergeur de pages personnelles pourrait voir
bloqué lʼensemble des pages quʼil héberge avec cette technique qui affecte aussi les
sous domaines (ex : pagesperso.free.fr).
Le filtrage par DNS entraine aussi lʼinterruption des communications par courriel des
adresses appartenant au nom de domaine visé, tout comme lʼensemble des protocoles
109
utilisant le système de nom de domaine. Une étude universitaire dirigée en 2003 à
lʼUniversité de Dusseldorf sʼest penchée en détail sur lʼapplication des règles de filtrage
par les FAI dans le cadre de la lutte contre la pornographie enfantine. Le chercheur a
étudié le cas du filtrage dʼun site nazi ordonné par les autorités a montré que dans les
27 FAI étudiés, tous ont fait au moins une erreur dans la configuration du filtrage sur les
serveurs DNS. Sur 27 FAI, 45% étaient en situation à la fois de sous-blocage (le site
souhaité nʼétait pas bloqué) et de surblocage (des sites ou des protocoles non visés ont
fait lʼobjet dʼun blocage) et 55% nʼappliquaient quʼun surblocage. De surcroît, 16 des 27
FAI bloquaient les communications par courriel vers plusieurs domaines et tous
bloquaient lʼadresse de contact du site visé alors que le juge ne lʼavait pas demandé. Il
est donc délicat de mettre en place un tel système de filtrage du fait de lʼarbitraire de
lʼapplication des décisions judiciaires découlant de la responsabilité des FAI. Si de
nouveaux sites sont très régulièrement ajoutés, les risques de surblocage dus à une
erreur de manipulation se multiplient.
Les coûts de mise en place dʼun tel dispositif sont relativement faibles.
Néanmoins, la mise à jour et la maintenance des données peuvent engendrer un cout
assez élevé. Les possibilités de contournement de cette technique sont nombreuses.
La manière la plus simple de la contourner est dʼatteindre le site filtré en entrant
directement lʼadresse IP du site. Par ailleurs, il suffit de joindre un autre serveur DNS
que celui mis à disposition par le FAI appliquant le filtrage comme OpenDNS. Il est
aussi possible dʼutiliser un serveur mandataire (proxy) pour échapper au filtrage.

109
Dornseif Maximillian, 2004, « Government mandated blocking of foreign Web content », cs/0404005.
Adresse : http://arxiv.org/abs/cs/0404005 [Accédé : 27 Février 2010].

Page 67
Le filtrage par reroutage BGP

Cette technique de filtrage sʼest développée plus récemment, et cʼest ce procédé


que devrait adopter les autorités pour la mise en place de la loi LOPPSI en France
comme nous lʼont expliqué des experts de la neutralité du net lors dʼentretiens (Fabrice
Epelboin du blog ReadWriteWeb et Jérémie Zimmermann de la Quadrature du Net).
Le blocage BGP fait appel au protocole Border Gateway Protocol (BGP) qui permet en
quelque sorte dʼétablir la « météo du réseau », cʼest-à-dire quʼil sert à indiquer quelles
routes sont les plus disponibles pour acheminer de grandes quantités de données entre
deux points. En effet, le protocole BGP a été développé pour optimiser les échanges
entre les divers systèmes autonomes qui composent le réseau des réseaux.
On entend par système autonome « un ensemble de réseaux IP sous le contrôle d'une
seule et même entité, typiquement un fournisseur d'accès à Internet ou une plus grande
organisation qui possède des connexions avec le reste du réseau Internet »110 . Le
protocole BGP permet à deux nœuds du réseau de sʼéchanger des informations sur
lʼétat des transmissions avec les nœuds voisins, il supporte et analyse de grandes
quantités de données. BGP nʼa donc pas été créé pour servir au filtrage de données.
Pour instituer un système de filtrage via ce système, un routeur BGP dʼannonces doit
être mis en place. Ce routeur va annoncer au reste du réseau les informations de
routage pour la liste des adresses IP appartenant à une liste de sites à filtrer. Pour
lʼinstallation du serveur dʼannonce, deux options sont disponibles : soit le routeur
dʼannonces est hébergé par les autorités, soit le routeur est hébergé par les FAI. Une
autre option est de recourir à un système dit hybride (voir b.).

110
Fédération Française des Télécoms, 2009, op.cit., p.23.

Page 68
111
Figure 6. Principe de fonctionnement du blocage par reroutage BGP

Si le routeur BGP dʼannonces est hébergé par les autorités, il sʼagit de


lʼinterconnecter aux routeurs des différents FAI comme si un accord de peering
(interconnexion directe) était établi pour optimiser la connexion. Les FAI reçoivent des
annonces dites eBGP du routeur de lʼÉtat indiquant que ce routeur est autoritaire pour
les adresses IP correspondant aux sites à bloquer, cʼest-à-dire que les paquets à
destination de ces adresses doivent lui être adressés. Par la suite, le trafic renvoyé vers
le serveur autoritaire est soit détruit soit redirigé vers une page web des autorités
expliquant le blocage.
Lʼavantage dʼutiliser un serveur hébergé par les autorités est que pour le FAI les coûts
sont nuls puisquʼil nʼa pas à mettre à jour la liste des sites filtrés et le traitement est le
même pour lʼensemble des opérateurs. Lʼétude dʼimpact de la Fédération Française des
Télécoms estime le coût dʼun tel dispositif à 20 000€ par FAI pour le test, la formation
et la mise en place de ce système.
Lʼautre option est que le routeur BGP dʼannonces soit hébergé par les FAI. Cette
technique est plus adaptée à des réseaux décentralisés comme cʼest le cas en France.
Le principe de filtrage reste le même mais la liste des adresses IP à filtrer est
communiquée aux FAI qui doivent lʼimplémenter dans le serveur BGP dʼannonces quʼils
hébergent. Cette option nécessite des coût dʼinstallation et de maintenance plus élevés,
car chaque FAI doit mettre en place un routeur BGP dʼannonces dans son réseau.

111
Image issue de Fédération Française des télécoms, 2009,op.cit, p.34.

Page 69
La technique du filtrage par reroutage BGP entraîne un effet de bord important
puisque le blocage BGP se base sur les adresses IP pour bloquer les connexions vers
les adresses bloquées. Par ailleurs, lʼutilisation de BGP à ces fins peut véritablement
endommager le réseau.
En effet, cette technique nʼa pas été à lʼorigine conçue pour supporter le filtrage mais
pour acheminer le plus efficacement de grandes quantités de données entre des
réseaux interconnectés. Dans le cadre de la lutte contre la pédopornographie, les listes
noires sont fréquemment mises à jour, quotidiennement dans certains pays, ce qui peut
entrainer un important risque dʼerreur de paramétrage lors des mises à jour et des
reconfigurations.
En février 2008, le Pakistan a ordonné le blocage de lʼaccès à YouTube pour
lʼensemble du pays en utilisant des commandes BGP pour redéfinir les routes venant
du Pakistan vers YouTube. La raison invoquée par les autorités est quʼil y serait diffusé
des "documents et vidéos blasphématoires"112, des caricatures de Mahomet et de la
bande annonce du film du député néerlandais Geert Wilders sur lʼIslam évoqué
précédemment.113 En application de la décision des autorités, des employés de
lʼopérateur Pakistan Telecom ont envoyé une commande BGP à des équipements mal
paramétrés. La conséquence de cette mauvaise manipulation a été la propagation de la
commande aux réseaux dʼautres opérateurs étrangers, dont les routeurs ont par la suite
répandu le reroutage de YouTube. Lʼaccès à YouTube a alors été impossible pendant
plusieurs heures dans plusieurs pays du monde. A lʼheure où le risque dʼattaque
cyberterroriste ou de cyberguerre est étudié de plus en plus sérieusement au sein des
états-majors du monde entier, les risques dʼune mauvaise manipulation des
commandes BGP devraient être étudiés plus en détail.

K+ @()B%9&'#E()M)"CK'%4()N)
Face aux nombreux problèmes soulevés par les techniques classiques de
filtrage en terme de surblocage et de contournements, les techniques dites de filtrage
hybride ont été mises en avant pour leur plus grande efficacité. En effet, en combinant
plusieurs techniques de filtrage, le filtrage hybride vise à répondre aux problèmes de

112
Champeau Guillaume, 2008, « Youtube bloqué au Pakistan... et dans le reste du monde », Numérama.
Adresse : http://www.numerama.com/magazine/8666-youtube-bloque-au-pakistan-et-dans-le-reste-du-monde.html
[Accédé : 28 Février 2010].
113
Pakistan lifts the ban on YouTube, 2008, BBC. Adresse :
http://news.bbc.co.uk/2/hi/technology/7262071.stm [Accédé : 28 Février 2010].

Page 70
surblocage inhérents à chaque technique. Ici, nous allons étudier en particulier la
technique de filtrage hybride combinant un filtrage BGP à une analyse des données par
la technique dite Deep Packet Inspection (DPI ou « inspection en profondeur des
paquets »). Dans le cadre de la loi LOPPSI en France qui a pour objectif entre autres de
filtrer lʼaccès aux sites à contenu pédopornographique, il semblerait que cette technique
devrait être adoptée.

Figure 7. Principe de fonctionnement du filtrage hybride

Le principe de fonctionnement repose sur le détournement du protocole BGP :


toute demande dʼaccès à un site dont lʼadresse IP est celle de lʼun des sites
appartenant à la liste noire des autorités est routée directement vers la plateforme de
filtrage.114 Le filtrage hybride varie du reroutage BGP classique dans le traitement des
données passant par la plateforme de filtrage. Par la technique de lʼinspection des
paquets (DPI), un serveur analyse les URL (Uniform Ressource Locator, adresse
Internet) des sites et les compare à la liste noire des URL des sites à filtrer. Lorsquʼil y a
correspondance entre les URL, les paquets sont envoyés vers un serveur hébergeant
une page notifiant les internautes du filtrage. Dans le cas où les URL ne correspondent
pas, le trafic est alors renvoyé vers sa destination finale. Lʼinspection des paquets peut
aussi porter sur certains mots clés ou bloquer par exemple lʼaccès à une photo dʼun site
web mais dans ce cas, les infrastructures nécessaires sont bien plus importantes du fait
de la charge de traitement que cela engendrerait.
Ainsi, deux niveaux de blocage sont effectués : un premier blocage sur adresse
IP permet de ne sélectionner que la partie suspecte du trafic qui est ensuite traitée par

114
Espern Christophe, « Principe, intérêts, limites et risques du filtrage hybride à des fins de blocage de
ressources pédopornographiques hébergées sur des serveurs étrangers », Adresse :
http://www.laquadrature.net/files/note-quadrature-filtrage-hybride.pdf.

Page 71
le serveur DPI. Toutefois, ce système nʼéchappe pas à lʼ « effet de bord » du fait des
risques engendrés par lʼutilisation de commandes BGP à des fins de filtrage qui comme
nous peuvent endommager le réseau en cas dʼerreur de maintenance pouvant envoyer
des commandes erronées à lʼensemble du réseau.
Par ailleurs, le système dʼinspection DPI doit être systématiquement surdimensionné au
cas où un site à fort trafic se retrouverait dans la liste noire comme cela était le cas
avec lʼimage de lʼalbum Virgin Killers de Scorpions hébergée par Wikipédia filtrée au
Royaume Uni. En effet, dans lʼéventualité où un site à fort trafic se retrouvait filtré
(Wikipedia, Google, YouTube), le système se retrouverait très vite surchargé et cela
peut induire une dégradation importante de la connexion des utilisateurs. Lʼopérateur
Free, interrogé par PCINpact115 a ainsi exprimé ses inquiétudes quant à la mise en
place du filtrage hybride en prenant lʼexemple du filtrage de contenu sur la plateforme
de blog Blogspot (Google) : «Une mesure de filtrage concernant un contenu accessible
via un blog hébergé par cette plateforme aboutira en pratique sur le reroutage d'une
portion significative de sous-réseaux, voire de sous-réseaux entiers de cette plateforme
vers les serveurs de filtrage. Au bas mot, 10 Gbit/s d'un coup au minimum, et plantage
quasi assuré du système avec l'effet boule de neige qu'on connait pour cause d'accès
aux services Google dégradé ».
De surcroît, la redirection de lʼensemble du trafic de certains sites soumis à
inspection modifie les caractéristiques techniques du réseau ce qui génère dʼimportants
dysfonctionnements. Quand lʼInternet Watch Foundation a ajouté Wikipédia à sa liste
de sites à filtrer, lʼencyclopédie ne pouvait plus identifier les éditeurs des articles par
leurs adresses IP venant des FAI appliquant le filtrage. Il nʼétait plus alors possible de
modifier un article de lʼencyclopédie la plus visitée au monde pour les internautes
britanniques, ce qui constitue une importante remise en cause de la liberté dʼexpression
de ces utilisateurs. Enfin, dans le cas français, il semblerait que la mise en place dʼun
filtrage hybride centralisé soit un bouleversement démesuré de lʼarchitecture dʼInternet
en France. Dʼaprès lʼétude dʼimpact du blocage des sites pédopornographiques de la
Fédération Française des Télécoms, les réseaux en France « sont très éclatés
géographiquement […] et reposent sur un grand nombre de routeurs qui se répartissent
la charge. Concentrer le trafic au niveau dʼun point unique du réseau serait donc

115
Ress Marc, 2008, « Free ne veut pas entendre parler de filtrage et explique pourquoi », PC INpact.
Adresse : http://www.pcinpact.com/actu/news/47097-free-filtrage-forum-droits-internet.htm [Accédé : 28 Février
2010].

Page 72
incompatible avec lʼarchitecture réseau des FAI français et ferait porter de gros risques
en cas de congestion de la plateforme de blocage hybride. » Christophe Espern, co-
fondateur la Quadrature du Net, dans son étude sur le filtrage hybride estime aussi que
les « spécialistes réseaux interrogés sont consternés que cette technique soit
envisagée, vu ses failles et les risques quʼelle présente pour le réseau tout entier. […]
Plus largement, les acteurs techniques qui se sont exprimés considèrent que lʼidée dʼun
116
filtrage « cœur de réseau » doit être définitivement abandonnée. »
Parmi les observateurs qui se sont exprimés, le FAI Free qui sʼest engagé à de
nombreuses reprises contre le filtrage dʼInternet exprime ses inquiétudes quant aux
dommages potentiels sur le réseau que pourrait entrainer une telle technique :
« Présentée comme la solution la moins pire d'un point de vue technique. [Mais] aussi
séduisante soit-elle, une telle solution doit être considérée avec beaucoup de prudence
au regard du risque majeur d'interruption de service découlant du blocage d'une URL
pointant en pratique vers un bloc d'IP important. »117 La direction de Free, dans
lʼinterview de PCINpact, pointe même la possibilité inquiétante que les exploitants dʼun
site pédopornographique filtré puisse reconfigurer lʼenregistrement qui correspondant à
son nom de domaine sur les serveurs DNS vers lʼadresse IP dʼun site à lʼimportance
cruciale comme Google, Orange ou un des sites de lʼÉtat comme celui des impôts. Si
les exploitants dʼun site filtré pratiquaient une telle manipulation, le trafic très important
de ces sites serait automatiquement redirigé vers le serveur dʼinspection des données
qui se retrouveraient saturé.
Une telle attaque pourrait endommager durablement lʼinfrastructure de filtrage, altérer
les communications de nombreux citoyens et compromettre un grand nombre dʼactivités
cruciales pour la société. Sachant que la pédopornographie fait appel aux techniques
les plus avancées pour échapper au filtrage, un tel scénario est tout à fait envisageable
techniquement de la part des organisations criminelles qui distribuent de tels contenus
sur Internet.

5+ T('1)9#)E0-0'#9%1#&%2-)4()98%-1$(5&%2-)4(1)$#J/(&1)
De nombreuses organisations de défense des libertés numériques se sont
inquiétées de la mise en place de lʼinspection des paquets échangés sur le réseau par
la technique du Deep Packet Inspection (DPI) dans le cadre de lʼapplication des lois

116
Espern Christophe, op.cit.
117
Ress Marc, 2008, op.cit.

Page 73
réprimant la diffusion de contenus pédopornographiques sur Internet. Ils craignent que
cette technique qui sʼest développée dans des pays autoritaires comme la Chine ou
lʼArabie Saoudite ne se développe à une plus grande envergure pour contrôler dʼautres
activités sur le réseau, comme le partage de fichiers protégés dont ils estiment, chiffre à
lʼappui, quʼil nʼendommage pas lʼindustrie musicale mais seulement met fin à une
industrie du disque obsolète.
De nombreux observateurs estiment que la Haute autorité pour la diffusion
des œuvres et la protection des droits sur internet (HADOPI) pourrait à court terme
expérimenter le DPI pour inspecter en profondeur le réseau pour répondre à lʼobjectif
que le Chef de lʼEtat lui a assigné de « dépolluer automatiquement les réseaux et les
serveurs de toutes les sources de piratage ». En effet, en avril 2008, lors dʼune
conférence à Montréal, Jean Berbineau membre de lʼHADOPI annonçait: «il y a
longtemps que la vitesse des réseaux nʼa pas progressé, ce qui favorise ceux qui
cherchent à faire du filtrage, notamment grâce au procédé de Deep Packet Inspection –
qui consiste à observer les paquets dʼinformations sur la bande passante et permet de
savoir à peu près tout ce que lʼon veut savoir : Qui a envoyé le paquet? Qui lʼa reçu?
Quelle est lʼapplication correspondant aux contenus du paquet? Et quʼest-ce quʼil y a
118
dedans? ». Il est donc probable que cette technique se développe ce qui nʼest pas
sans poser de nombreux problèmes en terme dʼarchitecture du réseau, mais aussi pour
la protection de la vie privée et du secret des communications.
Le filtrage par DPI se fonde sur la centralisation du trafic au niveau dʼun ou
plusieurs points centraux du réseau des FAI où les données sont inspectées au niveau
de lʼURL mais aussi plus en profondeur en fonction de certains mots-clés, du port
dʼentrée sur la machine finale ou de lʼapplication. Lʼinspection sʼexerce à la fois sur
lʼentête et les données dʼun paquet IP, elle peut viser à rerouter le trafic selon certains
critères ou seulement à des fins de surveillance pour collecter des informations
statistiques. Lorsque lʼinspection profonde des paquets est appliquée comme technique
de filtrage, le serveur est configuré pour appliquer un traitement spécial selon certains
critères, par exemple un routage différent du reste du trafic ou un blocage pur et simple
sans notification.119

118
Astor Philippe, 2008, « Riposte graduée : La France perçue comme parangon d'un « nouvel ordre
numérique » », ZDnet.fr. Adresse : http://www.zdnet.fr/blogs/digital-jukebox/riposte-graduee-la-france-percue-
comme-parangon-d-un-nouvel-ordre-numerique-39601705.htm [Accédé : 1 Mars 2010].
119
Girardeau Astrid, 2010, « Le filtrage par DPI », The Internets. Adresse :
http://www.theinternets.fr/2010/01/10/actu-le-filtrage-par-dpi/ [Accédé : 1 Mars 2010].

Page 74
Cette technique, à lʼorigine développé dans des pays non démocratiques, en
Chine notamment, sʼavèrerait très couteuse à appliquer à grande échelle dans le cadre
de la lutte contre la pédopornographie ou le téléchargement illégal. La mise en place
dʼun tel système impose que les opérateurs mettent en place un point unique, un goulot
dʼétranglement au niveau duquel lʼensemble du trafic se concentre. Une concentration
du trafic de cette envergure pourrait entrainer de forts ralentissements, dʼautant plus
que les FAI français disposent de nombreux accords avec leurs voisins européens pour
acheminer les données. Toutefois, un FAI peut maintenir son architecture réseau
inchangée en disposant, au niveau de chaque sortie de réseau, un serveur DPI pour
analyser tous les flux entrants et sortants.
Les FAI et les experts du réseau ont critiqué cette technique car elle serait très
couteuse et difficile à appliquer aux différents points du réseau. Selon lʼétude de la
Fédération Française des Télécoms, le coût pour les cinq FAI principaux en France
serait de 140 millions dʼeuros pour trois ans, hors les dédommagements quʼentrainerait
les impacts financiers des « effets de bord » importants entrainés par lʼinspection des
paquets sur la base dʼune liste noire de 2000 listes.
Si le système est configuré pour inspecter en profondeur le trafic dʼun site à fort trafic,
les FAI devraient alors faire face à une grande quantité de réclamations auprès de leur
Service Après Vente (SAV), à une dégradation de lʼimage de qualité de leur service.
Pour les éditeurs de sites Internet, leur modèle économique pourrait être remis en
cause par le filtrage par DPI. Du fait de la dégradation du débit conséquent à la
concentration du trafic en un point, de nombreux services comme ceux de vidéos en
streaming très demandeur de bande passante pourraient être affectés.
Dʼautre part, lʼinspection des paquets est de plus en plus évoquée pour ses
usages commerciaux. Les possibilités de statistiques détaillées des usages dʼInternet
par ses utilisateurs pourraient, si elles sont implémentées à grande échelle, devenir une
source de revenus importante pour les FAI qui pourraient revendre des statistiques
comportementales de ses abonnés.
Les usages commerciaux du DPI font lʼobjet dʼintenses négociations à la Commission
Européenne qui souhaite en interdire lʼusage, alors que le gouvernement anglais qui
cherche à autoriser cette pratique. Les vendeurs de ces techniques tentent de mettre en
valeur lʼintérêt économique que certains fournisseurs de contenus pourraient avoir à
mettre en place un tel système pour disposer dʼinformations aux dépens des règles les
plus élémentaires de protection de la vie privée des abonnés.
Page 75
Ainsi, Antoine Guy, directeur marketing dʼAllot Communications qui commercialise des
solutions DPI, a pu affirmer dans une tribune au Journal du Net : « Un fournisseur de
contenu pourra déterminer la popularité, la saisonnalité des achats de son contenu. Un
fournisseur d'accès pourra distinguer le trafic payant du trafic gratuit, identifier le trafic
malveillant du trafic légal et constater aussi la popularité des fournisseurs de contenu
auprès de ses abonnés […] Le DPI est une technologie clé, un pivot à partir duquel
fournisseurs et distributeurs peuvent définir et s'entendre sur les offres gagnantes de
demain, pour mieux servir leurs clients.[…] Fondamentalement, il défend les intérêts de
la communauté des cyber-consommateurs. » 120
Dans une interview donnée en 2008 à la BBC, Tim Berners-Lee le fondateur
du World Wide Web sʼexprimait clairement contre la Deep Packet Inspection en
donnant un exemple frappant : « Je veux être certain que si je consulte une multitude
de sites sur un cancer particulier, je ne vais pas voir ma prime dʼassurance grimper de
5% sous prétexte quʼils sont au courant de cela. »121 Étant donné les politiques
arbitraires de déremboursement et de tarification auxquelles ont recours les assurances
aux États-Unis (cf le film Sicko de Michael Moore), un tel exemple ne relève pas de la
science fiction. Face à la pr.ession grandissante des législations pour réguler les
usages controversés et illégaux dʼInternet, lʼinspection profonde des paquets pourrait se
développer. Ses usages commerciaux très profitables pour le marketing
comportemental compenseraient les coûts considérables de lʼinstallation à grande
échelle de systèmes dʼinspection des paquets. Une telle hypothèse relève davantage
de la prospective quʼelle ne se fonde sur de véritables projets visant à généraliser
lʼinspection de paquets dans des démocraties, mais il était nécessaire dʼévoquer ces
risques pour bien comprendre les tenants et les aboutissants de cette technique.
Finalement, nous avons vu quʼaucune technique nʼoffre une garantie complète
contre lʼeffet de bord et les possibilités de contournements. Du fait des difficultés
engendrées par les techniques classiques de filtrage, les options les plus évoquées
récemment comme le filtrage hybride ou lʼinspection de contenus pourraient remettre en
cause lʼarchitecture ouverte dʼInternet ainsi que ce modèle économique et les

120
Guy Antoine, 2008, « Avis dʼexpert Télécoms-FAI : le Deep Packet Inspection n'est pas le "gendarme" du
Web », Le Journal du Net. Adresse : http://www.journaldunet.com/expert/telecoms-fai/22272/le-deep-packet-
inspection-n-est-pas-le--gendarme--du-web.shtml [Accédé : 1 Mars 2010].
121
Epelboin Fabrice, 2010, « Le Deep Packet Inspection : pour mieux vous (a)servir ? », ReadWriteWeb
France. Adresse : http://fr.readwriteweb.com/2010/01/12/analyse/deep-packet-inspection-censure-filtrage/ [Accédé :
1 Mars 2010].

Page 76
possibilités dʼexpression libre quʼoffrent le réseau. Pourtant, les opérateurs techniques
ne sont pas hostiles à tout filtrage des contenus échangés sur le réseau.
Conscients des dangers, des risques et des problèmes posés par certains
usages dʼInternet (cybercriminalité, pédopornographie, manque à gagner pour lʼÉtat dus
aux jeux dʼargent non autorisés entre autres), les FAI se sont prononcés pour mettre en
place des protections au niveau de lʼutilisateur final par la fourniture de logiciel de
contrôle parental ou, si besoin, mettre en place le filtrage au niveau des terminaux
dʼaccès à Internet (appelées aussi box). Free sʼest ainsi exprimé pour reporter le filtrage
aux extrémités du réseau pour maintenir lʼarchitecture de bout-à-bout dʼInternet « On ne
nous enlèvera pas l'idée que tout ce qui est sensible et peut à ce titre impacter la bonne
gestion du réseau doit être autant que faire se peut déporté à la périphérie du réseau. »
On peut sʼinterroger si les États ne souhaitent véritablement filtrer que les contenus
pédopornographiques ou sʼils veulent à terme disposer des moyens techniques pour
contrôler Internet et les contenus qui sont échangés sur le réseau. En Australie, des
hackers ont pu avoir accès à la liste noire des sites filtrés et se sont rendus compte que
seulement un tiers de la liste concernait des sites pédopornographiques122. Cet
exemple nous montre les limites du filtrage dʼInternet auxquels les internautes ont
trouvé de nombreuses parades.

!!6 &DI)BDM>FAXGDI)MJFBJGCF?YNDI)DB)CAIXGHDI)

#+ @(1)$211%K%9%&01)4()52-&2/'-(A(-&1)
Une des techniques que lʼon voit se développer pour échapper au filtrage
dʼInternet est lʼutilisation de serveurs mandataires dit aussi serveur proxy. Cette
technique permet de contourner la plupart des filtrages. Elle est assez simple dʼusage
et les systèmes dʼexploitation actuels les plus répandus en offrent la possibilité. Le
fonctionnement de cette technique est simple : un serveur proxy tiers, localisé dans un
domaine différent de celui du FAI filtrant, permet de demander le contenu à bloquer à la
place de lʼutilisateur. En général, le serveur mandataire est hébergé à lʼétranger, dans
un pays où le filtrage nʼest pas en vigueur. Le contenu est ensuite redirigé vers
lʼutilisateur. Ainsi lʼopérateur effectuant le blocage, ne visualise aucune requête vers

122
Epelboin Fabrice, 2009, « Deux tiers des sites web censurés en Australie nʼont aucun rapport avec la
pédophilie », ReadWriteWeb France. Adresse : http://fr.readwriteweb.com/2009/06/03/analyse/sites-web-censures-
australie-sans-rapport-avec-pedophilie/

Page 77
une adresse IP ou une URL à bloquer. Tout se passe comme si deux machines
autorisées (lʼutilisateur et le proxy) effectuaient des échanges de paquets sur le réseau.
Cette technique ne permet tout de fois pas dʼéchapper à lʼinspection en profondeur des
paquets (DPI). Si le serveur DPI effectue une inspection dʼURL, il peut toujours identifier
à lʼintérieur du paquet échangé lʼURL dʼorigine de la page par la technique dite de
lʼencapsulation. Pour échapper à lʼinspection des contenus, lʼutilisation de proxy chiffré
en https (Protocole Hypertexte Sécurisé) permet de masquer lʼURL cible et ainsi
contourner toutes les techniques de blocage, à moins que le trafic https ne soit filtré par
lʼinspection de contenus. Si le trafic http sécurisé venait à être filtré, les paiements
sécurisés en ligne ou lʼaccès sécurisé aux web-messageries entre autres deviendraient
impossibles ce qui est inenvisageable.
Néanmoins, lʼinspection des contenus est tout autant contournable. Il faut alors
utiliser un tunnel crypté, appelé aussi VPN (Virtual Private Network ou « réseau privé
virtuel ») qui permettent à lʼutilisateur de créer une passerelle chiffrée vers une machine
hébergée dans un pays sans filtrage. Une fois la passerelle établie, toutes les requêtes
Internet passant par ce tunnel ne peuvent être inspectées sans casser le cryptage ce
qui est impossible pour de grandes quantités de données et à grande échelle.
Du côté des éditeurs de site, il existe des moyens simples dʼéchapper au filtrage.
Dans le cas du filtrage par inspection des paquets, si le filtrage nʼest appliqué quʼaux
données échangées sur le web pour réduire la charge de traitement des serveurs DPI, il
suffit dʼouvrir un autre port, à partir duquel les internautes peuvent accéder en tapant
après lʼURL le numéro de port de communication (ex. : http://www.sitefitre.com:31337/).
Dʼautres techniques se sont développées pour échapper au filtrage. Entre autres, de
nombreux éditeurs de site illégaux et criminels ont recours à une technique connue
sous le nom de Fast Flux qui change très régulièrement lʼassociation dʼun nom de
domaine avec une adresse IP ce qui permet dʼéchapper aux techniques de filtrage par
adresse IP et de filtrage hybride. Pour contrer cette technique dans le cadre dʼun filtrage
hybride (BGP/DPI vu précédemment), les autorités devraient très régulièrement
reconfigurer les routes pour maintenir un niveau de filtrage efficace. Les
reconfigurations fréquentes des routes sont autant de risques de mauvaise
manipulation, dont nous avons vu les conséquences désastreuses que cela peut
engendrer avec lʼexemple du blocage de YouTube au Pakistan.

Page 78
K+ @/&&() 52-&'() 9#) $042$2'-2E'#$"%().) 4(1) &(5"-%J/(1) 4() B%9&'#E()
2K129D&(1)
Du fait de la nature secrète et criminelle de la pédopornographie et de la diffusion
de ces contenus sur Internet, il est assez difficile de déterminer lʼampleur et la
complexité des techniques développées par ces organisations criminelles pour
échapper au filtrage. En effet, comme nous lʼavons vu, dans de nombreux pays, le
filtrage dʼInternet sʼest répandu pour empêcher lʼaccès aux contenus
pédopornographiques. Or, selon de nombreux experts dʼInternet, cette forme de
cybercriminalité nʼa pas disparu du réseau malgré les nombreuses arrestations qui ont
lieu au début des années 2000. Pour persister à faire des profits, les organisations
criminelles se sont rapprochées dʼinformaticiens de haut niveau pour développer des
techniques de contournement très perfectionnées.
En février 2009, un document est publié sur le site de fuite dʼinformations
Wikileaks : le témoignage anonyme dʼun informaticien ayant travaillé, durant une large
partie de sa vie, au service de réseaux pedophiles intitulé An Insight into Child Porn123.
Bien que lʼauteur prône la dépénalisation de la pornographie infantile, le document
divulgue de précieuses informations quant à lʼévolution du commerce de la
pédopornographie sur Internet et les systèmes ultra-perfectionnés que cette activité
criminelle a pu développer pour se perdurer. Les informations contenues dans ce
document ont été depuis vérifiées et corroborées par de nombreux informaticiens
spécialistes de la sécurité.
Quelque soit la véracité du document et lʼintégrité morale de son auteur, les
informations contenues dans ce document donnent de nombreux éclairages pour
comprendre lʼinefficacité du filtrage dans la lutte contre la pornographie infantile. Nous
nous référons ici uniquement à lʼétude de Fabrice Epelboin124 rédacteur en chef du blog
Read Write Web France que nous avions rencontré en préparation de ce mémoire, qui
annonce avoir publié le document après plus dʼun an de recherches et dʼentretiens avec
des spécialistes de la sécurité des réseaux et des services de police chargés de la lutte
contre la pédophilie. Le document analyse les affirmations du témoignage anonyme de
lʼinformaticien publié en février 2009.

123
Anonyme, 2009, « An insight into child porn », Wikileaks. Adresse :
http://mirror.wikileaks.info/wiki/An_insight_into_child_porn/index.html [Accédé : 1 Mars 2010].
124
Epelboin Fabrice, 2010, « Le commerce de la pédopornographie sur Internet de 2000 à 2010 », Adresse
: http://fr.readwriteweb.com/wp-content/uploads/business_pedopornographie.pdf.

Page 79
Le document donne tout dʼabord quelques informations quant aux revenus
générés par cette activité criminelle. Il semblerait que le commerce de la
pédopornographie aux débuts des années 2000 était dʼune grande ampleur. Selon
lʼauteur anonyme, le leader du marché aurait réalisé plus de 20 millions de dollars de
chiffres dʼaffaire en 2004, soit autant que le leader français de la pornographie ou une
infime proportion des revenus générés par la pornographie aux États-Unis, entre 3 et 4
milliards de dollars selon certaines études. Lʼinformaticien donne des chiffres effrayants,
basé sur les statistiques de consultation dʼun site diffusant des images dʼenfants nus :
selon ses affirmations, ce site aurait reçu 6,5 millions de visites uniques par jour en juin
2001 et aurait accueilli 15 millions de visiteurs par mois ce qui en dit beaucoup sur la
récurrence des visites de certains internautes.
Bien que nous ne pouvons pas être surs de lʼexactitude de tels chiffres, ils permettent
dʼétablir un ordre de grandeur de ce commerce : des visiteurs de lʼordre du million par
jour, un commerce bien établi qui engendrait des bénéfices. En 2004, un cout dʼarrêt a
été donné après la vague dʼarrestation en Ukraine orchestrée par le FBI et les autorités
ukrainiennes. Aujourdʼhui, ce type de sites pédopornographiques ayant pignon sur rue
et recevant des millions de visites nʼexiste plus. Selon Fabrice Epelboin, lʼobjectif de la
loi LOPPSI dʼéviter les visites “accidentelles” de tels sites nʼa pas de sens : « il subsiste
encore, ça et là, quelques contenus pédopornographiques sur la toile, ceux-ci sont
soigneusement cachés des moteurs de recherche. Tomber ʻpar hasardʼ sur des
contenus pédophiles de nos jours en surfant sur le web est une vaste plaisanterie ».
Après les vagues dʼarrestation qui débutent en 2005, les producteurs de contenu ont
été fortement réprimés. Les distributeurs de contenu ont alors eu le pouvoir de marché.
Fortement liés avec la mafia russe dans un pays où lʼinterdiction de la pornographie a
développé tout un commerce clandestin du sexe, les organisations criminelles ont vu le
business de la pédopornographie comme une industrie de distribution de contenus
illégaux. Dans ce but, selon lʼauteur, la mafia a su réunir « des organisations qui
assemblent les meilleurs administrateurs réseaux, les développeurs les plus talentueux
et des hackers de génie. »
Ces spécialistes de la sécurité informatique ont développé des techniques pour
échapper aux difficultés de trouver un hébergement sur Internet pour diffuser leur
contenu. En effet, comme nous lʼavons vu avec les activités du groupe allemand Ak
Zensur, les hébergeurs sont très réactifs lorsquʼils sont sollicités pour retirer des
contenus pédopornographiques de leurs serveurs. Pour diffuser leurs contenus sans
Page 80
dépendre dʼun hébergeur, ces hackers cyberdélinquants se sont employés à
coordonner des milliers dʼordinateurs zombies, ces ordinateurs de particuliers ou
dʼentreprises infectés par un virus qui permet à un hacker de les contrôler à distance
pour effectuer une tâche précise. Selon une étude de 2007125, près dʼun quart des
ordinateurs dans le monde sont infectés par un de ces virus dits « cheval de Troie »
(trojan) faisant exécuter à ces machines de nombreuses actions à lʼinsu de lʼutilisateur.
Récemment, la police espagnole a interpelé trois hackers résidant dans le pays basque
qui avaient mis en place un réseau de treize millions dʼordinateurs zombies répartis
dans 190 pays capables de mettre en place des attaques pouvant déstabiliser les plus
grands acteurs dʼInternet.126
Mis en réseau, ces ordinateurs zombies forment un botnet (réseau de robots) qui
permettent aux réseaux de la pédopornographie de faire connaître leurs contenus par le
biais de lʼenvoi massif de courriels indésirables (spams). Ces messages indésirables
contiennent des liens vers des sites diffusant des contenus pédopornographiques, mais
servent aussi à la vente de solutions permettant dʼétablir un tunnel crypté pour accéder
de manière confidentielle à tout contenu. Les distributeurs de contenu
pédopornographique ont aussi recours à ces machines zombies afin de constituer un
« réseau dans le réseau » formé dʼordinateurs zombies en charge de créer de multiples
passerelles pour brouiller les pistes menant aux différents serveurs loués sous de
fausses identités selon lʼauteur anonyme.
Les réseaux pédopornographiques sʼefforcent de maintenir une avance
technologique sur les autorités pour garantir la pérennité de leur commerce. Fabrice
Epelboin, dans son étude, parle dʼun véritable dispositif de « recherche &
développement » dans ces entreprises criminelles avec une forte capacité à innover.
Les ordinateurs zombies permettent aux distributeurs dʼacheter des serveurs de
manière anonyme et de mettre en ligne des images et des vidéos pédophiles sur les
serveurs de contenus. Enfin, lʼauteur du témoignage anonyme évoque comment les
techniques se perfectionnent pour permettre aux distributeurs de sʼaffranchir des
contraintes de lʼhébergement des contenus :

125
Zitrain Jonathan, 2009, op.cit.,p.46
126
Guillaume Nicolas, 2010, « Sécurité IT : un vaste réseau de botnets démantelé en Espagne »,
ITespresso.fr. Adresse : http://www.itespresso.fr/securite-it-un-vaste-reseau-de-botnet-demantele-en-espagne-
33994.html [Accédé : 4 Mars 2010].

Page 81
« Les Russes ont également mis au point une technologie permettant
dʼutiliser les ordinateurs infectés par un nouveau type de Trojan comme un
cluster de serveurs [les ordinateurs infectés servant alors de serveurs
hébergeant les contenus pédophiles]. Une sorte de gigantesque réseau
distribué de serveurs (à la façon du projet Freenet, mais en utilisant des
ordinateurs infectés comme nœuds de réseau). »127
Dʼautres techniques sont en train dʼêtre mises au point pour échapper au filtrage,
à lʼinspection des paquets et à lʼeffacement des contenus sur les plateformes
dʼhébergement. Le témoignage fait part du développement dʼune technique tirant profit
des dernières évolutions des systèmes dʼexploitation de nos ordinateurs qui permettent
de se connecter à un ordinateur distant et dʼen prendre le contrôle, une technologie
appelée aussi VNC (Virtual Network Computing) et très répandue en entreprise.
Lʼutilisateur ne transfère aucun fichier entre son ordinateur et celui quʼil contrôle, il a
juste accès à une image du bureau de lʼordinateur auquel il accède à lʼensemble des
fichiers, qui peuvent être de toute nature. Moyennant un paiement, lʼutilisateur peut
avoir accès à toutes sortes de contenus : « lʼécran de la station de travail louée se
trouvant en Russie, par exemple, et pouvant être visualisé sur un PC en Allemagne, le
client passera au travers de tous les filtres, la censure, et la surveillance mise en place
par le gouvernement . »
Selon Fabrice Epelboin, il est fort à parier que le cryptage ne devrait pas affecter
le commerce de la pédopornographie : « avec une telle capacité à innover, et au vu de
la sophistication des technologies déjà en place aujourdʼhui pour se jouer du filtrage, il
nʼy a aucune raison pour que les distributeurs cessent dʼinnover. » Dʼailleurs, lʼauteur
dʼAn Insight Into Child Porn declare que les cybercriminels de la pédophilie sont prêts à
parer le filtrage dʼInternet : « les Russes ont construit depuis quatre ans des solutions
complètes en prévision dʼune arrivée massive du filtrage afin de pérenniser leurs
affaires. »

5+ @() '%1J/() 4/) 403(92$$(A(-&) 4/) 5'C$&#E() $2/') 9#) 105/'%&0)


%-&0'%(/'()
Dʼautre part, il est fort à craindre que, pour contourner le filtrage dʼInternet, un
nombre croissant dʼinternautes ait recours au cryptage de leur connexion pour continuer

127
Epelboin Fabrice, 2010, op.cit., p.24

Page 82
à échanger des fichiers, accéder à des contenus filtrés ou contourner les nombreux
« effets de bord ». Dès lors, se pose la question de savoir si la croissance de telles
techniques ne risquent pas de rendre les usages du réseau absolument opaques aux
yeux des autorités. Dans lʼexemple de la pédopornographie, lʼabsence de filtrage a
permis dʼidentifier facilement les producteurs de contenus ainsi que les internautes qui
achetaient des images pédophiles sur lnternet. Si une grande partie des internautes a
recours au cryptage, il sera alors très difficile dʼappréhender les échanges clandestins
de fichiers pédopornographiques qui échapperont aux services de police ne pouvant
pas décrypter les masses de données échangées.
Alors que la riposte graduée128 va être mise en place en France avec
lʼinstallation de la HADOPI, les internautes ayant reçu un avertissement et ayant
connaissance de lʼexistence des techniques de cryptage par VPN (tunnel réseau) ne
devraient pas, dans certains cas, hésiter à débourser quelques dizaines dʼeuros par
mois pour continuer à télécharger de la musique gratuitement. Les internautes pourront
alors télécharger de nouveau sans craindre la déconnexion dʼInternet par une autorité
administrative. Cela est particulièrement possible pour les plus jeunes générations, qui
pour beaucoup nʼont jamais eu le réflexe de payer pour écouter de la musique et sont
particulièrement familières avec les techniques dʼéchange de fichiers sur Internet.
De plus, les offres commerciales se multiplient pour offrir des systèmes de
cryptage simples. Par exemple, les fondateurs du site dʼéchange de fichiers torrent The
Pirate Bay ont créé un VPN à vocation grand public à 5€ par mois nommé
IPREDATOR. Cʼest tout un marché du cryptage qui commence à se développer en
Europe en dépit des efforts du législateur pour mettre un terme à lʼéchange de fichiers
protégés par le droit dʼauteur. Le blogueur Korben a pu mettre à disposition une liste de
huit VPN gratuits et plus dʼune vingtaine dʼoffres payantes alors que la HADOPI nʼa pas
encore envoyé ses premiers courriers de déconnexion des accès Internet129 ; des
tutoriels étapes par étapes expliquent aux utilisateurs même débutants comment
protéger sa connexion.
Pour Fabrice Epelboin, le risque du développement du cryptage est que des
internautes, jeunes pour beaucoup, vont sʼinitier à la clandestinité et pourrait entrainer

128
Principe de lutte contre le téléchargement illégal fondé sur une graduation des avertissements aux
contrevants au droit dʼauteur allant du simple avertissement à la coupure dʼInternet
129
"Korben", « VPN - Wiki de l'internet libre », Adresse :
http://free.korben.info/index.php/VPN#Liste_de_VPN.

Page 83
toutes sortes de rencontres « nous allons voir, au sein de ces réseaux parallèles, se
mêler tous types de contenus, et sʼopérer des rencontres et des interactions, […] entre
des populations autrefois séparées, adolescents et pédocriminels ou encore mafieux de
toute sorte ». Paradoxalement, le filtrage dʼInternet, qui a pour objectif notamment
dʼéviter lʼaccès fortuit à la pédopornographie, pourrait bien faciliter de tels événements.
Ainsi, les services de sécurité intérieure de nombreux pays se sont exprimés sur
les aspects contreproductifs du blocage dʼInternet. Si le grand public a facilement accès
à ces techniques de cryptage, il nʼy aucune raison que des entreprises criminelles ne
sécurisent pas leurs télécommunications.
Comme lʼexplique Philippe Maltere, spécialiste de la sécurité des réseaux chez Orange,
la généralisation et la banalisation du cryptage pourraient être dommageables aux
services de police : « les spécialistes de contre terrorisme cybernétique ou contre
pédophilie cybernétique pourraient ne plus être à même d'effectuer correctement leur
travail. Avant, comme nous l'avons vu seuls certains chiffraient leur communication,
après que l'on est écarté les entreprises, les sites bancaires et e-marchand, il ne restait
pas «grand monde » à vérifier, maintenant que toutes les communications sont
cryptées, comment séparer le bon grain de l'ivraie ? Impossible. »130La conséquence de
la généralisation du filtrage est, selon lʼexpert sécurité dʼOrange, que « Les
communications très majoritairement chiffrées vont faire passer l'état d'Internet de
difficilement contrôlable à totalement incontrôlable. »
Pour cette raison, la National Security Agency (NSA) a empeché toute législation
rendant obligatoire le filtrage dʼInternet afin de pouvoir poursuivre ses opérations de
surveillance des télécommunications sur le territoire américain et partout dans le monde
via le réseau Echelon. Dʼapès Manuel Castells, la raison pour laquelle les Etats
sʼemploient à entraver la diffusion des techniques de cryptographie résulte dʼ« un ultime
effort pour sʼassurer un minimum de contrôle sur les flux dʼinformations, base séculaire
de lʼEtat ».

En définitive, du fait que lʼarchitecture dʼInternet a été conçue pour acheminer


des données de la manière la plus efficace, le réseau supporte définitivement les
techniques de filtrage. Ces dernières sont facilement contournables et sont

130
Maltere Philippe, 2009, « Hadopi : des effets indésirables ? », Sécurité des réseaux et des SI - Orange
Business Services. Adresse : http://blogs.orange-business.com/securite/2009/05/hadopi-le-danger-bien-cache.html
[Accédé : 2 Mars 2010].

Page 84
dommageables à lʼensemble des internautes qui sont régulièrement soumis à
dʼimportants « effets de bord ». Le filtrage pourrait bien, à terme, généraliser le cryptage
du réseau ce qui rendrait alors tout contrôle quasiment impossible. Ces aspects
techniques font office dʼun argumentaire solide pour les partisans de la neutralité du net,
principe dont nous allons étudier lʼarticulation dans lʼespace public.

Page 85
Deuxième partie. La neutralité du net dans lʼespace
public en France et aux Etats-Unis
Si précédemment nous avons pu voir que la neutralité du net sʼappuie sur un
argumentaire technique solide en opposition à tout système de filtrage ou de
discrimination de contenus, les discours sur la neutralité du net sʼappuient également
sur un ensemble de théories politiques, économiques et juridiques. En effet, les
justifications techniques ne peuvent suffire comme fondement dʼun concept devant
sʼarticuler dans lʼ « espace public ». Par espace public, lʼauteur allemand Jürgen
Habermas désigne « le processus au cours duquel le public constitué d'individus
faisant usage de leur raison s'approprie la sphère publique contrôlée par l'autorité et la
transforme en une sphère où la critique s'exerce contre le pouvoir de l'État. »131
Nous allons étudier ici comment la neutralité du net sʼest affirmée dans le débat
public. Dans le chapitre 4, il sera question des argumentaires qui animent les partisans
et les opposants à la neutralité du net. Quels discours, quels imaginaires sont invoqués
pour légitimer lʼaction et les volontés des deux groupes ?
Dans le chapitre 5, nous aborderons la manière dont ces argumentaires se
déclinent dans lʼélaboration des politiques publiques. Quels rapports de force ont
conduit certaines législations en matière de régulation dʼInternet à être adoptées ? Par
quels procédés les partisans et les opposants de la neutralité du net ont ils réussi à
transformer leur argumentaires en véritable politique publique ? Par quels moyens sont
ils arrivés à attirer lʼattention des parlementaires et du grand public. Finalement, nous
aborderons la question sous-jacente de lʼopposition entre deux conceptions de la
liberté.

131

Page 86
! "#$%&'()!*+!,(-./)0'1!)0!2$3).(!4)!)'!)0!5%%51&'&50!6!7$!
0).'($7&'8!4.!0)'!
Internet est régulièrement présenté comme un espace échappant à toute
régulation, un territoire virtuel sur lequel lʼÉtat perdrait son influence au profit de
cybercriminels. A lʼopposé, des associations de défense des libertés sur Internet
présentent le réseau comme un « cyberespace » dans lequel la démocratie pourra
trouver son accomplissement, le lieu où lʼon passerait selon la typologie marxiste dʼune
« liberté formelle » dʼexpression et de libre communication à une « liberté réelle »
comprise dans une architecture de réseau nʼadmettant aucune discrimination de
contenus.
Les débats sur la neutralité du net sʼarticulent entre ces deux discours
diamétralement opposés, entre une vision utopique et une vision dystopique de la
société de lʼinformation. Plus que dʼargumentaires divergents, nous sommes face à un
conflit entre les différents « imaginaires dʼInternet ». Selon Patrice Flichy, auteur des
Imaginaires dʼInternet132, toute technologie est accompagnée de discours la
caractérisant et forment un imaginaire mobilisé régulièrement dans son adoption par la
société. Ces imaginaires ont deux fonctions selon Flichy : construire lʼidentité dʼun
groupe social, et fournir des ressources qui peuvent être réinvesties dans la préparation
et la mise en place de projets. Historiquement, dʼaprès lʼauteur, Internet a mobilisé un
imaginaire extrêmement positif relevant de lʼutopie dans ses premiers temps. Parmi ces
imaginaires, on peut citer celui des « autoroutes de lʼinformation », lʼutopie
communautaire qui prend forme avec le « mythe fondateur » des « communautés
virtuelles » théorisé en 1993 par Howard Rheingold133. Patrice Flichy décrit une
atmosphère dʼeuphorie dans les premiers temps dʼInternet, où le réseau était encore
quasi uniquement utilisé par des universitaires. Cependant, dès quʼInternet a été
privatisé et a été utilisé par le grand public, nous sommes passés dans la phase de
dysphorie. Cʼest entre ces deux imaginaires que le débat sur la neutralité du net se
situe, et en fonction desquels les partisans et les opposants de ce concept vont se
placer.

132
Flichy Patrice, 2001, L'imaginaire d'Internet, La Découverte.
133
Fortin Pascal, 2002, « À propos de Lʼimaginaire dʼInternet », Uzine. Adresse :
http://www.uzine.net/article1426.html [Accédé : 2 Mars 2010].
Page 87
Dans une première partie, nous aborderons les arguments des opposants à la
neutralité du net pour ensuite évoquer les raisons qui amènent certains groupes et
individus à défendre un Internet sans discrimination.

!"#$%#&'()*+)#&)#,%#-.'./0%123)#&)#,451%1#)1#&)+#2*1'.61+#7/88).72%9:#&)+#
/-'.%1)9.+##

!" #$%!&'()*'+!,%-)(%$*./*'+0%!%*1,)*'/*23&/)/14!2/*5*

Internet : zone de non-droit ?

Récemment, de nombreuses personnalités politiques en France se sont


exprimées pour appeler à une réponse politique aux problèmes posés par une
prétendue dérégulation du réseau. Le président Nicolas Sarkozy a demandé au
gouvernement de légiférer afin de « civiliser Internet ». Selon le chef de lʼÉtat « Internet
ne doit pas être un 'Far Ouest' high-tech, une zone de non droit où des 'hors-la-loi'
peuvent piller sans réserve les créations, voire pire, en faire commerce sur le dos des
134
artistes. » Le porte parole de lʼUMP, Frédéric Lefebvre, a récemment présenté
Internet comme une zone de non-droit au Parlement : “Il est temps, mes chers
collègues, que se réunisse un G20 du Net qui décide de réguler ce mode de
communication moderne envahi par toutes les mafias du monde. [...] La mafia sʼest
toujours développée là où lʼÉtat était absent ; de même, les trafiquants dʼarmes, de
médicaments ou dʼobjets volés et les proxénètes ont trouvé refuge sur Internet, et les
psychopathes, les violeurs, les racistes et les voleurs y ont fait leur nid.”
Ce discours fait écho aux prises de position de nombreux militants des libertés
dans le monde numérique qui manifestent une grande défiance vis-à-vis des autorités
traditionnelles. Le rapport à lʼÉtat est très ambigu au sein de la culture hacker de ces
militants. Internet sʼest développé en dehors du marché pendant près dʼun quart de
siècle, grâce aux financements publics et a offert aux universitaires une grande liberté
dʼaction. Selon Patrice Flichy, lʼ « idéologie cyberlibertarienne oublie sa dette vis-à-vis
de lʼEtat.» En effet, pour de nombreuses personnes acquises à la culture hacker,

134
Quand Nicolas Sarkozy oppose l'Internet au monde civilisé, Numérama. Adresse :
http://www.numerama.com/magazine/5692_3-quand-nicolas-sarkozy-oppose-l-internet-au-monde-civilise.html.

Page 88
lʼintervention de lʼEtat sur Internet doit être minimale sur le réseau. Ils estiment que si
une régulation est nécessaire, le marché plutôt que lʼÉtat doit lʼassurer. Or, au vu de
lʼhistoire dʼInternet aux États-Unis, les atteintes au principe de neutralité du net se sont
multipliées depuis que la FCC a retiré toute contrainte sur les FAI qui ont commencé à
discriminer les contenus échangés sur le réseau. Au sein de cette même idéologie
qualifiée de « cyberlibertarienne », un texte a particulièrement influencé la vision
répandue quʼInternet pourrait sʼaffranchir de lʼÉtat : il sʼagit de la « déclaration
dʼindépendance du cyberespace »135 publiée par John Perry Barlow en 1996 à la suite
de la loi réformant les télécommunications aux États-Unis. Barlow est le fondateur de
lʼElectronic Frontier Fondation (EFF ou « Fondation de la Frontière Numérique »), un
des principaux groupes militants de défense du concept de neutralité du net aux États-
Unis. Le texte prend le ton solennel dʼune déclaration dʼindépendance et pose les bases
dʼune doctrine très offensive vis-à-vis de lʼEtat pour défendre une liberté totale
dʼInternet. Selon Patrice Flichy, ce texte qui fait désormais référence est caractérisé par
un « antiétatisme viscéral ». En effet, Barlow affirme un rejet complet de toute forme
dʼautorité :
« Je déclare que l'espace social global que nous construisons est
indépendant, par nature, de la tyrannie que vous cherchez à nous imposer.
Vous n'avez pas le droit moral de nous donner des ordres et vous ne
disposez d'aucun moyen de contrainte que nous ayons de vraies raisons de
craindre. […]Vos notions juridiques de propriété, d'expression, d'identité, de
mouvement et de contexte ne s'appliquent pas à nous. Elles se fondent sur
la matière. Ici, il n'y a pas de matière. »
Lʼadaptation des juridictions aux contraintes dʼInternet
Ainsi, Internet est présenté comme une « zone de non-droit » dans des discours
diamétralement opposés. Les opposants à la neutralité du net affirment que remettre en
cause ce principe permettrait à lʼÉtat de revendiquer son autorité sur Internet, et dʼy
rétablir lʼintérêt général. Pourtant, les juridictions se sont adaptées à Internet et ont pu
faire appliquer certaines de leurs sanctions auprès des hébergeurs de contenus
notamment. De lʼavis de Cédric Ménara, professeur de droit à lʼEDHEC et membre du
comité scientifique de juriscom.net, site spécialisé dans le droit dʼInternet, le droit et les

135
Barlow John Perry, 1996, « Déclaration d'indépendance du cyberespace », Adresse :
http://www.freescape.eu.org/eclat/1partie/Barlow/barlowtxt.html [Accédé : 4 Mars 2010].

Page 89
décisions de justice sont strictement appliquées par les opérateurs du réseau : « Quand
un site, un forum, un blog, présente un contenu illicite, dans lʼimmense majorité des cas,
il est possible de demander le retrait des pages illégales à lʼhébergeur, si lʼéditeur nʼa
pas voulu le faire lui-même. Et ça fonctionne dans 98 % des cas. »136
Le groupe militant allemand Ak Zensur a démontré, en notifiant les hébergeurs de sites
contenant des images pédopornographiques, la rapidité à laquelle ces derniers
réagissaient lorsquʼils étaient prévenus de lʼexistence de contenus illégaux. Les
hébergeurs se montrent coopératifs pour effacer des données litigieuses, parfois de
manière arbitraire comme nous avons pu le voir dans lʼapplication du DMCA aux Etats-
Unis. En ce qui concerne le cas français, les contenus diffusés sur Internet ne sont à
lʼorigine que de très peu dʼaffaires judiciaires, en comparaison aux millions dʼutilisateurs
qui publient des contenus en France. A lʼexception, bien sûr, des cas dʼéchanges
dʼœuvres protégées par le droit dʼauteur, dont les infractions ne peuvent pas être
traitées par des tribunaux déjà surchargés Cédric Manara sʼoppose ainsi à lʼidée
quʼInternet serait une « zone de non-droit » : «si lʼon rapproche le nombre de pages
existantes aujourdʼhui, et le nombre de contentieux, on se rend compte quʼil est très
faible. En France, on ne dénombre quʼune dizaine dʼaffaires relatives à des blogs ! »
Les juridictions ont su, par ailleurs, sʼadapter au problème de la territorialisation
du droit posé par Internet : comment déterminer quelle loi sʼapplique avec des sites
potentiellement accessibles partout dans le monde et où ont lieu des transactions
internationales ? Les juges se sont accommodés à cette situation, ils appliquent alors
plusieurs critères pour déterminer si la loi française sʼapplique à un site web. Si le site
est français, si les prix sont en euros et que le site peut livrer des biens physiques ou
parfois virtuels moyennant une transaction financière, un tribunal peut établir quʼil
« vise » un pays et donc la loi de ce pays sʼy applique. Par exemple, la loi légalisant les
jeux dʼargent en ligne prévoit de sanctionner les sites exerçant cette activité
illégalement sʼil est prouvé quʼun site vise explicitement le marché français. Par la suite,
si cela est démontré, un principe dit de « subsidiarité »137 sʼapplique depuis la loi du 21
juin 2004 dite « loi de confiance dans lʼéconomie numérique ». Son article 6 prévoit que
l'autorité judiciaire peut prescrire aux hébergeurs éventuellement responsables, et à

136
1. Manara C. « Internet n'est pas une zone de non-droit ». Ecrans.fr (Libération). 2007. Available at:
http://www.ecrans.fr/Internet-n-est-pas-une-zone-de-non,2619.html [Accédé Mars 4, 2010].
137
Principe issu du droit canonique puis européen selon lequel une action publique, lorsquʼelle est
nécessaire, doit être appliquée par la plus petite entité capable de résoudre le problème, en général dans lʼobjectif
dʼune plus grande efficacité.
Page 90
défaut aux fournisseurs d'accès à internet, toutes mesures propres à prévenir un
dommage ou à faire cesser un dommage occasionné par le contenu d'un service de
communication au public en ligne. La responsabilité de lʼhébergeur nʼest engagée que
si elle a les contenus incriminés lui ont été notifiés par avance selon une procédure
définie par la loi. Le filtrage des contenus par les FAI nʼest envisagé que comme un
dernier recours, un principe que le législateur semble avoir négligé avec les lois dites
HADOPI et LOPPSI.
Les contraintes de la régulation
Ainsi, lʼidée quʼInternet est une zone de « non-droit » reçoit un certain écho dans
lʼespace public du fait de la difficulté de territorialiser le droit sur Internet. Il est renforcé
par le discours de personnalités publiques qui, souhaitant réguler Internet, nʼhésitent
pas à présenter le réseau comme un espace où lʼÉtat de droit ne pourrait exercer son
emprise. Dʼautre part, sʼest une pseudo idéologie qui stipule quʼInternet est un espace
de liberté absolu, où le droit ne pourrait et ne doit pas sʼappliquer. Selon
ces« cyberlibertariens », lʼautorégulation doit sʼappliquer sur Internet, lʼÉtat ne doit agir
quʼen dernier recours. Or, les juridictions nationales se sont adaptées à la nouvelle
situation crées par Internet et les décisions de justice gardent leur autorité sur le réseau.
En réalité, comme nous lʼa expliqué Pierre Langeron, lors dʼun entretien dans le cadre
de ce mémoire, maître de conférences à l'Institut d'Études Politiques d'Aix-en-Provence
spécialisé dans les libertés fondamentales, le droit et la technologie sont dans une sorte
de« course » au cours de laquelle le droit tente de réguler les usages que la société fait
dʼune technique. Plusieurs exemples peuvent illustrer la difficulté pour le droit à
sʼadapter à de nouveaux usages. Prenons le cas des excès de vitesse en voiture : les
limitations de vitesse existent depuis 1899 au début de lʼautomobile mais ces règles
nʼont été vraiment respectées et sanctionnées que, depuis le milieu des années 80, au
moment où la société jugeait inacceptable les conséquences en terme de vie humaine
dʼune conduite à vitesse excessive.

Page 91
138
Figure 8 - Les quatre contraintes de la régulation selon Lawrence Lessig

De fait, lʼÉtat peut, et en général, doit encadrer certains usages, et intégrer des
formes de régulation à la législation pour poursuivre son objectif dʼœuvrer pour lʼintérêt
général. Néanmoins, le droit nʼest quʼun des facteurs principaux créeant un usage
technique ou une pratique. Selon Lawrence Lessig, quatre facteurs déterminent
lʼindividu dans ces pratiques et lʼensemble de ces quatre facteurs peuvent former ce
quʼon qualifie de « régulation » : le droit (law) ; le marché (market) ; lʼarchitecture dʼune
technologie, ses principes structurants (architecture) ; et enfin les normes sociales
(norms). Chacune de ces contraintes agit comme un régulateur, aucun ne peut agir seul
pour influencer un comportement. Il faut que les quatre contraintes sʼaccordent pour
modifier un comportement
. Cette grille dʼanalyse nous permet de mieux comprendre lʼéchange de
fichiers protégés par le droit dʼauteur via les systèmes de peer-to-peer, une des
pratiques à laquelle se réfèrent le plus les opposants à la neutralité du net. La loi punit
lourdement une telle pratique, mais lʼarchitecture dʼInternet de bout-à-bout (end to end)
rend particulièrement simple une telle technique, que les techniques de filtrage peinent
à bloquer. Lʼéchange illégal dʼœuvres protégées fait partie des mœurs, notamment des
plus jeunes générations qui nʼont pas eu lʼhabitude de payer pour écouter de la
musique. Enfin, le marché propose des offres dʼaccès à Internet à haut débit à un prix
abordable et la plupart des offres (sauf sur les réseaux mobiles) supportent la technique
du peer-to-peer dont les usages sont très nombreux pour les abonnés.

138
Lessig Lawrence, 2006, Code: Version 2.0, Basic Books, p.123. Accesible en intégralité à lʼadresse :
http:// pdf.codev2.cc/Lessig-Codev2.pdf.
Page 92
Il convient donc dʼaffirmer que le droit ne pourra jamais être le seul facteur pour
imposer des comportements à la société. Dʼautres contraintes agissent et contribuent
tout autant à la régulation des pratiques sociales. Une loi qui tente dʼimposer un
comportement, sans agir sur les trois autres facteurs, deviendra obsolète et ne sera pas
appliquée.

!" #$%$&'()'&)('*&+!$,$-'(),'-)$*.'-&$--'%'*&-)/+*-),')(0-'+1)
Dans le débat sur la problématique de la neutralité du net, les FAI ont été à la
fois juges et parties. Dans certains cas, aux États-Unis notamment, ils ont agi pour
filtrer des contenus qui critiquaient ou allaient à lʼencontre de leurs intérêts
commerciaux. De nombreux opérateurs dʼaccès se sont exprimés pour critiquer le
concept de neutralité du net. Leur principal argument a été dʼaffirmer que, si une
législation leur interdisait le filtrage et la discrimination de contenus, ils ne seraient plus
en mesure de gérer leur réseau et appliquer une discrimination envers les abonnés dont
les usages seraient plus consommateurs en bande passante.
Pour certains FAI opposés à lʼidée de neutralité du net, une législation sʼinspirant
de ce concept leur interdirait toute discrimination sur les contenus échangés sur le
réseau et irait selon eux à lʼencontre des intérêts des consommateurs. En effet, les
techniques actuelles supportent la généralisation de lʼinspection des contenus par DPI,
ce qui leur permettrait de mettre en place une tarification différenciée selon le « type »
dʼaccès à Internet pour lequel lʼutilisateur aura payé. La généralisation du DPI serait très
couteuse pour les FAI, et génère un « effet de bord » conséquent comme nous avons
pu le voir et pose dʼimportants problèmes en terme de vie privée et de
commercialisation des données personnelles. Toutefois, dʼun point de vue purement
technique, les opérateurs sont capables de généraliser le DPI et de discriminer par
application les usages de leurs abonnés. Selon les FAI, les investissements dans le
réseau pourront être enfin rentabilisés et cela rendrait ces entreprises plus rentables. La
consommation de certaines applications nécessitant un fort volume de bande passante
pourra être rationnalisée, en faisant payer plus cher lʼutilisateur. Dans ce nouveau
modèle économique, lʼabonné pourrait se voir accorder avec son accès à haut débit la
possibilité dʼaccéder à certains services uniquement avec une consommation de bande
passante définie.

Page 93
139
Figure 9 - Exemples d'offre tarifaires envisageables avec la généralisation du DPI

Or, le cout marginal de la bande passante est quasiment nul sur Internet, il sʼagit
seulement de mettre le réseau à lʼéchelle du volume de données échangées. Bien que
lʼutilisateur paie un abonnement mensuel, lʼopérateur lui nʼa que des couts de
construction de son réseau et de lʼaccès à la ligne. Les seuls coûts que génère un plus
grand débit de données à acheminer sont les points dʼinterconnexion entre les
différents systèmes autonomes du réseau. Ces derniers sont tenus pas de puissants
opérateurs internationaux qui facturent au volume de données.140 Ainsi, avec un cout
marginal quasi nul du volume de donnée échangée, les FAI ne sont pas tenus de mettre
en place un tel système de facturation, qui pourrait remettre en cause le modèle même
dʼInternet. Sans lʼinterdiction par le législateur de la discrimination des données, les FAI
seront libres de créer une rareté artificielle (artificial scarcity)141 de la bande passante
qui ne correspond à aucune réalité technique. Au lieu dʼinvestir dans le réseau, les
opérateurs pourraient transformer leur modèle économique vers le contrôle des
contenus échangés par leurs intermédiaires. Ceci est une remise en cause complète de
lʼarchitecture de bout-à-bout (end-to-end) dʼInternet, conçu afin dʼacheminer des
données sans discrimination à lʼégard des contenus, des applications ou de lʼémetteur.

139
Arbor networks (fournisseur de solutions DPI), « The Role of Deep Packet Inspection in Mobile Networks
: using IP service control to innovate and differentiate in a competitive landscape », Adresse :
http://www.arbornetworks.com/en/white-papers.html.
140
Bayart Benjamin, 2007, « Internet libre ou Minitel 2.0 », Adresse :
http://video.google.fr/videoplay?docid=169589780372642064# [Accédé : 4 Mars 2010].
141
La Quadrature du Net, 2009, « Protecting Net Neutrality in Europe », Adresse :
http://www.laquadrature.net/files/LaQuadratureduNet-
DOSSIER_Protecting_Net_Neutrality_in_the_Telecoms_Package.pdf.
Page 94
Lʼabsence de discrimination des paquets échangés sur Internet a permis une
croissance extraordinaire du réseau : en vingt ans, la quantité de données échangées
sur le réseau a été multipliée par 10 000 millions142 .
Si les utilisateurs avaient du tenir compte du coût de la bande passante, de nouveaux
usages nʼauraient pas pu apparaître comme le streaming ou lʼéchange de fichier de
pair-à-pair. Inévitablement, de nombreux utilisateurs devront réduire leur temps de
connexion en ligne, alors que pour certains ce sera la nécessité même dʼun accès à
Internet qui sera remis en cause. Une clause de non-discrimination dans la régulation
des FAI permet dʼassurer que les FAI ne créeront pas une rareté artificielle de la bande
passante au lieu dʼinvestir. Selon une étude de lʼorganisation Free Press143, la plupart
des FAI américains ont réduit de manière importante leurs investissements dans le
réseau depuis que la FCC les a affranchis de leurs obligations de non-discrimination de
contenus. Fin 2006, la FCC a conditionné lʼacquisition de lʼopérateur Bell South par
AT&T à la tenue dʼun réseau neutre pendant deux ans, cʼest-à-dire nʼexerçant aucune
discrimination entre les paquets. Durant cette période, les investissements dans le
réseau augmentèrent de 1,8 milliards de dollars, plus que tout opérateur aux États-Unis.
En terme de pourcentage, les investissements dʼAT&T sont passés de 13,5% en 2006 à
20% en 2008de ses revenus de FAI, en grande partie grâce à la contrainte de neutralité
imposée par la FCC.144
Pour les producteurs de contenu et les créateurs dʼapplication, la question de la
bande passante pourrait devenir essentielle dans leur modèle économique. Selon
certains FAI, les producteurs de contenu agissent comme des free rider145 en
gratuitement le réseau qui leur est fourni; par exemple, dans une interview dans le
magazine Business Week146, lʼancien PDG de lʼopérateur américain AT&T avait
affirmé : « Maintenant ils [les grands consommateurs de bande passante] veulent
utiliser mes tuyaux gratuitement, mais je ne vais pas les laisser faire pour la simple
raison que nous avons fait un investissement et nous devons avoir un retour dessus. »

142
Andrew Odlyzko, Internet traffic growth: Sources and implications,
http://www.dtc.umn.edu/~odlyzko/doc/itcom.internet.growth.pdf
143
Turner Derek, 2009, « Finding the bottom line: the truth about network neutrality & investment », Adresse
: http://www.freepress.net/files/Finding_the_Bottom_Line_The_Truth_About_NN_and_Investment_0.pdf.
144
Ibid.
145
La notion de free rider désigne, en économie, un agent qui utilise plus que sa part juste à utiliser un bien
public ou nʼoffre pas une rémunération suffisante pour que la production dʼun bien public se poursuive.
146
Olivier Ricou et Olivier Ricou, 2009, « La neutralité de l'Internet (suite) », Adresse :
http://www.ricou.eu.org/e-politique/index.php?post/2009/03/16/La-neutralite-de-l-Internet-suite [Accédé : 4 Mars
2010].
Page 95
Pour de nombreux FAI, une législation les empêchant de discriminer les contenus irait à
lʼencontre des intérêts du consommateur qui devra payer les dépenses en bandes
passantes des fournisseurs de contenus. Or, on peut sʼinterroger sur lʼintérêt quʼune
connexion dʼInternet aurait pour de nombreux utilisateurs sans ces fournisseurs de
contenus ? De plus, les FAI chargent déjà les sites de vidéo en streaming pour obtenir
des accords dits de peering offrant un meilleur débit aux sites ayant payé pour
lʼinterconnexion. Dailymotion, le site français dʼhébergement de vidéo en streaming, doit
rémunérer le FAI Free en échange dʼun accord de peering garantissant une certaine
qualité de service lorsque les abonnés de Free accèdent aux vidéos. Clairement,
lʼargument selon lequel les hébergeurs et fournisseurs de contenu profitent du réseau et
dʼune qualité de bande passante peut être aisément mis en doute. Néanmoins, un FAI,
comme toute entreprise privée, vise à maximiser ses profits, et il semblerait quʼune
législation leur interdisant de discriminer les contenus échangés en ligne les obligerait à
investir dans le réseau.

!" #$%&'()*+)%&,-*.'/0.+%!122)/!-$34%).%'!1*12-53)+%
Dʼautre part, les FAI se sont opposés à une législation leur interdisant de
discriminer les contenus, car cela allait tout simplement à lʼencontre de leurs intérêts
commerciaux. De plus en plus, les FAI ne se placent plus seulement comme opérateurs
de lʼaccès à Internet, mais aussi comme fournisseur de contenus et de services. Ils
souhaitent alors favoriser les services quʼils proposent face à ceux de la concurrence ce
qui semble aller dans leurs intérêts économiques. Cette intégration du contenant et du
contenu au sein dʼune même entreprise est une évolution essentielle de lʼéconomie des
médias.
Lʼexemple de France Télécom devenu Orange depuis le rachat de lʼopérateur anglais
en en 2000 illustre bien les perspectives de développement quʼon les entreprises de
télécom en se spécialisant dans les contenus. Face à lʼouverture du marché de la
téléphonie mobile, lʼopérateur historique a jugé quʼil était nécessaire de faire évoluer la
stratégie du groupe vers la distribution de contenus. Dans cette optique, le PDG de
lʼentreprise a annoncé quʼil souhaitait quʼOrange se rapproche des entreprises de
médias : « il est naturel que ceux qui déploient les réseaux participent aussi à la
richesse des services qui les empruntent afin de retirer pleinement les dividendes de

Page 96
leurs investissements. »147 Le groupe a pour objectif de réaliser plus de 20% de son
chiffre dʼaffaires contre 8% en 2009 dans la publicité en ligne, la télévision ou la
diffusion dʼévénements sportifs. En 2008, Orange sʼest clairement engagé dans la voie
de la distribution de contenus en emportant le marché des droits exclusifs de la Ligue 1
de football pour 204 millions dʼeuros par an. La plupart des opérateurs dans le monde
déploient une telle stratégie en sʼorientant vers la distribution de contenus, du fait
notamment de la croissance des offres dites triple play (Internet, téléphonie, télévision).
Les partisans de la neutralité du net sʼinquiètent que les FAI ne favorisent la
distribution de leurs contenus par rapport à ceux de leurs concurrents. Avec le
développement des techniques de DPI, les FAI pourraient entamer une démarche dite
de priorisation (« prioritization » en anglais) qui donnerait une importance préférentielle
aux paquets provenant des sites distribuant les contenus du fournisseur ou ayant passé
un accord avec ce dernier. Or, selon les spécialistes du réseau, une telle démarche de
priorisation est impossible avec lʼarchitecture actuelle dʼInternet : plus que de faciliter
lʼacheminement de certains contenus, il sʼagirait de procéder à une dégradation
générale de la qualité de service du réseau.
De plus, comme les techniques de filtrage et dʼinspection des données ne sont
pas clairement transparentes pour les utilisateurs, ces derniers pourraient ne pas
percevoir les origines du ralentissement de la communication et lʼinterpréter comme une
simple congestion du site. Des utilisateurs mal informés des pratiques de leur FAI
pourraient se tourner vers la concurrence disposant dʼun meilleur débit sans avoir
connaissance du ralentissement opéré par son opérateur. Le libre marché des
applications sur le réseau serait alors biaisé du fait de lʼingérence des FAI sans que le
consommateur ne le sache. Lʼarchitecture dʼInternet, fondée sur le modèle du sablier du
réseau où les développeurs et les techniciens peuvent agir sur une couche du réseau
sans se préoccuper des autres niveaux est alors compromise. Avec de telles pratiques,
les développeurs dʼapplication devront tenir compte des couches inférieures qui
pourraient appliquer un traitement différencié à leurs paquets.
Certains opérateurs pratiquent déjà la priorisation de paquets sur leurs réseaux.
Par exemple, aux États-Unis, le FAI AT&T prévoit de réserver une partie de la bande
passante allouée aux clients de ses offres très haut débit pour ses propres services de

147
Benilde Marie, 2010, « Portrait de France Télécom en multinationale », Manière de voir, vol. 109, p. 86.
Page 97
148
vidéo. Dʼautre part, certains opérateurs ont fait évoluer leurs offres pour garantir une
qualité de service149 (Quality of Service ou QoS) acceptable lors des périodes de pointe.
Pour y parvenir, des FAI ont établi la priorité de certaines applications plus
consommatrices de bande passante. Aux Pays Bas, lʼopérateur UPC a introduit en
novembre 2009 un système dans lequel le débit des paquets utilisant lʼensemble des
protocoles hormis lʼhypertexte (http) sera diminué dʼun tiers durant les heures de pointe
entre midi et minuit. La raison invoquée par lʼopérateur néerlandais est quʼil « veut
prévenir lʼusage excessif dʼInternet par une très faible part de ses consommateurs –
environ un pour cent- créant un engorgement du débit pour les 99 autres pour cent ».150
De manière similaire, lʼopérateur téléphonique espagnol Vodafone a annoncé une
nouvelle offre à destination des entreprises prévoyant que les abonnées à un service
premium plus couteux auront un accès prioritaire en cas de congestion du réseau 3G.
Selon le PDG Europe de Vodafone, une telle solution répond à des besoins particuliers
des clients professionnels : « Les clients veulent avoir le choix, ils n'ont pas tous les
mêmes besoins. L'Internet 'best effort' pour tous n'est pas la solution. »151
Lʼargumentaire des opposants à la neutralité du net repose donc essentiellement
sur le contrôle du réseau et de ses excès. Du point de vue de lʼÉtat, une législation
autorisant le filtrage répondrait dʼune restauration de lʼautorité de lʼEtat sur Internet
considéré comme une « zone de non-droit ». Pour les FAI, lʼintérêt du filtrage est
multiple : en discriminant les contenus échangés sur le réseau, la profitabilité de ces
entreprises serait accrue en limitant les investissements dans lʼinfrastructure. De
surcroît, la remise en cause de la neutralité du réseau par lʼinstallation de systèmes
dʼinspection des paquets signifie la possibilité pour les opérateurs de privilégier leurs
propres contenus et services.

148
Nunziato Dawn, 2009, op.cit, p.11.
149
Concept de gestion des ressources dʼune réseau désignant la capacité à véhiculer dans de bonnes
conditions un type de trafic donné, en termes de disponibilité, débit, délais de transmission, taux de perte de
paquets…
150
Rosalie Marshall, 2009, « Dutch ISP heralds end of net neutrality», V3.co.uk. Adresse :
http://www.v3.co.uk/v3/news/2248371/dutch-isp-set-first-europe-net.
151
Vodafone va proposer un accès "privilégié" à ses réseaux 3G+, 2009, BusinessMobile.fr. Adresse :
http://www.businessmobile.fr/actualites/services/0,39044303,39710864,00.htm.
Page 98
!!"#$%#&'()*+#,#%)+-&)#.#)-#/+0)&-#1/22)#3*&*%-4)#56+%#748&)#2*&19'#5)(#
45')(#)-#5)(#*::741*-4/%(#

!" #$%&'()*!+$%$,%)!,)%-./!))$',)$%0%(!%('1$*)2%3/$45*$66'7,%%
Un des problèmes posés par le filtrage dʼInternet est lʼabsence de transparence
pour lʼutilisateur lorsquʼil tente dʼaccéder ou de communiquer avec une machine filtrée.
La plupart des systèmes de filtrage bloquent ou inspectent les contenus sans prévenir
lʼutilisateur, qui peut penser à un simple problème technique ou à un engorgement du
site. Dans le cas du site AfterDowningStreet filtré par Comcast, les organisateurs du
mouvement ignoraient totalement que leurs messages ne parvenaient pas aux
destinataires. Cela a restreint grandement la capacité dʼorganisation de ce mouvement ;
ainsi, un opérateur privé a pu atteindre à la liberté fondamentale dʼassociation. Dans le
cas de la lutte contre la pédopornographie, les systèmes de filtrage en vigueur dans la
plupart des pays dʼEurope nʼinforment pas lʼutilisateur que le site auquel il a tenté
dʼaccéder fait partie dʼune liste noire de sites à filtrer. En cas de surblocage, lʼutilisateur
peut penser quʼil sʼagit seulement dʼune erreur technique de la part du site auquel il
tente dʼaccéder. Il nʼest pas alors possible de porter un recours si la mesure nʼétait pas
appropriée ou a conduit à un surblocage important.
Les tentatives de filtrage dʼInternet ont aussi une incidence importante sur le droit
à la vie privée de chaque individu. Si des systèmes dʼinspection des données sont en
place, il nʼest pas garanti que les serveurs en charge du traitement des paquets ne
puissent pas servir à collecter des données sur les utilisateurs dʼInternet. En effet,
comme la liste noire des sites, adresses ou mots clés à filtrer ne doit pas être divulguée,
les techniques de filtrage et dʼinspection sont opaques ; nul ne peut savoir ce quʼil
advient de ces données personnelles lorsquʼelles passent à travers ces serveurs. En
mettant en place le filtrage au niveau des FAI, les abonnés peuvent sʼexposer à une
inspection des données par ces derniers à des fins commerciales par exemple pour la
revente dʼinformations de marketing comportemental. La Cour Européenne des Droits
de lʼHomme (CEDH) protège la confidentialité des communications privées comme une
liberté fondamentale.152 Les atteintes à la neutralité du net pourraient être évaluées par
les juges de la cour comme étant en conflit avec cette liberté fondamentale, du fait du

152
Callanan Cormac et al., 2009, « Filtrage d'Internet et démocratie - Résumé principal »,
Page 99
risque dʼimmixtion des opérateurs dans le filtrage pour conserver des données
personnelles.
Dʼautre part, les partisans de la neutralité du net dénoncent régulièrement le
détournement de la procédure judiciaire dans les législations relatives à Internet de
nombreux pays dʼEurope. Ils considèrent quʼil y a atteinte aux libertés fondamentales
lorsque le législateur confie à une autorité indépendante (loi HADOPI dans sa première
version) ou aux opérateurs (projet de traité ACTA) le contrôle de lʼaccès à Internet,
perçu comme une des composantes essentielles de la liberté dʼexpression.
Selon la jurisprudence de la CEDH, toute ingérence dans les droits et libertés
des citoyens doit répondre à un « principe de nécessité. »153 Deux critères déterminent
ce principe : un « besoin social impérieux » auquel la loi correspond, et la
« proportionnalité au but légitime poursuivi». Selon le second principe, une ingérence
dans les libertés fondamentales de lʼindividu doit être proportionnelle à lʼobjectif
poursuivi de cette loi. Ce principe est régulièrement bafoué par les législations ayant
recours au filtrage dʼInternet dʼaprès les défenseurs de la neutralité du net. Dans le cas
de la loi HADOPI, le but du législateur était de décourager les internautes de
télécharger illégalement des œuvres protégées par le système de la « riposte graduée »
en trois étapes : notification, avis et coupure de la connexion Internet. Or, la rupture de
lʼaccès à Internet apparaît comme une réponse disproportionnée à une pratique
répandue dans la société. Cet aspect de la loi HADOPI a mené le Conseil
Constitutionnel à déclarer lʼinconstitutionnalité de la loi :
« en conférant à une autorité administrative, même indépendante, des pouvoirs
de sanction consistant à suspendre lʼaccès à internet, le législateur aurait, dʼune part,
méconnu le caractère fondamental du droit à la liberté dʼexpression et de
communication et, dʼautre part, institué des sanctions manifestement disproportionnées
; quʼils font valoir, en outre, que les conditions de cette répression institueraient une
présomption de culpabilité et porteraient une atteinte caractérisée aux droits de la
défense. » Les défenseurs de la neutralité du net soutiennent que les législations
mettant en place le filtrage sʼimmiscent dans une liberté fondamentale, la liberté
dʼexpression et de communication, de manière disproportionnée et fréquemment pour
défendre des intérêts privés.

153
Ibid.
Page 100
!" #$%&'((%)$(%&*&+,'-(.$./)%&0%&+,)$0)1)0-&
Une autre critique adressée par les partisans de la neutralité du net est que le
filtrage, par ses importants effets de bord quelque soit la technique employée, empêche
certaines opinions de sʼexprimer. Ils soutiennent par ailleurs quʼun des aspects les plus
importants de la liberté dʼexpression dans une démocratie, celui de pouvoir exprimer
des idées à lʼencontre de lʼopinion majoritaire, est bafoué par les législations et les
pratiques allant à lʼencontre de la neutralité du net. Dans la conception dite affirmative
du premier amendement à la constitution américaine, lʼintervention de lʼÉtat est
nécessaire pour que les citoyens puissent être confrontés à une variété de points de
vue contradictoires pour garantir le principe du self governement, lʼautodétermination
des membres dʼune communauté politique. Pour Alexander Meiklejohn, philosophe
politique américain militant pour le free speech, la souveraineté populaire ne peut
fonctionner que si les citoyens sont exposés à une large variété dʼopinions
contradictoires pour constituer un électorat informé, condition essentielle du
fonctionnement de la démocratie.154 Les partisans de la conception affirmative de la
liberté dʼexpression récusent lʼidée que la liberté dʼexpression doit fonctionner comme
un « libre marché » des idées et des opinions puisque le premier amendement stipule
que « le Congrès ne fera aucune loi […] qui ne restreigne la liberté de parole ou de la
presse. » Les partisans de la neutralité du net reprennent les arguments de la
conception affirmative du premier amendement selon lequel, si les opinions politiques
étaient soumises au marché uniquement, les sujets dʼimportance publique ne
parviendraient pas à réunir un public suffisant pour répondre aux lois du marché. Ainsi,
la défense de la neutralité du net sʼavère nécessaire pour sʼassurer que lʼensemble des
opinions ne subit pas les effets de bord du filtrage. Comme nous lʼavons vu avec les
affaires de censure des mouvements anti-guerre en Irak AfterDowningStreet et
MeetWithCindy, des organisations citoyennes souhaitant sʼexprimer en ligne pour attirer
lʼattention sur des sujets ou des idées peu évoquées dans les médias traditionnels
pourraient être simplement censurées à cause du filtrage dʼInternet. Potentiellement, le
filtrage peut donc réduire la variété des opinions à laquelle le public est exposé et donc
réduire la capacité dʼautodétermination des citoyens. Ainsi, sur le plan collectif, la

154
Nunziato Dawn, 2009, op.cit, p.30.
Page 101
discrimination des contenus sur Internet est dommageable à la capacité des citoyens
de se sʼexprimer de manière informée sur des sujets dʼimportance politique.
Sur le plan individuel, les partisans de la neutralité du net dénoncent le filtrage,
quʼil provienne du législateur ou dʼun FAI, comme une diminution de lʼautonomie de
lʼindividu. En permettant à un opérateur privé de déterminer à quels contenus ou à
quelles applications nous pouvons accéder sur le réseau, les atteintes à la neutralité du
net réduisent lʼenvironnement informationnel dans lequel lʼindividu détermine ses choix.
Yochai Benkler, auteur de La Richesse des Réseaux : marchés et libertés à lʼheure du
partage social, prend lʼexemple hypothétique dʼune maison dotée dʼune seule capacité
de communication reposant sur une connexion Internet à haut débit par câble. Pour ses
habitants, cʼest par ce câble que vont parvenir lʼensemble des représentations du
monde. En sʼappuyant sur cette hypothèse de travail, Yochai Benkler explique que la
différence entre un accès Internet neutre sans filtrage et un accès sélectif est cruciale
pour lʼautonomie de lʼindividu :
« Si lʼaccès réseau nʼest pas sélectif, ce sont les choix des utilisateurs
qui déterminent les connaissances quʼils acquièrent. Les décisions quʼils
prennent à partir des connaissances peuvent être considérées comme
autonomes, tout au moins dans la mesure où le caractère autonome de ces
décisions dépend de lʼétat des connaissances de lʼagent au moment où il
prend la décision. Si lʼaccès réseau est au contraire minutieusement contrôlé
et délibérément manipulé par lʼopérateur, les décisions prises par lʼindividu
sur la base des connaissances acquises par lʼintermédiaire de cette
connexion dépendent principalement des choix opérés par le contrôleur de
lʼaccès réseau, et non de ceux opérés par les utilisateurs. »155
On retrouve la conception de lʼinformation dans la théorie cybernétique selon
laquelle lʼinformation est une réduction dʼincertitude cruciale dans la prise de décision.
Lʼindividu soumis à la gestion des flux informationnels par un acteur voit son
environnement informationnel modifié. Yochai Benkler affirme quʼil faut percevoir la
structure de notre environnement informationnel comme constitutive de lʼautonomie de
lʼindividu. Dans cette optique, il considère que deux types dʼeffets qui découlent des
atteintes à la neutralité du net, et en général de toute législation conférant à certains

155
Benkler Yochai, 2009, La richesse des réseaux : Marchés et libertés à l'heure du partage social, Presses
Universitaires de Lyon, p.
Page 102
individus le pouvoir de contrôler les flux dʼinformations. Tout dʼabord, elle consacre la
capacité de certains individus à contrôler et façonner les préférences et les perceptions
dʼautres individus. On pourrait objecter à Benkler que tout environnement informationnel
est nécessairement sélectif, il dépend des caractéristiques intrinsèques à chaque
medium et induit une forme de contrôle des perceptions des personnes auxquelles il
sʼadresse. Sans cette sélectivité, nul ne serait capable de délibérer ou de prendre des
choix face à lʼabondance dʼinformation. Toutefois, le filtrage des informations sur
Internet est opaque pour lʼindividu qui nʼest pas notifié lorsquʼun blocage est exercé.
Lʼutilisateur ignore que son environnement informationnel a été délibérément limité et
ne peut agir en conséquence, par exemple en se tournant vers dʼautres canaux de
communication.
Ensuite, lʼautre effet créé par les atteintes à un réseau neutre réside dans « une
réduction significative de lʼétendue et la diversité des options disponibles pour les
individus de lʼensemble de la société, ou pour certaines catégories dʼindividus ».156
Yochai Benkler estime que pour quʼun individu puisse être lʼauteur de sa propre vie, il
doit disposer dʼun vaste éventail dʼoptions à partir duquel il peut opérer ses choix. Par
ailleurs, il considère que les options disponibles pour un individu doivent représenter
des voies très différentes pour que sʼopère une véritable réflexion critique.

!" #$%&'()$%*%+,)$$-./0)-$%
Enfin, les partisans de la neutralité du net estiment que lʼabsence de garantie de
la non-discrimination des contenus sur Internet endommage les possibilités dʼinnovation
sur le réseau. En lʼabsence de garanties que les données soient traitées de la même
manière quelque soit le contenu, lʼapplication ou le destinataire, les nouveaux entrants
dans le marché des applications ou des appareils utilisant le réseau deviennent
vulnérable à la concurrence déloyale des acteurs déjà installés. Cʼest une remise en
cause dʼun des principes fondateurs de « lʼécosystème dʼInternet » : lʼidée
dʼ « innovation sans permis ». Ce principe énonce que tout service ou innovation peut
être librement distribué sur le réseau, quand bien même il entre en concurrence avec
les offres commerciales des opérateurs de réseaux.157 Les applications de voix sur IP

156
Ibid, p.205
157
Ress Marc, 2009, « « La neutralité du Net permet l'innovation sans permis » », PC INpact. Adresse :
http://www.pcinpact.com/actu/news/53524-neutralite-reseau-benjamin-bayard-zimmermann.htm [Accédé : 6 Mars
2010].
Page 103
(VoIP) comme Skype sont régulièrement évoquées car elles remettent en question le
modèle économique des opérateurs téléphoniques. Or, les applications de VoIP sont
aujourdʼhui bloquées sur de nombreux réseaux mobiles. Lʼintégralité des opérateurs de
téléphonie mobile français interdit lʼusage de la VoIP sur ses résaux.
Selon Lawrence Lessig, dans Le Futur des Idées, cette idée dʼ « innovation sans
permis » trouve sa source dans le principe de bout-à-bout articulé par les fondateurs
dʼInternte : « le principe du end-to-end transforme lʼInternet en un bien commun de
lʼinnovation, où les inventeurs peuvent élaborer et déployer de nouvelles applications ou
de nouveaux contenus sans la permission de personne. Grâce au end-to-end, personne
nʼa besoin de faire enregistrer une application « par » Internet avant de la faire
fonctionner ; aucune permission nʼest nécessaire pour utiliser la bande passante. Au
contraire, le bout-à-bout signifie que le réseau est conçu de manière à garantir quʼil ne
pourra pas décider quelles innovations auront la voie libre. Le système est bâti,
structuré pour rester ouvert à toute nouvelle innovation qui se présenterait. » 158
Sans une législation qui ne garantisse la neutralité des infrastructures du
réseau, les défenseurs de la neutralité du net craignent que les opportunités quʼune
startup devienne un grand groupe comme Google, Facebook ou Twitter se réduisent. Si
des pratiques telles que la priorisation sont en vigueur, les entreprises émergentes de la
netéconomie devront tenir compte des frais de bande passante pour rémunérer les FAI.
Cela créerait une situation de concurrence déloyale entre les acteurs déjà installés sur
le marché et les nouveaux entrants. Les avocats de la neutralité du net spéculent
lʼarrivée de nouvelles offres privilégiant uniquement les grandes entreprises dʼInternet
subventionnant les frais de bande passante auprès des FAI. Selon eux, les offres des
FAI pourraient alors établir un réseau à plusieurs vitesses dominé par les acteurs du
marché déjà installés.

158
Lessig Lawrence, 2005, L'avenir des idées : Le sort des biens communs à l'heure des réseaux
numériques, PUL.
Page 104
159
Figure 10. Offre fictive d'accès à Internet sans garantie de neutralité

Les défenseurs dʼun Internet neutre estiment quʼil faudrait considérer le réseau
comme une des infrastructures nécessaires au bon fonctionnement de la société tout
autant que les autoroutes ou les postes. Selon Brett Frischmann160, trois critères
permettent de définir une infrastructure :
- la ressource peut être consommée de manière non rivale, cʼest à dire que
si un consommateur vient en consommer tout ou partie, cela
nʼempêchera pas dʼautres consommateurs de le consommer ou de
lʼutiliser;
- lʼinfrastructure génère de la productivité qui bénéficie à lʼensemble de la
société et accroit sa demande sociale;
- lʼinfrastructure contribue à une large variété de biens et services, privés,
publics ou hors du marché.
Pour les partisans de la neutralité du net, il faut considérer Internet non
seulement comme un outil de télécommunication mais comme une infrastructure
cruciale au fonctionnement de notre société au même titre que les autoroutes ou la
poste. En tant quʼinfrastructure, lʼÉtat doit réguler et agir au nom de lʼintérêt public dans

159
http://i7.tinypic.com/5z6vt4n.jpg
160
Frischmann Brett M., 2007, « Infrastructure commons in economic perspective ». Adresse :
http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1901/1783.
Page 105
la gestion de cette ressource. Dʼaprès Frischmann, un Internet neutre est la garantie
quʼil se crée sur le réseau un « surplus social » (social surplus). A travers cette notion
de surplus social, lʼauteur envisage que lʼinfrastructure permet à des innovateurs de
générer des technologies de rupture (disruptive technology), une innovation
technologique qui porte sur un produit ou un service et qui finit par remplacer une
technologie dominante sur un marché. Par exemple, la création du World Wide Web a
généré toutes sortes dʼapplications et de services que lʼon peut qualifier dʼexternalités
positives. Il sʼagit dʼune situation économique dans laquelle l'acte de consommation ou
de production d'un agent influe positivement sur la situation d'un autre agent non
impliqué dans l'action, sans que ce dernier ne soit compensé pour les bénéfices
engendrés161. La difficulté avec Internet réside dans la perception de la valeur sociale
de cette infrastructure car elle génère de nombreux biens publics et hors-marché qui
nʼont pas de valeur financière.
En lʼabsence de législation garantissant des principes de neutralité dans lʼaccès
à cette infrastructure, il existe le risque que les FAI favorisent des applications
existantes aux dépens de futures applications de rupture pouvant générer des
externalités positives. Ainsi, les commentateurs pointent le risque de « la tragédie des
biens communs » qui désigne la situation dans laquelle l'accès libre à une ressource
peut mener à la disparition de celle ci. Afin dʼéviter cette situation, ces biens doivent être
régulés par la puissance publique pour assurer leur allocation optimale.
Lʼidée quʼInternet doit être régulé comme une infrastructure se justifie par les
nombreux investissements consentis par les autorités et qui ont conduit la croissance
du réseau. En France, par exemple, le gouvernement a largement subventionné et
encouragé lʼinstallation dʼInternet à haut débit dans les zones rurales. Les plans de
relance ont investi massivement dans lʼinfrastructure réseau des zones rurales : plus
dʼun milliard dʼeuros y a été alloué dans le plan de relance de lʼUnion Européenne en
janvier 2009, tandis quʼen France le gouvernement a alloué 750 millions dʼeuros du plan
de relance français à cette fin.162 Avec de tels niveaux de fonds publics investis dans le
réseau, les autorités doivent réguler les ingérences des FAI sur Internet pour agir en
faveur dʼun réseau sans discrimination qui, dʼaprès lʼargumentaire en faveur de la

161
Externalité, Wikipédia. Adresse : http://fr.wikipedia.org/wiki/Externalit%C3%A9 [Accédé : 7 Mars 2010].
162
La Quadrature du Net, 2009, « Protecting Net Neutrality in Europe »,p.7.
Page 106
neutralité du net, est le seul moyen de sʼassurer que lʼintérêt général prédomine sur les
intérêts privés sur Internet.

En définitive, on peut affirmer que lʼargumentaire sur la neutralité du net, quʼil sʼoppose
ou soit en faveur de ce principe, décline deux thèmes majeurs : lʼinnovation et la place
de lʼEtat et du régulateur. Ces positions vont se retrouver dans le débat public et vont
conduire à lʼélaboration de politiques publiques.

Page 107
Conclusion

Les discours et le débat autour de la neutralité du net posent manifestement la


question du rapport de lʼhumain à la technique. En effet, lʼHumanité a inauguré une
nouvelle étape de sa dépendance à la technique en entrant dans la « Galaxie Internet »
où le réseau pénètre et transforme la plupart des domaines de la vie sociale. Une
nouvelle configuration des rapports mondiaux est en gestation. Elle sʼarticule autour
dʼInternet qui crée un environnement informationnel à échelle planétaire. Quid alors de
ceux qui sont exclus de cet environnement informationnel mondial ? Le fossé
numérique (digital divide) risque-t-il de condamner à la marginalité ceux qui nʼont pas
dʼaccès à Internet ? La question de la maitrise de ces techniques est également peu
évoquée, à travers ce que les anglo-saxons appellent la digital literacy163 : la capacité
de créer, de comprendre, de communiquer, dʼinterpréter et de créer dans
lʼenvironnement numérique en réseau. Les frontières des États nations se redéfinissent
à lʼheure dʼInternet, mais les rêves utopistes dʼun « cyberespace » sʼéclipsent pour
laisser place aux rapports de force entre les différents acteurs du réseau (opérateurs,
citoyens, fournisseur de contenus et de services, gouvernements). Lʼéquilibre de ces
rapports de force est conditionné à la garantie dʼun réseau affranchi de toute
discrimination ou filtrage afin que persistent les possibilités de création et dʼinnovation
économique et sociale quʼInternet nous offre.
Néanmoins, le discours autour de la neutralité du net omet un aspect essentiel,
celui dʼune existence supposée dʼune neutralité de la technique. Étymologiquement,
« est neutre celui qui sʼabstient de prendre parti ». Or, il est clair quʼInternet nʼest en
aucun cas neutre. Des choix délibérés dans lʼarchitecture du réseau ont permis à
Internet de sʼaffranchir dʼun contrôle centralisé et dʼévoluer avec ses usages.
Lʼarchitecture future-proof a nécessité la définition de principes architecturaux novateurs
comme lʼidée de construire un réseau où lʼintelligence se concentre aux extrémités
selon le principe de bout-en-bout. Comme lʼexplique Lawrence Lessig, le code
informatique régule nos usages tout autant que la loi à une différence fondamentale

163
Traduisible en « alphabétisation numérique » ou « cultures et pratiques numériques ». Voir à ce titre le
billet de Francis Pisani sur le blog Transnets : http://pisani.blog.lemonde.fr/2007/08/29/digital-literacy-quen-pensez-
vous/
Page 108
près : alors que la loi ne peut pas nous empêcher dʼaccomplir un acte mais seulement
nous sanctionner a posteriori, le code informatique peut lui restreindre le champ des
possibles.164 La théorie de Lawrence Lessig postule quʼil est devenu possible en
accédant au code de programmer mais également de contrôler socialement la société
des réseaux. Le risque en laissant le « code » dʼInternet évoluer vers des systèmes de
contrôle et de filtrage est dʼaboutir à un futur autoprogrammé. Dans le protocole
dʼInternet, le code nʼimpose quʼune seule loi : celle dʼacheminer les données de la
manière la plus efficace. Inévitablement, ce principe nʼest pas neutre, il est un parti pris
en faveur dʼun système avec le moins de contrôle possible.
Dès lors, quel est le rôle de cette notion de neutralité de la technique ? Selon
Jacques Ellul, lʼidée de neutralité de la technique sʼinscrit dans le cadre dʼune
justification morale du « système technicien »:
« La technique se jugeant elle-même se trouve dorénavant libérée de
ce qui a fait lʼentrave principale à lʼaction de lʼhomme : les croyances
(sacrées, spirituelles, religieuses) et la morale. La technique assure ainsi de
façon théorique et systématique la liberté quʼelle avait acquise en fait. Elle
nʼa plus à craindre quelque limitation que ce soit puisquʼelle se situe en
dehors du bien et du mal. On a prétendu longtemps quʼelle faisait partie des
objets neutres, et par conséquent non soumis à la morale : cʼest la situation
que nous venons de décrire et le théoricien qui la situait ainsi ne faisait
quʼentériner lʼindépendance de fait de la technique et du technicien. Mais ce
stage est déjà dépassé : la puissance et lʼautonomie de la technique sont si
bien assurées que maintenant, elle se transforme en juge de la morale : une
proposition morale ne sera considérée comme valable pour ce temps que si
elle peut entrer dans le système technique, si elle sʼaccorde avec lui. »165
Ainsi, selon Jacques Ellul, la neutralité de la technique est le mode dʼexistence
idéologique du système technicien. En sʼaffranchissant du bien et du mal, en affirmant
quʼelle ne prend pas partie dans le fonctionnement de la société, la technique nʼest
alors plus questionnée dans sa relation avec le corps social. Ellul va plus loin en
affirmant que la technique devient alors le juge moral des activités humaines : toute
entrave à son égard est alors considérée comme une atteinte à lʼindépendance du

164
Lessig Lawrence, 2006, Code: Version 2.0, Basic Books.
165
Ellul Jacques, 2004, Le système technicien, Le Cherche Midi.
Page 109
système technicien jugé neutre et autorégulé. Or, peut-on véritablement juger la
technique selon des principes moraux ? Dans Le Capitalisme est-il moral?, le
philosophe André Comte-Sponville explique que lʼon ne peut pas juger selon les mêmes
principes deux objets qui nʼappartient pas au même « ordre ». Comte-Sponville
distingue quatre ordres distincts et indépendants dans lesquels notre existence se
déploie : lʼordre économico-techno-scientifique ; lʼordre politico-juridique ; lʼordre moral,
et enfin de lʼordre de lʼamour. Il fait ici référence à la notion dʼordre chez Pascal qui
distinguait lui aussi plusieurs ordres caractérisés par leur incommensurabilité : « chaque
ordre est un empire avec sa logique interne. »166 Pour Pascal comme Comte-Sponville,
lʼerreur consiste à croire quʼon peut brouiller la hiérarchie des ordres en voulant faire
reconnaître à un ordre des valeurs et des normes qui ne lui sont pas valables. Ainsi,
vouloir reconnaître lʼabsence de bien et de mal dans une technique tel quʼInternet nʼa
pas de sens puisque ces principes ne résultent pas des mêmes valeurs et systèmes de
pensée. Il convient de considérer la neutralité du net comme un objectif, comme un
principe de conceptions vers lequel les réseaux doivent tendre. Cʼest ainsi sur cette
base que le régulateur doit agir pour éviter que lʼarchitecture ouverte dʼInternet ne soit
compromise.
Dans le cadre du débat sur la neutralité du net, ce discours sur lʼindépendance et
lʼautorégulation de la technique suscite de fortes oppositions. En effet, il remet en cause
lʼexistence même de lʼÉtat qui, par la loi, est sensé réguler lʼordre public. A lʼheure de la
société en réseau, la question de la discrimination et du filtrage des contenus échangés
sur Internet fait se confronter deux types de régulation : celle exercée par la loi au nom
de lʼintérêt général, et celle exercée par le réseau du fait de son architecture et de son
« code ». Par ailleurs, une des réticences de lʼEtat à interdire le contrôle de lʼéchange
de contenu sur Internet réside dans le fait que « le contrôle des flux informationnels est
la base séculaire de lʼEtat ».167 Pourtant, les relations entre État et Internet ne devraient
pas être nécessairement conflictuelles comme lʼexplique Manuel Castells :
« Pourtant, il pourrait en aller autrement. […] Internet pourrait très bien, par
exemple, aider les citoyens à surveiller lʼEtat, et non à aider lʼEtat à surveiller les
citoyens. Il pourrait devenir un instrument de contrôle, dʼinformation, de participation–et
même de décision de la base. […] Si cette transparence des institutions politiques

166
Manon Simone, 2009, « Les trois ordres, Pascal », PhiloLog. Adresse : http://www.philolog.fr/les-trois-
ordres-pascal
167
Castells Manuel, op.cit., p.197.
Page 110
existait, alors, et alors seulement, les États pourraient légitimement prétendre instaurer
un contrôle limité sur Internet. »168

168
Ibid, p.228
Page 111
BIBLIOGRAPHIE
Ouvrages

Benkler Yochai, 2007, La richesse des réseaux : comment la production sociale transforme le
marché et les libertés, Lyon, Presses universitaires de Lyon.
Boltanski Luc et Chiapello Eve, 1999, Le Nouvel esprit du capitalisme, Gallimard.
Castells Manuel, 2003, The Internet galaxy, Oxford University Press.
Deleuze Gilles et Guattari Félix, 1980, Capitalisme et schizophrénie: Mille plateaux, Éditions de
minuit.
Easton David, 1979, A Systems Analysis of Political Life, Univ of Chicago Pr (Tx).
Ellul Jacques, 2004, Le système technicien, Le Cherche Midi.
Flichy Patrice, 2001, L'imaginaire d'Internet, La Découverte.
Foucault Michel, 1975, Surveiller et punir, Gallimard.
Ganascia Jean-Gabriel, 2009, Voir et pouvoir : qui nous surveille ?, Editions le Pommier.
Hardt Michael et Negri Antonio, 2001, Empire, New edition. Harvard University Press.
Klein Naomi, 2002, No space, no choice, no jobs, no logo, Picador.
Lamont Michele et Thevenot Laurent, 2000, Rethinking Comparative Cultural Sociology:
Repertoires of Evaluation in France and the United States, Cambridge University Press.
Lessig Lawrence, 2006, Code: Version 2.0, Basic Books.
Lessig Lawrence, 2005, L'avenir des idées : Le sort des biens communs à l'heure des réseaux
numériques, PUL.
McLuhan Marshall et Gordon W. Terrence, 2003, Understanding media, Toronto, Gingko Press.
Nunziato Dawn, 2009, Virtual Freedom : Net Neutrality and Free Speech in the Internet Age,
Stanford, California, Stanford Law Books.
Ouellet Caroline, 1998, Qui fait la loi sur Internet?, Presses Université Laval.
Athissingh RAMRAJSINGH, 2009, Les nouvelles technologies web, facteur d'un glissement de la
prérogative politique?, Aix-en-Provence, Aix-Marseille Université.
Rey Alain et Rey-Debove Josette, 2009, Le Nouveau Petit Robert de la langue française, 2010
éd. European Schoolbooks.
Robert Pascal, 2005, La logique politique des technologies de l'information et de la
communication, Presses Univ de Bordeaux. Shannon Claude Elwood et Weaver Warren, 1949, The
mathematical theory of communication, University of Illinois Press.
Triclot Mathieu, 2008, Le moment cybernétique : La constitution de la notion d'information,
Editions Champ Vallon.
Wiener Norbert, 1954, The human use of human beings, Doubleday.
Zittrain Jonathan, 2009, The Future of the Internet--and How to Stop It, Yale University Press.

Articles universitaires et études


Arbor networks (fournisseur de solutions DPI), « The Role of Deep
Page 112
Packet Inspection
in Mobile Networks : using IP service control to innovate and differentiate in a competitive
landscape », Adresse : http://www.arbornetworks.com/en/white-papers.html.

Callanan Cormac et al., 2009a, « Filtrage d'Internet et démocratie - Résumé principal »,


Callanan Cormac et al., 2009b, « Internet blocking balancing cybercrime responses in democratic
societies », Adresse : http://www.pcinpact.com/media/Internet_blocking_and_Democracy.pdf.
Deleuze Gilles, 1990, « Post-scriptum sur les sociétés de contrôle », L'Autre Journal, vol. , n° 1.
Adresse : http://aejcpp.free.fr/articles/controle_deleuze.htm [Accédé : 2 Février 2010].
Dornseif Maximillian, 2004, « Government mandated blocking of foreign Web content »,
cs/0404005. Adresse : http://arxiv.org/abs/cs/0404005 [Accédé : 27 Février 2010].
Dudney Luke, 2003, « Internet Service Providers:The Little Mans
Firewall », Adresse :
http://www.sans.org/reading_room/whitepapers/casestudies/internet_service_providersthe_little_mans_fir
ewall_1340?show=1340.php&cat=casestudies.
Easton David, « Categories for the Systems Analysis of Politics », Adresse :
http://www2.stetson.edu/~gmaris/Easton.htm [Accédé : 9 Février 2010].
Epelboin Fabrice, 2010, « Le commerce de la pédopornographie sur Internet de 2000 à 2010 »,
Adresse : http://fr.readwriteweb.com/wp-content/uploads/business_pedopornographie.pdf.

Espern Christophe, 2005, « Petite histoire de la protection juridique des


mesures techniques et des informations électroniques », Adresse :
http://eucd.info/documents/petite-histoire.pdf.
Espern Christophe, « Principe, intérêts, limites et risques du filtrage hybride à des fins de blocage
de ressources pédopornographiques
hébergées sur des serveurs étrangers », Adresse : http://www.laquadrature.net/files/note-
quadrature-filtrage-hybride.pdf.
Fédération Française des Télécoms, 2009, « Etude dʼimpact du blocage des sites
pédopornographiques », Adresse : http://www.pcinpact.com/media/RapportfinalSPALUD.DOC.
Guidelines for network neutrality, Adresse :
http://www.npt.no/ikbViewer/Content/109604/Guidelines for network neutrality.pdf.
Institut Max Planck, 2009, « Glasnost: Results from Tests for BitTorrent Traffic Blocking »,
Adresse : http://broadband.mpi-sws.org/transparency/results/ [Accédé : 21 Février 2010].
Isenberg David, 1997, « Rise of the Stupid Network », Adresse :
http://www.hyperorg.com/misc/stupidnet.html.
La Quadrature du Net, 2009, « Protecting Net Neutrality in Europe », Adresse :
http://www.laquadrature.net/files/LaQuadratureduNet-
DOSSIER_Protecting_Net_Neutrality_in_the_Telecoms_Package.pdf.
Net Confidence Coalition, 2009, « Ensuring Network Stability and Consumer Confidence in
Competitive Markets », Adresse : http://www.iptegrity.com/pdf/net.confidence.coalition.pdf.

Page 113
Projet de loi dʼorientation et de programmation pour la performance de la sécurité intérieure
ETUDE DʼIMPACT, 2009, Adresse : http://www.ecrans.fr/IMG/pdf/pl1697.pdf.
Robert Philippe, 2010, « 1909-2009 : l'Odysée des réseaux », Dossier pour la Science, vol. ,
n° 66, p. 44.
Saltzer J. H., Reed D. P. et Clark D. D., 1984, « End-to-end arguments in system design », ACM
Trans. Comput. Syst., vol. 2, n° 4, p. 277-288.
Turner Derek, 2009, « Finding the bottom line: the truth about network neutrality & investment »,
Adresse :
http://www.freepress.net/files/Finding_the_Bottom_Line_The_Truth_About_NN_and_Investment_0.pdf.
Wu Tim, « Network Neutrality, Broadband Discrimination », SSRN eLibrary. Adresse :
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=388863 [Accédé : 9 Mars 2010].
Zittrain Jonathan et Edelman Benjamin G., « Internet Filtering in China », SSRN eLibrary.
Adresse : http://papers.ssrn.com/sol3/papers.cfm?abstract_id=399920 [Accédé : 26 Février 2010].

Articles et billets de blog


"Korben", « VPN - Wiki de l'internet libre », Adresse :
http://free.korben.info/index.php/VPN#Liste_de_VPN [Accédé : 2 Mars 2010].
"Narvic", 2008, « Le moment cybernétique. La constitution de la notion d'information -
novövision », Novovision 2. Adresse : http://novovision.fr/?Le-moment-cybernetique-La [Accédé : 8
Février 2010].
[Actu] Le filtrage par DPI at The Internets, Adresse : http://www.theinternets.fr/2010/01/10/actu-le-
filtrage-par-dpi/ [Accédé : 1 Mars 2010].
[RSF sʼinquiète du contrôle dʼInternet « au nom de la lutte contre la pédopornographie ou le
téléchargement illégal », 2010, The Internets. Adresse : http://www.theinternets.fr/2010/01/02/express-rsf-
sinquiete-du-controle-dinternet-au-nom-de-la-lutte-contre-la-pedopornographie-ou-le-telechargement-
illegal/ [Accédé : 23 Février 2010].
2006 Wikipedia CD Selection - Wikipédia, Adresse :
http://fr.wikipedia.org/wiki/2006_Wikipedia_CD_Selection [Accédé : 20 Février 2010].
A Canadian Telecom's Labor Dispute Leads to Blocked Web Sites and Questions of Censorship -
New York Times, New York Times. Adresse :
http://www.nytimes.com/2005/08/01/business/worldbusiness/01telus.html?_r=1 [Accédé : 19 Février
2010].
Albanel, directrice de la communication chez Orange (MàJ), Adresse :
http://www.pcinpact.com/actu/news/55491-christine-albanel-orange-france-telecom.htm [Accédé : 11
Mars 2010].
Anonyme, 2009, « An insight into child porn », Wikileaks. Adresse :
http://mirror.wikileaks.info/wiki/An_insight_into_child_porn/index.html [Accédé : 1 Mars 2010].
AOL Censors Opposition Group, Mediacitizen. Adresse :
http://mediacitizen.blogspot.com/2006/04/aol-censors-opposition-group.html [Accédé : 20 Février 2010].

Page 114
Astor Philippe, 2008, « Riposte graduée : La France perçue comme parangon d'un « nouvel ordre
numérique » », ZDnet.fr. Adresse : http://www.zdnet.fr/blogs/digital-jukebox/riposte-graduee-la-france-
percue-comme-parangon-d-un-nouvel-ordre-numerique-39601705.htm [Accédé : 1 Mars 2010].
Auffray Christophe, 2009, « Les opérateurs américains s'élèvent contre la neutralité du Web -
Actualités - ZDNet.fr », ZDnet.fr. Adresse :
http://www.zdnet.fr/actualites/internet/0,39020774,39709983,00.htm.
Barlow John Perry, 1996, « Déclaration d'indépendance du cyberespace », Adresse :
http://www.freescape.eu.org/eclat/1partie/Barlow/barlowtxt.html [Accédé : 4 Mars 2010].
Bayart Benjamin, 2009, « Aidons les députés UMP sur la question de la neutralité du réseau... »,
French Data Network (blog). Adresse : http://blog.fdn.fr/post/2010/02/24/Aidons-les-deputes-UMP-sur-la-
question-de-la-neutralite-du-reseau...
Bayart Benjamin, 2007, « Internet libre ou Minitel 2.0 », Adresse :
http://video.google.fr/videoplay?docid=169589780372642064# [Accédé : 4 Mars 2010].
Benilde Marie, 2010, « Portrait de France Télécom en multinationale », Manière de voir, vol. 109,
p. 86.
Benjamin G. Edelman, 2003, « Web Sites Sharing IP Addresses: Prevalence and Significance »,
Adresse : http://cyber.law.harvard.edu/archived_content/people/edelman/ip-sharing/ [Accédé : 26 Février
2010].
Berners-Lee Tim, « Tim Berners-Lee: WWW and UU and I », Adresse :
http://www.w3.org/People/Berners-Lee/UU.html [Accédé : 17 Février 2010].
Boisenault Florent et Keller Jonathan, 2009, « Le « Paquet Télécom » adopté par le Parlement
européen », Juriscom. Adresse : http://www.juriscom.net/actu/visu.php?ID=1168 [Accédé : 9 Mars 2010].
Castells Manuel, 2010, « Naissance des "médias de masse individuels" », Manière de voir, vol. ,
n° 109, p. 44.
Champeau Guillaume, 2009, « L'Allemagne abandonne : le filtrage de la pédophilie ne sert à
rien », Numérama. Adresse : http://www.numerama.com/magazine/14308-l-allemagne-abandonne-le-
filtrage-de-la-pedophilie-ne-sert-a-rien-maj.html [Accédé : 22 Février 2010].
Champeau Guillaume, 2003, « La LEN amendée et adoptée par le Sénat », Adresse :
http://www.numerama.com/magazine/878-la-len-amendee-et-adoptee-par-le-senat.html.
Champeau Guillaume, 2006, « Le Parlement adopte l'amendement Vivendi sur le P2P ! »,
Numérama. Adresse : http://www.numerama.com/magazine/2604-le-parlement-adopte-l-amendement-
vivendi-sur-le-p2p.html.
Champeau Guillaume, « URGENT : l'amendement 138 est adopté ! Adieu la riposte graduée ? »,
Numérama. Adresse : http://www.numerama.com/magazine/10709-URGENT-l-amendement-138-est-
adopte-Adieu-la-riposte-graduee.html.
Champeau Guillaume, 2008, « Youtube bloqué au Pakistan... et dans le reste du monde »,
Numérama. Adresse : http://www.numerama.com/magazine/8666-youtube-bloque-au-pakistan-et-dans-
le-reste-du-monde.html [Accédé : 28 Février 2010].

Page 115
Col Pierre, « Incroyable : l'ARCEP invente la « quasineutralité » des réseaux ! », ZDnet.fr.
Adresse : http://www.zdnet.fr/blogs/infra-net/incroyable-l-arcep-invente-la-quasineutralite-des-reseaux-
39713475.htm.
Comcast blocks some Internet traffic - Internet- msnbc.com, Adresse :
http://www.msnbc.msn.com/id/21376597/ [Accédé : 20 Février 2010].
Communiqué du conseil des ministres du 15 janvier 2003, Assemblée Nationale. Adresse :
http://www.assemblee-nationale.fr/12/dossiers/economie_numerique.asp#ministres.
Comscore Inc, « French Online Video Consumption Surges 141 Percent in the Past Year to 5.4
Billion Videos Viewed In September 2009 », Adresse :
http://www.comscore.com/Press_Events/Press_Releases/2009/12/French_Online_Video_Consumption_
Surges_141_Percent_in_the_Past_Year_to_5.4_Billion_Videos_Viewed_In_September_2009 [Accédé :
20 Février 2010].
Dabbous Walid, 2010, « Le protocole IP, simple mais efficace », Dossier pour la Science : l'Ere
d'Internet, vol. , n° 66, p. 28.
Directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l'harmonisation
de certains aspects du droit d'auteur et des droits voisins dans la société de l'information, 2001, Adresse :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32001L0029:FR:HTML [Accédé : 8 Mars
2010].
Directive européenne sur l'harmonisation de certains aspects du droit d'auteur et des droits
voisins dans la société de l'information (2001), Wikipédia. Adresse :
http://fr.wikipedia.org/wiki/Directive_europ%C3%A9enne_sur_l%27harmonisation_de_certains_aspects_d
u_droit_d%27auteur_et_des_droits_voisins_dans_la_soci%C3%A9t%C3%A9_de_l%27information_(200
1).
Epelboin Fabrice, 2009a, « Deux tiers des sites web censurés en Australie nʼont aucun rapport
avec la pédophilie », ReadWriteWeb France. Adresse :
http://fr.readwriteweb.com/2009/06/03/analyse/sites-web-censures-australie-sans-rapport-avec-
pedophilie/ [Accédé : 1 Mars 2010].
Epelboin Fabrice, 2009b, « Google promoteur dʼun jeu pédagogique soutenu par lʼEducation
Nationale », ReadWriteWeb France. Adresse : http://fr.readwriteweb.com/2009/03/24/analyse/google-
promoteur-dun-jeu-pedagogique-soutenu-par-leducation-nationale/ [Accédé : 10 Février 2010].
Epelboin Fabrice, 2010, « Le Deep Packet Inspection : pour mieux vous (a)servir ? »,
ReadWriteWeb France. Adresse : http://fr.readwriteweb.com/2010/01/12/analyse/deep-packet-inspection-
censure-filtrage/ [Accédé : 1 Mars 2010].
Espace public - Wikipédia, Adresse :
http://fr.wikipedia.org/wiki/Espace_public#L.27espace_public_en_sciences_humaines_et_sociales
[Accédé : 11 Mars 2010].
Exclusif : amendement VU/SACEM/BSA interdisant les logiciels non équipés de mesures
techniques, 2005, EUCD.info. Adresse : http://eucd.info/index.php?2005/11/14/175-exclusif-
amendement-vivendi-universal-sacem-bsa-interdisant-les-logiciels-non-equipes-de-mesures-techniques.

Page 116
Externalité, Wikipédia. Adresse : http://fr.wikipedia.org/wiki/Externalit%C3%A9 [Accédé : 7 Mars
2010].
Fortin Pascal, 2002, «À propos de Lʼimaginaire dʼInternet », Uzine. Adresse :
http://www.uzine.net/article1426.html [Accédé : 2 Mars 2010].
Frédéric Lefebvre a-t-il touché de l'argent des lobbys audiovisuels ?, 2009, Numérama. Adresse :
http://www.numerama.com/magazine/14504-frederic-lefebvre-a-t-il-touche-de-l-argent-des-lobbys-
audiovisuels.html [Accédé : 11 Mars 2010].
Frischmann Brett M., 2007, « Infrastructure commons in economic perspective », 2007. Adresse :
http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1901/1783.
Geist Michael, 2005, « Telus Breaks Net Providers Cardinal Rule », Michael Geist Blog. Adresse
: http://www.michaelgeist.ca/content/view/919/159/ [Accédé : 19 Février 2010].
Girardeau Astrid, 2009, « [Actu] La neutralité du net : retour sur lʼaffaire Comcast », The Internets.
Adresse : http://www.theinternets.fr/2009/12/28/actu-la-neutralite-du-net-retour-sur-laffaire-comcast/
[Accédé : 20 Février 2010].
Girardeau Astrid, 2010, « [Etc.] Bloquer, filtrer, dépolluer », The Internets. Adresse :
http://www.theinternets.fr/2010/01/08/etc-bloquer-filtrer-depolluer/ [Accédé : 23 Février 2010].
Girardeau Astrid, 2009, « Europe : Nej ! No ! Nem ! Nie ! Et non à Hadopi », Ecrans.fr. Adresse :
http://www.ecrans.fr/Europe-Nej-No-Nem-Nie-Et-non-a,7124.html [Accédé : 9 Mars 2010].
Girardeau Astrid, 2010, « Le filtrage par DPI », The Internets. Adresse :
http://www.theinternets.fr/2010/01/10/actu-le-filtrage-par-dpi/ [Accédé : 1 Mars 2010].
Girardeau Astrid, 2009, « Neutralité du net, retour sur le Paquet Télécom », The Internets.
Adresse : http://www.theinternets.fr/2009/12/21/actu-neutralite-du-net-retour-sur-le-paquet-telecom/.
Girardeau Astrid, « Un Wikipédia sans filtre, s'il vous plaît », Ecrans.fr. Adresse :
http://www.ecrans.fr/Un-Wikipedia-sans-filtre-s-il-vous,5912.html [Accédé : 22 Février 2010].
Girardeau Astrid et Geist Michael, 2009, « The ACTA Timeline », The Internets. Adresse :
http://www.theinternets.fr/2009/12/11/express-the-acta-timeline/#more-1021 [Accédé : 26 Février 2010].
Google attendra pour attirer nos enfants dans sa Toile, 2009, Adresse :
http://www.framablog.org/index.php/post/2009/03/26/google-education-kit-pedagogique [Accédé : 10
Février 2010].
Google pulls anti-Scientology links, 2002, CNet. Adresse : http://news.cnet.com/2100-1023-
865936.html [Accédé : 26 Février 2010].
Guillaume Nicolas, 2010, « Sécurité IT : un vaste réseau de botnets démantelé en Espagne »,
ITespresso.fr. Adresse : http://www.itespresso.fr/securite-it-un-vaste-reseau-de-botnet-demantele-en-
espagne-33994.html [Accédé : 4 Mars 2010].
Guy Antoine, 2008, « Avis dʼexpert Télécoms-FAI : le Deep Packet Inspection n'est pas le
"gendarme" du Web », Le Journal du Net. Adresse : http://www.journaldunet.com/expert/telecoms-
fai/22272/le-deep-packet-inspection-n-est-pas-le--gendarme--du-web.shtml [Accédé : 1 Mars 2010].
Haski Pierre, « Clinton transforme Internet en champ de bataille idéologique | Rue89 », Adresse :
http://www.rue89.com/chinatown/2010/01/22/clinton-transforme-internet-en-champ-de-bataille-
ideologique-135044 [Accédé : 24 Janvier 2010].

Page 117
Hortefeux : "la neutralité du réseau ne s'applique pas aux sites illicites", Numérama. Adresse :
http://www.numerama.com/magazine/15072-hortefeux-la-neutralite-du-reseau-ne-s-applique-pas-aux-
sites-illicites.html [Accédé : 10 Mars 2010].
Internet Users in France Spend 13 Percent of Their Time Online Streaming Videos - comScore,
Inc, Adresse :
http://www.comscore.com/Press_Events/Press_Releases/2007/06/Online_Video_Streaming_in_France
[Accédé : 20 Février 2010].
IWF confirms Wayback Machine porn blacklisting • The Register, The Register. Adresse :
http://www.theregister.co.uk/2009/01/14/iwf_details_archive_blacklisting/ [Accédé : 22 Février 2010].
Jean-Jacques Sahel (Skype) : « Les opérateurs mobiles sont en train de changer d'attitude face à
la VoIP », Adresse : http://www.01net.com/editorial/512296/skype-les-operateurs-mobiles-changent-
dattitude-face-a-la-voip/ [Accédé : 19 Février 2010].
Kang Cecilia, « Telecom firms face net-neutrality defeat », The Washington Post. Adresse :
http://www.washingtonpost.com/wp-dyn/content/article/2009/10/21/AR2009102103944.html.
Kaplan Daniel, « Facebook-Edvige, les rapprochements hasardeux », InternetActu.net. Adresse :
http://www.internetactu.net/2008/09/05/facebook-edvige-les-rapprochements-hasardeux/ [Accédé : 6
Février 2010].
L'ACTA, le traité secret qui doit réformer le droit d'auteur, 2010, LeMonde.fr. Adresse :
http://www.lemonde.fr/technologies/article/2010/01/25/l-acta-le-traite-secret-qui-doit-reformer-le-droit-d-
auteur_1296265_651865.html.
L'ACTA, le traité secret qui doit réformer le droit d'auteur - LeMonde.fr, 2010, Adresse :
http://www.lemonde.fr/technologies/article/2010/01/25/l-acta-le-traite-secret-qui-doit-reformer-le-droit-d-
auteur_1296265_651865.html.
L'Italie censure la diffusion de vidéos sur Internet, 2010, NouvelObs. Adresse :
http://tempsreel.nouvelobs.com/actualites/medias/audiovisuel/20100118.OBS3978/litalie_censure_la_diff
usion_de_videos_sur_internet.html [Accédé : 22 Février 2010].
Les chiffres du piratage cités par le ministère sont multipliés par 12 (MAJ), Adresse :
http://www.numerama.com/magazine/11294-Les-chiffres-du-piratage-cites-par-le-ministere-sont-
multiplies-par-12.html [Accédé : 11 Mars 2010].
Lobbying Spending Database-Amazon.com, 2009 | OpenSecrets, Adresse :
http://www.opensecrets.org/lobby/clientsum.php?lname=Amazon.com&year=2009.
Lorrain Anne-Catherine, 2002, « Les mesures techniques de protection du droit d'auteur et des
droits voisins : quel rôle pour les Etats membres? », Droit & Technologie. Adresse : http://www.droit-
technologie.org/actuality-528/les-mesures-techniques-de-protection-du-droit-d-auteur-et-des-droits-v.html
[Accédé : 7 Mars 2010].
Maltere Philippe, 2009, « Hadopi : des effets indésirables ? », Sécurité des réseaux et des SI -
Orange Business Services. Adresse : http://blogs.orange-business.com/securite/2009/05/hadopi-le-
danger-bien-cache.html [Accédé : 2 Mars 2010].

Page 118
Manach Jean-Marc, « La vie privée, un problème de vieux cons ? « InternetActu.net », Internet-
actu.net. Adresse : http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/
[Accédé : 6 Février 2010].
Manara Cédric, 2007, « « Internet n'est pas une zone de non-droit » », Ecrans.fr (Libération).
Adresse : http://www.ecrans.fr/Internet-n-est-pas-une-zone-de-non,2619.html [Accédé : 4 Mars 2010].
Manon Simone, 2009, « Les trois ordres, Pascal », PhiloLog. Adresse : http://www.philolog.fr/les-
trois-ordres-pascal/.
Martin Alban, « LOPPSI : Résumé dʼhier et points importants dʼaujourdʼhui | ReadWriteWeb
France », RWW Fr. Adresse : http://fr.readwriteweb.com/2010/02/11/analyse/loppsi-resume/ [Accédé : 11
Février 2010].
Mobile : la téléphonie sur Internet arrivera en 2010, 01Net. Adresse :
http://www.01net.com/editorial/512250/mobile-la-telephonie-sur-internet-arrivera-en-2010/ [Accédé : 19
Février 2010].
Move over, Australia: France taking 'Net censorship lead, Adresse : http://arstechnica.com/tech-
policy/news/2010/02/move-over-australia-france-taking-net-censorship-lead.ars [Accédé : 23 Février
2010].
Neuf et Dailymotion se battent à coups de tuyaux- Ecrans, Adresse : http://www.ecrans.fr/Les-
tuyaux-de-la-colere,1926.html [Accédé : 19 Février 2010].
O'Brien Kevin, 2009, « U.S. lobbyists angle for influence in Europe's Net neutrality debate », The
New York Times. Adresse : http://www.nytimes.com/2009/03/08/technology/08iht-
neutral.1.20669185.html?pagewanted=2&_r=1 [Accédé : 10 Mars 2010].
Olivier Ricou, 2009, « La neutralité de l'Internet (suite) », Adresse : http://www.ricou.eu.org/e-
politique/index.php?post/2009/03/16/La-neutralite-de-l-Internet-suite [Accédé : 4 Mars 2010].
Open Internet Coalition: Who We Are, Adresse :
http://www.openinternetcoalition.com/index.cfm?objectid=0016502C-F1F6-6035-B1264DD29499E9D0.
Pakistan lifts the ban on YouTube, 2008, BBC. Adresse :
http://news.bbc.co.uk/2/hi/technology/7262071.stm [Accédé : 28 Février 2010].
Pearl Jam censored by AT&T, calls for a neutral 'Net, Adresse :
http://arstechnica.com/old/content/2007/08/pearl-jam-censored-by-att-calls-for-a-neutral-net.ars [Accédé :
19 Février 2010].
Planche Jean-Michel, 2009, « Neutralité du net : j'y reviens car manifestement ce n'est pas
compris », Adresse : http://www.jmp.net/index.php/internet/evolution/286-neutralite-du-net-jy-reviens-car-
manifestement-ce-nest-pas-compris.
Projet de loi DAVDSI : dispositions majeures, Adresse :
http://www.jurisexpert.net/projet_de_loi_davdsi_dispositions_majeur/.
Quand Nicolas Sarkozy oppose l'Internet au monde civilisé, Numérama. Adresse :
http://www.numerama.com/magazine/5692_3-quand-nicolas-sarkozy-oppose-l-internet-au-monde-
civilise.html.

Page 119
Ress Marc, 2009, « « La neutralité du Net permet l'innovation sans permis » », PC INpact.
Adresse : http://www.pcinpact.com/actu/news/53524-neutralite-reseau-benjamin-bayard-
zimmermann.htm [Accédé : 6 Mars 2010].
Ress Marc, 2008a, « Contenus illicites : la pression s'accentue sur les hébergeurs », PC INpact.
Adresse : http://www.pcinpact.com/actu/news/42609-manifestement-illicite-retrait-immediat-hebe.htm.
Ress Marc, 2008b, « Free ne veut pas entendre parler de filtrage et explique pourquoi », PC
INpact. Adresse : http://www.pcinpact.com/actu/news/47097-free-filtrage-forum-droits-internet.htm
[Accédé : 28 Février 2010].
Ress Marc, 2007, « Reconnu hébergeur, Wikipedia voit sa responsabilité allégée », PC INpact.
Adresse : http://www.pcinpact.com/actu/news/39842-wikipedia-lcen-wikimedia-responsabilie-heber.htm.
Ress Marc, 2009, « Vous avez aimé Hadopi ? Vous allez adorer l'ACTA », PC INpact. Adresse :
http://www.pcinpact.com/actu/news/54030-acta-hadopi-riposte-surveillance-internet.htm [Accédé : 26
Février 2010].
Rheingold Howard, « Ice cream politics: flash mob in Belarus », Smart Mobs. Adresse :
http://www.smartmobs.com/2006/10/03/ice-cream-politics-flash-mob-in-belarus/ [Accédé : 15 Février
2010].
Rosalie Marshall, 2009, « Dutch ISP heralds end of net neutrality - V3.co.uk - formerly
vnunet.com », V3.co.uk. Adresse : http://www.v3.co.uk/v3/news/2248371/dutch-isp-set-first-europe-net.
Sousveillance - Wikipedia, the free encyclopedia, Adresse :
http://en.wikipedia.org/wiki/Sousveillance [Accédé : 3 Février 2010].
Stelter Brian, 2009, « Comcast Introduces a Streaming TV Service », The New York Times.
Adresse :
http://www.nytimes.com/2009/12/16/business/media/16comcast.html?_r=3&src=tptw&pagewanted=print
[Accédé : 21 Février 2010].
Supprimer au lieu de bloquer : ça marche !, 2009, La Quadrature du Net. Adresse :
http://www.laquadrature.net/fr/supprimer-au-lieu-de-bloquer-ca-marche [Accédé : 22 Février 2010].
Tatouage et filtrage à la source : Hadopi révèle ses ombres, 2009, PC INpact. Adresse :
http://www.pcinpact.com/actu/news/50687-filtrage-experimentation-hadopi-contenu-source.htm [Accédé :
23 Février 2010].
Téléchargement: Sarkozy veut "civiliser" Internet, LePost.fr. Adresse :
http://www.lepost.fr/article/2007/11/23/1057059_telechargement-sarkozy-salue-l-avenement-d-un-
internet-civilise.html [Accédé : 4 Mars 2010].
Thaïlande : 400 sites fermés pour crime de lèse-majesté, Adresse : http://www.generation-
nt.com/thailande-fermeture-site-censure-famille-royale-actualite-150541.html [Accédé : 23 Février 2010].
The Pirate Bay bloqué en Suède pour pédophilie ?, Clubic. Adresse :
http://www.clubic.com/actualite-76383-pirate-bay-bloque-suede-pedophilie.html [Accédé : 22 Février
2010].
de la Vega Xavier, 2005, « Le devenir du rhizome », Sciences Humaines, vol. , n° Numéro
spécial numéro 3. Adresse :
http://www.scienceshumaines.com/index.php?lg=fr&id_article=14358&provenance=espaceabo.

Page 120
Vodafone va proposer un accès "privilégié" à ses réseaux 3G+, 2009, BusinessMobile.fr. Adresse
: http://www.businessmobile.fr/actualites/services/0,39044303,39710864,00.htm.
Wu, Tim, « Network Neutrality FAQ », timwu.org. Adresse :
http://www.timwu.org/network_neutrality.html.

Page 121