Vous êtes sur la page 1sur 243

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/261726882

Le côté obscur de Google

Book · May 2011

CITATIONS READS

2 526

1 author:

Francesca Valsecchi
Tongji University
30 PUBLICATIONS   80 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Visual Speculations during the Phd View project

Design Harvests View project

All content following this page was uploaded by Francesca Valsecchi on 22 April 2014.

The user has requested enhancement of the downloaded file.


Versione non conforme al testo definitivo

Version non definitive


M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 1

bozza non definitiva brouillon non definitif non-final draft


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 2


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 3

La face cachée de Google


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 4

Collection dirigée par Lidia Breda


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 5

IPPOLITA

La face cachée
de Google
Traduit de l’italien par Maxime Rovere

Manuels Payot
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 6

Retrouvez l’ensemble des parutions


des Éditions Payot & Rivages sur
www.payot-rivages.fr

Titre original :

©
© 2008, Éditions Payot & Rivages
pour la traduction française
106, boulevard Saint-Germain – 75006 Paris
ISBN 13 : 978-2-228-90284-7
ISSN : 1281-5888
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 7

Avertissement

Ce livre est distribué sous licence Creative


Commons 2.0 (droit de paternité, utilisation non
commerciale, partage à l’identique) une licence
de type copyleft choisie pour permettre la libre
diffusion. En voici la teneur, traduite dans un
langage accessible ; on peut trouver une version
intégrale du texte de la licence à l’adresse web
http://creativecommons.org/licenses/by-nc-sa/
2.5/it/legalcode, ou la demander à info@ippo-
lita.net.
Vous êtes libres :
• de reproduire, distribuer et communiquer
cette création au public
• de modifier cette création
Aux conditions suivantes :
• Paternité. Vous devez citer le nom de l’auteur
original de la manière indiquée par l’auteur de
l’œuvre ou le titulaire des droits.
• Pas d’utilisation commerciale. Vous n’avez
pas le droit d’utiliser cette création à des fins
commerciales.
• Partage des conditions initiales à l’identique.
Si vous modifiez, transformez ou adaptez cette

7
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 8

La face cachée de Google

création, vous n’avez le droit de distribuer la


création qui en résulte que sous une licence iden-
tique à celle-ci.

• À chaque réutilisation ou distribution de


cette création, vous devez faire apparaître claire-
ment au public les termes de cette licence, et les
respecter.
• Chacune de ces conditions peut être levée si
vous obtenez l’autorisation du titulaire des droits
sur cette œuvre.
• Rien dans ce contrat ne diminue ou ne res-
treint le droit moral de l’auteur ou des auteurs.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 9

Introduction

Google est le moteur de recherche le plus


connu et le plus utilisé de tout l’Internet, au point
qu’il s’est imposé ces dernières années comme le
principal point d’accès à la Toile. Les surfeurs se
sont progressivement adaptés à son interface
sobre et rassurante et aux encarts publicitaires qui
y défilent, omniprésents ; ils ont adopté ses ser-
vices commodes, et son usage est tellement habi-
tuel qu’il est devenu un automatisme : « si tu ne
sais pas, va chercher sur Google ». On recourt
aussi à Google quand on pourrait se souvenir
du post-it collé sur le réfrigérateur, consulter
l’agenda, regarder dans les Pages Jaunes, ou
feuilleter la collection Larousse qui prend la pous-
sière sur les étagères, avec les autres encyclopé-
dies cartonnées, trop fastidieuses et difficiles à
consulter.
Google a su magistralement exploiter notre
besoin de simplicité. Il aspire à être le moteur de
recherche parfait, apte à comprendre exactement
les requêtes des utilisateurs et de restituer en un
clin d’œil ce qu’ils désirent. Les interfaces élémen-
taires, désormais personnalisables directement

9
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 10

La face cachée de Google

sur le Web, et malgré tout invariablement recon-


naissables par leur style minimaliste, sont pour
un nombre impressionnant d’utilisateurs, en
constante augmentation, le chemin de fuite quo-
tidienne hors de la claustrophobie des écrans
numériques. Ce sont des bols d’air, des fenêtres
privilégiées, grandes ouvertes sur le monde fas-
cinant de la Toile. Combien de personnes utili-
sent Google comme page initiale de leur propre
browser ? Et pourtant, sous tant de simplicité et
de facilité d’usage se cache un colosse, un sys-
tème incroyablement complexe et intrusif, qui
tâche d’obtenir la gestion des connaissances de
cette mare nostrum qu’est la toile. Google offre
des dizaines de services gratuits pour satisfaire
tout désir de recherche et de communication :
e-mail, chat, newsgroup, système d’indexation des
dossiers de l’ordinateur, archivage des images,
vidéos, livres, et beaucoup d’autres choses encore.
Pourquoi ? Qu’y gagne-t-on ? Faire la critique de
Google à travers un examen de son histoire et
la déconstruction des objets mathématiques qui
le composent, c’est l’occasion de révéler une
stratégie particulière de domination culturelle.
Cette enquête offre l’opportunité de fournir une
méthode d’étude plus générale, pour mettre à jour
les coulisses d’un grand nombre d’applications
que nous sommes habitués à utiliser.
Ce livre commence par un bref panorama de
l’histoire des moteurs de recherche, passant en
revue les moments les plus significatifs de
l’ascension de Google. Survivant sans dommages
à l’éclat de la bulle de la new economy, Google
a tissé des liens solides avec diverses multinatio-

10
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 11

Introduction

nales des Technologies de l’Information et de la


Communication (TIC). L’expansion continuelle
de son activité dans tous les secteurs de la
communication numérique fait la promotion d’un
style que nul ne peut confondre, et qui modèle
tout l’univers culturel du Web.
Don’t be evil, « ne soyez pas méchants »,
tel est le mot d’ordre de Sergey Brin et de
Larry Page, les deux fondateurs de Google. Les
anciens étudiants de Stanford, grâce à une gestion
occulte de leur propre image, ont créé un « Bon
Géant » impatient d’archiver nos « intentions de
recherche » dans ses gigantesques bases de don-
nées. L’alter-ego numérique de millions d’utili-
sateurs semble être en de bonnes mains, affilié
au centre de données principal de Mountain
View, en Californie, plus connu sous le nom de
Googleplex. Là, comme dans les autres centres
d’archivage de Google – qui ont poussé comme
des champignons dans le monde entier – on met
au point ce qui constitue purement et simplement
les armes d’une guerre pour le contrôle de la
Toile. En premier lieu, on y pratique ardemment
le capitalisme souple de l’abondance : appliquant
une stratégie de contrôle biopolitique au sens
strict, on propose des ambiances de travail
confortables, où l’on se tape sur l’épaule en
accordant des primes aux salariés. Les travail-
leurs, satisfaits et reconnaissants, sont contents
de se faire exploiter et deviennent les meilleurs
défenseurs de l’entreprise, fiers de promouvoir
une image conquérante et « bonne ».
Les objectifs et les méthodes de Google sont
positifs pour tous ; la philosophie de l’entreprise,

11
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 12

La face cachée de Google

fondée sur l’excellence de l’estampille acadé-


mique et l’engagement pour l’innovation et la
recherche, se trouve exposée en dix vérités lapi-
daires sur le site même du moteur de recherche.
Ces « dix commandements » constituent une
sorte de bonne nouvelle de l’ère informatique, la
pensée-Google, propagée avec l’aide de purs et
simples « évangélisateurs » (evangelists), person-
nalités éminentes du monde informatique.
La dernière arme, mais non la moindre, est
l’adoption des méthodes de développement coo-
pératif typiques de l’Open Source, qui passent par
le logiciel libre, non protégé par brevet ou par
copyright, utilisé comme base pour les produits
eux-mêmes. De cette manière, Google diminue
les coûts d’amélioration de ses propres services,
s’assure l’appui de techniciens, bricoleurs et hac-
kers de toutes sortes, et se fait passer pour le fer
de lance de la libre circulation des savoirs, parce
que l’usage du moteur de recherche semble offrir
l’accès gratuit à la Toile de la meilleure manière
qui soit.
Mais le rêve de Brin et Page pour un « Google
contenant tout l’Internet », cultivé jusque dans les
temples de l’université, n’est qu’une idée déma-
gogique, qui sert à affirmer un culte quasi posi-
tiviste de l’objectivité scientifique : dans le chaos
de la Toile, seule une technique supérieure peut
se faire garante de la transparence des processus
et de la justesse des réponses – pour le salut de
la démocratie !
En fait, Google se déclare être un instrument
« démocratique » en s’appuyant sur le caractère
présupposé « démocratique » du Web. Son algo-

12
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 13

Introduction

rithme d’indexation de la Toile, PageRank™,


s’occupe de copier les données numériques dans
les centres de données, tirant parti des liens asso-
ciés à chaque page pour déterminer une valeur à
celle-ci. Concrètement, Google interprète un lien
de la page A à la page B comme un vote expresse
de la première en faveur de la seconde. Mais il
ne se contente pas de calculer le nombre de votes
ou de liens émis par une page, il examine aussi
la page qui a émis le vote. Si une page est
« importante », ses votes ont plus de pertinence
et contribuent donc à « augmenter la valeur » des
pages renseignées. Le PageRank™ assigne aux
sites Web importants et de haute qualité un vote
plus élevé, en utilisant des filtres et des critères
non publics dont Google tient compte à chaque
fois qu’une recherche est effectuée. La « démo-
cratie » de Google ordonne ainsi la Toile en fonc-
tion du nombre de votes reçus par chaque page
et de l’importance de ces votes : une démocratie
passée au filtre de la technologie.
Il y a quelques secrets autour du colosse de
Mountain View ; beaucoup d’entre eux, comme
on le verra, sont des secrets de Polichinelle. Le
halo de légende qui entoure la technologie goo-
golienne est dû en grande partie à l’absence d’une
information de base, de rudiments pratiques pour
aborder en termes culturels la lame de fond de la
révolution technologique. Par exemple, l’extraor-
dinaire rapidité des résultats de recherche est le
fruit d’une sélection drastique qui n’a rien de
transparent. De fait, comment des millions d’uti-
lisateurs pourraient-ils feuilleter simultanément,
à tout instant, la base de données de Google tout

13
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 14

La face cachée de Google

entière, s’il n’y avait des filtres opportuns pour


restreindre l’ampleur de la recherche, par exemple
en la limitant aux données rédigées dans leur
langue d’origine ? Et s’il existe des filtres destinés
à garantir une meilleure navigation linguistique,
n’est-il pas permis de supposer qu’il en existe
beaucoup d’autres, étudiés aussi pour diriger
les orientations des navigateurs ? Le prodige de
Google repose en réalité sur une technologie
opaque, sur des secrets de copyright et des
accords de non divulgation des découvertes. La
recherche sur Google n’est ni transparente ni
démocratique comme on le prétend, car elle ne
peut pas l’être, autant pour des raisons techniques
qu’économiques.
L’espace blanc de Google où l’on tape les mots
clés des recherches est une porte étroite, un filtre
sans aucune transparence, qui contrôle et dirige
l’accès aux informations. En tant que médiateur
informationnel, un simple moteur de recherche se
fait instrument pour la gestion du savoir. Par là,
il se trouve en mesure d’exercer un pouvoir
énorme, s’attribuant une autorité absolue dans un
monde clos. Le modèle culturel de Google est
donc l’expression directe d’une domination tech-
nocratique.
Avec ce volume, Ippolita entend souligner le
problème, ou mieux l’urgence sociale d’alphabé-
tisation et d’orientation critique du grand public
sur le thème de la gestion des connaissances
(knowledges management). Internet offre aux uti-
lisateurs d’extraordinaires opportunités d’auto-
information, telles qu’elles surpassent même la
formation universitaire, en particulier dans des

14
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 15

Introduction

domaines comme la communication et l’ingénierie


informatique. Le mouvement du Logiciel Libre,
comme l’a montré Ippolita dans ses précédents
travaux, est l’exemple plus éclatant de la néces-
sité d’autoformation continue et de la possibilité
d’autogestion des instruments numériques.
Mais cette médaille a son revers, doublement
négatif : d’une part, l’avilissement de la forma-
tion humaniste, qui a malgré tout organisé dans
la Toile des domaines de référence ; de l’autre,
la considérable paralysie cognitive de l’utilisa-
teur moyen. Désorientés par la redondance des
données disponibles sur la Toile, nous nous fions
à des points de référence de la plus grande visi-
bilité – dont Google est seulement l’exemple le
plus éclatant – sans se demander ce qui se passe
en coulisses ; nous insèrons nos propres données
avec légèreté, conquis par l’incontestable utilité
de services décidément efficaces et, comme c’est
encore l’usage sur une bonne part de la Toile,
gratuits.

Ippolita tient à signaler l’absence de diffusion


scientifique concernant les phénomènes techno-
logiques dont la société entière est investie. Les
manuels techniques abondent, la sociologie parle
avec aisance de la Société en Réseau, la politique
se prend à imaginer une future Open Society,
dans laquelle les réseaux seraient le substrat tech-
nologique de la démocratie globale. Mais
combien de navigateurs assidus savent ce qu’est
un algorithme ? Bien peu. Et beaucoup se fient à
la réponse de PageRank™, un algorithme juste-
ment, qui met en ordre sans délai les résultats de

15
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 16

La face cachée de Google

leurs interrogations et dirige leur expérience sur


la Toile. Il faut avoir le courage de faire passer
la diffusion scientifique au premier plan, sans
s’enfermer dans la tour d’ivoire du savoir acadé-
mique. Il est nécessaire de parler de macroéco-
nomie sans être économiste, d’infomédiation sans
être expert en communication, d’autoformation
sans être éducateur, d’autogestion des outils
numériques sans être politicien. Il est nécessaire
de provoquer le débat sur les concepts élémen-
taires comme « algorithme », « données sensi-
bles », « confidentialité », « vérité scientifique »,
« réseaux de communication », trop peu discutés
par une Authority et des Garants qui ne peuvent
garantir absolument rien.
L’habitude de déléguer provoque un désintérêt
général pour les grandes mutations en cours dans
notre monde technologique. Elles se passent en
sourdine ou couvertes par la fumée médiatique,
sans être le moins du monde assimilées par le
grand public.
L’attitude la plus commune, parmi ceux qui
sont confrontés aux continuels et incompréhensi-
bles « miracles de la technologie », oscille entre
l’enchantement émerveillé et la frustration ; s’y
joint même l’adoration mystique, comme si le
numérique redorait le monde d’une aura ésoté-
rique, pénétrable seulement par peu d’initiés.
Mais l’incapacité d’officier correctement le culte
du nouveau progrès y associe de la frustration.
Le groupe de recherche Ippolita se réunit pré-
cisément autour de la conviction qu’à travers le
changement et le dialogue des compétences et des
langages divers, on peut transformer ce qu’on

16
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 17

Introduction

appelle la Révolution Numérique en une matière


utile pour comprendre l’époque contemporaine,
ses anomalies et probablement aussi les temps à
venir. La recherche scientifique, la tradition
humaniste, les passions politiques, les méthodes
féministes sont – entre autres – les langages qu’il
convient d’utiliser dans cette exploration.
L’activité d’Ippolita révèle que « mettre en
commun » ne suffit pas, parce que le niveau de
réflexion sur les technologies est encore limité et
que la boîte à outils des utilisateurs est encore
trop rudimentaire. Il est nécessaire d’adopter une
attitude critique et curieuse, de développer des
compétences à un niveau avant tout individuel,
de comprendre de quelle manière on peut inte-
ragir avec les mondes numériques, de mettre au
point des outils adéquats aux objets eux-mêmes.
Notre espoir est de multiplier les espaces et les
occasions d’autonomie sans céder à un enthou-
siasme facile, sans succomber à la paranoïa du
contrôle. Just for fun. La pratique communautaire
n’est pas une recette capable de transformer par
enchantement chaque nouveauté technologique
en un bien collectif ; elle n’est pas suffisante à
conjurer la domination technocratique au nom
d’une grande démocratie électronique. Il s’agit là
d’une vision supertitieuse du progrès, oublieuse
de la valeur des choix individuels. La synergie
entre les sujets en réseau, mondes vivaces en per-
pétuelle mutation, n’est pas une simple somme
des parties en jeu, elle requiert passions, véracité,
créativité et continuelle renégociation des outils,
des méthodes et des objets.

17
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 18

La face cachée de Google

Relier les éléments plus strictement techniques


à leurs présupposés sociaux est assurément le pre-
mier et difficile pas à accomplir. Pour cette
raison, le texte que vous avez entre les mains est
intégralement téléchargeable sous une licence
copyleft.
Ippolita.net/google/
info@ippolita.net
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 19

I. Histoire des moteurs

Des moteurs et des recherches

Les moteurs de recherche se présentent aujour-


d’hui comme des sites appartenant au World Wide
Web (web) qui permettent de repérer des informa-
tions (informations retrieval). L’idée qu’Internet
et le web ne font qu’un est une erreur admise par
la plupart des utilisateurs, parce que le Web est
l’aspect le plus simple et le plus immédiat
d’Internet. En réalité, la Toile est beaucoup plus
complexe, plus hétérogène et plus variée que le
Web : elle comprend aussi le monde du tchat, des
newsgroups, du courrier électronique, bref tout
ce que les individus désirent « mettre sur la
toile », sans parler de la « forme » sous laquelle
ces informations se présentent. Autrement dit, la
Toile n’est pas statique, mais dynamique : les res-
sources et leurs interconnexions sont sujettes à
changement (naissance, transformation, mort).
De la même manière, les vecteurs de connexion
physique à ces ressources changent en perma-
nence. Elles vont du double câble téléphonique
du modem jusqu’à la « bande large » et à la fibre

19
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 20

La face cachée de Google

optique. Enfin, les individus qui créent la Toile


en y projetant leur alter ego numérique sont en
perpétuelle mutation, aussi longtemps qu’ils sont
en vie. La Toile ne correspond donc pas au web,
elle est une dynamique co-évolutive constituée
par l’interaction complexe entre différents types
de machines : machines mécaniques (ordinateurs,
câbles, modems, etc.) machines biologiques
(individus humains) machines signifiantes (res-
sources partagées).
À partir du moment où l’on repère des infor-
mations dans le magma de la Toile, il faut en
passer par une évidence fondamentale, quoi-
qu’elle puisse sembler étrange : l’histoire des
moteurs de recherche est beaucoup plus ancienne
que celle du web.
Le web tel que nous le connaissons est l’inven-
tion de Tim Bernes-Lee, de Robert Caillau 1 et
d’autres scientifiques européens et américains.
Entre 1989 et 1991, au CERN de Genève, ils
ont créé le premier browser, le protocole http
et le langage html pour la composition et la visua-
lisation des documents hypertextuels, c’est-à-
dire contenant des liens (soit internes à chaque
document, soit entre documents séparés). Cette
nouvelle technologie se présente comme une
amélioration de la toile internet, issue de la fusion
de divers projets universitaires et militaires amé-
ricains.
Pendant que le web se partageait entre les labo-
ratoires et les universités du monde entier, les
moteurs de recherche offraient depuis des années
des services d’indexation et de recherche d’infor-
mations sur internet.

20
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 21

Histoire des moteurs

Les premiers moteurs de recherche n’étaient évi-


demment pas consultables sur le web ; ils étaient
de purs et simples programmes qu’on devait ins-
taller et configurer sur sa propre machine. Ces
instruments indexaient les ressources d’Internet
par le biais de protocoles tels que le ftp (pour le
partage de fichiers), gopher (un rival du http
émergeant) et d’autres systèmes qui ne sont plus
en usage aujourd’hui.
En 1994, WebCrawler 2, le premier moteur de
recherche installé sur le web, produit expéri-
mental financé par l’université de Washington,
devint opérationnel. Les innovations introduites
par ce moteur de recherche étaient extraordi-
naires. En plus de fonctionner comme un site
internet et d’offrir la possibilité d’effectuer des
recherches full text 3, il était doté d’un outil per-
mettant de cataloguer les pages automatiquement,
le spider. Le spider est un logiciel qui, on le verra
en détail dans le prochain chapitre, remplit deux
fonctions : pendant qu’il navigue sur internet, il
mémorise les informations contenues sur les
pages web, et il rend celles-ci accessibles aux uti-
lisateurs du service de recherche.
Même si WebCrawler était incroyablement
innovant pour l’époque, les résultats qu’il était
capable de fournir étaient de simples listes
d’adresses web et les titres respectifs des pages
indiquées.
Dans les derniers mois de 1994, le moteur de
recherche Lycos réussit à indexer en très peu de
temps plus de 90 % des pages web de l’époque
(environ 10 millions en tout). La principale inno-
vation de Lycos était d’exclure les systèmes full

21
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 22

La face cachée de Google

text pour le catalogage, en analysant seulement


les 20 premières lignes de chaque page indexée,
au lieu de tout son contenu textuel. Cela permet-
tait à Lycos de montrer dans ses résultats une
brève description tirée de ces mêmes lignes.
Avec l’arrivée d’Excite en décembre 1995, les
résultats commencèrent à être ordonnés en fonc-
tion de l’importance de la page. L’introduction
d’un système d’évaluation du « poids » d’une
page ouvrait aussi à une forme rudimentaire de
catalogage thématique : enfin allaient disparaître
les listes interminables de résultats non ordonnés.
On configurait ainsi une première consultation
d’un « annuaire » des sites, qu’on pourrait compa-
rer à une organisation de style bibliométrique
classique des ressources web, c’est-à-dire avec
une indexation divisée par matière, langue, etc.
Quoi qu’il en soit, Excite est entré dans l’his-
toire pour une autre raison : il s’agit du premier
moteur de recherche à se doter d’instruments
explicitement destinés à une activité commer-
ciale. Après avoir acquis WebCrawler, Excite a
offert aux utilisateurs des personnalisations et des
boîtes postales gratuites, devenant en moins de
deux ans l’un des premiers portails web (1997).
Peu après, avec la naissance de moteurs de
recherche toujours plus évolués, Excite a mis
de côté sa vocation originelle, optant pour l’uti-
lisation des instruments de recherches d’autres
sociétés, parmi lesquelles on compte aujourd’hui
Google 4.
Le panorama des précurseurs de Google ne
serait pas complet sans une mention de celui qui
était en 1997 le meilleur et le plus populaire des

22
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 23

Histoire des moteurs

moteurs de recherche existant : Altavista. Alta-


vista, qui veut dire « vue d’en haut », se servait
des résultats d’un groupe de recherche du Digital
Equipment Corporation (DEC) de Palo Alto, en
Californie, qui avait réussi au printemps 1995 à
emmagasiner tous les mots d’une page HTML
présente sur internet avec un degré de précision
qui rendait possible d’y effectuer des recherches.
Le DEC avait cédé à AltaVista le développement
de la première base de données ouverte à la consul-
tation directe depuis le World Wide Web. L’âme
d’Altavista s’appelait Louis Monier 5. En utilisant
des clusters d’ordinateurs reliés ensemble, un
matériel d’avant-garde et le meilleur des techno-
logies alors disponibles, celui-ci avait réussi en
peu de temps à faire de sa créature le moteur de
recherche le plus courant et le plus apprécié parmi
les utilisateurs. AltaVista est aussi le premier
moteur de recherche multilingue d’internet, et la
première technologie de recherche apte à intégrer
des textes en chinois, en japonais et en coréen.
Enfin, c’est lui qui a introduit le système de tra-
duction automatique Babel Fish, encore utilisé
aujourd’hui.
Avant son effondrement en 1997 6, AltaVista
servait 25 millions de recherches par jour et rece-
vait de ses sponsors 50 millions de dollars par an.
Il fournissait un service de recherche aux utilisa-
teurs du portail Yahoo !, qui est aujourd’hui
encore le principal adversaire de Google dans le
monde web.

23
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 24

La face cachée de Google

La naissance de Google. Au commencement


était le garage, puis l’Université

Le mot Google vient de « googol », terme


mathématique qui désigne un 1 suivi de 100 zéros.
Selon la légende, c’est le nombre de pages web
que Larry Page et Sergey Brin rêvaient d’indexer
avec leur nouvel instrument de recherche.
Ils se rencontrent tous deux en 1995 à Stan-
ford, lorsque Larry Page, 24 ans, diplômé de
l’Université du Michigan, se rend en visite à
Stanford avec l’idée de s’inscrire en doctorat
d’Informatique. Sergey Brin, 23 ans, faisait partie
du groupe d’étudiants désignés pour accompa-
gner les visiteurs dans le campus. L’université
californienne était le lieu idéal pour développer
des projets fortement innovants d’un point de vue
technologique. En effet, il offrait d’une part des
laboratoires à la pointe de la recherche, d’autre
part des liens étroits soit avec des entreprises du
secteur de l’Information Technology (IT, ou TIC
en français), soit avec des bailleurs de fonds
avertis et prêts à investir de gros capitaux dans
les recherches universitaires les plus promet-
teuses. Brin et Page étaient tous les deux fascinés
par la croissance vertigineuse du web et des pro-
blèmes liés à la recherche et à l’organisation des
informations ; ils se consacrèrent au projet Bac-
kRub, ainsi nommé car susceptible d’analyser les
« back links » détectés sur un site et d’en fournir
une cartographie. BackRub sera rebaptisé Google
lorsqu’il sera doté d’une page web, en 1997.
L’innovation fondamentale introduite par
Google est de renverser le process d’indexation

24
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 25

Histoire des moteurs

des pages : il n’énumère plus les sites en fonction


de la « proximité » par rapport à la demande
effectuée, mais montre les résultats exactement
dans l’ordre « correct », c’est-à-dire répondant
aux attentes de l’utilisateur. Le premier lien rendu
disponible doit être la réponse « exacte » à la
question ; les suivants s’éloignent petit à petit du
cœur de la recherche 7.
Dans cette perspective naît le célèbre bouton :
« J’ai de la chance » : en cliquant dessus, on
ouvre directement le premier lien de la recherche
de Google, présenté comme le lien univoquement
« juste ».
L’algorithme « inventé » par Larry Page pour
calculer l’importance d’une page web, connu
comme PageRank™, se fonde sur les statistiques
du début du XIXe siècle, et en particulier sur les
formules mathématiques développées par Andrej
Andreevic Markov pour calculer, à l’intérieur
d’un réseau, l’importance d’un nœud par rapport
aux autres 8.
Au départ, Google est seulement un projet aca-
démique et scientifique, pour lequel le système
d’évaluation dépend largement des jugements des
« arbitres » (referees) qui agissent selon le méca-
nisme des « comités de lecture » (peer-review).
La méthode qui offre théoriquement les meil-
leures garanties d’objectivité est ce qu’on appelle
la « double lecture en aveugle » (double-blind) :
avant d’être accepté dans une revue scientifique,
un article est soumis à au moins deux chercheurs
dont la renommée est établie, lesquels ne doivent
pas connaître le nom de l’auteur (pour ne pas
être influencés dans leur jugement). Le second

25
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 26

La face cachée de Google

moment « aveugle » concerne celui qui recense


l’article, qui ne doit pas connaître le nom des
juges. En somme, plus l’article scientifique est
accueilli positivement par d’autres scientifiques
(qu’on suppose travailler de manière indépen-
dante), plus il est considéré comme important et
digne d’estime. Page adapte cette approche à son
domaine de recherche et applique la théorie selon
laquelle le nombre de liens qui mène à une page
est une manière d’évaluer la valeur de la page et
en un certain sens sa qualité. Nous détaillerons
plus loin comment s’opère ce passage de la
« quantité » d’informations servies à la « qua-
lité » du résultat répondant aux attentes de l’uti-
lisateur 9.
Mais ce critère n’est pas suffisant par lui-
même, parce que tous les liens ne sont pas égaux
et n’ont pas la même valeur : plus précisément,
l’attention à la valeur statique d’une liaison doit
se reporter sur la valeur dynamique d’un par-
cours, la Toile étant un milieu (en termes mathé-
matiques, un graphe) dans lequel tous les par-
cours n’ont pas la même valeur ; il y a différentes
« valeurs de parcours » selon le « poids » des
nœuds. Du reste, pour poursuivre le parallèle
avec la pratique universitaire et scientifique,
toutes les recensions dans les revues scientifiques
n’ont pas la même importance. L’avis positif de
lecteurs peu prestigieux, voire mal vus par la
communauté scientifique, est nuisible : trop de
recensions d’un poids insuffisant entament l’au-
torité d’une publication. Ainsi, selon Page, les
liens provenant de sites reliés de manière spé-
ciale, avec un nombre élevé de liens, ont la plus

26
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 27

Histoire des moteurs

grande importance. Par conséquent, un parcours


(c’est-à-dire un lien) venant d’un site très popu-
laire a plus d’importance qu’un parcours prove-
nant d’une page peu connue. C’est ainsi qu’un
lien allant d’une page À à une page B est inter-
prété comme une recension scientifique (mais il
faut souligner que Brin et Page parlent explicite-
ment de « vote » et de « démocratie ») d’un poids
directement proportionnel à la popularité du lec-
teur/votant qui fournit le lien. L’autorité du lec-
teur scientifique devient la mesure de popularité
d’un site.
L’évaluation des pages web de Google, dite
PageRanking, se construit donc en fonction d’un
système de recension « publique » analogue au
système de la « république scientifique » 10, qui
ne se limite pas aux scientifiques mais s’étend à
tous les navigateurs de la Toile.
Aujourd’hui, l’organisation de la république
scientifique et la question du référencement des
données en général sont devenus d’une impor-
tance cruciale : dans notre contexte de « déluge
informationnel » 11, en particulier sur le web, il
devient toujours plus complexe de raisonner non
seulement sur l’importance, mais aussi sur la cré-
dibilité des informations. D’autant plus que le
mécanisme des « comité de lecture » a été,
depuis, remis en question par les scientifiques
eux-mêmes 12. Parmi les propositions alternatives
les plus intéressantes figurent les mécanismes
d’évaluation liés au nombre de publications, ainsi
que les réseaux disponibles sous licence libre
(copyleft), en passant par les projets d’accès
public (open access), qui englobent également

27
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 28

La face cachée de Google

des travaux dans le domaine des humanités (voir


par exemple HyperJournal) 13.
C’est ainsi qu’en mars 1996 Page lance son
spider, un programme pour explorer le web, en
le testant avec l’algorithme de ranking qu’il avait
développé.
Le moteur de recherche des deux talentueux
élèves de Stanford, construit autour du spider,
devient immédiatement un succès parmi les étu-
diants et les chercheurs. Il acquiert rapidement
une extraordinaire popularité. Toutefois, pour les
administrateurs de réseau de Stanford, la consom-
mation de bandes du moteur de recherche com-
mence à devenir un sérieux problème. De plus,
les propriétaires des sites indexés se souciaient
d’une part des droits de copyright de leurs maté-
riels, et de l’autre du fait que le ranking de Google
ne prenait pas en considération les récompenses
officielles ou les autres systèmes d’évaluation
établis, en dehors de la quantité et de la qualité
(au sens de popularité) des liens qu’une page pou-
vait mobiliser autour d’elle. Google ne s’inté-
resse qu’à l’économie relationnelle exprimée en
termes de liens, et à rien d’autre : « le spider ne
s’intéresse pas aux contenus d’une page ».
La valeur d’un résultat doit reposer sur l’éva-
luation des relations d’une page à une autre, et
non sur un classement arbitraire imposé en fonc-
tion des termes de recherche. Ce passage en force
sera la clé de l’efficacité de Google dans les
années qui suivent : les résultats ne sont plus éta-
blis absolument une fois pour toutes, mais varient
dynamiquement selon la position prise par les
pages dans l’ensemble du réseau.

28
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 29

Histoire des moteurs

Google.com. Publicité directe à l’intérieur


des pages

Page et Brin développent et testent Google


pendant ses dix-huit premiers mois de vie, en uti-
lisant des instruments libres mis à la disposition
de la communauté free software et open source 14,
à partir du système d’exploitation Gnu/Linux.
C’est ainsi qu’ils mettent au point un moyen for-
tement modulable et étalonnable, qui peut être
étendu et modifié facilement même en cours
d’utilisation à plein régime. Une telle structure
modulaire est aujourd’hui la base du centre de
données 15 de Google, le Googleplex, qui permet
l’entretien, la modernisation, la substitution ou
l’ajout de matériel et de logiciels, sans qu’il ne
soit jamais besoin de bloquer le service.
Au milieu de l’année 1998, Google sert envi-
ron 10 000 requêtes de recherche par jour ; le sys-
tème domestique accumulé dans la chambre
louée de Page et de Brin est alors tout près de
s’effondrer. Il fallait trouver pour ce projet des
financements bien supérieurs aux fonds normale-
ment alloués à la recherche.
La sortie de Google hors de l’université est
due, dit-on, à la rencontre d’Andy Bechtolsheim,
fondateur de Sun et talentueux loup de mer rompu
aux Technologies de l’Information. C’est lui qui
alloue aux deux chercheurs un premier versement
de cent mille dollars.
La naissance de la société coïncide avec
l’embauche des premiers employés nécessaires
au développement et à la manutention du centre

29
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 30

La face cachée de Google

de données, parmi lesquels Craig Silverstein,


directeur du départment de technologie. Le centre
de données de Google se présente depuis le début
comme un système fortement redondant, dans
lequel les informations sont copiées à plusieurs
endroits pour minimiser la possibilité de perte des
données (ce qui revient à fabriquer le papier mon-
naie du système de recherche). Le plus important
est qu’il est possible à tout instant d’y ajouter et
d’en enlever des modules pour obtenir une plus
grande efficacité. L’approche typique de la phi-
losophie des universitaires bricoleurs Brin et
Page, qui récupèrent et réajustent du matériel
hardware bon marché tout en employant des logi-
ciels gratuits, se révèle être atout majeur. Leurs
ressources économiques réduites leur permettent
ensuite de fabriquer la clé autour de laquelle
tourne leur philosophie d’entreprise, qui sera
basée sur le caractère extrêmement modulable de
tous ses niveaux. Le ranger-Google est modu-
lable en ceci qu’il est en mesure de « croître »
ou de « décroître » (augmenter ou diminuer
d’échelle) selon les nécessités et les disponibi-
lités. Il n’est pas nécessaire de reprogrammer le
système lorsque de nouvelles ressources (de n’im-
porte quel type : machines, services, employés,
etc.) viennent s’y ajouter : la structure hautement
dynamique permet d’intégrer de nouveaux
modules même s’ils sont sans solution de conti-
nuité.
Google Inc. ouvre ses portes le 7 septembre
1998 à Menlo Park, en Californie. Pour la petite
histoire, Larry ouvre les portes avec une télécom-
mande ; les bureaux sont situés dans le garage

30
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 31

Histoire des moteurs

qu’un ami sous-loue à la société. Un bureau-


garage spartiate, mais doté de quelques éléments
de confort non négligeables : une machine à
laver, un sèche-linge et un spa. Depuis le début,
la philosophie d’entreprise de Google a pour ban-
nière la satisfaction des travailleurs.
En janvier 1999, Google abandonne définiti-
vement le campus de Stanford, en déclarant : « Le
projet de recherche Google est devenu Google
Inc. Nous voulons donner au monde des recher-
ches d’une qualité supérieure à celles qui existent
aujourd’hui, et une société privée semble être le
meilleur moyen d’atteindre cet objectif. Nous
avons commencé à prendre des employés et à
configurer d’autres serveurs pour rendre notre
système échelonnable (nous avons commencé à
commander des serveurs par lots de vingt et un).
Nous avons aussi commencé à lancer notre spider
plus fréquemment, et non seulement nos résultats
sont toujours aussi rapides, mais leur mise à jour
est encore meilleure. Nous employons des per-
sonnes de grand talent, et c’est de là que nous
viennent les technologies les meilleures et les
plus récentes en ce qui concerne le Web ». Brin
et Page consacrent ensuite quelques lignes aux
dix bonnes raisons de travailler pour Google, en
incluant les avantages technologiques, les actions,
les snacks, les boissons gratuites et la possibilité
que des millions de personnes « utilisent et appré-
cient votre logiciel. »
Entre 1998 et 1999, tous les moteurs de
recherche et les sites plus populaires du monde
sont affectés du « syndrome du portail », une pure
et simple obsession pour la construction de sites

31
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 32

La face cachée de Google

destinés à retenir à tout prix les visiteurs sur leur


propre page, en incluant toujours plus de ser-
vices, de publicités, de personnalisations. Google
est l’unique instrument dénué de publicité et de
fonctions annexes : un moteur de recherche tout
simple, et de plus, le meilleur, le plus rapide, sans
liens commerciaux ni sponsors.
Mais la société ne peut survivre avec la
modeste somme allouée par Bechtolsheim sans
générer encore aucun profit substantiel, tout en
continuant à mener ses recherches sur l’organi-
sation et le repérage des informations. En faisant
preuve d’une grande aptitude au dialogue avec
les hautes sphères de la finance, et en réaffirmant
continuellement leur intérêt pour la recherche,
Brin et Page réussissent à mettre d’accord deux
des principales sociétés de financement de la
Californie, qui acceptent à la surprise générale de
cofinancer une seule compagnie : cas non pas
rare, mais unique, où deux énormes sociétés de
capital à risque (venture capitalism) conviennent
entre elles de diviser les risques et les profits de
l’éventuelle affaire. Le 7 juin 1999, Google peut
annoncer que la Sequoia Capital et la Kleiner
Perkins Caufield & Byers lui ont accordé un
financement de 25 millions de dollars 16.
Pendant que se multiplient les thèses soutenues
à Google Inc., les deux présidents cherchent une
manière de faire fructifier d’un point de vue éco-
nomique la masse des données indexées. Pour
commencer, ils tentent de vendre auprès des por-
tails leur service de recherche, présenté comme
un OEM (Original Equipment Manufacturer
– Produits fournis sans les supports originaux) 17,

32
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 33

Histoire des moteurs

mais les résultats ne sont guère satisfaisants. En


revanche, le modèle économique qui se montre
le plus adapté à la nouvelle société est la publicité
directe intégrée au cœur même du moteur de
recherche, par le biais du décompte du nombre
de visiteurs qui accèdent aux sites via les liens
publicitaires payants. Ce modèle économique,
Cpm (Coût par milliers d’impressions – en anglais
Cpt, Cost per Thousand impressions 18) est struc-
turé de manière à être le moins intrusif possible
pour l’utilisateur. En effet, au lieu de s’appuyer
sur l’extrême visibilité des insertions publici-
taires, quelques liens attentivement sélectionnés
apparaissent au sommet à la recherche. Ces liai-
sons ont des couleurs et des polices différentes
de celles qui ne pas commerciales, mais elles ten-
dent à ne déranger en aucune manière l’activité
de recherche de l’utilisateur.

Le self-service publicitaire. Par delà la bulle


de la nouvelle économie

Un modèle économique qui repose sur l’appa-


rition de simples liens sponsorisés à côté des
résultats des recherches est peu avantageux en
termes de profits ; à cette étape, la stratégie d’en-
treprise à long terme de Google nécessite un saut
de qualité. Les présidents se réunissent pour cher-
cher des solutions plus intéressantes et plus pro-
fitables, et découvrent Goto, société fondée par
Bill Gross 19, aujourd’hui propriété d’Overture/
Yahoo !.

33
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 34

La face cachée de Google

Le commerce de Goto consistait à mélanger


les résultats réels et les réponses sponsorisées, en
facturant aux annonceurs seulement le click des
utilisateurs sur leurs adresses : un modèle connu
comme CPC (Cost Per Click).
Cette méthode était particulièrement innovante
par rapport aux précédentes. Les liens sponso-
risés paraissaient en effet en fonction des recher-
ches de l’utilisateur, portant par là au maximum
les possibilités de mener à bon terme la transac-
tion économique, matérialisée comme un click
vers le site payant. Google cherche à engager un
partenariat avec Goto, mais le refus du président
contraint ses dirigeants à mettre au point, en
interne, un moyen similaire. À l’époque tous les
portails (notamment Excite, Lycos, Infoseek,
AltaVista et Yahoo !) utilisaient le modèle CPM,
et le CPC avait quelque chose d’un désir refoulé.
Cela montre comment une tentative manquée
d’acheter la technologie retenue comme la meil-
leure pour son propre commerce implique la
nécessité de la mettre au point de manière auto-
nome.
En mars 2000 explose la bulle du Nasdaq,
entraînant avec elle tous les rêves de gloire du dot
com. Même le modèle CPM s’écroule, et avec
lui l’illusion que des tonnes de bandeaux publi-
citaires à « milliers d’impressions », souvent
décontextualisés du fait de leur présence sur des
sites entièrement étrangers au commerce de réfé-
rence de l’annonceur, auraient été une source
inépuisable de recettes. Google, faisant attentive-
ment ses comptes, se trouve alors dans la néces-

34
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 35

Histoire des moteurs

sité de donner une valeur financière à ses tech-


nologies de recherche.
C’est en octobre 2000 qu’entre en scène
AdWords, une sorte de self-service publicitaire
dans lequel les annonceurs peuvent choisir les
mots clés des recherches auxquelles sont associés
leurs liens commerciaux : une mise en œuvre de
la « publicité par mot-clé » (keywords adverti-
sing) inventée par Goto.
Google survit donc à l’écroulement du Nasdaq ;
ou mieux, grâce à sa nature de société privée non
encore cotée en bourse, parvient à en profiter
pour embaucher tous les talents éparpillés dans
les décombres des autres dot com. Au milieu de
l’an 2000, Google sert 18 millions de recherches
par jour et son index de documents compte un
milliard d’unités ; six mois après, le nombre de
recherches est de 60 millions.

Style, morphologie et multiplication


des services

Début 2000, Google se trouve donc avoir peu


de concurrents et donne l’impulsion à une nou-
velle phase d’innovation, en commençant à offrir
un grand nombre de nouveaux services aux uti-
lisateurs 20.
Chaque nouveau service fait partie d’une
mosaïque complexe, en constante redéfinition,
avec des ramifications dans chaque domaine des
Technologies de l’Information. À cette heure,
Google offre dix-sept types de services de

35
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 36

La face cachée de Google

recherche dans des bases de données d’images,


de blogs, de notices, de livres, de cartes, de
vidéos, de services financiers, mais aussi dans les
documents présents dans l’ordinateur de l’utilisa-
teur. Il y a beaucoup d’autres services encore.
Deux d’entre eux sont liés au développement
d’applications et aux nouveautés en chantier dans
les laboratoires de Google. Il y a également six
services de communication : e-mail, VoIP, mes-
sagerie instantanée, groupes de discussion, par-
tage de photographies, services de traduction.
Trois services concernent des dispositifs mobiles
(téléphones cellulaires, PDA, etc.) ; enfin, un ser-
vice propose des logiciels conseillés par Google.
Il ne passe pas jour sans que s’en ajoutent de
nouveaux.
Même l’utilisateur le moins averti se rend faci-
lement compte de la puissance de ces instruments.
Aujourd’hui, il est possible de taper une adresse
ou un numéro de téléphone, et Google fournit
toutes les données nécessaires pour contacter et
localiser une personne ou une chose ; on peut
mémoriser ses préférences de recherche, ce qui
rend d’une facilité déconcertante l’utilisation
continuelle du moteur de recherche. Si l’on se
trompe en tapant un mot dans la recherche,
Google suggère la recherche correcte à effectuer,
grâce à un mécanisme de correction orthogra-
phique très avancé, en mesure d’« apprendre » à
partir de chaque recherche.
En 2001, Google lance « Google images », un
moteur de recherche pour images qui devient, en
peu de semaines, l’une des principales sources
de production graphique à-faire-soi-même, et

36
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 37

Histoire des moteurs

constitue l’une des plus grandes bases de données


d’images distribuées sur le web. Entre temps, la
société acquiert de Deja.com l’archive Usenet,
c’est-à-dire les messages du newsgroup qui est
depuis 1995, avec plus de 650 millions de postes,
la « mémoire historique » de l’Internet pré-web,
issue d’un temps où les groupes de discussion
étaient le sang vital de la Toile. En avril 2001,
Usenet devient « les groupes Google », avec une
interface plutôt agréable, qui rend faciles à suivre
les arguments des discussions les plus pointues.
À partir de 2001, les services se multiplient et
s’améliorent, sans aucun but économique appa-
rent ni retour financier immédiat, comme si Brin
et Page s’amusaient à montrer qu’un centre de
données illimité est en mesure de réaliser presque
n’importe quel rêve technologique. L’exemple le
plus éclatant est la très puissante « Google Map »,
qui rassemble des cartes de la Terre, de Mars et
de la Lune (2005 et 2006), un ensemble software
gratuitement mis à disposition pour visualiser par
images satellitaires une partie, un détail, ou au
moins une reconstruction photographique de la
surface des planètes. « L’Annuaire Google »,
qui présente les contenus Open Directory de
Dmoz.com, un groupe d’agents humains orga-
nisés en système coopératif et décentralisé d’open
publishing, est consultable depuis longtemps déjà
sur la page de Google, toujours plus graphique-
ment élaborée.
En 2005 voient le jour Google News, qui met
les énormes bases de données d’informations de
Google au service de la production journalistique,
et Gmail, qui offre 1 Gigabyte d’espace courrier

37
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 38

La face cachée de Google

à chaque utilisateur. Avec un système d’invita-


tions qui crée immédiatement un réseau de rela-
tions entièrement interne au monde Google, on a
fait taire les protestations concernant la confiden-
tialité de la boîte postale par l’affirmation lapi-
daire que « c’est un bon produit, ses mérites sont
supérieurs aux doutes qu’il suscite, et il s’amé-
liorera avec le temps ». Aucun concurrent n’est
en mesure de mettre gratuitement à disposition
autant d’espace. Avec Gmail, chaque acteur
impliqué est contrôlé sur l’usage qu’il fait du ser-
vice, dès lors que l’énorme espace disponible
incite à laisser ses mails sur le serveur de Google.
De plus, comme le service s’étend par le biais
d’invitations dont chaque utilisateur peut dis-
poser à volonté, Google obtient des informations
essentielles sur les connaissances et les amis : un
projet intrusif et ciblé d’exploitation de données
(data mining).
Vient ensuite le projet Google Scholar (Uni-
versité), un moteur de recherche encore expéri-
mental, en phase bêta (la phase dite de bêta-tes-
ting), qui permet de repérer les textes de la
littérature académique aussi bien que les articles
soumis aux revues, les mémoires de master, les
thèses de doctorat, les volumes universitaires, les
reprint, les sommaires, les bibliographies, les
rapports, les recensions de tous les secteurs de la
recherche universitaire. Enfin, Google Library a
l’ambition de rendre disponibles on line tous les
livres du monde en format électronique, en pas-
sant des accords avec les bibliothèques, et même
avec les éditeurs intéressés, partout dans le
monde, en vue de la numérisation d’e-volumes.

38
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 39

Histoire des moteurs

Le rêve que seul le centre de données de Google


peut promettre de réaliser est une bibliothèque
numérique globale, accessible depuis les pages de
Google. Ce rêve rencontre l’opposition farouche
d’une grande partie des éditeurs des États-Unis,
réunis dans l’Association of American Publi-
shers, qui craignent de voir leurs profits diminuer
dramatiquement ; déjà en 2005, l’AAP avait
demandé de geler pendant six mois la numérisa-
tion des œuvres protégées par copyright en atten-
dant de plus amples explications sur Google
Library. Mais en dépit des apparences, et malgré
l’opposition des partisans du copyright, l’initia-
tive de Google ne vise pas la libre circulation des
savoirs. Il s’agit seulement de transférer le mono-
pole de l’information, qui passerait d’une poi-
gnée de grands éditeurs vers l’unique Google.
Comme dans tout rêve, il y a donc un hic : une
entité privée unique, Google, aspire à décider ce
qui doit faire partie de la sphère de l’information
collective, en le rendant disponible par des for-
mats propriétaires. En réaction à ce projet est née
l’Open Content Alliance, soutenue par Internet
Archive, fondation à but non lucratif, et par
Yahoo ! : l’objectif est de rendre totalement dis-
ponible le matériel acquis, grâce à l’utilisation de
formats ouverts.
Parallelèment à la naissance de nouveaux
services, Google se révèle très habile à tirer le
maximum de profits de l’économie relation-
nelle, engendrée par l’exploitation des données
indexées à des fins commerciales.
En 2004 est lancé AdSense, qui donne la pos-
sibilité à n’importe qui de recevoir sur son site

39
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 40

La face cachée de Google

certains liens commerciaux suggérés par Google


à partir des sujets traités et de quelques mots clés.
Les revenus issus des clicks sur ces liens sont
répartis entre Google et les propriétaires des
sites concernés. La nouveauté de cette approche
consiste à mettre à profit la confiance fondée sur
le réseau des utilisateurs du site : Google ne se
trouve plus seulement sur le site de Google, mais
partout où l’on veut avoir la « fenêtre », et ce petit
espace sera toujours rempli avec des données
exactes et intéressantes, comme toujours avec
Google, même si elles seront désormais des sug-
gestions commerciales. En pratique, AdSense
matérialise un « réseau Google », un réseau qui
croise les données des utilisateurs avec leurs
inter-relations, pour servir les annonceurs publi-
citaires. Selon Google, il s’agit d’un réseau « fait
de sites et de produits associés à Google dans
un rapport de partenariat pour la publication
d’annonces ciblées AdWords sur un site ou un
produit » 21 ; de toute évidence, même le système
AdSense fait partie du « Réseau Google » !
Bien entendu, une fois le réseau constitué, il
faut faire de l’argent. Toujours en 2005, Google
expérimente un « retour » au modèle CPM à tra-
vers l’offre AdWords, qui applique une méthodo-
logie de « targeting site par site » : les annonceurs
payent à nouveau pour des visualisations (impres-
sions), mais selon un système de vente aux
enchères et non plus en fonction du nombre de
clicks sur leurs bannières. Ils peuvent choisir de
manière extrêmement détaillée quels profils
doivent avoir les utilisateurs qui visualiseront
l’insertion : nationalité, aire géographique d’ori-

40
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 41

Histoire des moteurs

gine, langue, etc. Mais surtout, les visualisations


se produisent seulement à l’intérieur du « Réseau
Google ». Cette stratégie intéresse surtout ceux
qui désirent acquérir de la visibilité ou promou-
voir une marque, plutôt que vendre leurs produits
aux utilisateurs, c’est-à-dire ceux qui privilégient
une forme indirecte de marketing. Il s’agit préci-
sément d’investir dans ce qu’on appelle la « cons-
cience de marque » (brand awareness) plutôt que
dans des produits spécifiques indiqués par des
mots clés (comme par exemple les keywords
advertising du modèle CPC)
Cette sinistre réflexivité dans la manière de
gérer ses propres produits immatériels, l’organi-
sation des salariés, ainsi que les conditions de
développement de son projet, est parfaitement
adaptée au critère d’échelonnement modulaire sur
laquelle se fonde la philosophie d’entreprise de
Google. Une croissance infinie est nécessaire
pour que le système ne s’effondre pas. Le nombre
d’utilisateurs qui font des recherches avec Google
et confient leurs données à son serveur doit croître
continuellement pour que croisse avec lui le
nombre d’annonceurs qui font la publicité de leurs
produits dans le « Réseau Google ». Il doit néces-
sairement y avoir des services toujours nouveaux,
de nouvelles machines pour les administrer, de
nouveaux employés pour les mettre au point, de
nouveaux utilisateurs pour les utiliser, de nou-
veaux annonceurs pour en tirer profit... Chaque
nouvelle « pièce » du système est introduite
comme un nouveau module, dans un cycle sans
fin : accumulation de données, de cerveaux, d’uti-
lisateurs et de leurs données, qualité croissante

41
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 42

La face cachée de Google

dans le traitement des données, dans le traitement


des salariés, dans le traitement des utilisateurs et
de leurs données, archivées dans le centre de don-
nées de Google. Toujours avec l’impératif de la
rapidité et du développement.
Brin et Page ne cachent pas leurs ambitions :
« Pourquoi laisser nos salariés fonder leur société
et ensuite la leur racheter, lorsque nous pouvons
les payer pour qu’ils restent chez nous et fassent
ce qu’ils auraient fait de toute façon ? » Le
GooglePlex 22, le siège opérationnel de Google à
Mountain View, est une sorte de campus univer-
sitaire dans lequel les gens sont constamment
dorlotés. On laisse même un jour par semaine aux
salariés pour qu’ils travaillent à leurs projets, les-
quels sont ensuite présentés aux « Google Duo »
qui offrent aux talents plus prometteurs de
l’argent et le soutien de l’entreprise, en récom-
pense de leurs efforts.

Google, le bon géant s’en va-t-en bourse

« Don’t be evil », ne sois pas méchant : on peut


faire n’importe quoi du moment qu’on ne fait pas
de mal. Telle est la devise du capitalisme à visage
humain de Google 23. Mais on remarque déjà de
nombreux distingos dans cette campagne en
faveur du Bien : procès en tous genres, soupçons
de fraude, sites laissés dans l’ombre, etc. 24
En décembre 2002, Google compte plus de
1 000 salariés et possède plus de 10 000 ordina-
teurs. Il indexe plus de 4 milliards de documents

42
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 43

Histoire des moteurs

et ses bénéfices nets (même révélés avec force


détours) se montent à près de 185 millions de
dollars. Devant une telle ampleur, les investis-
seurs commencent à exiger plus de clarté et de
contrôle, en imposant une structure sociale plus
crédible, avec deux ingénieurs géniaux et excen-
triques à la tête, mais aussi un manager aux capa-
cités de développement éprouvées.
Après une série de rencontres malheureuses et
de dérapages verbaux, le rôle d’administrateur
délégué (CEO, Chief Executive Officier) des
Google Inc. est confié à Eric Schmidt (déjà en
situation de force chez Sun puis chez Novell).
Les deux jeunes prodiges continuent à prendre
des décisions à tout bout de champ, mais ce
déplacement stratégique s’avère être également
un bon choix économique. L’arrivée de Schmidt
coïncide en fait avec le premier trimestre d’acti-
vité de la compagnie, qui montre ainsi qu’elle a
pris avec succès le tournant de la facturation de
ses produits.
Page et Brin avaient différé le plus longtemps
possible la nécessité de devenir une société cotée
en bourse, craignant que la nécessité de rendre
compte publiquement de leurs perspectives et de
leurs gains aurait rendu leur travail beaucoup plus
difficile. Cela, entre autres, aurait mis Google en
situation d’être mieux et plus facilement contrôlé,
et donc attaqué par ses concurrents sur le marché.
Mais après AdSense, en 2004, et en dépit des
mots de Page selon lesquels « Google n’est pas
une société conventionnelle. Et nous n’avons
aucune intention de le devenir », le nouveau
colosse devient, pour des raisons légales, exacte-

43
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 44

La face cachée de Google

ment semblable à toutes les autres sociétés amé-


ricaines : il est introduit en bourse.
Juste avant l’ouverture de la vente publique,
Yahoo ! et d’autres concurrents déposent des
dizaines et des dizaines de plaintes contre Google
pour violation de brevet, de copyright et autres.
Leur but est de ruiner sa réputation avant la vente
publique des actions.
Wall Street est sur le point de diminuer le prix
plancher prévu pour les actions au vu de la dif-
ficulté de l’opération, mais Page et Brin enterrent
le principal procès avec Yahoo !, en payant au
colosse Filo and Yang une compensation en
actions, et en classant la controverse sur les bre-
vets. Le duo, malgré l’avis contraire de la Bourse,
procède donc à l’offre publique d’actions au beau
milieu du mois d’août 2004, en dépit d’un prix
diminué de plus de 20 dollars par action.
En un seul jour de transactions sur le marché,
les actions de Google passent du plancher de 85
dollars à 100 dollars, engendrant un bénéfice net
d’un milliard et demi de dollars. Un an après, les
actions atteignent la valeur de 400 dollars avec
une croissance de plus de 300 pour cent. Google
Inc. semble avoir le vent en poupe dans le monde
merveilleux où personne n’est mauvais, où tous
gagnent, où personne ne se fait jamais mal.
Certes, avec de semblables chiffres, la moindre
oscillation à la baisse signifie des millions de dol-
lars qui partent en fumée, comme on l’a vu lors
d’un infléchissement de sept points en mars 2006.
Google Inc. est maintenant un géant parmi les
géants de la Bourse mondiale, et s’il tremble,
beaucoup tremblent avec lui.

44
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 45

Histoire des moteurs

Google Inc. : le monopole de la recherche

En automne 2004, Page et Brin, à bord de leur


jet privé, apprennent que le colosse AOL (Ame-
rica On Line, le principal fournisseur d’accès
américain) a signé un contrat avec Yahoo ! pour
son moteur de recherche. Les jeunes trentenaires
changent de route, se dirigent sur Londres et
convainquent AOL de déchirer le contrat déjà
signé et d’opter pour Google, avec une offre irré-
sistible de 50 millions de dollars. Cela n’est pas
exactement le comportement ouvert et bienveil-
lant auquel on s’attendrait de la part du « bon
géant » déterminé à casser les méchants mono-
poles, mais après tout, les affaires sont les
affaires, même pour les deux gentils chercheurs
de Mountain View.
Entre temps, les gains de Google Inc. ont aug-
menté de plus de 400 000 pour cent en cinq ans,
ce qui fait de lui le concurrent direct de Yahoo !
et de Microsoft, pas seulement en termes de mou-
vements financiers, mais aussi et surtout en
termes de popularité et donc de domination cultu-
relle sur l’imaginaire. Des millions d’utilisateurs
de la Toile utilisent les pages de Google comme
point de départ pour leurs navigations. Ils ont
confiance dans les résultats obtenus par les
moyens mis au point à Mountain View. Aujour-
d’hui, Google est synonyme de web, quand ce
n’est pas d’Internet. Le moteur de recherche cali-
fornien est en mesure d’exploiter au mieux le
réseau relationnel de ses utilisateurs et réussit à
rafler chaque centime auprès de millions de petits

45
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 46

La face cachée de Google

annonceurs, si bien qu’en 2005 les données par-


lent d’environ six milliards de dollars de produits
publicitaires (la cote de Yahoo ! est de 4.6 mil-
liards de dollars).
Le premier marécage où Google soit resté
enlisé est le rapport entre ses recherches et la
législation sur les marques déposées (trademark,
™). Les plaintes du Geico et de l’American Blind
& Wallpaper Factory & More contre Google sont
symptômatiques 25. Dans les deux cas, les sociétés
accusent le service AdWords de vendre à des
concurrents des mots sous trademark, violant les
lois sur les marques déposées. Délicate question :
les entreprises demandent à Google d’empêcher
qu’apparaissent des insertions de leurs rivaux ou
en tous cas ne leur donne pas l’autorisation
d’apparaître lorsque les utilisateurs cherchent des
termes comme « geico », « american blind »
ou « american wallpaper ». Si cette idée était
admise par un tribunal, l’une des plus impor-
tantes sources de revenu de Google et de son par-
tenaire serait mise en grand danger, parce qu’elle
permettrait à n’importe qui possède une marque
déposée d’en interdire l’emploi pour AdWords
ou d’attaquer Google pour l’avoir utilisée. Louis
Vuitton a intenté en France un procès semblable,
et l’a gagné. La réponse officielle de Google
consiste à dire que si violation il y a, les respon-
sables sont les annonceurs et certes pas Google
qui dans ce cas n’est qu’un medium neutre, et
que « limiter la vente de termes enregistrés équi-
vaut à limiter la liberté d’expression ». Une posi-
tion forte de la part de la société, à laquelle on
pourrait apparemment souscrire.

46
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 47

Histoire des moteurs

Toutefois, le colosse de Mountain View tombe


lui-même dans le piège tendu aux sociétés sur la
liberté d’expression, en violant la confiance que
lui accordent beaucoup d’utilisateurs et qui cons-
titue l’une de ses ressources fondamentales.
Google s’est toujours retranché derrière la mise
à jour présumée des algorithmes de recherche et
l’objectivité dont font preuve les machines pour
fournir des résultats sans les avoir manipulés en
aucune manière. Pourtant, peu avant le procès
avec American Blind, Google avait décidé de
retirer quelques AdWords acquis par le groupe
d’activistes Oceana 26. La « faute » d’Oceana avait
été de publier une dénonciation écologiste concer-
nant l’activité d’un gros investisseur de Google,
la Royal Caribbean Cruise Lines, qui employait
comme mots clés de ses annonces des termes
comme « cruise vacation » ou « cruise ship »,
habituellement utilisés pour chercher les pages
consacrées aux croisières en bateau ou à d’autres
activités de même type. L’explication officielle
est que Google est un canal neutre, et ne veut être
le relais d’aucune campagne de propagande
visant à discréditer d’autres entreprises. Évidem-
ment, dans ce cas, la liberté d’expression ne
compte plus tellement.
De plus, le jour même de l’audience pour le cas
American Blind, dans le district de San José où se
tenait le procès, les résultats de Google se mon-
traient mystérieusement différents de tout autre
lieu du monde. Pour la première fois, Google se
prenait à manipuler les résultats à d’autres fins
que celle d’obtenir le « meilleur résultat d’une
recherche ». L’avis positif de la cour sur le cas

47
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 48

La face cachée de Google

Geico (en tout et pour tout analogue à celui


d’American Blind) peine à effacer cette réalité.
Le cas le plus récent et le plus connu reste
l’entrée en Chine. Pour conquérir le marché chi-
nois en pleine croissance, Google s’est en effet
publiquement plié pour la première fois aux
demandes de censure, en rendant inaccessibles
aux utilisateurs qui effectuent des recherches
depuis le territoire chinois les sites mis à l’index
par les censeurs de Pékin. En 2002 déjà, une
étude de Harvard avait montré que Google cen-
surait cent treize sites dans ses versions française
et allemande (Google.fr et Google.de). Le colosse
de Mountain View répondit que cela était vrai,
mais que les pages avaient étaient retirées seule-
ment sur le signal d’organismes gouvernemen-
taux, des autorités de police et d’autres, et
seulement après une analyse attentive de leurs
contenus : beaucoup de sites étaient d’inspiration
raciste, d’autres relevaient du fondamentalisme
religieux. Quelqu’un polémiqua sur le fait que la
tant vantée transparence de Google commençait
à vaciller : il fallait faire connaître aux utilisa-
teurs la mise en œuvre d’une censure qui risquait
sans cela de rester « cachée » ; d’autres firent
remarquer que la faute n’incombait pas nécessai-
rement à Google et était inhérente aux systèmes
juridiques qui prévoient la possibilité de traîner
en justice une entreprise pour la présence d’un
lien, et rien de plus, sur sa page 27. Dans ce cas,
il est évident que Google, pour éviter les possi-
bles conséquences légales, a préfèré ôter les liens
en estimant le risque au cas pour cas. On notera
au passage que la fin du droit de faire des liens

48
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 49

Histoire des moteurs

est destinée à peser toujours plus sur les libertés


numériques : qui décidera ce qu’il est licite de
censurer ? L’énième super-autorité, peut-être
supra-nationale ? Le droit du plus fort ? Dans une
économie de marché, cela voudrait dire le droit
de celui qui paye (ou qui vaut) le plus ? Ou bien
les chantages des fondamentalistes locaux, d’obé-
dience majoritairement religieuse, qui menacent
de représailles à chaque fois que quelque site
« subversif » égratigne leur vision du monde ? La
portée du problème est aussi vaste que la liberté
d’expression est importante, et on ne peut certes
pas le résoudre dans les salles d’un tribunal.
L’émotion soulevée par le cas chinois vient du
fait qu’il s’agit d’une censure ordonnée par un gou-
vernement. Mais malgré ce changement d’échelle,
Page et Brin n’ont pas changé d’idée, soucieux
de l’importance d’un marché qui concerne le
quart de la population mondiale.
Pour Google, le monde deviendra vite un
gigantesque index dans lequel les ressources
numériques correspondront parfaitement à la
définition de la réalité ambiante ; chaque index
pourra être rassemblé par un algorithme et pré-
senté comme résultat de recherche de la manière
qui conviendra le mieux ; et Google se trouve
dans la position la plus avantageuse pour être
l’instrument qui gèrera cet index.
Mais, mis à part l’objection évidente et banale
que les mondes réels et numériques, quoique intri-
qués, ne correspondent pas vraiment, d’un point
de vue technique l’algorithme parfait n’existe
pas. Il est impossible de repérer parfaitement des
informations en Réseau. De plus, rien n’est neutre

49
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 50

La face cachée de Google

dans le domaine technologique, a fortiori lorsque


l’on gère les données d’individus réels sur
Internet.
À partir des alliances qui viendront à se nouer,
la convergence technologique qui se concrétise
peu à peu semble marquer une nouvelle direc-
tion : la vision de Google l’impose comme unique
point d’accès, de gestion et de médiation des don-
nées numériques. En somme, la dystopie de
Google comme aspirant Grand frère se précise,
dangereuse et fascinante comme toute lutte his-
torique de pouvoir : le web est le nouveau terri-
toire de compétition sauvage pour l’affirmation
d’un nouveau standard de communication. Un
standard paradoxalement « personnalisé » avec
des services et des propositions diversifiées en
fonction des goûts propres aux utilisateurs :
depuis quelques années, le maître mot est la « per-
sonnalisation de masse ». Un oxymore, certes, qui
révèle néanmoins l’importance de l’enjeu, un
véritable glissement de paradigme depuis le
consumérisme en série de l’industrie de masse,
vers un consumérisme personnalisé, qui est vendu
comme une « liberté de choix ». Au-delà des faci-
lités rhétoriques, on pourrait y trouver une issue
en orientant simplement nos choix différem-
ment : il ne s’agit pas d’utiliser ou de ne pas uti-
liser Google et ses services, mais de choisir
autrement la façon de mettre des informations sur
Internet, et d’apprendre à les relier d’une nou-
velle manière, avec des parcours innovants et plus
intéressants pour chacun d’entre nous. 28
Depuis quelques années, Google apprend à ses
dépens (et sur le dos de son utilisateur, naturel-

50
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 51

Histoire des moteurs

lement) que l’innocence n’est pas une donnée


immédiate du monde et encore moins du monde
des affaires, que la bonté totale est une sottise en
général et spécialement pour une société dont la
finalité est le profit, et enfin, que la neutralité est
une route toujours plus difficile à suivre quand la
guerre fait rage entre les moteurs de recherche.
Du reste, il serait bon de se rappeller que les
nations qui sont neutres depuis toujours, comme
la Suisse, sont également armées jusqu’aux dents.
On voit ainsi à l’aide de quelles « bonnes » armes
Google est devenu un phénomène d’importance
mondiale.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 52


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 53

II. BeGoogle

La fuite des cerveaux vers Google :


la guerre pour le contrôle du web

« Je tuerai cette saloperie de Google ! Eric


Schmidt est un salopard et je l’enterrerai, comme
je l’ai déjà fait » 1 : voilà ce qu’a hurlé Steve
Ballmer, administrateur délégué de Microsoft,
lorsqu’il apprit en mai 2005 que Google engageait
Kai-Fu Lee, haut dirigeant de Redmond et homme
clé de la maison en Chine. Kai-Fu avait réalisé le
moteur MSN Search pour les cents millions d’uti-
lisateurs chinois. L’invective de Ballmer était évi-
demment adressée à l’administrateur délégué de
Google à l’époque, ancien top manager de Sun
Microsystems et de Novell, des entreprises que
Microsoft a affronté dans le passé, aussi bien sur
le marché que dans les tribunaux. Kai-Fu Lee
était responsable d’un laboratoire de recherche
situé dans les alentours de Shanghai.
À cette nouvelle, Microsoft a immédiatement
entamé une procédure juridique à l’encontre de
ses anciens employés et surtout de Google, accu-
sant Kai-Fu d’avoir violé, grâce à l’aide décisive

53
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 54

La face cachée de Google

du roi des moteurs de recherche, de très confi-


dentiels accords stipulés par contrat entre Google
et le colosse de Redmond. En tant que directeur
exécutif, Kai-Fu Lee connaisssait les secrets
commerciaux et industriels et selon les avocats
de Microsoft, n’allait pas hésiter à utiliser ces
technologies et son savoir-faire socio-écono-
mique pour doper les gains de la société concur-
rente. L’homme par qui le scandale arrive coûte
cher : un « salaire » d’environ deux millions et
demi de dollars par an, et 20 000 actions de l’en-
treprise. Chiffres exorbitants qui donnent la
mesure de l’enjeu colossal, pas seulement dans
le marché chinois.
Le contentieux judiciaire entre les deux
colosses se conclut avec la signature d’un accord
bilatéral en décembre 2005, à peine un mois avant
d’en finir devant le juge : un accord privé abso-
lument confidentiel. Peut-être de grosses sommes
d’argent ont-elles été payées, peut-être Microsoft
a-t-il contraint Kai-Fu Lee à ne révéler aucun
secret d’aucune sorte.
Cette histoire est seulement l’une des plus
curieuses et des plus emblématiques d’une ten-
dance décelable depuis quelques années : en
effet, Kai-Fu Lee est seulement le énième diri-
geant passé à Google, « la société qui ressemble
le plus à Microsoft », comme l’a hurlé Bill Gates,
hésitant toujours un peu plus chaque jour soit à
diaboliser les deux étudiants prodiges – en ren-
forçant indirectement leur renommée de protago-
nistes « bons et généreux » du monde des Tech-
nologies de l’Information – soit à feindre qu’ils

54
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 55

BeGoogle

n’existent pas tout à fait, qu’ils ne sont pas des


interlocuteurs dignes d’être connus.
En réalité, Bill Gates sait bien combien les
transferts de manager, surtout dans le secteur
technologique, engagent le « core business » de
la société dont provient le manager en question :
Microsoft a employé la même stratégie contre
ses rivaux en différentes occasions. La tactique
commerciale consistant à voler les secrets indus-
triels, les mécanismes de production et la gestion
des ressources en embauchant des éléments déta-
chés des sociétés concurrentes a toujours fait
partie des coutumes de la compétition indus-
trielle ; à l’époque de l’économie information-
nelle, elle se fait toujours plus diffuse et plus
fréquente.
Le choix du management de la part de Brin et
de Page est un indice clair des objectifs de
Google : devenir la plateforme du web la plus
complète et la plus personnalisable, en assurant
l’adaptation des services aux besoins singuliers
de chaque utilisateur, doublée d’un bassin d’in-
formations immense. Bref, Google met la gomme
pour cataloguer tout type d’information numé-
rique, depuis les sites web jusqu’aux forums de
discussion, des images jusqu’aux écrans, des
emails aux blogs, sans qu’aucune limite n’appa-
raisse à l’horizon. Cela revient à faire la guerre à
Microsoft, qui avec son browser Internet Explo-
rer, son portail MSN, son service de boîte élec-
tronique Hotmail, reste malgré tout, pour l’ins-
tant, le principal concurrent.
Les intérêts des deux sociétés se superposent
de plus en plus : elles aspirent toutes les deux à

55
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 56

La face cachée de Google

être des éléments de médiation indispensables pour


toute activité informatique. Microsoft a réussi
à imposer sa domination grâce aux systèmes
d’exploitation Windows et aux programmes du
package Office, qui sont actuellement un stan-
dard dans le monde du travail et du home compu-
ting ; de son côté, Google se pose depuis long-
temps maintenant comme le médiateur global des
services web, parmi lesquels la recherche d’infor-
mations (qui est son core business) dans toutes
ses déclinaisons, mais aussi certains services
adjoints, comme le courrier électronique. En
schématisant leur opposition, on peut dire que
Microsoft domine depuis des années grâce à des
produits qui se rapportent à des services, tandis
que Google cherche à dominer grâce à des ser-
vices qui nécessitent des produits.
La compétition repose donc sur les choix des
utilisateurs et sur les standards futurs que Google
cherche à faire valoir. Utiliser des programmes
web en limitant les requêtes au seul browser pour
accéder aux services, cela signifie retirer le
marché à ceux qui ont toujours investi dans les
produits et dans la création de nouvelles formes
d’architectures informatiques basées sur le web.
La même remarque vaut dans les marchés éco-
nomiques : on passe d’une économie de gros
(Microsoft), où l’on cherche à vendre des licences
du même programme/produit, à une économie
totalement personnalisée, où les produits sont
repérables sur la Toile.

56
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 57

BeGoogle

Longues traînes dans les réseaux.


Google contre Microsoft dans l’économie
de la recherche

Google exploite, en second lieu, l’argument clé


des vastes tractations de John Battelle 2 : l’ascen-
sion de l’« économie de recherche ». Dans l’essai
The Search, Battelle, journaliste qui fit partie des
fondateurs de « Wired », soutient que le futur du
commerce on line sera lié à des recherches per-
sonnalisées payées par les utilisateurs. Google,
qui gère la plus grande base de données des
« intentions de recherche » des navigateurs, se
trouve dans la position idéale pour les satisfaire,
grâce à son réseau capillaire, constitué d’une pla-
teforme publicitaire exceptionnellement efficace
(AdWords) et d’un réseau d’annonceurs qui
compte aujourd’hui des millions de sites dans le
monde (AdSense). Le pari de Google est de satis-
faire tout besoin/désir que les utilisateurs expri-
ment dans leurs recherches, en fournissant des
services pour un nouveau consumérisme « à
échelle individuelle » : chaque utilisateur/client
trouvera exactement ce qu’il cherche, le produit
étudié expressément pour lui. L’exemple le plus
connu de « personnalisation de masse » est celui
des services de commerce on line offerts par
Amazon, en passe de gagner beaucoup plus en
vendant individuellement les exemplaires d’un
livre ou d’un CD plutôt qu’en atteignant des
pics de vente par centaines ou milliers de copies
d’un même best-seller. Les si nombreux clients
achetant des volumes on line qui ne sont pas

57
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 58

La face cachée de Google

particulièrement populaires constituent une myriade


d’« évènements » qui se vérifient rarement, ou
n’arrivent qu’une seule fois. Réussir à satisfaire
ces « recherches personnalisées » est toute la
force de frappe de la distribution d’Amazon. Car
pour une librairie traditionnelle, qui fonctionne
avec des magasins, des stocks, des commandes
limitées, il est impossible d’obtenir la disponibi-
lité de millions de titres comme le fait Amazon ;
les gains majeurs viennent donc des nouveautés
et des titres les plus vendus. Le fait de livrer une
seule copie pour satisfaire la demande d’un seul
client est antiéconomique pour une librairie tra-
ditionnelle, mais c’est possible et rentable pour
Amazon, qui exploite justement l’« économie de
la recherche » des marchés on line.
Ce type de marché est appelé en argot écono-
mique un marché à « longue traîne » 3. La théorie
statistique des « longues traînes » remonte au
moins à la « distribution de Pareto » 4, dans lequel
« peu d’évènements se vérifient avec une extrême
fréquence, mais beaucoup d’évènements se véri-
fient avec parcimonie ». Une semblable distribu-
tion d’évènements est décrite, d’un point de vue
statistique, par une hyperbole dans laquelle la
« longue traîne » est constituée d’une myriade
d’« évènements », presque insignifiants consi-
dérés un par un, mais d’un grand poids numé-
rique considérés dans leur ensemble. Mathémati-
quement, une distribution à longue traîne suit ce
qu’on appelle la « loi de puissance » 5.
La stratégie gagnante sur les marchés à
« longue traîne » n’est donc pas la baisse des prix
sur les produits les plus populaires, mais l’élar-

58
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 59

BeGoogle

gissement de l’offre, qui permet de proposer des


produits phares en vendant peu de copies d’une
multiplicité de produits différents.
En termes commerciaux, le plus gros revenu
est dans les petites ventes. La plupart du com-
merce en Réseau repose sur la longue traîne :
Google fait du chiffre en vendant de la publicité
à bas prix à des millions de personnes sous la
forme de bannières de texte (text ads) au lieu de
vendre à de gros annonceurs quelques espaces à
des coûts élevés.
Battelle s’intéresse à l’application de la recher-
che dans des marchés non encore exploités : dans
le cas de Google, l’énorme quantité de données
mises à disposition pour effectuer des recherches
a permis, selon lui, l’exploitation commerciale
des « longues traînes ». Dans le contexte de
l’e-commerce, les longues traînes ont trois impli-
cations. Premièrement, par Internet, les produits
peu demandés peuvent créer collectivement un
marché supérieur à celui du petit groupe d’arti-
cles qui sont beaucoup vendus. Deuxièmement,
Internet encourage la prolifération de vendeurs,
exactement comme il favorise la prolifération de
marchés (c’est le cas du système de ventes aux
enchères on line d’eBay). Enfin, grâce à la
recherche, le passage des marchés de masse à des
marchés de niche devient possible.

Cette dernière tendance repose sur la forma-


tion de groupes spontanés, un phénomène très
répandu dans les réseaux. Sur Internet, même les
groupes les plus importants numériquement ne
sont pas constitués par des masses homogènes de

59
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 60

La face cachée de Google

personnes, mais par des communautés bariolées


d’utilisateurs que rassemblent une passion, un
intérêt ou un but communs. L’opposition entre
masses et niches n’a donc pas grande importance
pour la détermination des segments de marché
utiles. D’un point de vue commercial, cela pro-
voque la naissance de sites qui proposent de
l’e-commerce sur des produits liés à des types très
spécifiques d’utilisateurs, qui en dehors de la dis-
tribution on line ne constituent jamais un marché
intéressant : par exemple, des sweat-shirts avec
des flocages de bricoleurs, des horloges qui don-
nent l’heure en binaire, des ordinateurs lumineux
et toutes sortes d’autres objets dédiés aux tech-
nophiles. L’ampleur de l’offre compense la pénu-
rie de la demande, répartie sur un nombre très
élevé de produits hautement personnalisés. Dans
un tel scénario, il est prévisible, comme met en
évidence l’intéressant article de Charles H. Fer-
guson 6, que Google et Microsoft viennent à
s’affronter pour contrôle des catalogages, de la
recherche et de l’extraction de toutes les infor-
mations, sur tous les genres de dispositifs numé-
riques. Microsoft est en train d’investir beaucoup
sur les services web : en novembre 2004, Micro-
soft a lancé la version bêta (expérimentale) d’un
moteur de recherche conçu pour répondre aux
questions posées en langage courant et four-
nir des résultats personnalisés en fonction de la
localisation géographique de l’utilisateur ; en
février 2005 le moteur MSN search, a été encore
amélioré 7. Avec MSN search, il est même pos-
sible de chercher dans Encarta, l’encyclopédie
multimédia de Microsoft ; cependant, la consul-

60
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 61

BeGoogle

tation est pour l’instant limitée à deux heures, et


pendant la navigation, un chronomètre indique le
temps qu’il reste. Le géant Microsoft a donc
décidé de développer son propre système pour les
recherches sur le Web et sur les ordinateurs per-
sonels sans passer par Google, qui est depuis
quelques années le principal pilier de la recherche
(seul Yahoo ! peut se vanter d’une influence
comparable).
Dans l’ensemble, les marchés liés à l’économie
de la recherche semblent être beaucoup plus vastes
que l’actuel marché des services de recherche.
Dans ce domaine, Microsoft est sans doute en
retard, mais l’entreprise pourrait mettre en œuvre
des stratégies féroces, impossibles à parer pour
Google : par exemple, elle pourrait investir à
perte et fournir l’accès gratuit à son moteur de
recherche, après l’avoir intégré au browser
Internet Explorer ; ou bien vendre de la publicité
au rabais aux annonceurs pour couper la liquidité
du concurrent. Entre temps, le nouveau système
d’exploitation développé à Redmond, Windows
Vista, doit offrir des moyens de recherche inno-
vants. Du reste, Microsoft était fortement en
retard sur Netscape (le premier browser de la
Toile téléchargeable gratuitement) dans la bataille
pour la domination sur le browser, et pourtant
Explorer en est venu à bout. Ce n’était vraiment
pas parce qu’il était le meilleur logiciel ! Mais si
Microsoft bénéficie d’une longue expérience,
d’une position de domination sur le marché et
d’un pouvoir financier énorme, Google a aussi de
bonnes cartes à jouer. Il est l’incarnation de la
jeune entreprise montante, s’est construit une

61
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 62

La face cachée de Google

renommée d’engagement dans la recherche et de


dévouement pour l’excellence technicienne ; il
prêche le culte de la vitesse dans la satisfaction
des demandes des utilisateurs avec des interfaces
sobres et efficaces : il s’est ainsi imposé parce
qu’il était techniquement meilleur que les autres
moteurs de recherche. Dans la lutte pour le
contrôle du web, Google semble donc avoir légè-
rement l’avantage ; toutefois, on ne peut oublier
que l’étendue de l’activité de Microsoft est sans
comparaison, puisqu’elle ne se limite pas au web
et couvre au contraire toute la gamme des Tech-
nologies de l’Information, depuis les instruments
comme Windows ou MS Office, jusqu’aux conte-
nus comme Encarta, en passant par la recherche
de haut niveau avec des plateformes comme
dotNet, etc. Vu l’enjeu – la domination de l’accès
à n’importe quel information numérique et les
profits qui en dérivent – une cohabitation paci-
fique semble assez improbable. Pour l’instant,
Google est toujours en course, mais il ne pourra
pas résister très longtemps.

La guerre des standards

Continuons à suivre Ferguson dans son raison-


nement : l’histoire qui commence est celle d’une
guerre des standards. Pour l’instant, il y a trois
acteurs impliqués : Google, Yahoo ! et Micro-
soft. L’industrie de la recherche, comme le mon-
trent également les analyses de Battelle, est en
forte croissance. Les technologies émergentes ou

62
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 63

BeGoogle

en cours de consolidation, comme par exemple


le streaming audio et vidéo à travers la bande
large, le VoIP (téléphonie internet : qu’on pense à
Skype et au service homologue de Google, GTalk)
ainsi que la messagerie instantanée, engendrent
d’énormes quantités de données et des typologies
abondantes qui attendent encore d’être indexées
et rendues utilisables pour les nouveaux disposi-
tifs électroniques, tous genres confondus (pals,
téléphones mobiles, lecteurs de documents audio-
vidéo nouvelle génération, navigateurs satelli-
taires, etc.) associés entre eux pour satisfaire les
demandes des utilisateurs, et finalement exploités
chacun comme support d’une publicité intrusive.
Pour qu’ils soient compatibles entre eux et avec
beaucoup d’autres systèmes, de nouveaux stan-
dards seront nécessaires, difficiles à introduire
sur le marché de manière indolore. Ce qui crée
les guerres de standards, c’est que le marché de
la technologie de l’information a besoin de lan-
gages communs pour gérer une complexité crois-
sante. La valeur de l’information réside dans sa
diffusion ; mais répandre et échanger des témoins
réels est plus simple que répandre et échanger des
fichiers audio, ou pire, vidéo : plus la quantité de
données est grande, plus elle requiert des réseaux
de communication puissants et impose des chan-
gements dans la manière dont sont gérées les
informations. Historiquement, la propriété légale
d’un important standard technologique a toujours
créé d’énormes richesses 8. Parfois, comme dans
le cas du web, l’adoption d’un standard ouvert et
sans propriétaire, comme le protocole HTTP,
conduit à une situation avantageuse pour tous.

63
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 64

La face cachée de Google

Mais souvent, les technologies qui s’imposent ne


sont pas les « meilleures », car « le plus impor-
tant est de pouvoir compter sur une stratégie effi-
cace ». Quelques caractéristiques importantes se
dessinent pourtant parmi les vainqueurs. Ils ven-
dent habituellement des plateformes universelles,
indépendantes du matériel hardware, comme les
systèmes d’exploitation Microsoft, qui s’oppo-
sent aux solutions hardware et software fortement
intégrées comme les systèmes Apple et Sun. Les
architectures gagnantes sont propriétaires et dif-
ficiles à imiter, mais sont aussi extrêmement
« ouvertes » : c’est-à-dire qu’elles mettent à dis-
position des interfaces publiquement accessibles
pour qu’elles soient développées par des program-
mateurs indépendants et, au final, par les utilisa-
teurs. De cette manière, l’architecture peut péné-
trer tous les marchés et créer un point d’accroche
et de blocage : autrement dit, cela pousse les uti-
lisateurs vers cette architecture spécifique, en
rendant presque impossible le passage à un sys-
tème concurrent, sauf au prix de grandes diffi-
cultés et de dépenses 9. On impose un standard
fermé pour exploiter une situation de monopole.
Un exemple qui éclaire de manière limpide la
bataille pour l’hégémonie sur les standards est le
défi que se sont lancé Gtalk et Skype. Pour l’ins-
tant, Skype a acquis une position de monopole
dans la gestion du VoIP pour le marché domes-
tique ; mais il est possible qu’on n’ait pas assez
bien évalué le temps d’assimilation des techno-
logies ouvertes au sein des communautés de
développement. Jusqu’à récemment, Skype était
l’unique solution qui fonctionnait réellement pour

64
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 65

BeGoogle

n’importe qui voulait téléphoner via internet,


même sans avoir aucune compétence technique ;
mais peu à peu, les choses changent. Les techno-
logies propriétaires de Skype pourraient être
dépassées par Gtalk, qui repose entièrement sur
des technologies libres (en particulier sur le pro-
tocole de communication « jabber ») avec des
librairies de développement livrées sous licence
copyleft, ce qui favorise l’afflux d’énergies dans
le projet en encourageant les programmateurs à
augmenter la puissance du réseau VoIP de
Google. Dans ce cas, le choix de l’Open Source
pourrait se s’avérer gagnant pour enrayer la
domination de Skype, qui naturellement pourrait
décider de révéler publiquement ses codes afin
de maintenir la situation inchangée. Le choix
d’adopter des technologies et des plateformes soit
propriétaires, qui ferment tout accès (mais en gar-
dant tout de même publiques les interfaces de
développement), soit ouvertes, est une partie fon-
damentale de la stratégie de contrôle du web et
de l’économie de la recherche.
L’accès au marché de la recherche est déjà
bloqué (en argot économique « lock-in »). En
effet, il est impensable qu’une entreprise qui
débute, une start-up, puisse aujourd’hui rivaliser
avec Google ou avec Yahoo ! pour l’indexation
de milliards de pages web : l’investissement pour
les machines nécessaires serait prohibitif, même
si l’on disposait d’un meilleur algorithme pour
son spider. Il y a pourtant beaucoup d’aspects
collatéraux, surtout à l’interface entre les divers
systèmes de recherche, qui offrent de vastes
espaces à de possibles innovations « critiques » à

65
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 66

La face cachée de Google

bas coût. C’est le cas des librairies informatiques,


les libraries, petites portions de logiciels qui per-
mettent de relier des systèmes hétérogènes, ponts
de traduction d’un système à l’autre, d’un lan-
gage à l’autre, d’un moteur de recherche à l’autre.
De pair avec les méthodologies d’intégration
entre les différents dispositifs et avec le partage
des informations et des résultats de recherche,
cela pourrait être développé par de petits cher-
cheurs indépendants, plutôt que par les grandes
entreprises 10. Nous allons successivement entrer
dans le détail des aspects liés aux interfaces et
aux librairies.
Pour l’heure, il importe de souligner qu’aucun
des acteurs impliqués n’est en position de domi-
nation absolue, ce qui est naturellement mieux
pour tous : imaginez ce que signifierait un total
monopole sur le marché de la recherche, obtenu
par n’importe quel sujet privé grâce à l’imposi-
tion de facto d’un standard. Les premières diffi-
cultés soulèveraient évidemment la question de
la confidentialité (privacy) : à qui appartiennent
les données indexées sur lesquelles on effectue
des recherches, et qui engendrent des profits
astronomiques ? De plus, puisque dès aujour-
d’hui on accède à une somme de données impres-
sionante en tapant simplement le nom d’une
personne sur Google, dans un futur proche où
seront très nettement améliorées la quantité et la
qualité des informations, et surtout la possibilité
d’effectuer des recherches réunies sur des don-
nées hétérogènes, le contrôle sur les indi-
vidus pourrait devenir infiniment plus étouffant
et totalitaire : il croiserait tout à la fois données

66
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 67

BeGoogle

sensibles, fiches médicales, conversations télé-


phoniques, emails, images, vidéos, blogs et opi-
nions, et même des informations ADN. Google
pourrait être le point d’accès privilégié au panop-
tique numérique 11. Voyons donc quelles sont ses
armes dans cette véritable guerre pour le contrôle
des réseaux.

Arme n. 1 : GooglePlex, le capitalisme souple

L’hagiographie courante de Google narre avec


délices l’impressionante croissance qui a porté
Brin et Page de la chambrette de Stanford au
garage de Menlo Park loué par un ami à la nou-
velle société Google Inc., puis au bureau sur
l’University Avenue de Palo Alto, jusqu’au démé-
nagement à Googleplex, les locaux actuels à
Mountain View, en Californie. Entre 1998 et
2000, le duo étend sa culture universitaire, en
développant une philosophie d’entreprise faite
d’innovation, de créativité et de sacrifice. Le
dévouement universitaire pour la recherche appli-
quée au commerce : voilà la clé du succès. Goo-
gleplex attire dès le début des nuées de collabo-
rateurs : on y retrouve une atmosphère de campus
universitaire américain, où l’étude, l’engagement,
le sport, les divertissements forment un tout : si
un milieu confortable et relaxant favorise la créa-
tivité des étudiants, il peut évidemment favoriser
aussi la productivité des travailleurs. L’esprit de
fraternité universitaire, la mentalité d’élite acadé-
mique travaillant de toutes ses forces pour obtenir

67
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 68

La face cachée de Google

toujours le meilleur, inspirent massivement les


récits concernant Googleplex : il semble que des
sections entières du parking soient réservées deux
fois par semaine pour faire de la place aux parties
de hockey sur patins ; aujourd’hui plus que
jamais, les gadgets pulullent dans les bureaux,
surtout les lampes à lave aux fluides colorés ; la
bonne franquette est érigée en système, avec
Larry et Sergey dirigeant les réunions hebdoma-
daires qu’ils appelent TGIF (Thank God It’s
Friday – Merci Mon Dieu C’est Vendredi) avec
les dizaines d’employés, rassemblés dans l’open
space au milieu des bureaux.
Assurément, une atmosphère aussi informelle
encouragea l’esprit de groupe et accéléra l’échange
d’idées. Googleplex ressemble presque plus à un
lieu fait pour exprimer sa passion de la recherche
qu’à un lieu de travail ; bien entendu, ce n’est pas
n’importe quel lieu de travail, malgré son étendue
désormais énorme. Cependant, l’organisation
style « campus » est répandue aux USA depuis
au moins trente ans : Microsoft et Apple, pour ne
prendre que deux exemples, ont toujours choisi
une approche de ce type. La mythologie de
Silicon Valley est un recueil d’histoires illustrant
le fait qu’on y accorde la première place à la
créativité, et soulignant l’importance de la coo-
pération parmi les collaborateurs : tout cela
revient, en somme, à la nécessité d’avoir des tra-
vailleurs heureux de travailler, qui considèrent
les objectifs de l’entreprise à égalité avec leurs
objectifs vitaux, plutôt que des travailleurs
fouettés, écrasés par des hiérarchies étouffantes,
le respect d’horaires de travail fixes, des règles

68
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 69

BeGoogle

rigides, des milieux accablants. Peut-être la


nouveauté de Googleplex réside-t-elle dans le
fait d’avoir promu consciemment, dès le début,
l’image d’un lieu « différent », « nouveau »,
« pour les esprits les plus forts ». Entrer au Goo-
glePlex est impossible si on ne connaît pas
quelqu’un qui est dedans. Une fois à l’intérieur,
il est même défendu, en théorie du moins, de faire
des photographies. Comme pour se défendre du
monde extérieur, peuplé de féroces requins de la
finance et de prédateurs malveillants des Tech-
nologies de l’Information qui cherchent unique-
ment à exploiter le talent des « Google-boys ».
Tout le monde veut travailler à Googleplex.
Un recensement officieux des fantaisies qui s’y
cachent s’impose : gymnases d’entreprise, pis-
cine, nourriture gratuite dans les 4 restaurants
(dont un végétarien), boissons et snacks gratuits
partout (assez de l’esclavage des distributeurs
automatiques : c’est Google qui régale !) terrains
de volley, de basket, espaces à l’air libre pour
faire du sport, trottinettes à moteur pour se
déplacer parmi les différents bâtiments de la
campus-entreprise. Mais tout ceci n’est qu’un
début par rapport à la crèche, à l’école maternelle
et aux écoles elémentaires d’entreprise pour les
enfants des salariés, complètement gratuites, ou
au cabinet dentaire, c’est-à-dire au camion trans-
formé en laboratoire dentaire mobile : dans un
pays comme les USA où l’instruction et la santé
sont un luxe auquel peu de gens accèdent, ces
opportunités sont d’autant plus incroyables.
Les lieux de travail sont spectaculaires, réali-
sant le rêve de tout fanatique des technologies

69
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 70

La face cachée de Google

numériques : moniteur standard LCD de 21 pouces,


écrans plasma partout, jeux et jouets (modèles
grandeur nature des personnages de La Guerre
des Étoiles, gadgets technologiques en tous
genres). Les lampes à lave aux couleurs fluores-
centes (lavalamp) sont omniprésentes. Google-
plex est un lieu de rêve, plongé dans le vert, où
les horaires de travail sont flexibles, où tout
semble possible. En bref, Googleplex répand la
philosophie de Google, le style de vie de Google :
il y a naturellement un commerce où acquérir tous
les gadgets d’entreprise qu’on peut imaginer,
accessibles on line sur le site qui leur est dédié ;
la plupart sont de véritables hymnes à l’inutilité
et au superflu, comme tout gadget qui se respecte,
mais tous visent résolument à faire en sorte que
le sentiment d’appartenance à l’entreprise devienne
un motif d’orgueil que l’on puisse revendiquer.
Le pull et la veste avec le logo de l’entreprise
pour cimenter l’esprit de groupe sont bel et bien
enterrés : place au conditionnement souple, voilà
Googleplex.
Du reste, Google n’est pas la seule entreprise
dans ce cas : des sociétés comme Apple ou
Yahoo ! offrent depuis longtemps maintenant un
véritable catalogue d’objets de consommation,
qui vont depuis les lignes complètes de vêtements
jusqu’à toutes sortes d’accessoires high-tech, de
lecteurs MP3 et de clés USB, et même aux objets
d’ameublement, tous opportunément marqués de
signatures, de logos, de devises d’entreprise. Le
commerce de Google, beaucoup plus versatile,
offre les tétines pour les nouveau-nés aussi bien

70
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 71

BeGoogle

que Google Minium, le système d’entreprise pour


indexer « comme Google » toutes ses données.
Googleplex est l’incarnation du capitalisme de
l’abondance dans l’ère de l’informationalisme 12 :
toutes les informations du monde offertes gratui-
tement à tous. Le temps de la pénurie est fini :
l’abondance et la disponibilité des biens (en
l’occurrence, des informations) sont illimitées.
N’oublions pas cependant qu’en dernière analyse,
la source de cette abondance est presque unique-
ment la publicité, réalisée principalement par les
liens textuels. Tout le reste est free, libre. Et tout
ne fonctionne pas à la perfection 13. Deux des
plus influents personnages de ce capitalisme de
l’abondance sont Mikie Moritz 14, gallois qui en
plus de Google a aussi financié Yahoo !, et John
Doerr 15, qui a aussi d’importantes parts chez Sun
et chez Netscape.

Arme n. 2 : perfectionner la stratégie


de l’accumulation

Après une visite à Googleplex, la raison de la


fuite de cerveaux vers Google évoquée en intro-
duction de ce chapitre devient plus claire. Pour
un ouvrier des Technologies de l’Information, ou
pour mieux dire un journalier des TI, travailler à
Googleplex constitue un véritable rêve. Dans ce
secteur, les journaliers exploités sont toujours
plus nombreux ; une figure professionnelle exem-
plaire est celle du coder indépendant qui déve-
loppe des projets personnels, peut-être en les

71
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 72

La face cachée de Google

publiant sur Sourceforge.net ou sur Slashdot.org,


et qui offre sa compétence sur le marché sans
avoir aucun type de protection syndicale, ni de
catégorie salariale, ni aucune de ces garanties qui
apparaissent comme des vestiges préhistoriques
dans notre époque de flexibilité totale. À Goo-
gleplex, il pourra même consacrer le désormais
célèbre 20 % du temps ouvrable à ses projets,
payé et encouragé à faire toujours mieux.
Entre les parties de hockey et de volley, les
chiens qui courent à travers tout le campus/entre-
prise et dans les couloirs, les réunions autour
d’une table de ping pong, il est certainement dif-
ficile de s’ennuyer. Puisqu’il n’est pas facile de
recruter des nouveaux collaborateurs qui soient
en mesure d’améliorer encore ce genre d’atmo-
sphère, Google s’est distingué pour ses trou-
vailles ingénieuses en termes de recrutement. La
plus curieuse est sans doute le test lancé en juillet
2004 : dans quelques stations de métro de la ville
de Cambridge, dans l’état du Massachussets
(USA), et le long de l’autoroute 101 en Cali-
fornie, sont apparus d’énormes panneaux blancs
portant cette inscription :
{first 10 digit prime in consecutive digits of
e}.com
c’est-à-dire :
{le plus petit nombre premier à 10 chiffres
consécutifs en e}.com
Le logarithme naturel demandé est le nombre
7427466391 ; à l’adresse http://www.7427466391.
com/ indiqué par l’affiche, on découvre une
adresse ip de Google où il est demandé de
compléter une séquence de nombres ; si l’on

72
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 73

BeGoogle

trouve le nombre 5966290435, on suit les instruc-


tions en l’employant comme mot de passe pour
entrer dans une section du site http://www.
linux.org (passage assez imprévu) et de là, on
ricoche à nouveau vers Google, sur le site http://
www.google.com/labjobs/ où l’on nous demande
d’envoyer notre curriculum : si nous avons réussi
à résoudre les énigmes, nous pourrions être un
bon achat pour Google.
Mais Google n’attire pas seulement les meil-
leurs techniciens, hackers et bricoleurs de génie :
bien vite, les managers les plus côtés du monde
des TI s’aperçoivent de ses potentialités et se bat-
tent entre eux pour intégrer l’entreprise.
La stratégie de l’accumulation de données pour
effectuer des recherches et de machines en réseau
pour conserver une copie des données, va de pair
avec l’accumulation des cerveaux. Machines
signifiantes, machines électroniques, machines
biologiques s’accumulent à Googleplex, pour
donner naissance à un style de vie, voire une
espèce de religion de l’excellence, incarnée par
un évangéliste.
Celui qui incarne le mieux le style de l’entre-
prise, nommé l’« evangelist » de Google, est
parmi tant de jeunes, un vieux loup de la Toile :
Vinton G. Cerf, inventeur avec Robert Kahn du
protocole TCP/ip. Les circonstances de son
arrivée méritent une petite parenthèse : en février
2005, Google confirmait qu’ICANN, l’organisme
qui assurait la supervision du système des noms
et des domaines Internet, avait donné carte
blanche pour que l’entreprise de Mountain View
entre dans le commerce d’enregistrement des

73
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 74

La face cachée de Google

domaines. En septembre 2005, Google annonce


que Vinton Cerf est devenu « vice-président et
évangélisateur en chef d’Internet pour Google. Sa
fonction consiste à déterminer de nouvelles tech-
nologies et des applications stratégiques pour
l’entreprise sur Internet et sur les autres plate-
formes » 16. Jusqu’alors, entre autres charges, Cerf
assumait celle de conseiller d’administration chez
ICANN. Contrairement à l’achat d’Eric Schmidt
comme administrateur délégué, et d’autres top
managers arrachés aux concurrents, il s’agit sans
doute ici d’une opération d’image : difficile de
penser que Cerf travaille vraiment à Googleplex,
si amusant que cela puisse être...

Arme n. 3 : l’image fait tout, mais un peu de


« philosophie » ne nuit pas

L’image de Google n’est pas seulement le site


et l’interface 17 qui ont remporté tant de succès
pour leur simplicité et leur vitesse ; ce n’est pas
seulement Googleplex, le monde doré des pro-
diges technologiques ; ce n’est pas seulement
« être bon » et faire de l’argent quand même, en
conjuguant des stratégies commerciales cava-
lières avec des clins d’œil à la culture acadé-
mique et aux communautés free software et open
source, en leur donnant impulsions et finance-
ments.
L’image consiste aussi et surtout dans la « phi-
losophie » de l’entreprise : elle prend la forme
d’une explication claire et limpide, en prêt-

74
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 75

BeGoogle

à-penser, de la « pensée-Google ». Il ne s’agit pas


précisément d’enquêtes guidées par l’amour du
savoir et de la clarté, de sorte que le terme de
« philosophie » pourrait être un peu exagéré...
Quoi qu’il en soit, on peut trouver on line dix
points, les dix comandaments du bon Google.
Le credo commence par une phrase introductive,
qui donne le ton : « Ne jamais se contenter du
mieux ». En effet, comme affirme Larry Page,
l’objectif ultime est « le moteur de recherche par-
fait », qui « devrait comprendre exactement la
demande de l’utilisateur et lui retourner exacte-
ment ce qu’il désire ». Google ne veut donc pas
s’imposer au plus grand nombre : il veut
s’imposer à tout le monde, satisfaire les désirs de
tous, bref apporter le bonheur sur la planète. Pour
ce faire, il se consacre avec tenacité à l’innova-
tion et à la recherche, telle que les définissent ses
« Dix vérités » :
1. Attention à l’utilisateur : tout le reste vient
après. La croissance de Google a bénéficié
du bouche-à-oreille, qui a attiré des utilisa-
teurs enthousiasmés par ses prestations. C’est le
contraire des campagnes publicitaires aggres-
sives. La publicité ne doit pas être envahissante,
mais seulement utile à l’utilisateur.
2. Il est mieux de se consacrer vraiment bien
à une seule chose. « Google se consacre à la
recherche. Avec l’un des plus grands groupes de
recherche au monde, exclusivement consacré à la
résolution des problèmes de la recherche, nous
sommes conscients de la qualité de ce que fai-
sons, et de la manière dont nous pouvons l’amé-
liorer ».

75
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 76

La face cachée de Google

On a vu que Googleplex est justement conçu


comme un centre de recherche universitaire. Les
nouveaux services, secondaires par rapport au
simple moteur de recherche, sont considérés
comme des opportunités offertes aux utilisateurs
pour s’orienter et pour repérer les informations
qu’ils désirent sans se perdre dans des masses
toujours plus énormes de données.
3. Rapidité vaut mieux que lenteur. « Google
croit en des gratifications immédiates. L’utilisa-
teur veut des réponses et il les veut vite. Qui
sommes-nous pour avoir quelque chose à y objec-
ter ? Google est probablement l’unique société au
monde dont l’objectif déclaré est de faire en sorte
que ses utilisateurs abandonnent le site Google
au plus vite ». Ce sont deux intuitions et réalisa-
tions majeures qui ont permis à Google d’obtenir
cette « rapidité » : la mise au point et le perfec-
tionnement continu de l’algorithme PageRank™,
qui indexe les réseaux continuellement ; l’emploi
de plateformes modulaires fortement flexibles et
reliées entre elles (cluster). Sur cet idéal de
vitesse, il serait pourtant opportun de réfléchir de
manière approfondie : parfois, même dans le
domaine des nouvelles technologies, la lenteur
est une vertu 18.
4. La démocratie sur le Web fonctionne. « Le
succès de Google repose sur les millions d’indi-
vidus qui publient des sites Web, afin de déter-
miner quels autres sites offrent des contenus
valides. » Nous savons déjà que Google utilise
PageRank™ pour évaluer les sites reliés à une
page du Web et leur assigner une valeur qui
repose en partie sur les sites auxquels ils sont liés.

76
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 77

BeGoogle

L’image de cette démocratie électronique est


idyllique : le résultat du ranking de Google serait
un « index de notation populaire » basé sur un
algorithme/loi électorale qui permettrait aux uti-
lisateurs/citoyens du réseau d’exprimer leurs pré-
férences/votes au moyen des liens offerts et
acceptés par d’autres pages, et de trouver ce vote
ponctuellement exprimé dans la position des sites
web élus. Le rapprochement lien/vote est pour le
moins forcé et simpliste, notamment parce que
des « correctifs » sont continuellement introduits
pour calculer le ranking, « en pesant » les liens/
votes de manière différenciée. Sans doute le lien/
vote d’un site porno comptera-t-il moins que
celui d’un site universitaire. Pourtant, on pourrait
discuter pour savoir si la culture académique
est plus « populaire » que la culture pornogra-
phique... Ce qui est sûr, c’est qu’avec la crois-
sance des informations, cette « démocratie » est
en expansion continue.
5. Ce n’est pas forcément à son bureau qu’on
a besoin d’informations. « La société actuelle est
toujours plus mobile et moins disposée à être atta-
chée à un lieu fixe. Que ce soit par PDA, par
leurs téléphones sans fil ou dans leurs voitures,
les utilisateurs désirent que les informations vien-
nent à eux. « La flexibilité des temps et des
espaces est un objectif important : la convergence
des dispositifs électroniques (TV, radio, télé-
phone, Internet...) vers des dispositifs mobiles
miniaturisés est une opportunité inespérée pour
le plus gros fournisseur mondial de solutions de
recherche. Comme on l’a vu à propos de la
« guerre des standards », la pénétration de ce

77
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 78

La face cachée de Google

marché du futur est stratégique : plus encore pour


Google, qui produit des interfaces de recherche,
mais pas de supports électroniques sur lesquels
proposer/imposer ses logiciels (comme le font
Microsoft ou Apple). Chaque nouveau dispositif
est un territoire à conquérir.
6. Il est possible de gagner sans faire de mal
à personne. « Google est une entreprise. Les
bénéfices engendrés par la société viennent de
l’offre aux entreprises de ses technologies de
recherche et de la vente des publicités visualisées
sur Google ainsi que sur d’autres sites du Web. »
Mais la publicité est faite de textes, et elle est peu
envahissante. Les liens sponsorisés sont perti-
nents par rapport aux recherches effectuées
(AdWords) ; et les utilisateurs peuvent facilement
devenir des annonceurs : c’est en libre service.
On peut même, s’il l’on est gérant de sites web,
exploiter le réseau de Google par AdSense, en
publiant des annonces pertinentes en fonction du
contenu de ses sites. « Ne pas être méchant »,
« ne pas faire de mal », signifie aussi « ne pas
faire aux autres la publicité qu’ils ne t’ont pas
faite à toi », et naturellement garantir que le Page-
Rank n’est pas à vendre. La confiance des utili-
sateurs dans l’exactitude des résultats est la
principale force de Google, et ne saurait être
perdue pour des gains à court terme. Elle est
exploitée pour générer des recettes indirectes, de
second rang, dûes à la publicité.
7. Il y a toujours plus d’informations qu’on
s’imagine. « Après avoir indexé plus de pages
HTML sur Internet que n’importe quel autre ser-
vice de recherche, les techniques Google ont

78
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 79

BeGoogle

tourné leur attention vers les informations qui ne


sont pas immédiatement accessibles ». Oui,
Google accumule des bases de données hété-
rogènes : images, messages des newsgroups
(Usenet), numéros de téléphone, adresses, infor-
mations financières. Pour être le principal média-
teur d’informations au monde, il est nécessaire
de ne poser aucune limite à l’accumulation.
8. La nécessité d’avoir des informations
dépasse toutes les frontières. « Bien que le siège
central de Google soit en Californie, nous avons
des bureaux dans le monde entier et notre mission
est de faciliter l’accès aux informations pour les
hommes du monde entier ». Une culture améri-
caine, étroitement académique, pour tous. Il faut
toujours penser en grand, quoi qu’il arrive :
indexer toutes les informations, y donner accès à
tout le monde. Les traductions sont une partie
essentielle de l’universalisme de Google : du
coréen à l’argot hacker, en passant par le klingo-
nien de Star Trek, de l’hindi au xhosa sud-afri-
cain et jusqu’au pig latin (le javanais américain),
du zulu à l’espéranto et au Bork bork bork ! (une
espèce de faux-russe moldave...) tous doivent
pouvoir y accéder. Une interface en plus de cent
langues. Une domination locale dans plus de cent
états. Admirable, mais un peu totalitaire... L’opé-
ration est peut-être politiquement correcte et for-
mellement respectueuse des minorités, mais il
s’agit en réalité d’un super-layer, d’un niveau
supérieur, en l’espèce d’une interface unique qui
aplatit, rend homogènes les différences et répand
partout le style de Mountain View.

79
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 80

La face cachée de Google

9. Il est possible d’être sérieux même sans


veste et sans cravate. « Les fondateurs de Google
ont souvent déclaré que la société n’est « sérieuse »
qu’en ce qui concerne la recherche. Ils ont
construit une entreprise reposant sur l’idée que le
travail doit être un défi et qu’un tel défi doit être
amusant ». Ce commandement résume Google-
plex, organisé comme un campus universitaire
pour maximiser les rendements : on affirme expli-
citement que « l’accent est mis sur les résultats
obtenus par l’équipe et sur la fierté liée aux résul-
tats individuels qui contribuent au succès global
de la société », et que « ce milieu extrêmement
comunicatif favorise une productivité et une
camaraderie alimentées par la conscience que des
millions de personnes se fient aux résultats de
Google. Donnez les moyens qu’il faut à un
groupe de gens qui aiment faire la différence, et
ils la feront ». Peut-être celle-ci est-elle le meil-
leur moyen pour exploiter les créateurs, en les
transformant du même coup en soutiens enthou-
siastes de l’« Expérience Google ».
10. L’excellence ne suffit pas. « Donner tou-
jours plus que ce qu’on attend de nous. Google
n’accepte pas l’idée que l’objectif final soit d’être
les meilleurs, mais considère que ce doit être un
point de départ. En multipliant les innovations,
Google se consacre à améliorer quelque chose
qui fonctionne déjà bien, afin d’obtenir des résul-
tats inespérés ». Évidemment, pour satisfaire
rapidement, et toujours mieux, les désirs de tous
les utilisateurs du monde, il est nécessaire de
repousser toujours un peu plus loin la satisfaction
de nos désirs. Il faut désirer le fait de désirer

80
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 81

BeGoogle

d’être les meilleurs. Dans ce contexte, arriver les


seconds est pire que ne pas exister du tout. En ce
qui nous concerne, slogan pour slogan, nous pré-
férons « Faire du chiffre, dans une société qui
oblige à l’excellence, est un devoir moral » 19.

Arme n.4 : Google et l’Open Source

L’arme peut-être la plus complexe de Google


est sa stratégie de collaboration-exploitation du
monde Open Source. L’initiative Google Code
(en mars 2005) est un hommage à la communauté
Open Source, dont les fondateurs de Google se
disent « les amis, car on leur doit beaucoup ». Le
moteur le plus utilisé du Web explique que le but
de Google Code n’est pas de promouvoir le déve-
loppement d’applications qui utilisent ses propres
interfaces API (Application Programming Inter-
face), lesquelles ont déjà un site qui leur est
consacré, mais de mettre à disposition de tous les
instruments de développement Open Source
d’utilité publique. Les quatre projets initialement
publiés sur Google Code sont nés autour de pro-
grammes créés par les développeurs de la société
eux-mêmes pour accélérer la création, l’optimi-
sation ou le debugging (la programmation) du
code. Les projets associés à Google Code sont
aussi hébergés sur SourceForge.net et distribués
sous licence BSD 2.0 (leur code peut être utilisé
indistinctement à l’intérieur d’autres applications
Open Source ou d’applications propriétaires). De
plus, Google promet depuis peu de mettre à dis-

81
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 82

La face cachée de Google

position de la communauté Open Source diffé-


rents autres logiciels, qui sont en grande partie
les fruits des 20 % de temps que les développeurs
employés par la société sont encouragés à consa-
crer à des projets personnels.
Ce n’est pas par hasard si peu après, est lancé
un projet entièrement dédié au recrutement de
développeurs Open Source, le « Summer of
Code » (l’Été du Code), une véritable compétition
avec 4 500 dollars de prime. Puis c’est le tour de
« Google Earth » et enfin, comme toute puissance
qui a fini par représenter un style de vie, Google
réalise un rêve : « moon.google.com », Google
sur la lune !
« En l’honneur du premier débarquement de
l’homme sur la Lune, le 20 juillet 1969, nous
avons ajouté quelques images NASA à l’interface
de Google Maps pour permettre à tous de visiter
notre voisin céleste. Bonne navigation lunaire ! »
Les mouvements de Google, « pseudo-mono-
poliste » dans ses méthodes et dans ses perspec-
tives, ont eu une immédiate retombée sur la
concurrence : aujourd’hui Google est en passe de
devenir un géant qui occupe tous les espaces de
marché ; ses services toujours nouveaux étouf-
fent les sociétés high-tech plus petites, qui s’épui-
sent à engager des ingénieurs et des techniciens
et risquent de voir copier leurs nouveaux pro-
duits.
Le lancement ininterrompu de nouveaux ser-
vices, ainsi que le financement des potentiels
spin-off des salariés en interne, bloquent de fait
le marché en termes d’innovation technologique.
Qui en effet financerait aujourd’hui un projet sur

82
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 83

BeGoogle

le web, avec la possibilité qu’en l’espace de quel-


ques jours, ce soit en réalité Google qui le lance ?
Google a su représenter, aux yeux des observa-
teurs mais aussi des simples utilisateurs d’Internet,
une sorte de paladin du progrès : à partir du
moteur de recherche, conçu pour être compris
rapidement et simplement par les utilisateurs, on
a multiplié les idées et les propositions de ser-
vices.
Avec l’option Open Source, l’économie rela-
tionnelle mise en œuvre par Google devient une
« vision du monde », directement acceptée comme
une évolution souhaitable, un bon capitalisme qui
répand l’abondance, une solution économique-
ment « éthique » pour ce que recherchent les indi-
vidus.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 84


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 85

III. Google Open Source

Théorie et pratiques : Open n’est pas Free

Free Software 1 (le Logiciel Libre) et Open


Source 2 (la Source Ouverte) sont des syntagmes
souvent utilisés comme synonymes pour indiquer
les codes ou les portions de codes informatiques ;
toutefois, quoiqu’ils décrivent des objets souvent
identiques, l’un et l’autre les abordent selon des
perspectives radicalement différentes. Free Soft-
ware est un terme né au début des années quatre-
vingt sous l’impulsion de Richard Stallman : il
désigne la liberté laissée à l’utilisateur d’exploiter
et d’améliorer le logiciel. Plus précisément, cela
peut se décomposer en quatre libertés fondamen-
tales :
1. Liberté d’exécuter le programme, pour
n’importe quelle fin.
2. Liberté de modifier le programme en fonc-
tion de ses besoins. Pour que cette liberté ait
quelque effet dans la réalité, il est nécessaire
d’avoir accédé au code source du programme ; il
est en effet extrêmement difficile d’apporter des

85
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 86

La face cachée de Google

modifications à un programme sans disposer du


code source.
3. Liberté de distribuer gratuitement ou contre
compensation des copies du programme.
4. Liberté de distribuer des versions modifiées
du programme, afin que la communauté puisse
bénéficier des améliorations apportées.
L’expression Open Source, en revanche, naît
à la fin des années quatre-vingt-dix, sur l’initia-
tive en particulier de Bruce Perens et d’Eric S.
Raymond, qui fondent en 1998 l’Open Source
Initiative 3 (OSI) ; ils se réfèrent à l’Open Source
Definition, elle-même dérivée du Debian Free
Software Guidelines, liste de 10 points pratiques
qui définissent les critères légaux qu’une licence
doit respecter pour être effectivement considérée
comme « libre », ou pour mieux dire, selon le
terme nouvellement inventé, comme Open Source.
Il est donc évident que d’une part, les free soft-
ware mettent l’accent sur la liberté : comme la
définition l’indique, « le logiciel libre est une
question de liberté, pas de prix » 4. D’autre part,
l’open source s’occupe exclusivement de définir,
dans une perspective totalement interne à une
logique de marché, les modalités les plus aptes à
diffuser un produit selon des critères open, c’est-
à-dire ouverts. Le logiciel libre a un sens qui va
bien plus loin que le marché, sans pour autant
l’exclure a priori ; l’Open Source a pour fin,
comme le précisent ses promoteurs eux-mêmes,
d’adapter au marché un modèle préexistant
(lequel est « free » au sens de « libre »).

86
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 87

Google Open Source

Les hackers de Stanford

Depuis quelques années, un logiciel Open


Source est communément considéré comme
fiable, capable de performances élevées à des
coûts abordables ; concrètement, il est souvent
considéré aujourd’hui comme meilleur que les
logiciels propriétaires, précisément parce qu’on
peut augmenter la fiabilité du produit en vertu
d’une méthodologie de développement diffé-
rente, ouverte et subordonnée à un système de
révision très étendu.
Grâce à la réalisation de logiciels stables et
fonctionnels comme les browsers, les programmes
de bureautique et d’édition, les systèmes d’exploi-
tation tout entiers (GNU/Linux), presque chaque
utilisateur s’est aperçu ou a entendu parler de
l’existence de programmes dits génériquement
copyleft ou Open Source.
Open Source est apparu comme le terme adé-
quat et nécessaire pour remplacer la terminologie
Free Software. En effet, le mot Free a en anglais
le double sens de libre et de gratuit : cette ambi-
guïté linguistique rendait le produit peu attractif
d’un point de vue économique. La substitu-
tion d’open – stratégiquement gagnante – fut une
manière de maintenir les caractéristiques de coo-
pération libre sans renoncer à la possibilité d’un
usage plus étroitement commercial du logiciel.
À l’époque, on assistait en réalité à un chan-
gement radical dans l’organisation des commu-
nautés numériques spontanées, c’est-à-dire des
communautés auxquelles se sentent liés tous ceux

87
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 88

La face cachée de Google

qui donnent une définition valorisante au hac-


king.
Ces groupes étaient (et sont encore) extrême-
ment composites. Il s’agit là d’un interstice
culturel fluide dans lequel se forment et collabo-
rent des étudiants, des professeurs, des cher-
cheurs, de libres professionnels, des membres de
la police, des criminels, des programmateurs
employés par des sociétés de développement, des
passionés, et beaucoup d’autres types de hackers.
Le mouvement du Logiciel Libre a commencé
par une confrontation serrée avec l’économie de
marché. La bataille de la Free Software Founda-
tion (FSF) portait sur la diffusion de la licence
GPL (General Public License), créée par le fon-
dateur de FSF, Richard Stallman 5 ; cette licence
lie de manière « virale » l’artefact aux quatre
libertés énumérées plus haut. En somme, chaque
modification apportée à un code sous licence GPL
doit maintenir la même licence d’usage, en ren-
dant impossible la fermeture du code ; ce méca-
nisme est connu comme un « permis d’auteur »
(copyleft, jeu de mots sur copyright, « droit
d’auteur »). C’est à cette époque que naquit le
système d’exploitation GNU/Linux, et qu’on
commença à le diffuser.
Le mélange entre méthode de développement
libre et net-économie devait conduire, dans les
années qui suivirent l’an 2000, à l’explosion des
produits Open Source et au déchaînement du
débat politique autour du brevetage des logiciels,
du copyright et de la gestion éthico-politique de
tout ce que nous définissons comme des œuvres
intellectuelles.

88
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 89

Google Open Source

L’entreprise Google, quoiqu’elle ne soit pas


directement un producteur de logiciels, n’a pas
été en reste dans les secousses de l’Open Source :
comme d’autres entreprises dynamiques et inno-
vantes, Google en a adopté les méthodes et les a
mises au service de sa « mission ». La contiguité
entre Google et l’Open Source est spatiale et tem-
porelle : à Stanford, en 1998, juste au moment où
Brin et Page mettaient au point la première ver-
sion de leur moteur de recherche, quelques
importants projets Free Software étaient en train
de naître ; rappellons par exemple SND et Pro-
tege qui, dans des domaines très différents, à
savoir l’audio et la sémantique web, devaient
remporter un grand succès sur la scène numé-
rique.
À Stanford, la culture hacker (dont provient en
dernière analyse l’Open Source) se retrouve par-
tout comme un air de famille : il n’est donc pas
étonnant que notre duo, formé dans ces années,
ait toujours manifesté une certaine prédilection
pour le développement sur plateforme GNU/
Linux.
S’il existe des différences substantielles entre
Open Source et Free Software, il y a cependant
aussi des éléments communs et une parenté de
vues. Pour être simple et précis, nous parlerons
donc de « méthodologies et pratiques ouvertes »,
en bref d’Open Source, pour désigner le phéno-
mène qui rassemble Free Software, Open Source
et compétition de marché dans le monde des TI.
La première caractéristique d’une commu-
nauté open (aussi bien free en ce sens) consiste
à appliquer une méthode de travail ouverte à la

89
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 90

La face cachée de Google

collaboration de tous, c’est-à-dire susceptible


d’accepter les suggestions et les interactions
spontanées de tout type de sujet impliqué dans la
construction de l’artefact informatique : program-
mateur, traducteur ou même simple utilisateur.
Cette procédure a été définie dans l’argot hacker
comme la méthode du « bazar », et son applica-
tion à grande échelle est dûe au développement
du Kernel Linux au début des années quatre-
vingt-dix. Ce projet, né de l’initiative de Linus
Torvalds, est la base de toutes les distributions
GNU/Linux 6.
La nouvelle technique de coopération proposée
à l’underground numérique a invalidé la loi de
Brooks 7 qui réglait jusqu’alors les communautés
de développement des projets informatiques.
Selon la loi de Brooks, avec l’augmentation de la
complexité, le nombre d’erreurs croît de manière
exponentielle, de sorte que le projet auquel contri-
buent des milliers de développeurs aurait dû être
un fatras de codes instable et rempli de bugs.
À l’inverse, par la publication des codes sources,
la libre circulation sur internet de la documenta-
tion, la coopération et le feedback spontané d’un
nombre toujours plus élevé de personnes en jeu,
les communautés libres ont montré comment il
était possible d’améliorer fortement la construc-
tion des artefacts numériques, tant du point de
vue du résultat que du processus. Les logiciels
réalisés de cette façon sont généralement rendus
publics sous licence GPL, qui comme on l’a vu
diffuse de manière virale les matériels copyleft.
La licence GPL ne prévoit donc pas de restric-
tions du point de vue commercial ; toutefois, tout

90
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 91

Google Open Source

comme le terme Free Software rendait un son


trop fortement marqué en mettant les libertés à la
première place, de même la GPL a été remplacée
par des licences édulcorées, loin de la portée
éthique et politique que voulait exprimer le mou-
vement à l’origine. Tel est le cas de licences
comme BSD (Berkeley Software Distribution),
qui n’implique aucune restriction sur la fermeture
des codes, et donc interdit une diffusion virale,
le code libre pouvant être complété par des por-
tions de code non libre. Une création libre peut
donc devenir propriétaire. Il existe aussi MPL
(Mozilla Public Licence). D’autres licences
encore sont développées sur mesure pour les nou-
veaux produits Open Source.
L’économie de marché devient ainsi un mode
de développement durable et la communauté des
développeurs, le noyau d’une véritable Open
Society 8, la chimérique société ouverte. Cet ima-
ginaire n’est pas seulement déterminé par l’adhé-
sion morale qu’inspire la pratique de développe-
ment communautaire, mais surtout par la qualité
supérieure des applications, qui semble en contra-
diction avec la gratuité des compétences mises
en jeu.

L’ère de l’Open Source economy :


concurrence et bonté d’âme

L’arrivée de l’Open Source sur le marché est,


selon quelques observateurs, l’une des consé-
quences de ce qu’on appelle la « convergence

91
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 92

La face cachée de Google

technologique », un slogan maintenant devenu


quasiment un paradigme de l’ère information-
nelle. Cette convergence signifie le rapproche-
ment et la synergie de diverses technologies,
jusqu’alors étrangères les unes aux autres, étu-
diées et développées dans des milieux distincts.
Devant ces transformations souvent extrême-
ment rapides, la création de standards ouverts a
marqué une nouvelle étape dans cette « guerre
de tous contre tous » qu’on appelle le « libre
échange » : Coopérez sur les standards, rivalisez
dans les solutions, telle est la devise d’IBM, l’une
des principales entreprises impliquées. Si même
Big Blue décide de coopérer, c’est vraiment que
le jeu en vaut la chandelle...
Pour beaucoup d’entreprises, l’Open Source est
en effet l’une des rares possibilités de concurrencer
les monopoles et les oligopoles maintenant conso-
lidés, d’échapper à des dynamiques de compétition
classiques sans investissements énormes, de
limiter les coûts de développement et donc de
diminuer le « prix » de leurs services. Les entre-
prises connaissent depuis longtemps et apprécient
la valeur d’une dynamique réticulaire de déve-
loppement et d’alliances : on sait bien que la
valeur d’un réseau est proportionnelle au carré
des personnes/nœuds qu’il rassemble 9. Un réseau
toujours plus vaste correspond donc à des profits
qui augmentent de manière exponentielle.
L’Open Source semble offrir certaines garanties
intéressantes pour le développement de réseaux à
haute valeur ajoutée : d’une part, il permet au logi-
ciel de rester, d’une certaine manière, un bien
« public » (il suit un développement ouvert et

92
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 93

Google Open Source

repose sur un support communautaire) ; d’autre


part, il maintient très bas les coûts de passage
d’un système à l’autre (ce qu’on appelle les swit-
ching costs) en particulier depuis les modèles
propriétaires vers les modèles ouverts, même et
surtout dans le cas de systèmes legacy (obso-
lètes). Les coûts les plus importants dans l’adop-
tion de nouvelles technologies sont dûs à la for-
mation des utilisateurs, pas à l’investissement
pour acquérir la technologie elle-même ; à plus
forte raison s’il s’agit d’un excellent software
dont le coût est risible. Mais le résultat le plus
important, dont la valeur est difficile à calculer,
est la création d’une image complètement nou-
velle pour l’entreprise et pour ses produits.
Le succès des logiques du logiciel libre a
engendré différentes tentatives d’application de
ces pratiques dans d’autres secteurs. Inévitable-
ment, elles ont été estampillées de nouvelles
expressions et de formules augurales souvent
exagérées : Open Laws, Open Science, et même
Open Society semblent à portée de main. Aujour-
d’hui, l’idée de société Open Source est presque
devenue le paradigme d’une nouvelle ère, dédiée
à la recherche d’un moyen commun dans la pers-
pective d’une politique « possible ». Par « société
Open Source » on entend en effet une société
dont le code soit ouvert et dont l’amélioration
puisse être librement assumée par tous. Exprimé
dans ces termes, on ne peut qu’être d’accord. On
est pourtant surpris par la légèreté avec laquelle
un terme évolue depuis une acception précise,
technique et informatique, vers un usage géné-
ral où il se trouve appliqué à des théories

93
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 94

La face cachée de Google

philosophiques, économiques, sociologiques, sans


que l’on considère la possibilité de modifier le
concept ou au moins de l’utiliser avec les préci-
sions qui s’imposent.
En effet, dans le domaine du logiciel où le
terme est né, Open Source signifie aussi concur-
rence, compétition en vue d’accaparer les meil-
leurs cerveaux au moindre prix, financement par
des capitaux à risques, opérations d’achat et de
vente de plusieurs milliards, tout un grand marché
articulant une forme plus « démocratique » et
plus souple de capitalisme. Cette dynamique ne
vise plus à asservir la force des travailleurs, mais
plutôt à la l’intégrer dans la réalisation de la mis-
sion de l’entreprise, toujours de plus en plus iden-
tifiée avec la réalisation des désirs de l’individu 10.
Parmi tant de sociétés qui aujourd’hui exploi-
tent cette vague pour en obtenir les avantages les
plus divers, c’est encore Google qui s’avère la
meilleure pour en donner une définition : donc,
don’t be evil, utilisez le logiciel libre, il est gra-
tuit, il est meilleur qu’un logiciel propriétaire, et
les développeurs sont fiers d’y participer. La
visite à Googleplex a clairement montré comment
à Mountain View cette stratégie de pénétration
dans la vie des gens avait été raffinée à un degré
extrême : les travailleurs récompensés, encou-
ragés à être créatifs et heureux, produisent mieux
et plus que des travailleurs fouettés et opprimés.

94
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 95

Google Open Source

Séduire les hackers : autonomie, argent


facile, outils gratuits

L’exploitation de l’Open Source par Google


atteint un sommet vers 2005, à un moment où son
image a été ternie par les actions de ses concur-
rents et par des événements judiciaires pas très
nets 11.
Bien que le projet fût fermemement enraciné
dans la culture informatique et dans la pratique
de l’excellence académique, il ne suffisait pas de
recourir au système d’exploitation GNU/Linux
pour faire fonctionner le centre de données de
Google, il fallait affermir la confiance en l’Open
Source par une initiative forte, qui devait ramener
l’attention vers le magma des réseaux à produc-
tion libre.
Il n’était plus suffisant d’offrir un support pour
la langue h4x0r, le langage des « vrais » hackers
(ou pour le klingonien de Star Trek), pour gagner
la sympathie des développeurs. De plus l’attitude
élitiste des cerveaux universitaires commençait à
impatienter les investisseurs.
L’arrogance et le culte méritocratique propres
à l’esprit académique, même avec le soutien de
résultats toujours excellents, ont peu de crédit
auprès des investisseurs qui attendent des divi-
dendes substantiels. Il était inévitable que prenne
fin la période pendant laquelle les deux amis pou-
vaient se permettre en plaisantant de coter un titre
en bourse en risquant des actions pour une valeur
de 2 718 281 828 dollars, un nombre qui repro-
duit la constante mathématique « e » (la base de

95
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 96

La face cachée de Google

la fonction d’un logarithme naturel), ou même


faisaient d’invraisemblables sorties, comme l’an-
nonce faite en août 2005 : ils déclarent alors
qu’ils auraient vendu 14 159 265 actions pour
collecter 4 milliards de dollars de liquidité, sans
dire un mot aux investisseurs de l’usage qu’ils
allaient faire de cet argent.
Pour soutenir concrètement son désir d’investir
dans la recherche, pour montrer comment, avec
une telle stratégie, on peut non seulement être
compétitif mais même exceller sur le marché, un
mouvement stratégique était nécessaire, pas tel-
lement orienté vers les utilisateurs « normaux »,
mais plutôt vers les jeunes cerveaux, vers le futur,
vers l’innovation. En termes opérationnels, cela
signifie créer une communauté, lui offrir des
moyens de développement, signer des accords
avec d’autres sociétés du secteur. Autrement dit,
courtiser le monde de l’Open Source.
Google commence à investir dans la création
de communautés en octobre 2005 : un finance-
ment de 350 000 dollars est accordé à l’Oregon
State University et au Portland State University
pour améliorer la qualité de leurs projets Open
Source, favorisant la naissance de nouveaux logi-
ciels. Peu après est inauguré en grande pompe le
programme de juin 2005, Summer Of Code,
c’est-à-dire « l’été du code », dont la promo-
tion est faite directement sur une page du site
de Google, qu’on peut trouver aujourd’hui sur
http://code.google.com/summerofcode05.html.
Le style de communication est clair : offrir aux
meilleurs des opportunités concrètes. Chaque
programmateur qui aura créé pendant l’été un

96
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 97

Google Open Source

nouveau projet Open Source ou apporté une amé-


lioration digne d’intérêt à un projet déjà existant,
recevra un prix de 4500 dollars. L’opération était
évidemment destinée à être reçue comme une
déclaration d’amour explicite à l’adresse de l’Open
Source, soulignant le fait que l’Open Source était
le terrain stratégique où fleurissait l’innovation.
En second lieu, elle visait à attirer les sympathies
des jeunes développeurs en apportant à leur tra-
vail un soutien financier tangible. Enfin, elle
cherchait à créer une véritable communauté dans
le style « open », au moins en termes de parrai-
nage.
Le nombre de programmateurs récompensés,
étudiants pour la plupart, se monta à plus de
quatre cents ; pour la plupart, ils avaient apporté
des modifications et introduit des nouveautés dans
des projets déjà existants, plutôt qu’ils ne firent
connaître leurs nouveaux logiciels. Ils avaient
ajouté des caractéristiques à des programmes
comme Apache, Fedora, Gaim, Google même,
Inkscape, Jabber, KDE, Mozilla, OpenOffice.org,
Python, Samba, Gnome, Mono, Ubuntu. Une
belle réussite pour tous, surtout pour les sociétés
qui sont derrière ces projets : parmi les princi-
pales, citons pour mémoire IBM, RedHat, LinS-
pire, Novell, Mozilla.com, Sun, HP, Ubuntu 12.
Certains de ces projets, associés à ceux qui
furent développés dans le tristement célèbre 20 %
de temps libre des employés de Google, ont permis
d’atteindre le second objectif prévu dans le plan
de rapprochement avec l’Open Source : offrir
des moyens de développement. Déjà en 2002
Google avait offert des outils de développement

97
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 98

La face cachée de Google

téléchargeables gratuitement depuis le site code.


google.com. Cette page contient aujourd’hui les
projets propriétaires créés par les équipes de
développement de Google, ainsi que les projets
gagnants du Summer of Code qui ne sont en
aucune manière liés à ces services.
La section « Code » du site propose quelques
projets de créateurs de logiciels consacrés aux
langages de programmation les plus divers (Java,
C++, Python, etc.). Offrir des outils de dévelop-
pement est un élément essentiel pour quiconque
veut encourager la création de logiciels et de
communautés, car cet investissement porte pré-
cisément sur les outils de travail nécessaires à
leur création. Les projets conçus par les program-
mateurs de Google comme outils de développe-
ment prennent le nom de Google Api, librairies
propriétaires pour assurer l’interface et utiliser les
principaux services du colosse de Mountain
View.
Une librairie est un ensemble de fonctions par-
tagées : il s’agit de portions de code compilées
qui fournissent des outils à d’autres programmes
ayant besoin de fonctions simplifiées. Un exemple
très éloquent est celui des librairies graphiques
GTK, QT et FLTK, qui mettent en œuvre les élé-
ments standard d’une application visuelle (bou-
tons, menu, icône...) ce qui simplifie le travail
des programmateurs. Ceux-ci, en s’appuyant sur
leur librairie préférée, écriront seulement les
fonctions réelles du programme. Il appartiendra
en effet aux librairies de dessiner les boutons, de
gérer le click de la souris, de tracer les ombres,
et de faire presque tout ce que nous, en tant

98
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 99

Google Open Source

qu’utilisateurs, sommes habitués à voir. Le temps


et les compétences des programmateurs sont ainsi
optimisés. Étant donné que celui qui écrit les
codes sera difficilement enthousiaste à l’idée de
créer les boutons de ses applications, les librairies
graphiques revêtent un rôle de liant essentiel
entre les divers projets. D’une part, les applica-
tions produites sont relativement homogènes du
point de vue graphique ; de l’autre, les program-
mateurs pourront se concentrer sur leur travail,
sans perdre trop temps dans la création des inter-
faces.
Il existe des communautés de développement
qui s’occupent des librairies afin de fournir des
outils génériques et transversaux pour la résolu-
tion de problèmes complexes (connexions de
réseau, communication entre applications, traite-
ment de texte, images, compression). De la même
manière qu’un logiciel est écrit dans l’objectif de
toucher le plus d’utilisateurs possible, une
librairie est faite pour atteindre le plus de déve-
loppeurs possible.
Les librairies permettent donc aux programma-
teurs de créer leurs logiciels en partant d’une
panoplie d’éléments partagés, véritables stan-
dards de facto de la programmation. S’appuyer
sur les librairies signifie accomplir son travail en
se servant d’une base de départ elle-même très
vaste et très complexe, qui utilise au mieux le
code déjà disponible et permet de stratifier les
compétences. Les librairies ont donc une valeur
stratégique autant dans la dynamique de coopé-
ration spontanée de free software que dans l’éco-
nomie relationnelle d’open source.

99
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 100

La face cachée de Google

Les librairies de Google, à savoir les Google


Api, sont publiées sous licence propriétaire, c’est-
à-dire cachent au programmateur le mécanisme
de leur fonctionnement. Mais ce n’est pas tout :
il s’y trouve aussi un dispositif spécial de
contrôle, car le développeur qui télécharge gra-
tuitement des librairies doit s’authentifier par un
code. Ce système permet à Google de tracer de
manière invasive tous les mouvements et toutes
les modifications qui dérivent de l’emploi de ses
API. Les programmateurs qui emploient ces
librairies ont l’opportunité d’insérer la recherche
Google dans leur site ou de connaître en temps
réel son PageRank™. De plus, ils peuvent réa-
liser des logiciels capables de gérer des campa-
gnes publicitaires à travers AdWords, de générer
des cartes dynamiques de leurs données avec
l’interface de Google Maps, ou même de mettre
en place un compte VoIP pour la téléphonie on
line compatible avec GTalk. En bref, ils peuvent
développer les services de Google comme ils
veulent, dans leur langage de programmation le
plus familier, sous l’attentive surveillance de
Mountain View.
L’énorme diffusion des services de Google se
conjugue avec la possibilité de personnalisation
des moindres détails : en effet, en écrivant les
documents XML appropriés 13, il est possible de
créer des « ponts » de liaison parmi les différents
services de Google ; par exemple, on peut pro-
grammer pièce par pièce la page d’accueil de
Google comme s’il s’agissait d’une véritable
application, en la rendant ainsi exactement
adaptée à ses exigences. On peut faire des choses

100
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 101

Google Open Source

très semblables avec Google Earth : il est pos-


sible de construire des éléments de navigations
en 3D sur les photos satellitaires, en mettant gra-
phiquement en évidence sur les ordinateurs des
prochains utilisateurs des zones géographiques,
des édifices, des données climatiques, etc. Tous
ces outils, prévus pour ceux qui savent écrire le
code (dans au moins un langage) sont essentiels
pour inventer de nouvelles combinations ou sim-
plement pour utiliser ce que Google rend public
(au moins en partie) dans ses applications 14. Il
existe même un portail, googleearthhacks.com,
où l’on peut trouver de très nombreux trucs
et hacks permettant d’utiliser ce service de la
manière la plus inattendue, en croisant les cartes
satellitaires avec n’importe quelle autre base de
données.
Toutes les possibilités que nous offrent les
librairies de Google passent par le respect de deux
règles précises : l’enregistrement et la licence.
Pour activer les fonctions de Google Api il est en
effet nécessaire de demander une clé, c’est-à-dire
un code d’accès, et d’indiquer exactement à quoi
on veut l’employer. Les Api s’activent seulement
une fois cet enregistrement effectué. Le second
point est la licence. N’étant pas sous licence
copyleft, ces Api peuvent être utilisées seulement
dans certaines limites : par exemple, il est néces-
saire d’avoir un compte Google, parce que l’accu-
mulation d’informations ne s’arrête pas jamais ;
de plus, les cartes sont la propriété exclusive de
Google (ou d’une tierce partie) et elles ne peu-
vent en aucun cas être modifiées. Naturellement,

101
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 102

La face cachée de Google

pour des usages commerciaux, il est nécessaire


de signer un contrat.
Le code d’activation permet à Google de
garder toujours un contrôle total sur les nouveaux
programmes engendrés par ses Api : il peut blo-
quer arbitrairement ses applications ou simple-
ment contrôler soit la manière dont elles accèdent
aux services, soit l’emploi qui en est fait. Tout
ceci est possible parce que le code source n’est
pas public et libre, de sorte qu’il est impossible
de comprendre le fonctionnement interne des
librairies.
En plus de faire développer gratuitement et de
suivre le développement de ses services, Google
a encore une autre raison de créer des commu-
nautés selon cette étrange formule, que nous pour-
rions définir comme pseudo-open, c’est d’obtenir
une base de données pour faire des recherches et
vendre des statistiques.
Accueillir gratuitement les projets des pro-
grammateurs individuels signifie obtenir leur
confiance. Permettre à n’importe qui d’effectuer
des recherches sur les bases de données des pro-
jets reçus, revient à activer une solide chaîne
d’utilisateurs. De plus, un tel incubateur gratuit
de jeunes talents garantit la disponibilité d’un
matériel humain fortement motivé et dont la for-
mation, principal coût dans le secteur TI, a déjà
été faite de manière autonome et entièrement
conforme au style de l’entreprise.
L’offre d’outils de développement est un
mécanisme de talent-scouting connu depuis long-
temps ; c’est en particulier le cheval de bataille
de quelques solides entreprises comme Va Soft-

102
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 103

Google Open Source

ware Corporation, qui met à la disposition gra-


tuite du monde de l’Open Source des ordinateurs
extrêmement puissants, de la bande large, de
l’espace disque et une assistance qui n’est pas à
la portée de tous. Deux paradis numériques peu-
vent se targuer d’une renommée mondiale et d’un
nombre de projets reçus supérieur à tous les autres
concurrents : sourceforge.net et freshmeat.net,
tous les deux propriétés de Va Software. Ces por-
tails ont tant d’écho que même les projets les plus
petits, une fois apparus sur les premières pages,
arrivent sans peine à comptabiliser des centaines
de visites par jour. Tous les projets au sein de
code.google.com ont leur page équivalente sur
freshmeat.net et/ou sourceforge.net.
De cette manière, les applications peuvent jouir
de la visibilité de Google et de tous les services
mis à disposition par le colosse Va Software :
mailing lists, ordinateurs consacrés à la résolution
des erreurs de programmation (debugging), au
système de contrôle des versions, des révisions
et des modifications du code (par exemple cvs,
Concurrent Versioning System), aux forums de
discussion, etc.
Il n’est pas difficile d’imaginer comment, avec
des bases de données utilisées gratuitement par
des milliers de coders, Va Software peut garantir
un excellent service de business to business aux
entreprises liées au monde de l’Open Source, et
pas seulement à elles. Son data mining est parti-
culièrement intéressant pour les tractations en
milliards de dollars. Parmi les sponsors et annon-
ceurs de sourceforge.net et de freshmeat.net

103
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 104

La face cachée de Google

se trouvent Red Hat, Microsoft et beaucoup


d’autres.
Il y a bien des manières de mettre les dévelop-
peurs en lien avec les entreprises Open Source.
En Italie, Sun Microsystem offre la possibilité de
publier son curriculum sur une carte de Google
(en utilisant les Google Api) via le portail javao-
penbusiness.it. Il appartient aux développeurs
eux-mêmes de créer leur profil, engendrant ainsi
une carte des compétences Open Source en Italie
avec les instruments mis à disposition par SUN
et par Google.
Google peut donc compter sur la mise en œuvre
pratiquement gratuite de ses produits par des cen-
taines d’utilisateurs ; à cela s’ajoute l’investisse-
ment de compétitions comme Summer of Code,
festival dédié à la promotion et au développement
de ses services, et last but not least, des systèmes
de recrutement exceptionnellement dynamiques.
Parmi eux, on trouve même le vidéo-recrutement,
directement sur les pages de video.google.com :
là, des interviews de salariés enthousiastes et de
Sergey Brin en personne, sont destinées à illus-
trer tous les avantages qu’offre le travail à Moun-
tain View 15.

Milieux hybrides entre université et entreprise

Sur ces prémisses, le rapprochement de Google


et de l’Open Source paraît plus que jamais stra-
tégique et intéressé, même s’il a pour origine une
sensibilité commune concernant les dynamiques

104
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 105

Google Open Source

coopératives typiques des communautés de déve-


loppement Free Software, nées dans le terreau
académique. La stratégie de l’accumulation mise
en évidence plus haut est à l’œuvre même dans
ce domaine : Google se comporte en effet comme
une sorte de trou noir qui utilise des codes ouverts,
voire en favorise la rédaction, puis les attire afin
de les intégrer à son circuit. Par exemple, cer-
taines des modifications que les programmateurs
de Google ont apportées aux outils ouverts en
usage n’ont jamais été rendues publiques. Leur
serveur Google Web Server (GWS), notamment,
est une version modifiée d’une version d’Apache,
le serveur web Open Source le plus diffusé de la
Toile. Cela revient ni plus ni moins à exploiter
les potentialités et les réalisations de la méthode
de développement ouvert, sans cependant faire
partager ses développements et ses améliorations.
Un facteur d’importance majeure sur les rela-
tions avec le monde Open Source est que Google
est né à Stanford, université connue pour sa capa-
cité à engendrer des start-up agressives et compé-
titives appuyées sur des recherches de haut
niveau. Malgré le fait que Stanford était, et
continue à être, un milieu favorable au dévelop-
pement de projets Open Source, le lien à double
fil avec les capitaux à risques rend difficile, pour
ne pas dire impossible, de poursuivre sur la route
de l’excellence académique une fois sorti du
campus.
Une brève digression sur la recherche universi-
taire américaine est ici nécessaire pour comprendre
les origines mixtes de Google, entre l’Open
Source et la recherche à but lucratif. En effet, au

105
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 106

La face cachée de Google

niveau le plus général, le souci des universités


américaines d’accaparer la création intellectuelle
est très marqué : l’usage veut que tous les projets
développés dans le domaine universitaire portent
le copyright de l’université qui a hébergé le
groupe de recherche. Stanford n’y fait pas excep-
tion. Du reste, aux États-Unis, les universités sont
historiquement liées au monde des affaires, et sont
souvent de véritables entreprises. Les brevets uni-
versitaires sur les inventions des chercheurs rap-
portent des bénéfices à tout point de vue, et
confèrent du prestige aux centres de recherche
ainsi qu’aux étudiants/chercheurs/ entrepreneurs.
Ces universités sont des milieux hybrides, à la
fois publics et privés. Jusqu’en 2002, les lieux de
recherche publics aux USA ne pouvaient pas, au
moins en théorie, faire breveter leurs inventions ;
la même chose valait pour les laboratoires privés
financés par des fonds publics (donc souvent les
universités). Le paiement des droits entrave en
effet la libre circulation des savoirs dans la
recherche scientifique, la possibilité de repro-
duire, de vérifier ou d’invalider les résultats expé-
rimentaux. Cela se fonde sur l’Experimental Use
Defense, « la Protection de l’Usage Expéri-
mental », un principe qui autorise l’usage gratuit
de technologies brevetées dans le domaine de la
recherche, introduit en 1813, et précisément aboli
en 2002 lors du jugement rendu en faveur du
chercheur John Madey. Madey avait assigné en
justice la Duke University, pour laquelle il tra-
vaillait, parce qu’elle employait un appareil bre-
veté par lui pour ses recherches laser sur des
électrons libres. La Cour a retenu que l’Experi-

106
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 107

Google Open Source

mental Use Defense avait été conçue pour pro-


téger le scientifique qui se livre à la recherche
désintéressée et libre, mais que dans les univer-
sités, cette activité n’était évidemment plus si
innocente et que, même dans les cas où elle n’est
pas directement commerciale, elle pouvait être
considérée comme un « commerce légitime »
(legitimate business), parce qu’elle procure des
financements et bénéficie à la force de travail et
au personnel en formation (étudiant). Ainsi dis-
paraît toute distinction entre recherche privée et
recherche publique 16.
Naturellement, tous les projets nés à Stanford
tombent sous le brevet de l’université, et ce
mélange de stimulations accordées aux projets
Open Source d’une part et le brevetage sauvage
de l’autre, ne correspond certes pas à l’idéal, et
encore moins à la pratique, de la « recherche »
en soi, tellement affichée par Google comme fai-
sant sa fierté et sa force.
La question du brevet devient encore plus inté-
ressante si l’on se souvient que le succès de
Google repose sur un algorithme inventé par
Larry Page sur la base de sa collaboration avec
Sergey Brin, à une époque où ils étaient encore
chercheurs à la faculté de Sciences Informatiques
de Stanford. L’algorithme qui a révolutionné
l’indexation de la Toile est donc la propriété de
Stanford, soumis à un brevet régulier. Nous
allons découvrir en détail comme fonctionne ce
prodige, comment il réussit à fournir des résultats
en moins de temps que n’importe quel concur-
rent, comme s’il pouvait vraiment donner à
chaque utilisateur « ce qu’il veut ».
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 108


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 109

IV. Les algorithmes, quelle passion !

La croissance vertigineuse de Google n’a pas


entamé sa réputation de moteur rapide et efficace,
fiable et complet : nous avons tous entendu dire
que « si ce n’est pas sur Google, ça n’existe
pas ! » et que « ça va plus vite avec Google ». Au
fondement de ce succès, outre les éléments que
nous avons analysés jusqu’à présent, se trouve
l’algorithme PageRank™, déjà cité en introduc-
tion, qui guide le spider de Google à la décou-
verte de la Toile. Voyons en détail de quoi il
s’agit et comment il fonctionne.

Algorithmes et vie réelle

Un algorithme 1 est une méthode de résolution


de problème, une procédure qui se compose
d’une séquence d’étapes simples à exécuter pour
obtenir un certain résultat. Un algorithme qui par-
vient à la solution du problème est dit correct, et
si la solution est obtenue en peu de temps, il
est dit efficace. Il existe beaucoup de types diffé-
rents d’algorithmes, employés dans les domaines

109
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 110

La face cachée de Google

scientifiques les plus divers. Pourtant, il ne s’agit


pas d’obscures procédures qui concernent une
étroite minorité de spécialistes, ce sont au
contraire des pratiques qui influencent nos vies
quotidiennes beaucoup plus de ce qu’il en semble
au premier regard.
Par exemple, les techniques pour enregistrer
un programme télévisé utilisent des algorithmes,
mais les méthodes pour mettre en ordre un tas de
papiers, ou pour organiser les escales d’un très
long voyage, le font aussi. Dans un temps relati-
vement prévisible, en réalisant une série d’étapes
simples et reproductibles à l’identique, nous choi-
sissons plus ou moins implicitement les algo-
rithmes adaptées à la solution que nous cher-
chons. « Simples » signifie surtout spécifiés sans
ambiguité, d’une manière immédiatement évi-
dente pour celui qui appliquera l’algorithme. En
ce sens, une recette est un algorithme : « faites
bouillir trois litres d’eau dans une marmite, saler,
jetez cinq cents grammes de riz, égouttez après
douze minutes, ajoutez une sauce à votre goût »
est une description d’étapes simples et non ambi-
guës, à condition que le destinataire de la recette
soit en mesure de préciser des passages comme
« salez », ou « ajoutez une sauce à votre goût ».
Les algorithmes ne sont pas nécessairement
des méthodes pour obtenir une solution dans les
moindres délais. En effet, il en est certains qui
sont chargés d’obtenir des solutions acceptables
sans se préoccuper du facteur temps ; d’autres
encore permettent d’obtenir un résultat en le plus
petit nombre d’étapes, ou ont comme priorité
l’épargne de ressources 2.

110
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 111

Les algorithmes, quelle passion !

Il importe de souligner, avant tout approfon-


dissement spécialisé, que la nature elle-même
applique sans cesse des algorithmes. Les algo-
rithmes nous concernent tous parce qu’ils sont
des pratiques concrètes destinées à atteindre un
objectif donné. Dans le domaine informatique, ils
sont utilisés pour résoudre des problèmes récur-
rents dans la programmation de logiciels, dans
l’élaboration de réseaux et dans la construction
d’appareils hardware. Depuis quelques années,
surtout à cause de l’importance croissante des
modèles réticulaires d’analyse et d’interprétation
de la réalité, de nombreux chercheurs ont centré
leurs études sur les méthodes de construction et
de parcours des réseaux et des données qui en
constituent la matière vive. L’économie de la
recherche dont parle John Battelle 3 est rendue
possible par le perfectionnement d’algorithmes
pour la recherche d’informations, étudiés pour
augmenter les possibilités de découverte et de
partage des données avec toujours plus d’effica-
cité, de rapidité, de fiabilité et de sécurité. Le cas
le plus connu du grand public est le phénomène
du peer-to-peer : au lieu de créer d’énormes ban-
ques de données auxquelles on devrait accéder
pour trouver des vidéos, du son, des textes, des
logiciels et d’autres informations en tous genres,
des algorithmes sont continuellement développés,
toujours plus optimisés, afin de faciliter la créa-
tion de réseaux hautement décentrés, dans les-
quels chaque utilisateur peut se mettre directe-
ment en contact avec d’autres utilisateurs et
réaliser des échanges fructueux 4.

111
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 112

La face cachée de Google

La stratégie de l’objectivité

L’augmentation vertigineuse de la qualité et de


la quantité de bande dans nos ordinateurs, ajoutée
à la constante diminution des coûts, nous ont
permis de naviguer mieux, plus longtemps et plus
rapidement sur internet. Il y a seulement vingt
ans, les modems à quelques baud (nombre de
symboles transmis à la seconde) étaient un luxe
réservé à peu de gens. Aujourd’hui, à peu près
partout en Europe, la fibre optique à travers
laquelle voyagent des millions d’octet à la
seconde est une technologie accessible. Il y a dix
ans, il fallait de hautes compétences informati-
ques pour créer des contenus adaptés aux réseaux
numériques ; tandis qu’aujourd’hui, la publica-
tion plus facile de contenus sur le web, l’omni-
présence du courrier électronique, l’amélioration
des systèmes d’écriture collective on line comme
le blog, le wiki, les portails, les mailing lists, ainsi
que la diminution parallèle des coûts d’enregis-
trement et d’entretien des domaines et des espaces
Internet, favorisent la transformation des utilisa-
teurs : jadis simples consommateurs d’informa-
tions mises à leur disposition par les spécialistes
des TI, ils deviennent toujours plus créateurs
d’informations.
L’amélioration de la connectivité va donc de
pair avec une croissance exponentielle des don-
nées mises en réseau et, comme nous avons déjà
eu l’occasion de le remarquer, implique la pres-
sante nécessité de moyens de recherche toujours
meilleurs. La pressante nécessité des services de

112
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 113

Les algorithmes, quelle passion !

recherch, ressentie à tous les niveaux d’activité,


attire fortement l’intérêt des sociologues, des
informaticiens, des ergonomistes, des designers,
des spécialistes de la communication en général.
D’autre part, le déluge informationnel des réseaux
globaux n’est pas une banale « mise en réseau »
des sociétés telles que nous les connaissons, mais
un phénomène extrêmement complexe, qui exige
d’être interprété à nouveaux frais. Nous croyons
par conséquent qu’un tel engagement théorique
et pratique ne peut pas être délégué aux spécia-
listes, mais doit être le fruit d’une élaboration
collective.
En effet, si d’un coté la construction de réseaux
autogérés peut être l’occasion d’agrandir et de
relier entre elles des régions autonomes, de l’autre
le contrôle social trouve dans les technologies de
l’information un moyen de répression formidable.
La réalisation de ce second scénario, dont le
cas Echelon 5 est seulement la manifestation la
plus bruyante, semble assurément plus probable
à la lumière de la constante augmentation du
nombre d’individus qui produisent des informa-
tions, contrastant avec la diminution continue des
fournisseurs de moyens de recherche. L’accès
aux informations produites par un nombre tou-
jours plus important d’individus est géré avec une
poigne de fer par des gens qui, en en gardant le
monopole, réduisent une délicate question sociale
et politique à une compétition de marketing où
tous les coups sont permis, dans laquelle l’adop-
tion d’un meilleur algorithme permet d’être le
vainqueur.

113
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 114

La face cachée de Google

En effet un algorithme de recherche est un outil


technique qui active un mécanisme de marketing
extrêmement subtil : l’utilisateur a confiance dans
le fait que les résultats ne sont pas filtrés et cor-
respondent à des préférences de navigation
engendrés par la communauté des utilisateurs. En
somme, on propage un mécanisme de confiance
en l’objectivité de la technique, reconnue comme
« bonne » puisque libre des influences idiosyn-
cratiques et des préférences propres aux individus
humains. Les machines « bonnes », filles d’une
science « objective » et d’une recherche « désin-
téressée », ne manipuleront pas les résultats, ne
diront pas de mensonges parce qu’elles ne peu-
vent pas mentir et n’auraient de toute façon aucun
intérêt à le faire. La réalité est bien différente et
cette croyance s’avère être une hypothèse déma-
gogique, derrière laquelle les machines de mar-
keting et de contrôle accumulent des profits
fabuleux.
Le cas de Google est l’exemple éclatant de
cette « stratégie de l’objectivité » liée à la tech-
nique : en effet, le moteur de recherche « bon par
définition » exploite et trace entièrement et conti-
nuellement les comportements des utilisateurs
qui utilisent ses services, afin de profiler de leurs
habitudes et d’insérer dans leurs activités (navi-
gation, courrier, gestion des dossiers, etc) une
publicité personnalisée, contextualisée, légère,
omniprésente, et potentiellement à même de géné-
rer un feedback, de sorte que les utilisateurs
soient en mesure de fournir de la plus simple
manière des informations utiles aux vendeurs et
qu’ils arrivent à améliorer eux-mêmes les « sug-

114
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 115

Les algorithmes, quelle passion !

gestions publicitaires » en exprimant leurs préfé-


rences. La demande continue de l’opinion des uti-
lisateurs, en plus de flatter les gens en leur donnant
l’impression de participer à une vaste « démo-
cratie électronique », est en effet la manière la plus
simple et la plus efficace pour obtenir des infor-
mations précieuses du point de vue commer-
cial sur les goûts des consommateurs. Ce sont les
préférences (et l’inconscience) des utilisateurs
qui renforcent l’hégémonie d’un moteur de
recherche, puisqu’un site très visité peut modifier
ses contenus en fonction des « suggestions »
commerciales, activant en conséquence d’habiles
mouvements économiques.
D’un point de vue strictement informatique,
les moteurs de recherche assument la gestion de
quatre éléments : la recherche de données dans la
Toile (spider), la mémorisation des informations
dans des archives appropriées (bases de données),
l’application d’un algorithme correct mettant en
ordre les données en fonction des recherches
(interrogation), et enfin le développement d’une
interface capable de satisfaire l’utilisateur. Cha-
cune des trois premières tâches fait l’objet d’un
type d’algorithme approprié : recherche, mémo-
risation/archivage, interrogation. La puissance de
Google, comme de Yahoo ! et des autres géants
de la recherche en réseau, repose donc sur :
1. un « spider », c’est-à-dire un logiciel ayant
pour fonction de prélever les contenus des
réseaux.
2. un disque dur d’énorme capacité pour
mémoriser les données sur des supports fiables
et redondants, afin éviter toute perte accidentelle.

115
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 116

La face cachée de Google

3. un système rapide pour trouver (et ordon-


ner) les résultats d’une interrogation en fonction
de la valeur de ranking des pages.
4. une interface utilisateur web (mais pas seu-
lement : Google Desktop et Google Earth, par
exemple, sont des programmes à installer sur la
machine de l’utilisateur) pour répondre aux
demandes concernant ces informations.

Spider, bases de données et recherches

Le spider est une application qui, dans la plu-


part des cas, est développée dans les laboratoires
des moteurs de recherche eux-mêmes. Son but
est de naviguer en sautant d’un lien à l’autre sur
les pages du web tout en récoltant des informa-
tions : formats des documents, mots clé, auteurs
des pages, liens suivants, etc. Au terme de ses
explorations, le logiciel-spider délivre le tout à la
base de données qui archivera les informations.
De plus, le spider doit se préoccuper de capter
les variations de chaque site et donc de pro-
grammer une prochaine visite pour emmagasiner
de nouvelles données. En particulier, le spider de
Google gère deux types de balayage des sites,
l’un mensuel et approfondi, deep-crawl, l’autre
quotidien, fresh-crawl, destiné à la mise à jour.
De cette manière, les bases de données de Google
sont constamment mises à jour par le spider sur
les évolutions des réseaux. Après un balayage
approfondi, Google consacre quelques jours à
mettre à jour les diverses indexations et diffuser

116
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 117

Les algorithmes, quelle passion !

les nouveaux résultats dans tous les centres de


données. Ce laps de temps est connu sous le nom
de « Google dance » (la danse de Google) : les
résultats des recherches diffèrent même sensible-
ment, puisqu’ils font référence à des index dis-
tincts. À partir de 2003, Google a modifié ses
méthodes de catalogage et de mise à jour, en limi-
tant drastiquement les effets de la « dance » et en
les étalant dans le temps ; en effet, les résultats
des recherches varient désormais de manière
dynamique et continue, sans aucun séisme pério-
dique. En réalité, les résultats des recherches
changent même en fonction des précédentes navi-
gations des utilisateurs, qui sont ensuite archivées
et utilisées à « améliorer », au sens de « simpli-
fier », le repérage des informations 6.
La liste de choix que l’application réalise pour
indexer un site est la véritable puissance de
l’algorithme de Google. Tandis que l’algorithme
de la base PageRank™ est déposé sous le brevet
de Stanford, et donc public, ces dernières étapes
algorithmiques ne sont pas révélées publique-
ment, ni par Google, ni par aucun des moteurs de
recherche actuellement en service ; de la même
manière, les procédures de sauvetage dans les
bases de données ne sont pas publiques.
Dans le domaine informatique, une base de
données (database) est, en somme, une archive
numérique ; dans sa forme la plus simple – et
actuellement la plus commune – on peut la repré-
senter comme un ou plusieurs tableaux reliés
entre eux qui ont des valeurs d’entrée et des
valeurs de sortie : on parle alors de bases de don-
nées relationnelles. Comme toute archive, une

117
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 118

La face cachée de Google

base de données est organisée selon des règles


précises de stockage, d’extraction et d’améliora-
tion continue des données elles-mêmes (récupé-
ration de données endommagées, correction de
voix dédoublées, constante mise à jour des pro-
cédures d’acquisition des données, etc). Les
informaticiens étudient depuis des décennies les
méthodes de recherche, d’introduction et d’amé-
lioration des données dans les databases. Pour ce
faire, ils expérimentent des langages de program-
mation et des approches différentes (hiérar-
chique, réticulaire, relationnelle, par objet, etc).
L’élaboration d’une base de données est une
composante cruciale du procès de développement
d’un système complexe d’informations tel que
Google, puisque c’est d’elle que dépend essen-
tiellement sa fonctionnalité. Pour obtenir une
rapide extraction des données et plus générale-
ment une gestion efficace, il est donc fonda-
mental de déterminer correctement les buts de la
base de données (et dans le cas des databases
relationnelles, des tableaux) qu’on doit définir en
fonction des domaines et des relations qui les
lient. Naturellement, il est nécessaire d’intégrer
les approximations, qui sont inévitables lorsque
l’on passe des langues naturelles et analogiques
aux données numériques. Le hic réside dans le
caractère secret de ces méthodes : comme c’est
le cas dans tous les projets de développement pro-
priétaires, à la différence de ceux qui sont libres,
il est très difficile de savoir quels moyens et quels
algorithmes ont été utilisés.
Les textes rédigés par les centres de recherche
et les universités permettent de repérer les maigres

118
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 119

Les algorithmes, quelle passion !

informations rendues publiques à propos des pro-


jets propriétaires. Dans ces textes se trouvent des
informations utiles pour comprendre la structure
des ordinateurs et la manière dont les moteurs de
recherche gèrent les données. Pour donner une
idée de la puissance de calcul actuellement dis-
ponible, on trouve la description d’ordinateurs
capables de convertir des adresses internet en
séquences univoques d’octets utilisés comme
index pour les bases de données en 0.5 micro-
seconde et capables d’exécuter en même temps
9 000 spider ; il s’agit de systèmes susceptibles
d’analyser et d’emmagasiner environ 50 millions
de nouvelles pages par jour 7.
Le dernier élément algorithmique qui se cache
derrière la façade « simple » de Google est le dis-
positif de recherche, c’est-à-dire le système qui,
au départ d’une interrogation faite par l’utilisa-
teur, est capable de trouver les résultats plus per-
tinents, de les ranger par ordre d’importance et
de ranking, et enfin de les envoyer à l’interface.
Quelques universités et laboratoires ont décidé
de rendre publiques leurs recherches en ce sens,
en particulier les solutions trouvées et les diffé-
rentes approches utilisées pour optimiser la
vitesse d’accès aux informations, la complexité
du système et la sélection des paramètres d’input
les plus intéressants.
Les moteurs de recherche, en effet, doivent être
en mesure de fournir des résultats optimaux
presque instantanément, en offrant en même
temps un éventail de possibilités de choix le plus
vaste possible. Google représente sans doute
l’état de l’art des moteurs de recherche : comme

119
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 120

La face cachée de Google

on le verra en détail dans le prochain chapitre,


ses extraordinaires résultats ne peuvent être
obtenus que grâce à la mise en œuvre de filtres
opportuns.
Pour l’heure, il importe de savoir que la meil-
leure solution réside dans un juste équilibre entre
puissance de calcul et qualité de l’algorithme de
recherche. Rechercher une information parmi
des teraoctets (1 To = 1 000 Gigaoctets) ou
des petaoctets (1 Po = 1000 To = 1 million
de Gigaoctets) nécessite l’emploi de supports
extraordinaires d’archivage et de formidables
systèmes d’indexation, ainsi qu’une égale apti-
tude aussi bien à déterminer où dans l’énorme
archive se trouve l’information, qu’à calculer le
temps nécessaire à la prélever.
La Toile fourmille de légendes, ni toujours
vraies ni vérifiables, quant à la capacité de calcul
de Google, notamment parce que l’entreprise
révèle peu de détails sur son infrastructure tech-
nologique. Quelques sources parlent de centaines
de milliers d’ordinateurs reliés entre eux en mil-
liers de gigantesques clusters qui montent des dis-
tributions GNU/Linux adaptées ; d’autres de
super-ordinateurs, dispositifs dont l’esthétique ren-
voie aux scénarios de science-fiction : d’énormes
silos super-réfrigérés dans lesquels un ou plu-
sieurs bras mécaniques déplacent à très grande
vitesse des milliers de disques durs. Les deux
hypothèses sont aussi plausibles l’une que l’autre,
et elles ne s’excluent pas nécessairement. Assu-
rément, l’extrême flexibilité des machines de
Google permet des prestations exceptionnelles,

120
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 121

Les algorithmes, quelle passion !

dès lors que le système est « ouvert » à des amé-


liorations continues.

Du brand-identity à l’interface participative

Recherche, archivage et repérage des données


sont des procédures extrêmement complexes qui
nécessitent, pour être tout à fait comprises, des
connaissances et des approfondissements qui
dépassent les buts de ce livre. Nous verrons plus
loin en détail quelques aspects de leur fonction-
nement. On doit accorder une attention particu-
lière à l’interface, car tandis que les performances
de l’algorithme et l’architecture de la base de
données sont des éléments structurels du moteur
de recherche qui restent cachés à l’utilisateur,
l’interface est mise en avant et gérée comme
l’image de Google même.
Par interface, on entend avant tout le « blank
box » 8, l’espace vide où sont introduites les ques-
tions ou « intentions de recherche » au sein de la
page universelle de Google, étudiée pour appa-
raître comme accueillante, réconfortante, fami-
liale.
Il s’agit d’une position dite universelle parce
qu’elle est déclinée en de nombreuses langues
(actuellement plus de 104 langues et dialectes
personalisables dans plus de 113 pays). Dans cer-
taines d’entre elles, le modèle d’interaction pré-
senté reste inchangé et unifie les comportements
de recherche dans un schéma unique et homo-
gène.

121
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 122

La face cachée de Google

Sur la page de Google, on découvre d’abord


une interface linéaire composée d’éléments essen-
tiels, chacun avec une fonction bien précise et
universellement reconnue. Elle est en mesure
d’accepter des indications de recherche de nature
et de complexité différentes, depuis l’introduc-
tion de simples mots clé (par exemple « ippo-
lita ») jusqu’aux mots composés, placés entre
guillemets (par exemple « collectif d’auteurs »),
jusqu’à des recherches ciblées : par exemple,
elles peuvent être limitées à un site particulier,
ou bien à une langue spécifique, ou à des pages
provenant seulement d’un domaine déterminé, ou
encore à des documents d’un certain format,
et ainsi de suite, selon le degré de raffinement
qu’on veut obtenir. Il s’agit en l’occurrence d’un
exemple réussi d’interface qui atteint l’objectif
ambitieux d’associer une signification positive à
l’espace blanc de la page. L’interface se présente
sans fioritures, presque vide, ou plus exactement,
remplie d’un unique élément « vide » : le blank
box, qui rassure l’utilisateur et tend à induire des
comportements actifs, en évitant de provoquer la
perte tantôt due à l’absence de points de réfé-
rence, tantôt au contraire à la présence de stimuli
visuels surabondants. On évite ainsi la confusion
engendrée par les pages trop pleines, qui sem-
blent atteintes d’une sorte d’horror vacui (hor-
reur du vide), d’une anxieté comunicative qui,
dans leur effort pour attirer l’utilisateur avec
mille bannières, effets graphiques, animations,
obtiennent souvent l’effet inverse.
Il n’y a pas de véritable navigation sur la page
de Google : les différentes composantes d’une

122
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 123

Les algorithmes, quelle passion !

page ont un sens fonctionnel. Ils servent à accéder


à des services, pas à conduire l’utilisateur sur un
chemin ; leur usage amorce des comportements
qui font très rapidement partie d’une routine de
recherche, au point de sembler instinctifs après
peu de temps. L’interface du moteur de recherche
est étudiée de sorte que l’usage, la dynamique
de fonctionnement et les attentes de l’utilisateur
(d’un utilisateur générique) se répètent ; ainsi,
même après avoir emmagasiné et digéré les « per-
sonalisations » de l’utilisateur, les pratiques de
recherche restent substantiellement identiques, au
point qu’on peut parler d’un outil « universel ».
La disposition des textes et des images est
linéaire. Elle se sert d’éléments graphiques récur-
rents, notamment l’emploi des couleurs primaires ;
les images employées sont qualitativement
homogènes. Le style de projection de l’interface
est sobre, presque austère, et en dépit du design
de tendance brand-identity (et corporate-iden-
tity) 9, orienté par la recherche d’une esthétique
spécifique, il fait appel à des qualités perceptives
élémentaires mais très efficaces dans leur simpli-
cité.
De cette identification visuelle immédiate
dérive une facilité d’utilisation nettement supé-
rieure aux moteurs de recherche concurrents. Le
niveau d’ergonomie atteint est stupéfiant : Google
n’a pas besoin de se présenter dans son interface
comme un concentré de services ; son architec-
ture visuelle est typique des portails multiser-
vices. Les interfaces des différents services sont
autonomes et substantiellement indépendantes,
toutes caractérisées par la présence de « blank

123
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 124

La face cachée de Google

box ». Aucun lien ne les relie les unes aux autres


de manière directe. Par exemple, il n’est pas
nécessaire de passer par beaucoup d’étapes
compliquées pour atteindre le service de
code.google.com, conçu pour les techniciens de
tous niveaux, en partant du service de base de
recherche des images, c’est-à-dire d’images.
google.com, qui s’adress au public le plus large :
il suffit de descendre « en profondeur » dans le
site google.com et de savoir chercher. Malgré
cette fragmentation, nous sommes tous en mesure
de reconnaître le réseau de services offert par
Google ; de plus, les usagers sont en mesure
d’utiliser de manière combinée et complémen-
taire les sources d’informations mises à leur dis-
position, qu’il s’agisse de ceux qui se contentent
du simple usage du browser, ou bien des google-
dépendants, ou des Google-totally-addicted (les
accros de Google) 10 qui se précipitent avec
enthousiasme sur chaque nouveau service.
Cette décentralisation des services engendre un
mécanisme relationnel particulier : les utilisateurs
ne découvrent pas directement par Google les
nouvelles sections, mais par le réseau informel
des utilisateurs, via d’autres sites où les visiteurs
exposent leurs goûts et discutent de leurs habi-
tudes. La vaste gamme des services offerte par
Google est automatiquement localisée par son
usager même, dès lors qu’il s’intéresse à un nou-
veau service. Par exemple, en ce qui concerne
la zone géographique, l’interface linguistique
appropriée est immédiatement présentée à l’uti-
lisateur. D’autre part, il est facile de cerner le type
d’utilisateurs auxquels s’adresse un service, et

124
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 125

Les algorithmes, quelle passion !

d’évaluer le degré de préparation technique


requise, ou le degré d’affinité avec les autres uti-
lisateurs. Le mécanisme de bouche-à-oreille
devient donc semblable à un « PageRank rela-
tionnel ».
En première approximation, il existe une
dimension relationnelle locale, où le bouche-
à-oreille concerne des amis et des connaissances,
et une dimension relationnelle typologique, où un
certain type d’utilisateurs, identifiables en fonc-
tion de paramètres statistiques (âge, sexe, profes-
sion, etc.) utilisent un service particulier et met-
tent en marche l’économie relationnelle.
Les dix problèmes relatifs à l’usage des sites
web, discutés par Jakob Nielsen 11, l’un des spé-
cialistes les plus connus des interfaces utilisateur,
semblent ne pas épargner le site de Google.
Celui-ci, bien qu’écrit en langage HTML et tota-
lement hors standard 12, réussit à assurer la pleine
visibilité de tous les browsers, graphiques ou
textes existant à ce jour.
La propreté graphique des pages est mise en
valeur par une excellente gestion visuelle des
aspects commerciaux. Aucun lien publicitaire en
page d’accueil ou dans les pages de documenta-
tion et d’information : chez Google, la publicité
se trouve seulement parmi les résultats des
recherches, expressément séparée des résultats
proposés mais non sans rapport avec les sujets
recherchés. On peut donc dire que Google est
capable d’exprimer, au moins par la disposition
scénique de ses interfaces, un juste compromis
entre le respect des utilisateurs et la nécessité de
revenus économiques. La publicité, principale

125
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 126

La face cachée de Google

source de recettes de Google, est montrée et réa-


lisée de façon à ne pas devenir envahissante et à
ne pas distraire les usagers dans leur utilisation
des services. Les liens publicitaires sont sponso-
risés de manière dynamique pour suivre le par-
cours accompli par un utilisateur à l’intérieur du
moteur de recherche et donc, en second lieu, sur
les sites Internet.
Les liens commerciaux ne sont pas donc stati-
ques, ils se modifient et accompagnent les recher-
ches des utilisateurs. Cela est possible grâce à
feed RSS (acronyme de RDF Sitees Summary, ou
de Really Simple Syndication), l’un des formats
les plus utilisés pour la distribution de contenus
Web, et grâce aux différentes sources informa-
tives numériques (quotidiens, revues, agences de
presse, etc) aptes à modifier dynamiquement la
page d’accueil de Google. En effet, Google met
sa page d’accueil à disposition des utilisateurs
enregistrés, en la rendant totalement configurable
par l’ajout de feed RSS : il est ainsi possible d’éta-
blir les prévisions météo automatiques pour les
villes qu’on souhaite, ou de sonder l’archive
historique des recherches effectuées. On peut
organiser les signets et les derniers messages
électroniques reçus, mais aussi avoir sous
contrôle les dossiers de son ordinateur sans rap-
port avec le contenu web, grâce à l’application
Google Desktop.
Le mécanisme de promotion publicitaire, les
services et les mécanismes sophistiqués de défi-
nition des profils utilisateur semblent constituer
un tout cohérent, aussi bien au niveau esthétique
qu’à celui des contenus ; comme ils le clament

126
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 127

Les algorithmes, quelle passion !

eux-mêmes, les liens sponsorisés ne sont rien


d’autre que de simples suggestions, graphique-
ment compatibles et conceptuellement cohérentes
avec l’opération de recherche qui s’accomplit.
L’économie de Google est si intégrée à l’inter-
face, qu’elle peut être échapper au champ visuel
de celui qui n’est pas intéressé, et fait au contraire
fructifier le désir de celui qui trouve le lien et les
parcours commerciaux proposés intéressants.
Yahoo ! 13, et beaucoup d’autres moteurs de
recherche et de portails, mettent à disposition des
moyens analogues pour personnaliser leurs pages
d’accueil. Pourtant, la quantité et la qualité des
offres de Google restent aujourd’hui inégalées. Il
s’agit de configurations plutôt simples, mais qui
demandent de toute façon une certaine familiarité
avec les interfaces web et un certain temps pour
être réalisées. En milieu web, le seuil d’attention
est notoirement bas, les pages sont visualisées et
abandonnées dans des intervalles très rapides, de
l’ordre de quelques secondes ; de sorte qu’un uti-
lisateur qui investit quelques minutes, voire des
dizaines de minutes, révèle des choix qui dévoi-
lent beaucoup de choses le concernant lui, et ses
habitudes de consommateur. Ces informations,
soigneusement archivées par l’entreprise (que ce
soit Google ou Yahoo !) constituent la véritable
richesse produite par l’utilisateur lui-même, et
sont essentielles pour que les sociétés sponsors
puissent proposer des biens et des services ciblés.
La personnalisation des pages rend un site plus
sympathique : le site lui-même devient comme
un outil personnel dans lequel l’utilisateur
investit du temps, en choisissant ses couleurs, son

127
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 128

La face cachée de Google

aspect, ses contenus. Un visiteur habituel en


mesure de configurer sa page initiale est intégré
et prend part à la construction de l’interface web.
Lui laisser le pouvoir et le contrôle sur quelques
pages signifie faire passer l’utilisateur du statut
de simple cible pour les campagnes publicitaires,
à celui de consommateur « intelligent ». Promou-
voir l’interaction est sans aucun doute le meilleur
et le plus subtil moyen de fidélisation. On voit se
profiler des milieux dotés d’interfaces participa-
tives, sans exclusion, aptes à recevoir une publi-
cité toujours plus personnalisée, afin de nous faire
entrer tous ensemble dans le monde doré de
Google.

PageRank, ou l’autorité absolue


d’un monde fermé

L’algorithme qui permet à Google d’assigner


une valeur aux pages indexées du spider est
connu sous le nom de PageRank™.
Nous savons déjà que le fonctionnement du
PageRank™ repose sur la popularité d’une page
web, calculée à partir du nombre de sites qui ont
au moins un lien vers elle. À égalité de liens,
deux pages web auront des PageRank™ diffé-
rents selon l’importance de celles à qui elles sont
reliées : ce mécanisme constitue l’aspect « quali-
tatif » des sites.
Donnons un exemple concret : souvent, en
contrôlant les statistiques d’accès d’un site, on
relève un nombre énorme de contacts venant de

128
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 129

Les algorithmes, quelle passion !

sites pornographiques. Cela vient du fait que


Google attribue un ranking en fonction des accès,
qui apparaissent à leur tour dans les pages de sta-
tistiques publiques. Il existe par conséquent des
programmes qui exploitent l’aspect invasif de
cette logique de connexion et d’évaluation des
nœuds pour élever le rank ; comme souvent, les
sites pornographiques en sont les premiers expé-
rimentateurs (ce fut le cas pour les galeries
d’images sur le web et pour le commerce on line).
Dans la pratique, quelques programmes s’occu-
pent de chercher les sites avec des statistiques
d’accès publiques ; un nombre très élevé de
demandes est donc effectué en simulant des
visites. Celles-ci proviennent d’un faux lien pré-
sent sur un autre site, qui dans la plupart des cas
est précisément un site pornographique. Ce méca-
nisme de bombardement fait littéralement explo-
ser le nombre d’accès aux sites en question, de
sorte que les statistiques affichent des accroisse-
ments notables, ce qui augmentera sensiblement
le Google-ranking du site, et en dernière analyse
celui du site pornographique dont vient le lien :
en somme, tout le monde y gagne, au moins pour
ce qui est d’obtenir de la visibilité. Ce type d’opé-
ration n’est pas illégal : personne ne défend de
faire des demandes à un site Internet. Grâce à
cette pratique, les sites à statistiques publiques
obtiennent un ranking plus élevé.
Un tel mécanisme permet d’illustrer comment
la magie technologique du ranking de Google,
qu’on croit objective et vérace, est liée aux « bas-
fonds » d’un réseau qui n’a rien de très glorieux

129
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 130

La face cachée de Google

prestigieux et à des pratiques de liaisons plutôt


équivoques.
On connaît d’autres pratiques légales qui
exploitent l’approche de l’indexation faite par
Google, comme par exemple SEO (Search
Engine Optimization, Optimisation du Moteur de
Recherche) ; il s’agit d’un ensemble d’actions
destinées à améliorer la position d’un site web
dans les résultats de recherche. L’obtention d’une
place au premier rang est souvent liée à l’envoi
par e-mail de spams provenant d’adresses impro-
bables, évidemment produites par des pro-
grammes automatiques, qui assurent des résultats
stupéfiants.
« Nous enregistrons votre site dans 910 moteurs
de recherche, registres et catalogues web. Nous
amenons votre site aux premières places dans
Google et dans Yahoo ! Faites l’essai ! Il n’y a
aucun risque. 299 euros seulement, au lieu de 349
(prix unitaire, sans abonnement). » Bien entendu,
Google continue d’afficher sa transparence :
« personne ne peut garantir que votre site appa-
raisse à première place dans les résultats de
Google » 14.
D’un point de vue mathématique, une consé-
quence du PageRank™, qui repose sur l’analyse
des liens, est l’intégrité de la base de données,
autrement dit la détermination d’un espace cir-
conscrit, si vaste soit-il, dans lequel s’accomplis-
sent les recherches. En substance, il existe tou-
jours dans le monde de Google un parcours qui
porte d’une page quelconque à n’importe quelle
autre page présente dans la base de données,
c’est-à-dire dans les réseaux indexés.

130
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 131

Les algorithmes, quelle passion !

Les recherches seront donc tendanciellement


fonctionnelles, évitant au maximum la possibilité
de liens cassés (broken links) ou d’informations
différentes de celles qui ont été précédemment
archivées, présentes dans la mémoire cachée
(cache memory). Le problème est que de cette
façon les utilisateurs sont induits à croire fausse-
ment qu’Internet est un monde clos, tout en liens,
complet, privé de chemins obscurs ou de par-
cours préférentiels, puisqu’il semblerait qu’à
partir d’une interrogation donnée, on arrive tou-
jours à un résultat « juste ».
Cela vient du fait que la vision googolienne
d’Internet est entièrement issue des parcours que
le spider accomplit dans son rebond d’un lien à
l’autre. Si une page n’est citée par aucun autre
site, alors elle ne paraîtra jamais dans aucune
recherche menée par un utilisateur, parce que le
spider n’a jamais eu moyen de la trouver, de la
peser et de l’évaluer. Toutefois, cela ne signifie
pas qu’il n’existe pas d’îles de données, au
contraire.
Les sites dynamiques en sont un exemple : là,
les fonctionnalités offertes reposent totalement
sur le choix de l’utilisateur. L’un de ces sites est
voyages-sncf.com : en compilant la fiche (form)
appropriée, le site est capable de fournir en temps
réel les horaires des trains, les correspondances,
les parcours les plus rapides pour rejoindre une
destination. Google n’est pas en mesure de
comprendre des requêtes de ces forms et donc
n’indexe pas les horaires et les parcours dynami-
quement générés par voyages-sncf.com. Seule
l’intervention humaine peut surmonter cet obstacle.

131
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 132

La face cachée de Google

L’unique solution proposée par Google est


d’englober dans son interface des moyens de
redirection sur les sites de compagnies aériennes
ou ferroviaires lorsque l’utilisateur recherche un
parcours, une destination et un horaire.
Il faut remettre en cause l’exhaustivité des réfé-
rences proposées par les bases de données de
Google, parce qu’elle sous-entend l’idée d’un
monde unique pour tous, clos et fini. Au contraire,
tracer un parcours dans un réseau complexe
signifie accomplir une exploration qui détermine
toujours des résultats relatifs et partiels.
Le rêve d’un « Google contenant tout l’Inter-
net » est une idée démagogique particulièrement
confortable, qui ne sert qu’à soutenir la complé-
tude et la fiabilité des informations disponibles,
toutes qualités qui feraient en somme de Google
un « service unique », dispensateur de vérité.
Dans les recherches de la vie quotidienne, une
clôture aussi absolue est très fonctionnelle, parce
qu’elle mène rapidement à un résultat ; mais en
réalité, dans un système réticulaire complexe, il
n’existe pas de vérités absolues, mais seulement
une validation qui se constitue selon le parcours
qu’on désire arpenter, ou même seulement en
fonction du temps qu’on est disposé à investir
dans la recherche. La qualité dépend entièrement
de la perception subjective que nous avons d’un
résultat estimé comme plus ou moins acceptable.
Les réseaux que nous sommes en mesure d’ana-
lyser, d’apprécier et de vivre, sont des objets
complexes dont les nœuds et les liaisons chan-
gent en permanence. Puisque la décision d’accep-
ter le résultat d’une recherche dépend en dernière

132
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 133

Les algorithmes, quelle passion !

analyse de l’utilisateur, l’exercice de la capacité


critique est essentiel, ainsi que la conscience de
la subjectivité de son point de vue. Pour générer
le parcours qu’il est vraiment intéressant d’ana-
lyser, il est nécessaire de supposer l’existence
d’un réseau fini et limité, d’un monde que seules
nos exigences personnelles referment, en sachant
toutefois qu’il s’agit d’une localisation subjective,
qui n’est ni absolue ni constante dans le temps.
Explorer un réseau implique d’être capable de
diviser les réseaux en sous-réseaux d’analyse ;
cela revient à créer de petits mondes localisés et
temporaires 15.
En pratique, dans la navigation quotidienne,
les liaisons fortuites sont d’une importance
majeure : la création de liaisons nouvelles et inat-
tendues ne peut en aucune manière être prévue
par l’analyse des éléments de la Toile que sug-
gère le ranking de Google. Ces liaisons ont la
fonction de « portes dimensionnelles » et permet-
tent la diminution, voire l’annulation des dis-
tances entre deux nœuds du réseau.

PageRank™, ou la monnaie de la science

De plus, l’algorithme PageRank™, contraire-


ment à ce que rapporte la vulgate, n’est pas une
invention originale de Google, mais se fonde sur
les découvertes des mathématiques statistiques
d’Andrej Andreevic Markov, qui analysa dans les
premières années du XXe siècle les phénomènes
statistiques dans les systèmes fermés, c’est-à-dire

133
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 134

La face cachée de Google

les systèmes dans lesquels chaque élément est


nécessairement ou la cause ou l’effet d’autres élé-
ments du même système 16. Sergey Brin et Larry
Page sont certainement partis de cette base théo-
rique, mais les améliorations qu’ils ont apportées
n’ont pas été entièrement rendues publiques, sans
parler du brevet déposé par Stanford.
L’exemple le meilleur pour éclaircir la mor-
phologie de cet algorithme est le mot de passe
entre amis. Dans les relations interpersonnelles,
plus on parle d’un évènement donné, plus cela
prend d’importance et fait aussitôt partie d’un
patrimoine commun. Si on limite la diffusion de
l’évènement donné à une sphère réduite, sa popu-
larité sera moindre. La même chose est valable
pour les hommes de spectacle : plus ils réussis-
sent à faire parler d’eux, plus important leur ran-
king, plus ils seront connus, plus ils seront
célèbres (c’est pour cela qu’existent les émissions
autoréférentielles comme « la Ferme Célé-
brités »...). Cette même logique est appliquée par
Google aux données on line.
Google assure la propagande de sa méthode de
manière beaucoup plus convaincante, en répan-
dant l’image d’Internet comme d’une grande
démocratie, puisque l’algorithme agit comme si
les liens étaient des votes relatifs aux sites : peu
importe que le lien soit fait pour dire du mal ou
du bien, l’important est qu’on en parle. L’arnaque
que constitue cette « démocratie globale » obte-
nue par un algorithme saute aux yeux : comme
si la démocratie dépendait de la technologie et
non des pratiques des individus ! Les origines
culturelles de cette pratique, comme on l’a déjà

134
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 135

Les algorithmes, quelle passion !

souligné 17, dérivent du système extrêmement éli-


tiste des comités de lecture (peer-review) que
soutiennent les arbitres des publications scienti-
fiques : de cette façon, la contribution indivi-
duelle de chaque chercheur s’insère dans un
réseau de rapports, de vérifications et d’évalua-
tions qui permettent la transmission et le contrôle
des résultats de la recherche. La démocratie glo-
bale de Google se configure en somme comme
l’application sur la Toile de la « méthode scien-
tifique » des publications, grâce à l’algorithme de
PageRank™, une sorte d’« arbitre technolo-
gique » en mesure d’évaluer de manière objective
les informations du web, prenant en compte les
préférences exprimées par « le peuple des navi-
gateurs » à travers les liens, et de les proposer
dans l’ordre juste.
Le parallèle est frappant : d’un coté, les publi-
cations scientifiques acquièrent poids et autorité
en fonction de leur placement dans le cadre de
leur domaine de recherche spécifique ; un tel pla-
cement est obtenu par les citations, autrement dit
par les références à la littérature spécialisée. C’est
ainsi que la recherche scientifique garantit sa
cohérence, puisque chaque nouvel article ne naît
pas dans le vide, mais se pose comme l’étape
« présente » du long parcours de la tradition
scientifique. De l’autre côté, les liens des pages
web sont interprétées par le spider de Google
comme des « citations », qui justement augmen-
tent l’autorité, c’est-à-dire le ranking, de cette
page.
L’élitisme scientifique, qui fonde le sentiment
de respect craintif qu’inculque la « science »,

135
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 136

La face cachée de Google

repose curieusement sur la pratique de la publi-


cation : du reste, rendre « public » n’implique pas
rendre « accessible » et « compréhensible » 18. En
effet « les découvertes des scientifiques, qu’elles
soient théoriques ou expérimentales, ne sont pas
et ne peuvent pas être considérées comme des
connaissances scientifiques, tant qu’elles n’ont
pas été intégrées de manière permanente », sou-
tenait dans les années soixante-dix le sociologue
Robert Merton 19. L’affirmation est peut-être un
peu péremptoire (la science antique se transmet-
tait d’une manière qui n’était pas du tout
publique : qu’on pense à l’école pythagoricienne
en Grèce, à la distinction entre écrits ésotériques
et exotériques, etc.), mais elle met correctement
en évidence le caractère éminemment public de
la connaissance scientifique moderne. La commu-
nication n’est pas donc un sous-produit de la
recherche, mais plutôt partie intégrante d’une
forme de savoir fondée sur le caractère cumulatif
et coopératif. La science, au moins à partir du
e
XVI siècle, d’une part vise à obtenir des résultats
nouveaux, qui puissent constituer une augmenta-
tion du patrimoine cognitif, de l’autre reconnaît
comme point de départ les fruits des recherches
précédentes. On peut ébaucher une histoire de la
communication scientifique se developpant de
pair avec les medias qui en sont les supports :
depuis l’épaisse correspondance épistolaire entre
les scientifiques jusqu’à la presse périodique dans
des revues érudites, et enfin à la communication
numérique. Ce n’est pas un hasard si les premiers
nœuds d’Internet ne furent pas des centres de

136
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 137

Les algorithmes, quelle passion !

recherche académique qui avaient la nécessité de


communiquer et de partager leurs informations.

Toutefois, la mutation des supports n’a pas pro-


duit de changement substantiel dans la méthode
de connexion propre à cette forme de comunica-
tion, qui reste celle des citations. Décrites comme
« la monnaie de la science », les citations seraient
une sorte de tribut rendu par les scientifiques à
leurs maîtres et inspirateurs. Plus concrètement,
ils relient la recherche présente avec celle du
passé, qu’il s’agisse du même auteur ou d’autres
que lui. Il est raisonnable de penser que le nombre
de citations reçues par un travail déterminé puisse
être considéré comme une indication de son
importance, ou au moins de son impact sur la
communauté scientifique. Avec les années, ce
système est devenu un matériau d’étude spéci-
fique : l’analyse bibliométrique est une discipline
qui utilise des techniques mathématiques et sta-
tistiques pour analyser les modèles de distribu-
tion de l’information, et en particulier des
publications. Actuellement, la bibliométrie, en
particulier son indicateur le plus connu, l’impact
factor 20, est communément employée comme cri-
tère « objectif » pour évaluer la qualité du travail
scientifique effectué par un chercheur individuel
ou par une institution. Une grande archive pour
les analyses bibliométriques a été mise en ligne
en 1993, à Stanford justement, le berceau de
Google. Le projet SPIRES (Stanford Public
Information Retrieval System) 21 est né en 1974
des recueils de notes bibliographiques concer-
nant les articles de physique des hautes énergies

137
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 138

La face cachée de Google

réalisés par la bibliothèque universitaire de Stan-


ford. Parce qu’elle se limite à un domaine d’ana-
lyse restreint, SPIRES est une base de données
complète et d’accès gratuit, qui permet de faire
des recherches complexes directement sur les
citations. Un exercice que Brin et Page ont su
exploiter au mieux pour mettre au point l’algo-
rithme de PageRank™. Cependant, en plus de
l’algorithme, il y a encore quelques adaptations
qui contribuent à faire de Google un véritable
moyen de médiation globale du web.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 139

V. En prime, d’autres fonctions


ingénieuses

Les filtres sur les algorithmes : banques


de données préfabriquées et contrôle
des utilisateurs

La théorie des graphes 1 est la base mathéma-


tique de l’élaboration de tous les algorithmes en
réseaux, parmi lesquels figure aussi PageRank™.
Cette branche des mathématiques s’occupe entre
autres d’étudier les méthodes pour gérer, créer,
parcourir différents types de réseaux, et les décrire
par des graphes et par leurs grandeurs respec-
tives. La théorie des graphes s’est développée
de manière spectaculaire à partir du milieu du
e
XX siècle avec l’introduction des calculateurs
électroniques. On peut imaginer géométrique-
ment un graphe comme un ensemble de points
dans l’espace et de courbes continues qui joi-
gnent des couples de points sans se couper entre
elles. Dans la théorie des graphes, on appelle
graphe (à ne pas confondre avec graphique) une
figure constituée de points, dits sommets ou

139
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 140

La face cachée de Google

nœuds, et de lignes qui les unissent, dites côtés,


arêtes ou arcs 2.
Un réseau est un type particulier de graphe,
dans lequel il est possible d’assigner une valeur
différente (un « poids ») à chaque arc. Cela
permet de générer des valeurs de parcours diffé-
rentes. Internet est un graphe, et l’on peut en dire
autant de l’ensemble des pages du Web ; le sys-
tème de recherche de Google est organisé à partir
de cette thèse.
L’un des éléments fondamentaux des algo-
rithmes sur les réseaux est le facteur temps rap-
porté au nombre de nœuds examinés. Le temps
d’achèvement d’un parcours (ou d’une recherche)
qui relie un nœud du réseau à un autre dépend du
nombre d’éléments du réseau, et varie toujours
entre une valeur minimum et une valeur maximum,
qui peuvent à l’occasion être très différentes, en
fonction de l’algorithme qu’on utilise pour
générer le parcours.
Dans le réseau des pages Web, chaque page
est un nœud du graphe global et chaque lien est
un arc. Si l’on prend le facteur temps comme
prémisse, il apparaît avec évidence que les résul-
tats proposés par Google comme résultats de
n’importe quelle interrogation (en termes techni-
ques, une query en fonction de données) ne peu-
vent pas s’appuyer sur une consultation de
« tout » l’internet.
Le spider de Google est éternellement engagé
dans la tâche difficile de copier l’internet dans sa
base de données ; toutefois, on ne peut pas croire
qu’à chaque interrogation le moteur de recherche
feuillette ponctuellement toute sa base de don-

140
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 141

En prime, d’autres fonctions ingénieuses

nées pour trouver les résultats les plus pertinents.


Le facteur clé qui permet d’obtenir des résultats
presque immédiats dépend d’une série occulte de
limitations dans les sélections générales, c’est-
à-dire, concrètement, de l’application de filtres
particuliers. À partir d’une interrogation (query),
le filtre assure la vitesse du résultat final au
moyen d’une série d’écarts et de choix étudiés
expressément pour limiter l’intervalle (range) des
possibles blocs de données à analyser.
De cette manière, Google peut fournir des
résultats aux interrogations en des temps excep-
tionnellement courts. Toutefois, la recherche est
aussi peu transparente qu’elle est rapide, c’est-
à-dire pas du tout cohérente avec l’ensemble des
données présentes sur la portion de réseau indexé.
En d’autres termes, les résultats de la recherche
seront obtenus rapidement pas seulement grâce à
la puissance de calcul disponible, mais aussi et
surtout parce que les filtres permettent de réduire
le bassin d’informations où l’on puise.
La tâche d’un filtre consiste à opérer une sélec-
tion drastique sur les nœuds du réseau de manière
à les exclure (ou à les valoriser) de pair avec
d’autres liaisons éventuellement associées.
L’application de ces dispositifs vise à exclure (ou
inclure) des blocs entiers parmi les résultats glo-
baux.
Tout cela est possible grâce à l’usage de ban-
ques de données de recherches préfabriquées, où
des réponses standard sont fournies à des inter-
rogations standard, mais aussi grâce au profil de
l’utilisateur. Celui-ci est défini à partir de ses
recherches précédentes, sa langue, sa position

141
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 142

La face cachée de Google

géographique, etc. De cette manière, un utilisa-


teur qui accomplit habituellement des recherches
en français n’interrogera pas toute la banque de
données de Google, mais seulement la partie qui
est en français, ce qui permet une évidente éco-
nomie de temps.
Étant donné le nombre très élevé de données,
il est impensable d’employer des algorithmes
transparents, c’est-à-dire qui aillent toucher tous
les nœuds du réseau ; il est nécessaire d’intro-
duire des manipulations, des simplifications ou
des réductions dans les possibilités d’analyse,
tant pour des raisons techniques de computabilité
mathématique au sens strict, que pour des raisons
économiques évidentes. De plus, sans tomber
dans une médisance injustifiée, on peut facile-
ment concevoir, dans un système reposant sur des
approximations déjà imposées par des filtres,
l’insertion d’autres filtres pour ajouter ou mettre
en bonne position, avec la meilleure visibilité, les
résultats commerciaux, payants, ou simplement
chargés d’un message de propagande.
Toutefois, il faut observer que du point de vue
de Google, les filtres ajoutés ne sont pas directe-
ment liés à un intérêt économique, puisqu’ils ne
servent pas à vendre un produit. Ils sont liés à
l’utilisateur, à ses habitudes et à ses intérêts per-
sonnels. Google vend en effet de la publicité, non
des produits (ou seulement dans une faible
mesure, comme les produits hardware tels que
Google Minium et autres systèmes d’indexation
pour entreprises). Son intérêt principal est donc
d’obtenir des données associées en fonction de
paramètres qui permettent de réaliser les campa-

142
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 143

En prime, d’autres fonctions ingénieuses

gnes publicitaires avec précision. La personnali-


sation des résultats en fonction du destinataire est
possible selon les informations que Google même
fournit et rassemble de la manière la plus discrète
possible. Par exemple, le courrier électronique,
les blogs, les disques durs virtuels et les autres
services similaires représentent autant de banques
de données beaucoup plus utiles au profilage des
utilisateurs qu’eux-mêmes ne l’imaginent.
Les services « extras » mis à disposition par
Google en plus du simple moteur de recherche,
sont donc utiles à l’entreprise pour expérimenter
de nouvelles voies, mais aussi et surtout parce
qu’elles remplissent un rôle fondamental de
« centralisateurs des informations personnelles »
sur les utilisateurs.
Un exemple éclatant a été la boîte de courrier
électronique de Gmail, une sorte de disque dur
virtuel de Google (pour l’instant, plus de 2GB
d’espace on line ; cette capacité est en constante
croissance) offert par un système de diffusion
fondé sur le PageRank™ lui-même. En bref,
chaque nœud du réseau de Google (utilisateur)
dispose d’un poids (un certain nombre d’invita-
tions) et peut l’employer pour offrir le même ser-
vice (lien) à ses connaissances. Grâce à cette
méthode, on contrôle l’usage que chaque sujet
impliqué fait de ce service ; dans le même temps,
l’utilisateur met à la disposition de Google des
informations essentielles sur ses connaissances et
ses amis.
Dans un second temps, le mécanisme se diffuse
dans le réseau des personnes invitées, qui peuvent
faire de nouvelles invitations : de cette façon va

143
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 144

La face cachée de Google

se créer un graphe des relations humaines parmi


les utilisateurs d’une valeur stratégique énorme
pour la personnalisation des insertions publici-
taires.
Si l’on considère toutes les informations qu’on
peut extrapoler à partir de l’envoi d’e-mails (à
qui, pour quelle raison, dans quelle langue, dans
quels formats, avec quels mots clés, avec quelles
annexes, etc), on peut imaginer qu’il existe dans
la banque de données de Google, en plus d’une
copie forcément partielle mais significative
d’Internet, une copie elle aussi partielle, mais tout
aussi significative, des relations humaines, affec-
tives, professionnelles des usagers du service.
En théorie, les filtres servent simplement
à rendre l’interrogation plus rapide et plus
conformes aux exigences des individus ; ils sont
même absolument nécessaires d’un point de vue
technique. Toutefois, leur usage montre à quel
point il est simple, pour quelqu’un qui domine de
fait le domaine des services de recherche, d’en
exploiter les caractéristiques pour profiter en un
sens commercial des données à sa disposition,
sans respecter aucune confidentialité.
En bref, la base de données de Google est
actuellement en mesure d’ordonner, à travers
quelques mots clés, les résultats d’une recherche
(query) de manière différente selon le type d’uti-
lisateur, précisément sur la base des données en
sa possession relatives à tel ou tel utilisateur. Loin
d’être des résultats « objectifs », les résultats de
chaque recherche sont donc calibrés ; et même,
l’utilisation des services de recherche affine la

144
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 145

En prime, d’autres fonctions ingénieuses

capacité du système à « reconnaître » l’utilisateur


et à lui servir des résultats adéquats.
L’utilisation de chaque service est subordonnée
à l’acceptation de règlements et de décharges de
la part des utilisateurs, et dans tous les cas, Google
s’engage à ne pas divulguer d’informations réser-
vées et personnelles. Il est pourtant facile de
penser que Google peut commercialiser ou exploi-
ter les données de ses utilisateurs à des fins très
différentes, sans qu’on ait même besoin de consi-
dérer la possibilité (il faudrait dire : la certitude)
que les militaires et les forces de police en tous
genres puissent demander et avoir accès à des
semblables informations pour toutes les raisons
de « sûreté nationale » du monde. L’ajout de fil-
tres de recherche afin de personnaliser les résul-
tats est concrètement le scénario le plus probable.

Les cookies de Google, des biscottes qui


laissent des traces

Les profils 3 des utilisateurs reposent toujours


sur un système de sélection et de reconnais-
sance. Sur le réseau d’internet, on distingue deux
méthodes de profilage, explicite et implicite. Le
profilage explicite nécessite une procédure d’enre-
gistrement appropriée, qui implique de la part de
l’utilisateur l’envoi par formulaire (form) de don-
nées personnelles. Les informations envoyées,
archivées dans les bases de données, sont analy-
sées par une série de paramètres qui servent à
segmenter en groupes homogènes la totalité des

145
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 146

La face cachée de Google

utilisateurs enregistrés (âge, sexe, profession,


centres d’intérêt, etc). À l’inverse, le profilage
implicite est réalisé par le traçage d’utilisateurs
anonymes au cours de leurs visites sur un site,
par le biais de leur adresse ip ou par celui de
cookies, autant dire de biscottes. Les cookies sont
de petits dossiers de texte utilisés par les sites
web pour emmagasiner quelques informations
dans l’ordinateur de l’utilisateur. Au moment où
l’usager revient sur ces sites, le browser restitue
les informations sauvées dans la « biscotte ».
L’objectif est d’automatiser quelques opérations
d’authentification (login), de se rappeller des
éventuelles opérations en cours, mais surtout
d’associer le visiteur à toutes les informations
mémorisées dans ses précédentes visites.
La plupart des sites Internet qui offrent des
services on line utilisent les cookies et Google ne
fait absolument pas exception 4. Grâce à la combi-
naison de cookies et de filtres ajoutés sur les algo-
rithmes, il est possible d’avoir la trace de la
navigation d’une personne et de cumuler des
informations sur son « empreinte ».
Donnons un exemple : l’individu X a un
numéro de téléphone mobile enregistré à son
nom, avec lequel il appelle sa famille, quelques
amis et ses collègues de travail. Après un certain
laps de temps, il décide d’annuler ce numéro et
d’en utiliser un autre qui n’est pas à son nom, en
assurant de cette façon le respect de la confiden-
tialité (privacy). Avec son nouveau téléphone, il
reforme son cercle de connaissances en contac-
tant sa famille, ses quelques amis et ses collègues
de travail. Cette suite de « liens sociaux » (famille,

146
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 147

En prime, d’autres fonctions ingénieuses

amis, collègues) constitue au total une séquence


unique parmi tous les coups de téléphone du
monde, indissolublement liée au protagoniste de
cet exemple. Il n’est pas impossible de formaliser
une semblable séquence avec un graphe qui
représente les nœuds et les arcs d’un réseau : les
valeurs (les « poids » respectifs des arcs qui
relient les nœuds) pourraient être déterminées en
associant à la « proximité » un degré propor-
tionnel d’« amitié » avec le point de départ de
l’analyse, c’est-à-dire avec l’individu X de notre
hypothèse.
Supprimer les cookies est donc une excellente
pratique de défense de la confidentialité (pri-
vacy), mais on peut aisément faire un raisonne-
ment analogue à l’exemple précédent à propos de
l’usage des moteurs de recherche. Avec les coo-
kies, en cherchant des informations sur quelques
intervalles thématiques spécifiques, il est en effet
possible d’identifier des groupes de personnes,
sinon des individus, en fonction de leur empreinte
singulière laissée sur la Toile.
La trace unique qui estampille nos mouve-
ments, nos contacts sociaux (ou téléphoniques) est
aussi unique que les préférences, les goûts, les
idiosyncrasies, les passions qui nous distinguent
les uns des autres. Nos passions sont, dans ce cas,
les sites que nous visitons, et surtout les recher-
ches que nous effectuons pendant notre naviga-
tion. Cette masse d’informations que nous four-
nissons à n’importe quel moteur de recherche rend
possible la reconstruction de notre « empreinte » 5.
Comme toute biscotte qui se respecte, même
celles d’Internet ont une date de péremption. Les

147
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 148

La face cachée de Google

sites Internet qui délivrent leurs cookies à nos


browsers sont obligés d’en établir la date de
péremption, autrement dit un terme après lequel
le browser peut procéder à l’élimination des don-
nées contenues dans ledit cookie. Il n’est pas cou-
rant de savoir bien utiliser les cookies ; le fait que
Google ait su exploiter à son avantage un artifice
technique connu des développeurs du monde
POSIX (le standard international qui permet l’in-
teropérabilité des systèmes d’exploitation Unix et
Unixlike, qui comprennent même GNU/Linux)
est certainement digne d’intérêt. En effet, la date
de péremption de Google est 2038, autrement dit
presque la plus grande qu’on puisse fixer à un
cookie. Cela signifie que le browser de nos sys-
tèmes d’exploitation n’enlèvera jamais ces coo-
kies et les informations qui y sont sauvegardées 6.

Onanisme technologique : créez, cherchez


et consommez vos propres contenus !

Impossible de suivre les très rapides évolutions


et innovations « made in Google » : les lance-
ments de nouveaux services se succèdent de
manière quasi convulsive, et il devient très diffi-
cile de comprendre lesquels sont réellement des-
tinés à avoir à un impact dans nos vies et lesquels
seront au contraire oubliés d’ici quelques mois
ou quelques semaines. Du reste, il est aussi inin-
téressant qu’inutile de se perdre dans des élabo-
rations compliquées et des taxonomies exhaus-
tives qui omettraient inévitablement des excep-

148
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 149

En prime, d’autres fonctions ingénieuses

tions notables, si l’on considère la déperdition


élevée des informations et des innovations sur
Internet. La nature fluide et dynamique du réseau
décourage, si jamais quiconque en ressentait le
besoin, toute approche totalisante qui voudrait
tout connaître : n’importe qui perdrait ses moyens
au moment même de commencer un exposé aussi
faramineux.
Cela étant, on peut ébaucher, d’un point de
vue subjectif et lacunaire, une vision générale
du phénomène Google, sans pénétrer dans les
détails techniques et encore moins dans des pro-
nostiques d’avenir insuffisamment crédibles. Il
faut sans doute considérer l’affirmation crois-
sante de la figure du « prosumer » 7, surtout en ce
qui concerne le concept de personnalisation.
Google est connu pour son habitude avérée de
lancer des versions bêta de ses services, provi-
soires et encore en phase de test : cette dyna-
mique, comme nous l’avons vu dans le précédent
chapitre, est une adaptation directe des commu-
nautés de développement de Free Software. Les
utilisateurs, en donnant un feedback, en expri-
mant leurs suggestions et leurs impressions sur
son usage, contribuent de manière déterminante
à l’affirmation d’un nouveau service : ils sont au
même temps producteurs et usagers des services
qu’ils utilisent. Figures hybrides qu’on appelle
justement prosumers.
En voulant assumer la position de sujet de
médiation globale des contenus du web, Google
en somme vend des technologies et des résultats
de recherche (au moyen de la publicité) aux utili-
sateurs, qui tendent à être d’une part les créateurs

149
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 150

La face cachée de Google

des contenus du réseau, de l’autre les consomma-


teurs de ces mêmes contenus à travers les ser-
vices de Google, fortement conjugués à la pre-
mière personne.
Deux exemples, apparemment sans rapport
entre eux, peuvent éclaircir ce cycle fermé de pro-
duction et de consommation des contenus : les
Google Web Toolkit (GWT) 8 et l’association de
GTalk avec Nokia 9.
En mai 2006, Google a lancé le Google Web
Toolkit, un framework qui permet de développer
des applications Ajax en langage Java. Ajax
(Asynchronous Javascript and XML) est une
technique pour développer des applications web
interactives et dynamiques en employant le clas-
sique HTML (ou XHTML) en combination avec
CSS pour la partie visuelle, et avec le Javascript
pour montrer dynamiquement les informations et
interagir avec elles. Il s’agit de sites extrêmement
dynamiques, en somme, dans lesquels il n’est pas
nécessaire d’attendre à chaque fois le chargement
de toutes les informations de la page. Gmail, par
exemple, utilise Ajax. C’est une importante nou-
veauté : on change de cette façon l’approche créa-
tive des applications web, écrites dans un langage
dont les objets sont de haut niveau (Java) et qui
sont ensuite associées à du GWT et des réseaux
compatibles avec tous les browsers. Toutefois,
cette innovation ne justifie pas l’annonce en
grande pompe de l’invention d’un chimérique
« web 2.0 » qui révolutionnerait Internet en le
rendant adapté aux machines. En effet, les tech-
nologies de création software de plateformes
multiples pour le partage de ses marque-pages, le

150
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 151

En prime, d’autres fonctions ingénieuses

social networking, l’assemblage automatique des


données, etc., sont connues depuis des années. Par
ailleurs, l’hypocrisie de multinationales comme
SUN qui vantent l’entrée dans l’ère de la partici-
pation (Partecipation Âge), laisse dans l’oubli
l’aptitude à la coopération développée depuis des
décennies dans le domaine informatique par la
culture hacker. On vend ainsi comme une grande
révolution l’usage des couches les plus elémen-
taires (standardisation par XML/RDF) des inno-
vations proposées par des organismes comme le
W3C à l’intention du web sémantique 10. Assuré-
ment, Ajax et les technologies apparentées éradi-
quent le problème très commun de la portabilité
des sites web, qui sont pour l’instant difficiles à
visualiser sur tous les browsers. Le code du fra-
mework est disponible sous licence Apache,
autrement dit fondamentalement Open Source,
mais, comme il arrive pour les initiatives de
code.google.com, certaines éléments fondamen-
taux (dans ce cas, le compilateur java-to-javas-
cript et l’hosted web browser) sont distribués
seulement en binaire et il faut souscrire à une
licence ad hoc, qui défend en substance de les
redistribuer, d’en dériver des produits ultérieurs
et de les insérer dans des produits commerciaux.
De plus, à chaque fois qu’on utilise l’hosted web
browser, qui permet d’essayer les applications
sur sa machine avant de les publier sur internet,
un serveur de Google est contacté, officiellement
pour vérifier s’il s’agit de la dernière version du
produit. Il est cependant évident qu’il s’agit d’une
méthode de contrôle extrêmement efficace, qui
a pour cible les développeurs bien plus que les

151
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 152

La face cachée de Google

utilisateurs. Bien sûr, le code qu’ils produisent


peut en revanche être librement distribué, même
à des fins commerciales.
GWT est en pratique un moyen simple pour
créer des sites parfaitement compatibles avec les
systèmes d’indexation de Google. Pour l’instant,
il est nécessaire de connaître un langage spécial
comme Java, mais il n’est pas fantaisiste d’ima-
giner que se développent des instruments qui per-
mettent même à un utilisateur qui fait ses pre-
mières armes de positionner sur sa page des
objets web, tels que des barres de tâches, des
galeries d’images, des menus de divers types et
toutes sortes d’objets web, sans écrire une ligne
de code. Naturellement, il existe déjà des pro-
grammes extrêmement simples pour créer des
sites web (WYSIWYG, What You See Is What
You Get) ; mais GWT opère sur le web. Ces
contenus seraient donc immédiatement prêts à
être utilisés sur des dispositifs fixes ou mobiles
de n’importe quel type, pourvu qu’ils soient en
mesure d’accéder au web.
Imaginons maintenant que Google signe des
accords commerciaux pour la construction de
matériel sur mesure, en offrant à ceux qui recou-
rent à ses services des instruments simples pour
construire des pages web visualisables sur PC,
sur pal, etc., et indexés de la manière la plus
simple possible par son spider. À la différence de
Microsoft, Google en effet ne fournit pas de pro-
grammes à licence payante : il a besoin, comme
nous le savons, de répandre ses standards pour
pouvoir gérer plus facilement son économie de
recherche.

152
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 153

En prime, d’autres fonctions ingénieuses

Voici quel est l’accord entre GTalk et Nokia.


GoogleTalk est le service VoIP 11 de Google,
intégré depuis peu à la boîte de courrier électro-
nique Gmail, de sorte que les membres des
« Google community » puissent non seulement
s’envoyer du courrier, mais aussi chatter et parler
en temps réel. À la fin du mois de mai 2006, GTalk
devient disponible sur les nouveaux dispositifs
mobiles de Nokia, appelés les « internet tablets »,
sorte de téléphones mobiles conçus pour naviguer
sur le web. De cette façon, Google entre par la
grande porte dans le monde de la téléphonie
mobile, avec la perspective d’être bien vite
intégré aux réseaux sans fils publics (wireless ou
wi-max) qui commencent à être installés en dif-
férentes villes, aéroports, aires d’autoroutes, etc.
Une perspective d’accords sur la vidéo est aussi
plausible : video.google.com est une mine de
vidéos, et la télévision sur les mobiles est la pro-
chaine étape.
En d’autres termes, Google fournit les moyens
de créer des contenus selon ses propres stan-
dards. Il s’agit d’une personnalisation poussée à
l’extrême, équivalente au mécanisme « à longue
traîne » (qui permet de fournir exactement le pro-
duit calibré pour chaque consommateur singu-
lier) dans le domaine de la création de contenus
du web : l’utilisateur crée « exactement » ce qu’il
veut dans le format standard de Google. La
décentralisation totale au niveau de la création de
contenus est parallèle à la décentalisation totale
de la publicité, et donc de la fourniture de pro-
duits « personnalisés ».

153
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 154

La face cachée de Google

Nous sommes en présence d’un système invasif


qui impose un standard, même s’il apparaît comme
formellement « démocratique » parce qu’il est
mis entre les mains des utilisateurs, à portée de
click, à portée de browser. Ce qui est vendu
comme démocratie électronique se transforme en
une standardisation qui permet de digérer les
contenus créés par une myriade d’utilisateurs et
de leur associer la publicité plus adaptée.

Les browsers comme milieux


de développement

L’explosion depuis 2005 de nouveaux services


web, toujours plus puissants, transforme les brow-
sers de simple outils de navigation en outils de
développement. Un vaste éventail de technolo-
gies fausse les standards de programmation web
courants, en offrant aux développeurs un moyen
facile, multi-plateforme, complet et fiable : le
browser, justement.
Depuis quelques années, une nouvelle ten-
dance a pris forme dans la création de sites
internet, notamment du fait d’une plus grande
attention à la portabilité et à l’accessibilité des
contenus : c’est ce qu’indique clairement la dif-
fusion des feuilles de style (Cascading Style
Sheet, standard CSS et CSS2) pour le formatage,
à la place du HTML pur et dur, des validateurs,
du standard XML lui-même. Graphistes et web
designers trouvent dans les browsers d’excellents
alliés, toujours plus sophistiqués et plus respec-

154
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 155

En prime, d’autres fonctions ingénieuses

tueux des divers standards, qui les aident à réa-


liser des sites visualisables sur divers dispositifs
tout en maintenant, voire en augmentant leur
liberté d’expression.
La naissance d’un browser comme Mozilla
Firefox et sa rapide diffusion ont notamment
permis une forte interaction entre les dévelop-
peurs de sites internet et les développeurs du
browser, en arrivant en peu de temps à assainir
presque tous les bugs et les incompatibilités
sur les standards web. L’incompatibilité entre
Internet Explorer, Opera et beaucoup d’autres
browsers, propriétaires ou pas, est un problème
connu de tous ceux qui créent des pages web. La
synergie développée par Mozilla, apparemment
simple et peut-être triviale, constitue une nou-
veauté absolue dans l’histoire du browser. Une
autre caractéristique intéressante des produits
Mozilla est la structure modulaire développée
autour du moteur de rendu Gecko, qui permet
d’ajouter n’importe quelle fonctionnalité. Parmi
les instruments les plus répandus, on trouve ceux
qui sont faits pour éliminer la publicité des pages
web, ou pour avoir les prévisions météo ou l’évo-
lution de la bourse toujours sous les yeux.
Les browsers sont en somme des outils tou-
jours plus fiables, qui permettent la création de
sites internet complexes et possèdent les caracté-
ristiques de véritables programmes : ils tendent
même à se substituer aux applications d’usage
courant. L’exemple le plus éclatant est celui des
divers outils de bureautique proposés par Google
comme une alternative web à la suite Microsoft
Office et même à Openoffice 12. Il est actuelle-

155
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 156

La face cachée de Google

ment possible d’utiliser Writely (produit par une


société rachetée) comme traitement de textes,
Google Spreadsheets comme feuillet électro-
nique, Google Page Creator pour créer des pages
web rapidement. Tous les services sont en phase
de bêta-testing sur invitation : il est nécessaire
d’avoir un compte Google pour les utiliser, évi-
demment sous étroit contrôle.
Les développeurs, de leur côté, déplacent tou-
jours plus leur intérêt vers le web, notamment
grâce à l’utilisation de moyens comme GWT.
Naturellement, Microsoft ne reste pas les bras
ballants : il s’est aligné sur la stratégie de diffu-
sion « bêta-testing » de Google, dérivée comme
on sait des pratiques du Logiciel Libre, et a déjà
lancé la version bêta d’Office System (ou Office
2007), qui prévoit une intégration toujours plus
poussée des outils web, tout en restant une appli-
cation à installer.
Les browsers sont donc en train de se trans-
former en milieux de développement complets
pour la création de contenus standard, autrement
dit, en SDK (Standard Development Kit). En quoi
consiste au juste l’innovation qui a rendu possible
la transformation des browsers en SDK ? Il est
clair que l’on peut parler d’un nouveau paradigme
de la programmation : on peut maintenant créer
des programmes réellement multi-plateformes,
largement distribués côté client, installés sur le
serveur, faciles à mettre à jour, et qui ne nécessi-
tent pas d’installer des frameworks complexes sur
les ordinateurs des utilisateurs. Les contenus, y
compris les données personnelles des utilisateurs,
sont stockés sur des machines toujours plus éloi-

156
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 157

En prime, d’autres fonctions ingénieuses

gnées (par exemple sur le serveur de Google),


auxquelles on accède par le web, c’est-à-dire par
le browser.
Souvent le choix d’un browser Open Source
comme Mozilla s’appuie sur la simplicité de confi-
guration et sur la disponibilité de nombreuses
extensions puissantes et gratuites. Les dévelop-
peurs s’appuient sur ce browser pour mettre au
point des programmes toujours plus complexes et
plus structurés. La naissance de programmes basés
seulement sur le web provoque deux phénomènes
qui ont tous deux de fortes retombées sur le
marché et sur les utilisateurs : les programmes
binaires à installer deviennent obsolètes et les
browsers deviennent les programmes les plus
complexes, souvent fortement modulaires, et les
plus désirés sur le marché des TI. On peut donc
s’attendre à ce qu’il y ait à l’avenir moins de
programmes.exe (Windows),.dmg (Macintosh),
ou de packs Unix installables, et plus d’outils
intégrés au browser, d’extensions pour lire les
feed RSS à podcaster, depuis Gmail jusqu’aux
logiciels de bureautique complets.
Le contrôle minutieux qu’obtiennent les four-
nisseurs de services web grâce à ces outils, rend
cette dynamique potentiellement dangereuse pour
nous tous. En effet, ceux qui offrent les services
connaîssent exactement l’identité numérique de
leurs utilisateurs, le temps d’utilisation des logi-
ciels et les contenus en cours d’élaboration,
puisqu’ils contrôlent chaque accès aux outils mis
à disposition et chaque détail relatif à leur utili-
sation.

157
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 158

La face cachée de Google

D’un point de vue technique, cela repose sur


une interaction continue entre le client (le browser)
et le serveur (celui qui offre les services), ce qui
permet à ce dernier de contrôler constamment les
demandes, les durées et les objectifs en jeu. De
plus, sous prétexte de fournir un produit « pro-
tégé » des agressions des crackers et hackers de
toutes sortes, les mécanismes d’authentification
ne se trouvent plus dans un programme compilé
et laissé sans sources, parce qu’ils fonctionnent
directement sur le serveur des distributeurs.
Ainsi, pour « entrer » dans un logiciel, il n’est
plus suffisant de décomposer son code sur sa
machine et de comprendre comment il fonc-
tionne : il est désormais nécessaire de « craquer »
un serveur reculé.

Confidentialité, Paranoïas, Pouvoirs

La stratégie de l’accumulation a mis Google


en position de mettre en difficulté Microsoft lui-
même, amorçant une guerre sans merci pour la
standardisation et le contrôle de l’accès au web
et aux réseaux que nous employons au quotidien.
Dès lors qu’il engage la médiation globale des
informations, le phénomène Google concerne
directement tous les utilisateurs d’informations
numériques, c’est-à-dire nous tous. Parcourir
l’histoire de Google revient donc à retracer notre
histoire d’explorateurs d’internet et du web : trop
souvent, nous avons délégué la gestion de nos
informations, de nos sites, de galeries d’images,

158
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 159

En prime, d’autres fonctions ingénieuses

de nos boîtes électroniques, de nos blogs, de nos


SMS, de nos conversations téléphoniques, etc., à
des entreprises qui n’étaient rien moins que
désinteressées.
La stratégie de l’objectivité mise en œuvre par
Google insiste sur la recherche, sur l’excellence
académique, sur la supériorité technologique, sur
des interfaces extrêmement étudiées. C’est un
voile qui cache l’inquiétante perspective d’un
point d’accès unique aux données produites par
des utilisateurs naïfs.
La stratégie de l’Open Source, quant à elle,
permet à Google d’adopter la méthode de déve-
loppement coopératif propre aux communautés
numériques, en l’adaptant à sa « mission ». Même
dans ce cas, Google, on l’a vu, fait des choix
extraordinairement fanfarons, en proposant des
méthodes « nouvelles » pour exploiter des dyna-
miques connues : le « Summer of Code » en est
l’exemple éclatant.
L’activité de Google, en somme, constitue un
danger évident pour tous ceux à qui tiennent à
cœur les questions de confidentialité et, en un
sens plus vaste, de vigilance dans la construction
d’une existence numérique. On assiste à l’émer-
geance d’un conglomérat de pouvoirs qui influen-
cent lourdement, dès aujourd’hui, la vie de trop
nombreux individus. Google détient des informa-
tions réservées qu’il analyse sans cesse pour
assurer une diffusion toujours plus personnelle et
plus soignée du cancer publicitaire. Et puisque
l’accumulation des pouvoirs favorise générale-
ment l’angoisse de la domination, il est essentiel
d’examiner ce phénomène en profondeur.

159
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 160

La face cachée de Google

Il n’existe pas de réponse globale pour


résoudre une fois pour toutes le problème de la
confidentialité. Le Big Brother n’existe pas, et
comme toute paranoïa, son image condamne les
horizons de libération et assombrit les possibles
voies de fuite : elle ne sert que le pouvoir domi-
nant et fonctionne pour lui.
Le secret, la cyptographie, la stéganographie
sont des exemples de pratiques utiles, non des
solutions définitives : la communication et le par-
tage restent l’objet d’un désir, d’un but que seule
la « publication », autrement dit le fait de « rendre
public », permet de mener à bien. À l’inverse,
l’obsession de la confidentialité sombre très rapi-
dement dans la paranoïa du complot ; en ce sens,
à quoi bon se lancer dans l’élaboration d’alterna-
tives compliquées pour créer des réseaux absolu-
ment sûrs et impénétrables ? La technologie est
une occasion d’ouverture et de partage. Employer
les machines revient à employer des créatures
hybrides, des artefacts matériels (qui appartien-
nent en ce sens au monde naturel) investis de
valeurs et de significations culturelles (qui appar-
tiennent à l’univers de la « culture »). Les réseaux
sont l’expression d’une dynamique co-évolutive
de machines mécaniques, biologiques et signi-
fiantes : la technologie est métisse par essence.
Créer des réseaux signifie en effet relier des
machines de divers type. Cela signifie créer des
méthodes de partage, des méthodes de traduction,
des méthodes d’échange : il n’est pas possible de
rester enfermé dans sa coquille. Il est nécessaire
de se mettre en question et de changer.

160
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 161

En prime, d’autres fonctions ingénieuses

Nous avons besoin d’une recherche et d’une


analyse averties ; il est plus urgent que jamais de
dénoncer les mécanismes de domination techno-
cratique. À l’inverse, renoncer à une pensée cri-
tique équivaut à succomber à la paranoïa du
contrôle, lequel devient toujours plus invasif.
L’histoire de Google peut être utilisée en un sens
exemplaire pour esquisser des idées d’ouverture
et pour imaginer des pratiques d’autogestion des
technologies. Google est en effet le point de ren-
contre entre le style méritocratique de l’université,
la poussée à l’innovation à tout prix et le capita-
lisme financier le plus poussé. Voici justement
l’occasion de développer des réseaux autonomes
et décentrés, et d’opposer le désir d’« explorer »
et de « parcourir » les réseaux à la nécessité
« d’accéder » aux données, pour focaliser l’atten-
tion sur le parcours plutôt que sur le résultat.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 162


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 163

VI. Qualité, Quantité, Relation

L’émergence de l’information

La société de l’information présente une extrême


hétérogénéité de formes : en effet, elle utilise à
loisir, et même désormais avec une extrême
désinvolture, les systèmes de communication
réticulaires (téléphonie), les versions numériques
en broadcast 1 de médias traditionnels apparus
hors de la Toile (presse quotidienne, radio, tv
on line, etc.), les outils de communication uni-
versels nés avec la Toile (e-mail) et les systèmes
d’échanges (p2p). Mais à bien y regarder, tous
ces systèmes reposent sur une unique matière pre-
mière : l’information. À l’intérieur du domaine
spécifique des moteurs de recherche, et donc du
repérage d’informations (information retrieval),
on peut estimer que l’Information consiste en
l’ensemble des pages qui sont publiées sur le
Web 2.
La croissance quantitative et qualitative de ces
pages et de leurs contenus a été démesurée et

163
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 164

La face cachée de Google

continue à l’être. Cela vient de la facilité avec


laquelle on peut actuellement générer de nou-
veaux contenus pour la Toile. Les contenus ne
sont pas des îles de données décousues, ils pren-
nent forme dans la variété des relations et des
liens qui unissent entre eux les pages, les sites,
les sujets, les documents, et les contenus eux-
mêmes.
L’accès direct et sans médiation à cette masse
d’informations est absolument impossible, même
à titre de simple hypothèse : ce serait comme
feuilleter le Web « à la main ». C’est pour cela
que les moteurs de recherche existent, pour filtrer
la complexité de la Toile et faire fonction d’inter-
face entre nous et l’information, en donnant satis-
faction aux recherches.
Dans les précédents chapitres, nous avons
passé en revue les outils de fonctionnement fon-
damentaux d’un moteur de recherche, autrement
dit les moyens mis en œuvre par Google et par
les autres pour dévorer les pages Web, les ana-
lyser et les cataloguer grâce à des algorithmes de
ranking, et enfin pour les archiver sur des sup-
ports hardware appropriés et les restituer à l’uti-
lisateur en fonction de ses recherches.
La quantité de pages mémorisées est donc
déterminante pour évaluer la puissance technique
et économique d’un moteur de recherche. Plus
vaste est le patrimoine de pages examinées, plus
grandes seront l’exhaustivité et la fiabilité des
recherches accomplies, dans les limites, évidem-
ment, du contexte spécifié.
Cependant, si l’étendue du patrimoine d’un
moteur de recherche peut être énorme, il ne pourra

164
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 165

Qualité, Quantité, Relation

jamais être complet et exhaustif, peu importe


combien de temps, d’argent et de technologie on
y investit. Il est absurde de penser qu’on peut
connaître, ou plus simplement copier et catalo-
guer, tout l’Internet : ce serait comme prétendre
connaître l’intégralité d’un monde vivant et en
constant changement.
Les dispositifs de stockage des informations
des moteurs de recherche comme Google sont
comme des vases. Imaginons que nous devions
remplir un vase d’une capacité énorme avec de
minuscules gouttes (les pages Web qui consti-
tuent les informations de la Toile). Si l’on admet
que le vase est capable de contenir la totalité des
gouttes (la totalité de la Toile) notre tâche consis-
tera à chercher à les capturer toutes, de manière
systématique et répétitive.
Si en revanche nous pensons qu’il y a trop de
gouttes pour notre vase, et que leur collecte ne
peut pas être prévue en fonction d’algorithmes,
et qu’elle ne sera pas non plus rapide, que cette
tâche pourrait même se révéler potentiellement
illimitée, nous devrons changer de tactique.
Notamment parce que les informations changent
dans le temps, les pages sont modifiées, les res-
sources changent d’adresse....
Nous pourrions peut-être décider de choisir
seulement les gouttes les plus grosses, ou de
concentrer nos efforts de collecte sur les endroits
où il en tombe le plus, ou encore, nous pourrions
ramasser seulement les gouttes qui nous intéres-
sent le plus, et ensuite chercher à les relier de la
manière que nous estimons la plus intéressante.

165
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 166

La face cachée de Google

Tandis que les moteurs de recherche conti-


nuent à poursuivre l’objectif de cataloguer tout,
il vaut mieux appliquer au Web une approche
localisée, ou bien admettre que pour chaque
« intention de recherche », il y a beaucoup de
réponses possibles, parmi lesquelles certaines
sont « meilleures » parce qu’elles satisfont des
qualités précises de rapidité et d’exhaustivité. On
doit toujours se rappeller que la qualité des
réponses dépend de notre perception subjective
quant à l’acceptation du résultat. Pour pouvoir
accepter ou refuser un résultat de recherche, il est
essentiel d’exercer sa faculté critique et d’avoir
conscience de la subjectivité de son point de vue.
Pour générer le parcours auquel on s’intéresse
vraiment, il est nécessaire de supposer l’existence
d’un réseau fini et limité, d’un monde que seules
nos exigences personnelles limitent, sachant tou-
tefois qu’il s’agit d’une localisation subjective,
qui n’est ni absolue ni constante dans le temps.
Du point de vue de l’analyse, explorer un
réseau suppose la capacité de diviser les réseaux
en sous-réseaux d’analyse, ce qui revient à créer
de petits mondes localisés et temporaires (LCW,
Localized Closed World), dans lesquels il existe
au moins une réponse aux recherches effectuées.
Sans cela, beaucoup de recherches seraient sans
fin, notamment parce que les données à analyser
sont très supérieures aux capacités d’élaboration
d’un sujet humain : cette issue ne peut pas être
satisfaisante. En revanche, changer ou spécifier
la recherche, enrichir son point de vue pourra
générer un parcours plus conforme aux exigences
de départ. Considérer le Web comme un monde

166
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 167

Qualité, Quantité, Relation

clos et localisé signifie aussi reconnaître que la


dynamique même avec laquelle les informations
naissent, germent et se distribuent en réseau
(tandis qu’elles sont peut-être déjà caduques) est
un phénomène d’« émergence », qui ne tient ni à
une cause, ni au hasard.
L’émergence 3 est un comportement qu’on peut
décrire, en termes mathématiques, comme une
explosion de complexité inattendue et imprévi-
sible. C’est surtout un évènement qui engendre
des situations qu’on ne peut pas décrire de manière
exhaustive. Analyser et parcourir un « univers
émergent » comme le Web implique donc un repo-
sitionnement personnel continu. Celui-ci déter-
mine à la fois un « monde clos et localisé » de
compétences et d’attentes, mais aussi l’ouverture
à de nouvelles possibilités d’exploration (d’autres
mondes sont toujours possibles, hors de son
propre monde clos) et donc la conscience de ne
pouvoir obtenir que des résultats toujours et seu-
lement partiels.

Quantité et qualité

L’indexation par accumulation de pages est un


phénomène quantitatif, mais ne détermine pas en
soi la qualité des informations du Web : l’objectif
est recueillir toutes les pages et pas de choisir
entre elles. Les relations entre les pages, notam-
ment parce qu’elles sont engendrées en fonction
d’un critère simple, le système de liens, engen-
drent des phénomènes d’émergence. La qualité

167
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 168

La face cachée de Google

des informations, à partir de leur typologie, est


donc déterminée par leur aptitude à tracer des
parcours, sans se préoccuper de couvrir la « tota-
lité » des informations. La qualité dépend surtout
de l’explicitation de son point de vue à travers
un parcours de recherche : en somme, ce sont les
surfeurs, les pirates, les utilisateurs du Web qui
déterminent et améliorent la qualité des informa-
tions, en tissant des liens entre les pages. La puis-
sance d’accumulation des algorithmes de Google
est utile, mais insuffisante.
L’évaluation du contenu des pages et de leurs
relations est déléguée à des algorithmes et sur-
tout aux sociétés qui les contrôlent. Le phéno-
mène Google est le résultat de l’habitude de
s’en remettre à une puissance apparemment sans
limites, en mesure d’offrir la possibilité de
trouver « quelque chose » d’utile et intéressant
dans un grand nombre de ressources contenues
dans son patrimoine, lui-même vendu comme la
« totalité » du Web. On passe pourtant complète-
ment sous silence les limites de cette offre miro-
bolante : ce qui est absent du patrimoine, ou ce
qui est présent seulement en partie, et, surtout,
tout ce qui a été écarté.
L’épineux problème éthique et politique de la
gestion et du contrôle des informations est tou-
jours d’une brûlante actualité : qui peut garantir
la véracité d’une entreprise qui, si « bonne » soit-
elle, a le profit comme objectif ?
Si des ressources économiques considérables
et une excellente infrastructure technique peu-
vent, d’une part, améliorer continuellement le
stockage et la récupération des données, les ques-

168
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 169

Qualité, Quantité, Relation

tions politiques posées par l’accumulation des


informations ne sauraient en aucune manière être
contournées. Google représente dans les faits une
concentration encore jamais vue d’informations
réservées, qui sont dans tous les cas source d’un
pouvoir colossal qui n’a aucune transparence.
Évidemment, on ne pourra améliorer cette situa-
tion par aucune loi sur la confidentialité, encore
moins par la création d’institutions nationales ou
internationales ad hoc, destinée au contrôle des
informations personnelles et des données sensi-
bles. Il ne peut y avoir de réponse sensée à la
question de la discrétion des informations que
dans une plus grande responsabilité et plus de
conscience parmi les individus qui créent la
Toile, en choississant l’auto-formation. Même si
cettte voie est difficile et exigeante, elle est la
seule qui puisse porter ses fruits.

Le mythe de la recherche instantanée

S’il est clair que l’énorme patrimoine de


Google ne pourra jamais correspondre à la tota-
lité de la Toile, il faut être ou naïf ou fourbe pour
se présenter comme une interface « instantanée »
entre les intentions de recherche des utilisateurs
et le résultat soi-disant « exact ».
À chaque fois qu’on effectue une navigation
en visitant des pages Web, on suit des liens qui
créent un parcours analysable selon des modèles
mathématiques issus de la théorie des graphes.
Le Web se compose en effet de nœuds (les pages)
et d’arcs (les liens).

169
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 170

La face cachée de Google

Quelles que soient les dimensions que le Web


puisse atteindre, les directions proposées par les
moteurs de recherche pourront toujours nous
conduire à l’objet « juste ». En effet, par l’appli-
cation de critères d’efficacité/efficience, le par-
cours qu’un moteur de recherche déduit d’une
interrogation sera optimisé, c’est-à-dire que le
nombre de nœuds visités sera très bas et le temps
nécessaire pour atteindre le résultat sera presque
instantané. Google pousse à ne désirer qu’un seul
chemin, et va jusqu’à offrir le bouton « j’ai de la
chance » en page principale.
Cette optimisation limite la recherche à un
schéma séquentiel articulé autour de trois termes :
utilisateur-algorithme-objectif. À la longue, cette
dynamique mène à une attitude de passivité
numérique, où nous « attendons » que nous soient
fournis des résultats, puis nous « choisissons »
parmi eux.
De plus, cette efficacité/efficience se fonde
paradoxalement non pas sur l’agrandissement du
bassin de données où s’effectuent les recherches,
mais plutôt sur la réduction de l’accès au patri-
moine informatif lui-même, puisqu’aucun par-
cours proposé par le moteur de recherche ne sera
jamais tracé sur le réseau « à l’instant t » : il le
calcule en fonction de son patrimoine archivé, et
le personnalise en fonction de l’utilisateur, selon
des filtres algorithmiques et des cookies.
L’accès aux informations proposé par Google
est rapide, voire tend à être immédiat, à annuler
la dimension du temps, à présumer de l’énorme
étendue des bases de données consultées. La
médiation de la technique (interfaces, algorithmes,

170
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 171

Qualité, Quantité, Relation

recherches préfabriquées, etc.) permet cette


« annulation » temporelle et rend l’accès prati-
quement instantané 4. Mais la rapidité d’obtention
du résultat a un effet nuisible sur la qualité de la
recherche. En effet, n’importe qui a fait l’expé-
rience d’accomplir une recherche sait bien que le
temps qu’on y passe est un facteur déterminant
dans la composition de l’expérience : créer son
parcours, accomplir des choix différents à diffé-
rents moments, cela engendre une impression de
participation et de satisfaction. Google nous
permet de « localiser » dans l’espace (dans son
espace multidimensionnel) ce que nous voulons ;
mais, si bref que puisse être le temps d’attente du
résultat, nous adoptons toujours une attitude pas-
sive vis-à-vis d’un oracle technologique.
Dans le cadre de l’exploration active, l’objectif
au contraire n’est pas d’« accéder » aux données,
mais d’accomplir une navigation riche et diver-
sifiée, de construire par la recherche des parcours
complexes. Le concept d’efficacité disparaît. Plus
grand sera le nombre des nœuds que nous visi-
tons et la complexité de l’entrelacs que nous
construisons, plus nombreuses seront les occa-
sions d’agrandir nos centres d’intérêt, les possi-
bilités d’actionner des choix significatifs, de
raffiner nos recherches. Cette approche permet
un enrichissement cognitif qui dépasse la presta-
tion immédiate. Par exemple, lorsque nous visi-
tons les liens proposés par un site qui nous
intéresse, et que nous poursuivons notre naviga-
tion dans les sites indiqués comme amis, nous
créons un parcours unique ; peut-être en saisis-
sant l’occasion d’utiliser notre marque-page.

171
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 172

La face cachée de Google

Semblable procédure s’oppose apparemment à la


cohérence de la séquence utilisateur-algorithme-
objectif, mais elle crée en revanche un parcours
riche de bifurcations, de ramifications, de sauts,
de détours tortueux, en répondant à un désir
cognitif qui n’est pas linéaire 5.
En définitive, les moteurs de recherche sont
d’excellents outils pour satisfaire les aspects quan-
titatifs d’une recherche évoluant à l’intérieur de
ressources déjà complètement structurées, comme
les lexiques, les encyclopédies, etc. La quantité est
directement proportionnelle à la puissance de
calcul et d’accumulation : l’étendue de Google
est décidément supérieure à celle de tout autre
concurrent, mais pour le rester, elle a besoin
d’une constante expansion en termes de res-
sources, d’algorithmes, de machines, d’utilisa-
teurs, etc.
La mécanique de l’accumulation est alimentée
par la recherche de l’efficacité et de l’excellence
des prestations, laissant de côté l’évaluation des
contextes de recherche : l’intérêt principal d’un
moteur de recherche est l’accroissement de son
patrimoine, et par conséquent de son offre. Une
logique exclusivement quantitative se limite à
l’idée que plus nombreuses sont les informa-
tions disponibles, plus il est possible d’accéder à
des informations cohérentes avec l’intention
de recherche. Ce que confirme encore une fois
l’approche linéaire sous-jacente au commerce des
moteurs de recherche.
La qualité en revanche ne réside pas nécessai-
rement dans la puissance technique et écono-
mique. Nul ne pense que la pertinence des

172
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 173

Qualité, Quantité, Relation

résultats fournis corresponde à l’étendue de bas-


sins d’informations disponibles : l’émergence du
meilleur parcours ne se prévoit pas, il ne se cal-
cule pas, mais se construit étape par étape.

Sous le voile du mythe

Les valeurs de positionnement du ranking de


Google ne répondent à aucun critère clair d’éva-
luation ; toutefois, les réponses fournies dans
l’immense majorité des cas sont exhaustives,
ou plus exactement, il nous est impossible d’éva-
luer si quelque chose a échappé à son spider, à
moins d’être experts dans un secteur donné et de
connaître une ressource qui n’est pas indexée.
La diffusion capillaire des moyens de
recherche de Google en font un standard de
facto. L’espace blanc (blank box) où nous insé-
rons les mots clé (keywords) de nos recherches
est pour l’utilisateur une sorte de Weltanschaaung,
faisant en somme la propagande d’une « vision
du monde » bien précise, puisqu’elle incarne
l’idée « de service total » (total service) : le
moteur de recherche est capable de répondre à
n’importe quelle question, de satisfaire toutes les
exigences face à l’instrument Internet.
En termes épistémologiques, le blank box
représente un modèle cognitif d’organisation de
la connaissance : nous demandons en effet à
l’espace blanc une réponse à toutes nos intentions
de recherche, soit que nous voulions des docu-
ments, des approfondissements, des informations,

173
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 174

La face cachée de Google

soit que nous voulions simplement « naviguer ».


L’activité de recherche est entièrement identifiée
avec l’objet qui fournit le service, Google, dont
nous avons une perception envahissante.
L’habitude d’utiliser des outils se transforme
en habitude comportementale, en acte à répéti-
tion : il est très difficile pour les utilisateurs de
se représenter une recherche visant à satisfaire
autrement leur « besoin d’input ». Ils sont désor-
mais attachés à l’efficacité/efficience rassurante
du blank box.
Être en mouvement sur la Toile et donc avoir
besoin d’interfaces d’accès, d’outils pour décou-
vrir les informations et construire des parcours
est une activité diversifiée et profondement
contextuelle. L’activité de recherche n’est pas
tout à fait homogène et ne peut donc pas être
réduite à l’utilisation du blank box. Ce que nous
demandons et ce que nous désirons ne dépend
pas seulement d’un besoin que l’on peut exprimer
en termes analytiques d’information quantitative,
mais aussi de la manière dont nous abordons la
recherche, du contexte dans lequel nous cherchons
l’information, de notre bagage culturel et de notre
aptitude à nous confronter avec la nouveauté, avec
de nouveaux territoires, avec la diversité. Il est
impossible d’éponger les demandes information-
nelles par une solution univoque.
Puisque l’indexation des pages est partielle, au
sens où il s’agit d’une selection appuyée sur le
ranking, ce que Google nous propose est la pos-
sibilité banale de trouver « quelque chose »
d’utile et d’intéressant pour nous parmi le grand
nombre de choses accumulées dans son patri-

174
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 175

Qualité, Quantité, Relation

moine de centres d’intérêts. Une intention de


recherche sous-entend cependant en dernière ins-
tance le désir de trouver, voire de découvrir,
« tout ce qu’on ne sait pas mais qu’il est possible
savoir ». Le géant apparaît alors tel qu’il est,
énorme, étendu, ramifié, mais pas nécessairement
adapté à nos recherches.

Modèles de recherche

L’ambiguïté suggérée par les moteurs de


recherche, qui veulent que « nous recherchions
dans un milieu infini » plutôt que dans un monde
clos localisé en fonction de nos intentions de
recherche, vient de la superposition formelle de
deux niveaux, celui de l’interface 6 et celui de
l’organisation. L’interface, dans ce contexte précis,
est l’élément technologique à travers lequel on
accède aux informations et s’exécute la recherche ;
l’organisation en revanche est l’architecture, le
modèle technologique avec lequel des infor-
mations sont ordonnées et archivées. Les deux
niveaux s’influencent mutuellement : les choix
en termes d’organisation déterminent l’usage
d’interfaces spécifiques, et les informations visua-
lisées au moyen des interfaces se reflètent dans la
forme avec laquelle elles sont conservées.
Le problème de cette superposition est que les
informations sont présentées sous forme de don-
nées identifiables de manière univoque, séparées
entre elles. L’utilisateur de Google se déplace
de manière linéaire dans la liste des résultats du

175
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 176

La face cachée de Google

ranking ; pour passer d’un résultat à l’autre, il


doit retourner à la liste de départ, sans liaisons
transversales au niveau de l’interface.
Avec les moteurs de recherche, on retrouve en
effet des informations sans que le parcours réalisé
soit pris en considération. L’interface qui déter-
mine notre interaction est le blank box où s’insè-
rent nos recherches (queries) ; à ce premier niveau
d’accès, toutes les informations se trouvent mises
sur le même plan. Elles sont homogènes, mais en
même temps séparées et fragmentées de manière
à rendre possible l’énumération de résultats mis
en ordre par un algorithme en fonction de leur
pertinence.
Toutefois, dans les recherches qu’on accomplit
au quotidien, les mêmes résultats peuvent être
liés entre eux de différentes manières, sans
qu’on revienne nécessairement à leur énuméra-
tion ordonnée, et il n’y a pas seulement un résultat
correct ; au contraire, une recherche qui ne
concerne pas des données structurées en encyclo-
pédies, en dictionnaires ou en d’autres choses
semblables (qui changent aussi dans le temps)
pourrait être sans réponse immédiate, et néces-
siter au contraire des efforts de créativité, de
« mélange » et de recombinaison.
Lorsqu’on applique une identité formelle entre
le niveau de l’interface et celui de l’organisation,
le modèle obtenu est réducteur : dans le cas de
Google, nous avons affaire à la représentation
d’une puissance de recherche infinie, de sorte que
l’activité de recherche est confondue avec l’un
des moyens pour la réaliser.

176
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 177

Qualité, Quantité, Relation

Prenons un exemple : si nous cherchons


« Plume » via l’interface de Google.com, nous
trouvons, plus de six millions sept cent mille résul-
tats, parmi lesquels « Plume CMS », une société
de management ; « PlumE », une société de solu-
tions web ; le « Cirque Plume », une compagnie
de cirque, et ainsi de suite. Nous ne trouvons dans
les premiers résultats (top ranking) ni ressources
relatives aux « plumes des oiseaux », ni aux
« plumes pour écrire », deux concepts très loin-
tains entre eux, dont nous voulions approfondir
les liens éventuels. Une perspective plus vaste sur
la découverte des informations, qui tienne compte
de manière critique du potentiel cognitif sous-
jacent à chaque patrimoine informatif, pousse à
considérer la fonction accès-recherche comme un
processus non de localisation, mais d’exploration
et de création. L’accent se déplace donc de l’épis-
temologie à l’ontologie : il ne s’agit pas seule-
ment de connaître des informations, mais d’être
conscients de notre véritable rôle de créateurs
d’informations 7. Les moteurs de recherche opè-
rent sur l’accès mais ne sont d’aucune aide pour
l’exploration, puisqu’ils se contentent d’inter-
venir sur le premier niveau de présentation des
informations.
La navigation est le moment de réel dyna-
misme dans la mise en relation des objets numé-
riques, qui peuvent ainsi exprimer au maximum
leurs potentialités communicatives et heuristi-
ques. Cela s’apprend avec l’expérience, et change
à mesure qu’on l’apprend, au moment même où
l’on est en exploration.

177
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 178

La face cachée de Google

Il existe une profonde différence entre cher-


cher et trouver : Google nous fait trouver les
choses, ce qui provoque une satisfaction, liée à
la sensation d’accumulation. Mais plus que
« trouver », ce qui est intéressant est surtout l’acte
même de « chercher » ; peut-être serait-il même
intéressant de ne pas trouver tout à fait, parce que
cela signifie qu’on est encore engagé dans la
recherche 8.
Le moteur de recherche est un modèle instru-
mental par lequel les informations sont ordon-
nées : il est plus utile et plus admirable d’ima-
giner au contraire des modèles pour combiner les
informations, et générer de la connaissance.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 179

VII. Technocratie

L’analyse du phénomène Google dessine un


paysage bariolé, dans lequel l’économie de la
recherche s’avère n’être qu’un élément d’une
mosaïque bien plus vaste et plus complexe. Du
reste, selon les déclarations d’Eric Schmidt, on
jette à Mountain View les bases d’une entreprise
globale des technologies de l’information, « une
entreprise de 100 milliards de dollars » : assuré-
ment bien plus qu’un simple moteur de recherche.
Il s’agit en effet d’un système invasif de gestion
de connaissances, dont nous avons illustré les
étapes et les méthodes les plus significatives : des
stratégies qui conjuguent marketing aggressif et
gestion occulte de sa propre image, propagation
d’interfaces hautement configurables et pourtant
toujours reconnaissables, création de contenus
standards délégués aux utilisateurs et aux déve-
loppeurs, adoption de méthodes de développement
coopératif typiques de l’Open Source et du Free
Software, usage de systèmes avancés de recueil
et de stockage de donnés, systèmes de découverte
des informations corrélés à des techniques de

179
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 180

La face cachée de Google

profilage explicites et implicites, personnalisation


des publicités.
Google est une domination technologique
dérivée de la recherche scientifique qui se fait
moyen de gestion de la connaissance, expression
directe de la technocratie.

Technocratie : les experts de la science

Les experts ont trouvé dans le contrôle et dans


la manipulation de la technologie une arme sans
égal pour imposer leurs intérêts personnels,
garder le pouvoir ou acquérir plus de privilèges.
Le mécanisme est simple : la technologie est uti-
lisée non seulement comme la garante de l’objec-
tivité de la recherche scientifique, mais aussi pour
valider les décisions des hommes politiques qui
gouvernent, et plus généralement de n’importe
quelle « autorité » qui aurait eu accès à l’oracle
technologique.
L’application de la recherche scientifique sous
une forme technologique est abusive, et la réalité
est constamment interprétée suivant ce para-
digme. La curiosité et le désir de savoir qui ani-
ment la recherche scientifique sont entravés par
les critères biaisés de rentabilité qui sont les
règles des financements privés et publics. Si la
recherche ne produit pas des artefacts technolo-
giques en mesure de générer des recettes immé-
diates, elle n’est pas intéressante. Le discours du
pouvoir se fait alors technocratie, tout le contraire
du partage communautaire, de l’autogestion, de

180
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 181

Technocratie

la discussion et de la médiation entre individus.


Vendre la technocratie de Google comme un
moyen de démocratie directe est un jeu sur les
mots, qui nous fait croire qu’on participe à une
grande démocratie électronique, privée de toute
substance. Certes, nous pouvons publier ce
que nous voulons sur Internet, et Google nous
indexera. Mais nous qui sommes « profanes » et
« hérétiques », nous ne saurions nous permettre
de faire remarquer que la stratégie d’accumula-
tion de Google est en parfait accord avec le sys-
tème de l’économie de marché, qui repose sur
une croissance infinie : en effet, nous ne sommes
pas des économistes diplômés de la London
School, ni entrepreneurs à succès, et nous ne
sommes pas plus experts. Nous n’avons donc
aucune autorité. Pourtant, le bon sens commun
d’orwellienne mémoire est plus que suffisant
pour comprendre qu’une telle croissance, sans fin
et sans finalité, est la manifestation d’une volonté
de puissance technologique qui ne s’intéresse aux
individus qu’en tant que potentiels consomma-
teurs.
Voilà pourquoi le PageRank™, qui comme
nous l’avons vu n’est pas seulement un algo-
rithme, devient le prisme culturel avec lequel
Google nous propose d’analyser toute chose : en
somme, on assiste à une extension forcée du
comité de lecture, valide dans le domaine scien-
tifique, à toute la gamme des connaissances
humaines.
Les autorités traditionnelles, religieuses et poli-
tiques, ont atteint le seuil de crédibilité minimum ;
mais leur insuffisante prise sur la réalité, au lieu

181
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 182

La face cachée de Google

de favoriser le fleurissement d’espaces auto-


nomes, a mené à une situation irréelle où aucune
assertion ne peut être valide sans le soutien d’une
autorité technologique. L’autorité des machines,
dans la plupart des cas, n’est qu’une réponse
extraite d’une base de données et servie par les
prêtres de la technologie, les « experts », au
peuple riche et aisé des prosumers. Un relati-
visme extrême prend forme dans les méthodes
qui prétendent tirer la « vérité » de données dis-
ponibles et presque illimitées : on le mesure au
nombre de filtres et d’algorithmes applicables.
Une vérité adéquate à chaque recherche corres-
pond à un produit personnalisé pour chaque
consommateur.
Face à cette clôture de la création, de la gestion
et de l’application (sur notre dos) des connais-
sances, il reste semble-t-il deux possibilités :
refuser la culture scientifique comme si elle était
la cause de tout le mal ; ou bien, au contraire,
accepter avec un enthousiasme superstitieux
chaque « innovation » technologique. Pourtant,
entre les deux extrêmes de la technophobie et de
la technophilie, il est possible de mettre en avant
la curiosité liée à l’éthique hacker, autrement dit
le partage des savoirs, la faculté critique envers
les « vérités », la vérification serrée des sources,
en poursuivant sur la route de la libre circulation
des savoirs.
Dans ce contexte, la formation est un point
central, mais il n’y a pas de voies qui permettent
de diffuser largement la culture scientifique. La
structure de la formation en Europe comme en
Amérique du Nord ne vise qu’à la production de

182
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 183

Technocratie

spécialistes. Il n’y a aujourd’hui aucun modèle


pédagogique qui réponde à l’exigence d’un savoir
scientifique en quelque sorte « amateur », pas
même dans les pays de tradition non occidentale
comme le Brésil ou l’Inde, qui produisent une
recherche scientifique de haut niveau et une tech-
nologie de pointe à bas coût grâce à une concur-
rence impitoyable. Un savoir scientifique qui ne
soit ni académique ni entreprenarial, diffus et
autogéré, n’est mis à l’ordre du jour d’aucune
discussion : il serait pourtant indispensable à
la formation de compétences de base et à l’éva-
luation d’innovations technologiques qui nous
concernent tous. En particulier, la notion de
« culture scientifique » devrait être entièrement
réévaluée pour répondre à la nécessité, partout
répandue, de rudiments pratiques pour affronter
la lame de fond de la révolution technologique.
L’affirmation de l’informatique comme prin-
cipal moteur de l’innovation technologique auto-
rise en effet de nouveaux scénarios : l’informa-
tique n’est pas simplement une technique pour
gérer automatiquement l’information, elle possède
une logique propre, c’est-à-dire travaille à modi-
fier continuellement ses propres fondations. Elle
est tout à la fois physique, théorique et expérimen-
tale : elle étudie les formalisations du langage
(donc formalise la connaissance), les applique aux
composantes physiques de l’électronique, et en
tire des langages qui influencent à leur tour les
théories de la connaissance. Elle se referme ainsi,
selon un processus cyclique très particulier.
Dans les sciences classiques, on observe des
phénomènes stables : la physique, par exemple,

183
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 184

La face cachée de Google

élabore des données naturelles et crée des théo-


ries à leur propos ; en informatique, en revanche,
les phénomènes qu’élabore la théorie sont artifi-
ciels, ils changent physiquement et conceptuelle-
ment au fur et à mesure que les progrès théoriques
et expérimentaux permettent de les affiner : un
logiciel élaboré sur un ordinateur il y a dix ans
sera structurellement différent d’un autre plus
récent. Ce qui était vrai hier, nous savons dès
aujourd’hui que ce ne le sera plus demain, quand
nous aurons des machines plus puissantes qui
feront des choses nouvelles : il s’agit d’un monde
vivant et donc toujours en devenir.

Miracles de la technologie : des opinions


subjectives à la vérité objective

Dans une si gigantesque base de données, le


bon Google apparaît dans le paysage en soutenant
que nous faisons partie d’une grande « démo-
cratie électronique globale » jusqu’alors inédite ;
il soutient que les résultats de PageRank™ sont
corrects parce qu’ils expriment une démocratie
directe, en vertu des liens qu’évaluent ses algo-
rithmes, de sorte qu’il nous restitue, en un sens,
notre droit légitime à « l’ouvrir ».
La popularité ne peut pas être admise comme
un critère de « qualité objective » d’un point de
vue épistémologique. En effet, dans ce cas, le
concept d’objectivité lui-même se fonde sur un
sous-entendu : la conviction que beaucoup d’idées
subjectives (les « opinions » exprimées sous forme

184
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 185

Technocratie

de lien/vote) se transforment par magie en leur


exact opposé (une vérité objective révélée) dès
lors qu’ils dépassent un certain quota et devien-
nent une majorité. C’est ainsi que le ranking
devient une expression de qualité, parce qu’il est
le produit explicite d’une technologie de manipu-
lation de l’information.
Comment la quantité pourrait-elle devenir qua-
lité ? On présume, sans y paraître, que la médiation
technique de l’algorithme est garante d’« objecti-
vité », et l’on associe à l’objectivité l’épithète qua-
litatif de « bonne », ou l’on dit qu’elle est « la
meilleure », la « vraie ». Et tout cela doit être
rapide, ou plutôt immédiat, transparent, grâce à
l’élimination du facteur temps dans la recherche
et à l’étude ergonomique sur l’interface.
Le mécanisme de création du consensus consi-
déré par Google comme la manifestation d’une
« démocratie directe » d’utilisateurs/votants n’est
pas convaincante, principalement pour deux rai-
sons : d’une part, cela suppose que la majorité ait
toujours raison ; ensuite, cela implique que les
opinions de la majorité, pour bénéficier aux uti-
lisateurs, doivent nécessairement passer à travers
une médiation technique qui n’est jamais expli-
citée comme telle.
La dichotomie entre l’objectif et le subjectif,
superposée à celle de la vérité et de l’opinion, est
parfaitement inadaptée au monde des réseaux. La
science, par souci de précision, a toujours créé des
hybrides naturels-culturels, c’est-à-dire inventé
des techniques et promu des technologies. D’un
côté, l’observation et l’expérimentation prennent
la « nature » comme terrain d’action, et c’est en

185
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 186

La face cachée de Google

ce sens qu’elles sont « objectives » ; de l’autre,


les résultats sont hautement subjectifs, car la
science est subordonnée à la volonté et à la per-
ception politiques et sociales, puisqu’elle est sou-
tenue par le langage (du moins le langage de la
communication scientifique), et puisqu’elle est
source de pouvoir (y compris de la bombe ato-
mique).
La technologie qui met en œuvre les réseaux
est l’application contemporaine de la méthode
scientifique pour créer des « hybrides de nature-
culture », énièmes objets scientifiques à se pré-
senter comme les témoins toujours plus fiables
de la réalité, en lieu et place des humains 1. Le
verdict de l’hybride technologique qu’est l’algo-
rithme de PageRank™ a désormais plus de valeur
que celui de n’importe qui, et le résultat fourni
par Google plus de poids que l’avis d’un expert
dans le domaine. Sans doute pour la raison que
PageRank™ est toujours à portée de click, pas
l’expert.
Comme on l’a remarqué en introduction, après
tout, Internet est un phénomène naturel, au sens
de matériel, fait de machines mécaniques et élec-
troniques ; dans le même temps, c’est un phéno-
mène culturel, parce qui n’existerait pas sans
la signification que la culture lui attribue, faite
d’interactions signifiantes des êtres humains, ou
mieux, des machines biologiques entre elles et
avec des machines électroniques. Le caractère
hybride des réseaux est une conséquence évidente
du caractère hybride de la technologie tout court.
Un autre point de vue possible sur la question
subjectivité/objectivité concerne le modèle déci-

186
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 187

Technocratie

sionnel : comme décide-t-on de ce qui est perti-


nent ? En contexte relativiste, il est aisé de conce-
voir comme « objective » une information venant
d’un site (ou d’un blog, ou de Google, ou d’un
circuit d’information officiel) si ce jugement de
valeur est le produit d’une prise de position claire,
d’une clé de lecture publiquement exprimée,
d’une vision d’un tout petit monde localisé. Un
réseau de confiance, c’est-à-dire un groupe de
personnes qui s’échangent des informations, des
avis et des connaissances au sens général,
communique volontiers sa méthode de travail,
son éventuelle hiérarchie et les modalités d’adhé-
sion à son réseau ou à son projet propres. Chaque
fois que l’on consultera les réponses de ce réseau
de confiance, elles pourront être lues comme
« objectives » au sens de vraies pour lui, perti-
nentes eu égard à son expérience, précisément en
ceci qu’elles sont les fruits d’autant de subjecti-
vités différentes et d’une forte interaction entre
elles. Si l’on se sent en accord avec cette commu-
nauté, on pourra considérer l’information trouvée
comme pertinente, ou bien l’écarter au profit
d’autres réseaux de confiance.
Selon cette approche, si Google communiquait
publiquement son mécanisme décisionnel et si les
utilisateurs d’Internet étaient en mesure de le
comprendre, le problème objectif/subjectif pour-
rait facilement être dépassé. On arriverait à se
reconnaître au fur et à mesure, recherche après
recherche, dans le réseau qui nous satisferait le
plus, et à l’influencer directement en fonction de
ce que nous sommes, avec nos goûts, nos idées,
nos idiosyncrasies.

187
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 188

La face cachée de Google

Public et privé

Le PageRank™ illustre encore une autre dicho-


tomie, entre le public et le privé. De fait, tout ce
qui passe à travers Google est rendu public : à
qui n’est-il pas arrivé de trouver des e-mails per-
sonnels parmi les résultats du ranking, peut-être
parce qu’ils avaient été envoyées à une mailing-
list publique ? Dès lors qu’une masse toujours
plus grande d’informations personnelles passe
par Google, et par les technologies informatiques
en général, la possibilité de voir demain ses coups
de téléphone (peut-être passés via VoIP) archivés
et repérables grâce à un moteur de recherche ne
semble pas si lointaine. En somme, les technolo-
gies arrivent à hybrider aussi les sphères du
public et du privé : du reste, se connecter à
Internet signifie ouvrir une porte sur le monde,
et une fois cette porte ouverte, c’est le monde qui
entre dans notre vie.
Il existe déjà quelques réseaux dont les prati-
ques dissipent de fait la chimère d’une informa-
tion objective. Ils discriminent de manière pré-
cise, délibérée et entièrement subjective, ce qu’ils
entendent rendre public et ce qui concerne au
contraire la sphère privée. Ce phénomène prend
toute son ampleur lorsque le moteur de recherche
se révèle incapable de satisfaire une instance de
recherche dont la qualité (spécifiée) dépasse la
disponibilité quantitative et la structure technique
proposée.
L’exemple le plus connu est la recherche par
réseau peer-to-peer (p2p) 2 comme eMule (entre

188
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 189

Technocratie

autres). La masse de données qu’on peut recher-


cher dans ces réseaux correspond aux données
partagées par les utilisateurs, et varie avec le
temps de manière irrégulière ; pour cette raison,
ces réseaux sont définis comme « transitoires » 3.
En effet, l’utilisateur y classe librement le maté-
riel qu’il désire rendre public et celui qui au
contraire restera scellé dans la sphère privée.
C’est également une règle fondamentale de
l’échange « pair à pair » que d’offrir et de par-
tager ses contenus (ceux qu’on peut repérer dans
le réseau) pour avoir en échange d’autres conte-
nus. En soi, le p2p est une pratique légale ; mais
les données échangées abusivement peuvent être
protégées par copyright (audio, vidéo, textes,
etc) : c’est seulement dans ce cas que l’on passe
dans l’illegalité. La diffusion planétaire de ces
pratiques met en évidence la nature liberticide de
la législation en vigeur en matière de propriété
intellectuelle et de brevetabilité de la connais-
sance : en effet, on considère aujourd’hui comme
un délit le fait de répandre des informations pro-
tégées par copyright, ce qui signifie qu’un bon
quart de la population devrait finir en prison pour
avoir téléchargé illégalement au moins un dossier
mp3. De plus, le choix individuel sur la frontière
entre public et privé semble toujours plus urgent.
Un large éventail de possibilités est ouvert,
depuis l’option modérée consistant à mettre en
avant et à favoriser l’échange d’informations à
celle qui, faisant fi de toute considération légale,
consiste tout simplement à s’abreuver à la source
de la piraterie, en profitant de ce qu’on trouve sur
la Toile.

189
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 190

La face cachée de Google

La diffusion de la piraterie ne signifie en aucun


cas que nous soyons au seuil de la révolution
populaire, notamment parce qu’il s’agit souvent
d’une piraterie semi-involontaire, et assurément
pas de l’engagement d’individus qui choisiraient
en toute responsabilité de s’opposer au système de
protection des connaissances en vigueur 4. C’est
plutôt que les technologies numériques font de la
reproductibilité technique un problème obsolète,
et que la culture de consommation pousse à
désirer beaucoup plus de ce qu’on peut utiliser.
Il nous semble presque naturel de désirer tout ce
que nous pouvons imaginer, au moins pour ce qui
est de l’« information », même s’il est évident
que nous ne pourrons jamais écouter ne serait-ce
qu’un extrait de la musique que nous téléchar-
geons sur le réseau, ou de voir même seulement
une partie significative des films que nous avons
sur nos disques durs. Mais l’instance du désir,
illimité par nature, conjuguée à la possibilité tech-
nique, pose de sérieuses questions sur la dis-
tribution et sur l’accès à la connaissance. Le
caractère tendanciellement gratuit et libre de ces
échanges constitue un formidable défi au primat
de l’économie productiviste. La diffusion des
opinions, par exemple sous forme de blogs, met
en crise jusqu’à la conception traditionnelle d’un
média de masse.
En fait, le p2p représente seulement le niveau
superficiel et le plus répandu d’une forme
d’échange indépendante de toute autorité généri-
quement supra-communautaire. Il y a beaucoup
d’autres instances de recherche qualitative, toutes
prises en charge par des réseaux de confiance qui

190
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 191

Technocratie

pourraient redéfinir nos perspectives d’orientation


sur internet. Dans certains cas, ces parcours sub-
jectifs gravitent autour d’affinités culturelles ou
professionnelles, comme par exemple les forums,
les newsgroups, les blogs spécialisés ; dans
d’autres, c’est autour du désaccord explicite des
sources officielles ; on trouve souvent des exem-
ples suffisamment structurés pour constituer un
modèle alternatif en termes d’organisation de la
connaissance (knowledge management).
Il est donc permis d’imaginer une évolution
(peut-être lente) du circuit des connaissances
depuis les blogs vers les p2p. Un échange de
connaissances à travers des programmes sans rap-
port avec la publication web, appuyés sur des
réseaux dynamiques, où soit possible de partager
des flux d’informations et des fichiers entre des
utilisateurs, qui appartiendraient donc réellement
à un cercle d’amis. Ceci permettrait de rendre la
division entre public et privé non pas statique
mais dynamique, vaporeuse : chaque personne y
serait libre de partager des informations avec un
niveau d’accessibilité variable entre public et
privé.

Voies de fuite : médias indépendants,


cryptographie, blog, foaf

Le phénomène des blogs 5, sites web qui contien-


nent les réflexions personnelles de l’auteur, les
liens qu’il a choisi et les commentaires des
lecteurs, a donné naissance à ce qu’on définit

191
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 192

La face cachée de Google

désormais comme la blogosphère : on estime


aujourd’hui à environ 60 millions le nombre de
blogs, avec presque 4 milliards de liens et
1,3 millions de messages par jour. La blogo-
sphère augmente à raison de plus de cent mille
blogs par jour et double tous les six à sept mois 6.
D’un point de vue mathématique, les blogs res-
pectent la loi du plus fort et se distribuent selon
les caractéristiques d’un marché à « longue
traîne » : quelques centaines de blogs ont un
nombre très élevé de liens (environ quatre mille
d’entre eux constituent le « gotha » des blogs),
mais la plupart (autant dire des millions) en a en
revanche très peu. En ce sens, comme on l’a vu
dans le chapitre 2, la blogosphère s’inscrit dans
les structures économiques de la recherche. Le
blog permet de partager son point de vue, déclaré
subjectif et personnel, sans aucun filtre ; le
nombre de liens à un blog représente sa popula-
rité et donc son autorité, qui peut rejoindre et
dépasser celle des quotidiens et d’autres medias
traditionnels par son influence sur l’opinion
publique. Fiabilité, confiance et réputation sont
liées à la seule importance du blog : à mesure que
croît sa popularité, il devient difficile mentir sans
être immédiatement pénalisé, c’est-à-dire de
n’être plus relié et de sombrer très vite dans
l’oubli 7.
L’autorité du blog de Beppe Grillo, l’unique
italien à être classé parmi les cent premiers blogs
du monde en termes de quantité de liens, est plus
grande que celle du blog de « La Reppublica » et
du « Corriere della Sera ». Le sujet Beppe Grillo
se livre de manière personnelle et ne prétend pas

192
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 193

Technocratie

vendre la vérité : il expose son point de vue. En


ce sens, les blogs créent des réseaux de partage
autogérés ; ils deviennent même, parfois, les uni-
ques sources d’information non normalisées.
C’était le cas du blogger irakien Salam Pax (alias
Salam al-Janabi) pendant la deuxième guerre du
Golfe 8.
La nouveauté la plus importante apportée par
les blogs à l’information est l’association auto-
matique de sources différentes par les feed RSS
(littéralement, les « provisions de RSS »), deve-
nus le standard de facto pour l’exportation de
contenus Web. Il s’agit très brièvement d’une
méthode automatique pour passer rapidement
d’un site web à l’autre, trouver et exporter les
informations qui nous intéressent. La popularité
du blog est peut-être l’une des raisons principales
du succès de RSS : des milliers de weblogs
commencent à produire des contenus en RSS, de
sorte qu’on voit se multiplier les sites rassem-
blant une sélection issue des blogs les plus suivis
(sites qu’on appelle des blog aggregator) et des
programmes pour jouir les contenus d’un blog
directement sur son terminal (RSS reader). C’est
ainsi qu’il est possible de chercher des contenus
dans la blogosphère sans passer par Google.
La possibilité de pouvoir confortablement,
automatiquement, recevoir sur son ordinateur les
derniers articles écrits sur les sujets que l’utilisa-
teur considère comme les plus intéressants est
une innovation clairement destinée à avoir
d’énormes répercussions sur l’utilisation du Web.
Plus généralement, c’est une première étape qui
permet d’avoir n’importe quelle donnée dans un

193
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 194

La face cachée de Google

format naturellement facile à partager, à trans-


former et à développer. Le RSS rend ainsi une
information accessible sur tous les supports infor-
matiques, un site, un programme installé sur son
ordinateur, un téléphone mobile ou n’importe
quel autre moyen technologique.
Il y a cependant beaucoup d’autres possibilités
pour chercher des informations. Si Google se pré-
sente comme un moyen objectif et public, Indy-
media.org 9 par exemple se présente comme un
« réseau de médias collectivement géré en vue de
dire de manière radicale, objective et passionnée,
la vérité ». Aussi bien le groupe de personnes qui
le compose agit-il selon une politique publique
très particulière : dans la colonne à droite des
pages, qu’on appelle le newswire, n’importe qui
peut publier. Rien n’est censuré, même si « les
messages manifestement racistes, sexistes ou fas-
cistes sont cachés, mais pas éliminés ». Indy-
media est donc essentiellement un intrument qui
fabrique des utilisateurs actifs dans la création
des informations et permet de contribuer à la for-
mation de la connaissance et des vérités parta-
gées : l’autorité qui « crée » les vérités est
décentralisée et participative, elle est une autorité
éthique (un collectif) et pas mathématique (un
algorithme).
Mettre en question les sources officielles en
montrant qu’il est possible de faire de l’informa-
tion de manière crédible, décentralisée et indé-
pendante, est l’un des objectifs d’indymedia.org
et de dizaines de réseau nés autour de thèmes
spécifiques 10.

194
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 195

Technocratie

Vaut-il mieux rendre les informations publi-


ques ou les garder privées ? Une réponse intéres-
sante vient du projet Freenet.org 11, un réseau p2p
décentralisé, créé pour résister à la censure, qui
exploite les ressources (bande passante, espace
disque) de son utilisateur pour permettre la publi-
cation et l’usage de n’importe quel type d’infor-
mation. Freenet.org a été construit en privilégiant
l’anonymat et la sûreté plutôt que la vitesse de
transmission. Les autorités nationales ou autres
qui censurent les communications ont toutes une
caractéristique commune : c’est qu’il existe des
censeurs qui décident ce qu’il faut couper ou
laisser passer, ce qui est offensant ou inoffensif.
Freenet.org est un réseau qui ne laisse à personne
la possibilité d’imposer son échelle de valeurs :
il n’est permis à personne de décider ce qui est
acceptable, et la technologie est mise au service
d’une liberté absolue d’expression.
Dans les réseaux non anonymes, si nous vou-
lons que nos informations arrivent exclusivement
à des destinataires pré-établis, la cryptographie
lourde s’avère utile – c’est d’ailleurs une pratique
fondamentale pour garantir un minimum de
confidentialité dans les communications numéri-
ques. Par exemple, parce qu’ils ne sont pas tra-
çables par les outils de recherche, nos messages
e-mail cryptés ne sont pas lisibles 12. La crypto-
graphie propose d’utiliser les réseaux de manière
subjective et filtrée, en créant d’un côté des
espaces privés d’échange entre individus, et de
l’autre des espaces publiques indexables et utili-
sables par n’importe qui. L’intérêt n’est pas
d’avoir quelque chose à cacher, mais de préserver

195
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 196

La face cachée de Google

les espaces privés et de pouvoir décider de


manière autonome et libre ce que nous voulons
rendre public, comment et à quel moment. Nos
communications personnelles, nos données sen-
sibles ne seront pas rendues publiques ni trans-
formées en objets de marketing du seul fait
qu’elles circulent sur la Toile.
Une autre possibilité consiste à tout rendre
public, ou mieux, à décider de rendre publique
une vision totalement subjective de soi, ce qui
revient encore à la rendre « susceptible d’être
recherchée et lue ». Une identité virtuelle (un
alter ego numérique) peut être définie avec le
minimum de détail sans qu’on l’abandonne aux
techniques de profilage. La proposition sans doute
la plus intéressante est celle de la communauté de
FOAF, acronyme de friend-of-a-friend 13, « ami
d’ami ». Ce projet vise à créer un ensemble de
pages web que peuvent lire automatiquement des
machines (machine readable) qui décrivent les
personnes, leurs intérêts, les choses qu’elles font,
et leurs rapports entre elles 14. De cette manière,
le concept même de vérité passe au second plan,
au profit de celui de « confiance » : je tends à
accorder ma confiance aux amis de mes amis,
en formant des « réseaux de confiance » qui
s’appuient sur des affinités, des passions, des
goûts communs. FOAF est un moyen de créer des
réseaux sociaux, en promeuvant une démarche
active : il est nécessaire de « se déclarer », de « se
décrire », « de se rendre public » 15.
Du point de vue des réseaux de confiance
(trusting networks, support du Web Trust) FOAF
peut être une garantie de transparence sur les par-

196
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 197

Technocratie

cours qui lient nos avatars virtuels, en favorisant


plus de crédibilité et de confiance dans les rela-
tions interpersonnelles développées sur la Toile.
Le Web est utilisé pour créer des espaces dans
lesquels les personnes sont interconnectées dans
une grande cartographie relationnelle, que l’on
peut parcourir en partant de n’importe lequel de
ses nœuds et sans passer nécessairement par un
outil de recherche centralisé.
Il est possible d’employer des moyens comme
FOAF même à des fins explicitement politiques :
par exemple, le réseau indyvoter se présente
comme « un site web de networking social pour
activistes politiques », et a pour objectif explicite
de former une forme de gouvernement alterna-
tive 16.
Les fausses alternatives entre des termes
opposés l’un à l’autre, nature/culture, subjectif/
objectif, public/privé, vrai/faux, s’avèrent d’une
grande indigence. L’informatique est en essence
duale et mélangée : à la fois théorie et pratique,
elle crée des objets qui modifient notre manière
de penser, et l’usage de ces objets modifie en
retour l’informatique elle-même. Les mondes
numériques sont réels, et dans les faits, nos
visions en noir et blanc laissent de l’espace au
gris, à l’infinie variété des couleurs, à toutes les
nuances d’opinions, aux différences qui sont une
richesse, à l’hétérogénéité qu’on ne peut recon-
duire à l’unicité. Les moyens pour modifier,
étendre et ramifier ces espaces de liberté et ces
lignes de frontière sont à notre disposition : les
possibilités ne peuvent être limitées que par notre
manque de profondeur et d’imagination.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 198


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 199

Conclusion

Nous voici au terme de notre exploration.


Beaucoup des secrets de Google, plus ou moins
considérables, ont été mis en lumière.
Il s’agit, comme on l’a vu, d’un dispositif qui
se vante de pouvoir gérer intégralement le sys-
tème complexe des connaissances disponibles sur
Internet. Il vend en effet comme des vérités objec-
tives des réponses qui ne sont rien d’autre que des
parcours subjectifs filtrés par ses technologies de
recherche. Gardons-nous de tomber dans le piège
d’une lecture ésotérique du phénomène, fascinés
par sa rapidité à servir nos demandes. Ces por-
tails souvent teintés de mysticisme sont en réalité
des stratégies qui conjuguent l’usage de systèmes
avancés de collecte et de stockage des données,
de systèmes de repérage des informations cor-
rélés à des techniques de profilage directes et
indirectes, avec la personnalisation des publicités.
De plus, un marketing d’avant-garde et une
gestion opportune de la communication sont
l’alpha et l’oméga de l’évangélisation googo-
lienne : voyez l’emploi des couleurs elémentaires
dans l’identité visuelle du logo, c’en est un

199
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 200

La face cachée de Google

exemple. Ajoutez la diffusion d’interfaces haute-


ment configurables, capables de conserver l’iden-
tité de l’entreprise dans tous les domaines, et il
n’y a plus qu’à servir : on peut déguster l’exploi-
tation, à tous les niveaux, de l’économie relation-
nelle mise en place par les recoupements entre
utilisateurs. Enfin, Google adopte systématique-
ment les méthodes de développement coopératif
typiques de l’Open Source et des Free Software,
en abattant les coûts pour le développement de
ses services et en se présentant en défenseur de
la cause de la libre circulation des savoirs.
Refuser l’hagiographie courante du « moteur
de recherche parfait » ne signifie pas entamer une
campagne de boycottage ; du reste, les membres
du groupe Ippolita se sont souvent servis de
Google, y compris pour écrire ce livre.
De la même manière, le large recours à des res-
sources communes et accessibles comme Wiki-
pedia s’est avéré très utile d’un point de vue
encyclopédique. En effet, si l’on connaît déjà la
question dont il s’agit, on peut vérifier l’exacti-
tude des informations de manière indépendante,
en recombinant des bribes de la Toile d’une
manière raisonnée et sans fascination, pour parler
de la Toile elle-même. L’emploi critique des
sources dépend de l’aptitude des sujets à bien
vouloir évaluer la crédibilité des informations,
pas de la bonté intrinsèque des technologies
numériques.
L’informatique n’est pas simplement une tech-
nique destinée à gérer l’information de manière
automatique. Elle a une logique propre, c’est-
à-dire travaille et modifie continuellement ses

200
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 201

Conclusion

fondations mêmes. Elle est tout à la fois phy-


sique, théorique et expérimentale : elle étudie les
formalisations du langage (donc formalise la
connaissance), l’applique aux composantes phy-
siques de l’électronique, et obtient des langages
qui influencent à leur tour les théories de la
connaissance, de sorte qu’elle évolue de manière
circulaire.
Google pousse à l’extrême cette logique récur-
sive : c’est une machine extraordinaire qui se
fabrique par l’usage qu’en font les utilisateurs
eux-mêmes. En ce sens, elle est une machine
« autopoïétique », qui accumule toutes les infor-
mations de base introduites chaque jour sur la
Toile par des millions d’utilisateurs (noms, pho-
tographies, courrier, préférences de recherche,
participation aux forums, utilisation des blogs,
compilation de questionnaires et de formulaires,
parcours de navigation, etc) pour vendre de la
publicité par capillarité. Les données des utilisa-
teurs sont devenues un énorme patrimoine éco-
nomique, social et humain. Un patrimoine à
protéger, certainement, mais également un terri-
toire où enquêter, expérimenter, faire preuve de
curiosité.
Google fournit une réponse fluide aux inten-
tions de recherche des utilisateurs, et cette
réponse s’articule à des services toujours plus
sophistiqués et plus personnalisables. Mais cette
multiplicité n’est qu’une surface, qui vise simple-
ment à répandre une forme de consumérisme
adapté à l’économie informationnelle, au moyen
de la personnalisation de masse des publicités et
des produits. Le capitalisme de l’abondance

201
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 202

La face cachée de Google

propre à Google procède d’une arborescence soi-


gnée de l’imaginaire des producteurs-consomma-
teurs (prosumer), à tous les niveaux. En effet, les
utilisateurs fournissent gratuitement leurs don-
nées personnelles, mais aussi leurs suggestions et
leurs impressions sur l’utilisation des services ;
les développeurs collaborent à l’élaboration des
outils « ouverts » mis à disposition pour répandre
les standards de Google, qui restent sous le
contrôle sourcilleux de Mountain View ; les sala-
riés de Googleplex et des autres centres de don-
nées se reconnaissent pleinement dans la philo-
sophie de l’excellence promue par l’entreprise.
Le profilage de l’imaginaire n’est que la der-
nière étape du procès de colonisation capitaliste
des réseaux que nous avons appelé l’onanisme
technologique. Un esprit mercantile oriente les
déclarations en faveur de la « libre expression
des individus », sauf si l’on peut ensuite exploiter
ces « expressions » pour vendre des babioles et
d’inutiles produits personnalisés.
Google promeut son « économie de la
recherche » comme s’il s’agissait d’une nouvelle
cyberdémocratie où des centaines de millions de
personnes pourraient communiquer directement
et assurer eux-même leur organisation, en se
soustrayant au contrôle d’État et institutionnel en
général, grâce aux moyens technologiques de
l’entreprise. Ce message simpliste trouve chez les
médias et les intellectuels « démocrates » de toute
la planète un soutien d’auto-conviction. D’après
eux, l’Internet serait, par nature, intrinsèquement
démocratique : non seulement les individus
seraient, sur la Toile, poussés à prendre la place

202
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 203

Conclusion

des institutions, mais les institutions seraient


elles-mêmes meilleures. L’enthousiasme techno-
cratique va jusqu’à présenter l’informatisation des
administrations publiques, un phénomène connu
sous le nom d’e-government, comme une sorte
de gouvernement sans idéologie, qui mobilise la
responsabilité du « cybercitoyen ». Cette nouvelle
identité assure en définitive une participation à la
première personne (numérique) à l’émergence
d’une opinion publique diffuse. Comme s’il était
possible de parer à la crise des formes classiques
de représentation par une démocratie locale
connectée à une échelle globale ! Nous avons
relevé les principales lacunes de cette thèse,
qu’on peut ramener à une approche idéologique.
Elle repose sur l’idée que des technologies sont
« neutres » par définition, et que cette neutralité
présumée est synonyme de bonté, dans la mesure
où elle serait le fruit d’une pratique de recherche
scientifique objective, capable d’offrir à chaque
individu ce qu’il désire, rapidement et sans effort.
La complexe médiation informationnelle appli-
quée par Google est présentée comme une mem-
brane transparente de haute technologie, garante
des libres choix des utilisateurs/citoyens/consom-
mateurs, qui emploient/votent/achètent en surfant
sur la libre Toile que Google gère pour leur bien.
En dépit de tous les rêves participatifs, éblouis
par la fable de la cyberdémocratie mais privés de
substance concrète, il est impossible de mettre
en place des formes réellement autonomes de
démocratie directe en centralisant les informa-
tions, les savoirs, les pouvoirs, et en mettant le
tout entre les mains d’une entreprise privée (par

203
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 204

La face cachée de Google

ex., Google), et encore moins d’une institution


publique (par ex., l’Authority concernant les télé-
communications).
Les franges les plus avancées des mouvements
alter-mondialistes n’échappent pas au piège iden-
titaire. Ils souhaitent en effet une recomposition
de l’identité de classe à travers une nouvelle cen-
tralisation du travail, en l’occurrence télématique.
Mais ils restent très loin de la sphère du désir
individuel, même lorsqu’ils promeuvent le social-
networking comme solution thaumaturgique à
toutes les frustrations personnelles, dans un rite
d’auto-aide technologique globale.
Seul le choix de l’autoformation peut constituer
une issue viable pour se soustraire à la domination
technocratique. Bien des pas doivent être accom-
plis avant de pouvoir « mettre en commun »
quelque chose de soi pour générer des synergies.
Sans une préparation technique adéquate, la soi-
disant manne communautaire se révèle vite un
exercice solipciste.
Les individus qui créent les réseaux doivent en
revanche apprendre à gérer leurs données sensi-
bles et commencer à établir la frontière entre ce
qu’ils veulent rendre public et ce qu’ils veulent
maintenir privé. De plus, ils doivent être en
mesure de décider quelles informations sont
« vraies » et lesquelles sont « fausses », en les
évaluant en fonction de leur point de vue sub-
jectif à l’instant t. En effet, pendant qu’ils par-
courent le Web, ils doivent être conscients qu’ils
modifient le paysage informationnel et changent
les informations mêmes au cours de la naviga-
tion.

204
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 205

Conclusion

C’est ainsi que les individus peuvent déve-


lopper leur autonomie, en élaborant des règles
pour traverser les territoires virtuels et pour
acquérir une position personnelle.
Comme toute autre technologie, les technolo-
gies numériques ne sont en elles-mêmes ni bonnes
ni mauvaises, et comme on l’a vu, elles ne sont
pas neutres non plus : cela dépend de l’usage
qu’on en fait et de la méthode par laquelle elles
sont développées. Assurément, parce qu’il s’agit
d’hybrides capables de développer quelques
aspects de la vie réelle, elles permettent de
dévoiler les contradictions entre la « Nature » et
la « Culture ».
Un autre danger peut alors être conjuré : l’image
du Web comme expérience dématérialisée, privée
de matérialité physique, qui mène souvent à un
refus aveugle et réactionnaire de l’innovation.
Dans cette perspective, la réalité virtuelle du
cyberespace regorgerait d’interactions peu signi-
ficatives, mises en œuvre par des personnes on
line oublieuses des disparités matérielles de la vie
concrète : sexe, race, richesse, position sociale
seraient mis de côté dans la navigation fluide et
sans heurt d’identités fictives. Cette idée,
d’aspect strictement matérialiste, est habituelle-
ment soutenue par des intellectuels et des obser-
vateurs qui, du haut de leurs chaires, débattent
sans avoir jamais eu l’humilité de demander des
éclairages aux « gamins » qui sont nés avec les
technologies numériques.
Au contraire, la réalité virtuelle est physique
au point qu’elle ne pourrait pas exister sans les
machines mécaniques, le silicium et les circuits

205
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 206

La face cachée de Google

intégrés, et sans les machines biologiques, autre-


ment dit les utilisateurs : connection, multiplicité
et déterritorialisation ne sont pas synonymes
d’« immatérialité ». De plus, semblable attitude
cache une peur profonde de voir changer le
monde sans réussir à y retrouver sa place, ainsi
qu’une méfiance radicale envers les possibilités
de transformation et de croissance des individus.
Les technologies numériques représentent donc
une possibilité de libération seulement si elles
sont liées au développement d’alter-ego numéri-
ques complexes, conscients, capables d’interagir
de manière imprévisible. Il est possible d’utiliser
des langages multiples pour construire un ter-
rain de rencontre : entre autres, Ippolita a estimé
indispensable de recourir à la méthode expéri-
mentale de la recherche scientifique, à la richesse
inépuisable de la tradition humaniste, à la force
dialogique des passions politiques, à la cohérence
de narration propre aux féministes, à la curiosité
sans limites typique des hackers. La confiance
dans la possibilité de modeler les technologies en
fonction des désirs des individus est indispen-
sable pour créer des réseaux vraiment libres, et
pas seulement numériques.
Le chaos des messages contradictoires, le bruit
de fond parfois insupportable et l’ampleur presque
inconcevable de la Toile peuvent sans doute ins-
pirer de la crainte, mais l’exploration ne fait que
commencer.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 207

Appendices

1. La fin du monde en une biscotte

La date d’échéance de Google est le 17 janvier


2038. L’intérêt de cette date est qu’elle se situe
juste deux jours avant la fin du monde. Le 19 jan-
vier 2038 est une date essentielle partout dans le
monde POSIX, qui comprend tous les systèmes
d’exploitation dérivés du système UNIX (GNU/
Linux, BSD, Solaris, etc) et tous les protocoles
de réseau de style UNIX (http, FTP, etc.). Sur les
systèmes POSIX, le temps est compté, pour des
raisons historiques, en nombre de secondes pas-
sées depuis le premier janvier 1970. L’unité de
mesure pour ce nombre est un « entier signé »,
valeur qui en informatique occupe 32 octets de
mémoire.
Si un programmateur crée une variable de
type entier signé pour mémoriser une valeur
numérique, celle-ci ne peut être supérieure à
2 147 483 648 ni inférieure à 2 147 483 647. C’est
un nombre très grand, mais qui prend une très
faible valeur si nous le transformons en secondes.
Dans 32 octets, il y a en effet à peine 136 années.

207
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 208

La face cachée de Google

Lorsque Ken Thompson, presque par jeu,


inventa l’Unix, il n’aurait jamais imaginé de
révolutionner à tel point l’informatique et surtout
il n’aurait jamais pensé qu’une série ses choix (le
filesystem, l’heure, le code des caractères, les
appels à fonction, le langage de programmation,
etc) deviendraient en très peu de temps des lois
pour tous les programmateurs du globe. Thompson
décida en 1972 que la date 0 de son système
d’exploitation serait le 1er janvier 1970.
2 147 483 647 secondes après le 1er janvier
1970, il sera exactement 3 h 14 du matin, le
19 janvier 2038, et ce sera la dernière seconde du
monde Unix, d’internet (qui fonctionne grâce à
des protocoles Unix) et des principaux serveurs
du globe (qui utilisent des systèmes d’exploita-
tion dérivés d’Univx). Après cette seconde, nous
serons ramenés au 13 décembre 1901 à 20 h 45.
Assurément, ce problème sera à gérer dans les
prochaines années et exigera un changement
d’ère dans la gestion du temps et de tout le reste
des systèmes Unix. C’est assurément un pro-
blème un peu plus sérieux et plus fondé que le
« Millennium bug » qu’on avait annoncé à grands
cris lors du passage de 1999 à 2000.
La date d’échéance de Google est donc la date
plus reculée qu’on puisse programmer dans un
cookie, ce qui implique que le browser de nos
systèmes d’exploitation n’effacera jamais ces
cookies ni les informations qu’ils conservent.
Pour un approfondissement du problème des
dates, voir :
http://www.2038bug.com/index.html

208
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 209

Appendices

http://www.iee.org/Policy/Areas/SCS/problem
dates.cfm
http://en.wikipedia.org/wiki/Unix_epoch~~

2. Interzones : influences et dominations


dans les mondes numériques

Les projets Open Source de Google sont éga-


lement hébergés sur le portail sourceforge.net ;
entre le site Google.com et celui de source-
forge.net, il n’y a pas de changements substan-
tiels, à peine quelques modifications graphiques
de surface. Les différents projets restent inaltérés
jusqu’aux moindres détails, tant dans le code que
dans l’interface. L’unique élément digne de
remarque est le changement du serveur hôte : on
passe en effet d’une section ayant un nom de
projet sur le site code.google.com, à une page
hébergée par sourceforge.net sous une dénomina-
tion de troisième niveau, par exemple nom-de-
projet.souceforge.net. Il existe donc deux accès
séparés et indépendants pour rejoindre la même
interzone. Toutefois ces zones appartiennent à
deux dénominations différentes : Google.com et
sourceforge.net.
Le concept de dénomination est à la base de la
structure des réseaux. Dans le domaine informa-
tique, le terme « dénomination » désigne le nom
d’un serveur à l’intérieur d’une échelle hiérar-
chique extrêmement complexe, gérée par un
réseau d’ordinateurs appelés DNS (Domain Name
Server). Ces ordinateurs ont pour tâche de gérer

209
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 210

La face cachée de Google

l’association serveur- dénomination et permettre


à tous d’accéder à des adresses répandues dans
le réseau grâce à leur nom.
Par exemple, lorsque l’on veut rejoindre www.
google.com, un programme spécifique à l’inté-
rieur de notre ordinateur demande à un DNS quel
serveur répond au nom « www.google.com ». En
substance, le réseau des DNS s’occupe de cher-
cher à l’intérieur des gigantesques cartes et bases
de données le serveur que nous demandons, en
associant l’adresse alphabétique compréhensible
par nous à une adresse numérique (le numéro ip)
compréhensible par les machines. Il nous commu-
nique ensuite le résultat, et nous nous trouvons
reliés à Google ou à n’importe quelle autre adresse
demandée.
En simplifiant beaucoup ce complexe méca-
nisme hiérarchique, on pourrait dire que les déno-
minations sont structurées par niveaux. Dans une
adresse web typique, les niveaux se lisent de droite
à gauche. Les premiers niveaux sont génériques
(.com,.org,.net) et nationaux (comme.fr,.it,.de,.tv.)
Au second niveau se trouvent les noms réels des
serveurs, associés à une seule des dénominations
de premier niveau : google.com, eleuthera.it,
somasuite.net, alekoslab.org, etc. Rien n’interdit
à un serveur d’avoir des dénominations de second
niveau liées à différentes dénominations de pre-
mier niveau : google.it, google.de, google.com
sont toutes des dénominations valides de second
niveau. Il n’est pas obligatoire que ces dénomi-
nations de second niveau se réfèrent à une même
entité : par exemple, ippolita.net est le site
du projet Ippolita, ippolita.it est le site du poète

210
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 211

Appendices

Ippolita Avalli, ippolita.com est le site d’Ippolita


qui fabrique et vend des bijoux.
À partir du second niveau, la gestion revient à
ceux qui gèrent la dénomination de second niveau.
Par exemple, code.google.com est géré directe-
ment par Google, tout comme www.google.com,
et même moon.google.com.
Il n’existe pas de règle précise sur les noms de
troisième niveau : il suffit de penser à une adresse
suggestive, mais absolument correcte, comme
del.icio.us : le suffixe.us indique l’appartenance
à la dénomination nationale USA, le nom « icio »
indique le serveur, le préfixe « del » de troisième
niveau complète le jeu de mots, de sorte que
l’adresse en entier signifie « délicieux » en anglais.
Toutefois, il est courant d’associer certaines déno-
minations à des services spécifiques. Une adresse
du type www.server.net recevra plutôt la pre-
mière page du service de server.net, tandis que
mail.server.net recevra des services de boîte élec-
tronique, et ainsi de suite.
L’image sans doute la plus éloquente pour
décrire cette hiérarchie est celle d’une maison :
les services ont une porte d’accès direct (mail.
server.net) tandis que le contenu des différents
services peut être reçu dans l’une des chambres
(www.server.net/fotografie/), c’est-à-dire dans
l’une des adresses du serveur principal.
La gestion que fait Google des dénominations
de troisième niveau est inconséquente, et c’est
pour cela qu’elle peut être extrêmement ouverte
et fluide. Il est curieux en effet de remarquer
qu’on a accordé à la Lune une dénomination de
troisième niveau (moon.google.com) mais pas à

211
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 212

La face cachée de Google

Mars, relégué dans une adresse secondaire (www.


google.com/mars) : ces deux services permettent
d’explorer des cartes, sans rien proposer de signi-
ficativement différent.
La structure de Sourceforge.net en revanche
est plus rigide, comme du reste celle de Fresh-
meat.net (que pourtant Google n’utilise pas pour
l’instant) et d’autres projets analogues. Source-
forge.net offre les projets hébergés comme des
services pour les utilisateurs du fait de sa nature
même de portail ; c’est aussi pour cette raison
que tous les projets de Google se trouvent dans
une dénomination de troisième niveau, exacte-
ment comme tous les autres projets. Il s’agit d’un
moyen pour les communautés de développement
consacrées à chacune d’elles de constituer un
milieu ad hoc riche en services. Les différentes
communautés ont recours aux services dont ils
ont besoin et Sourceforge.net leur donne un espace
complet et personnalisé. Google se comporte donc
comme la communauté de Gaim ou de n’importe
quel autre logiciel : pourtant, Google n’est pas
précisément n’importe quelle communauté de
développeurs indépendants...
D’autres interzones sont créées pour gérer les
domaines d’influence des différentes commu-
nautés et l’éventuelle interaction entre les projets
qui en dépendent. Le projet Open Source Mozilla
et la page prédéfinie pour son browser Firefox sont
un petit exemple de grande visibilité publique.
À chaque fois qu’un utilisateur installera le brow-
ser mozilla-Firefox, la première page on line qu’il
verra sera celle de Google modifiée graphique-
ment de sorte à intégrer le logo de Firefox.

212
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 213

Appendices

Google fournit même une barre d’outils à com-


pléter sur Firefox. Les Toolbars (barres d’outils)
sont des blocs graphiques (généralement en
forme de ligne ou de colonne) qui activent, grâce
à la série de boutons et d’autres objets graphiques
qu’ils contiennent, des fonctions particulières du
programme qui les héberge. Les extensions pour
Firefox permettent d’ajouter gratuitement des
toolbars à l’intérieur du browser. Ce que le public
sait rarement, c’est que de tels produits ne sont
pas tout à fait Open Source. En effet, la barre
d’outils de Google n’est pas un produit téléchar-
geable depuis les sites classiques d’extension pour
Mozilla, parce qu’elle est diffusée sous licence
propriétaire. Le fonctionnement de la toolbar est
caché dans une petite librairie utilisée seulement
par elle et diffusée sans code source. Il existe
différents travaux illégaux de reverse engenee-
ring qui montrent tout le fonctionnement de cette
extension et la manière dont les données sont
demandées par le site de Google.
L’intégration des serveurs Google à son propre
terminal (ordinateur, pal, etc.) est toujours plus
serrée ; en effet, parmi les extensions destinées à
Mozilla Firefox, l’une des nouveautés s’appelle
Google Browser Sync : les marque-pages, l’his-
torique, les cookies, les mots de passe enregistrés
et même les pages et les fenêtres laissées ouvertes
pendant la dernière session, sont sauvegardés on
line sur le serveur de Google et ensuite synchro-
nisées automatiquement aux différents emplace-
ments utilisés et dans les nouvelles sessions de
navigation. Le contrôle de l’utilisateur s’étend à

213
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 214

La face cachée de Google

n’importe quel dispositif en mesure d’accéder au


web.
On peut enfin isoler une dernière interzone : le
front des licences d’utilisation. Google a en effet
cherché à s’adapter au standard des autres entre-
prises Open Source qui tendent à utiliser des ver-
sions plus ou moins retouchées de BSD 2.0
(exception faite pour Novell). Cette licence auto-
rise le partage du code mais aussi un contrôle
étroit de la diffusion des programmes et de leurs
versions. D’une part, cela permet la création d’une
communauté, tandis que d’autre part une grande
marge de manœuvre est laissée au contrôle général
de toute la filière de production. N’importe quel
programmateur indépendant qui fait du déve-
loppement gratuitement en utilisant cette licence
pourra être légalement dépossédé de sa création
à tout instant.
Quoique quelques responsables de Google
nous aient fait part d’un possible changement de
licence en faveur de la licence Apache, MIT, ou
même GPL, BSD reste le standard de tous les
projets hébergés et promus par le moteur de
recherche. BSD constitue donc l’interzone de
licence qui permet d’attirer à lui les codes libres
du monde Open Source, et d’en faire des pro-
priétés exclusives de l’entreprise.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 215

Remerciements

Merci à :

Marco Schiaffino et Asmagita, la Casa di Suna


et la Villa Andreoli, les filles et toute l’agence de
communication xX(y), Rossella Di Leo, Sentia
S.R.L., Le Laboratoire Cotech, Frederico Cabitza,
Matteo Valsasna, Wadada et la maison de Naples,
la Re, la Scighera, Maria la boulangère, enomix
et blicero.
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 216


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 217

Notes

I. HISTOIRE DES MOTEURS


1. Voir Tim Berners-Lee, L’architettura del nuovo Web
– Dall’invetore della rete il progetto di una communica-
zione democratica, Feltrinelli, Milan, 2001.
2. Il existe encore, et c’est un excellent métamoteur de
recherche, qui combine les résultats des meilleurs moteurs :
http://www.webcrawler.com
3. Grâce à la recherche full-text, il est possible de
trouver un mot seul, une combinaison de mots, des phrases
complètes en parcourant les documents dans leur intégra-
lité.
4. L’idée d’utiliser les fonctionnalités de recherche liées
à d’autres sites, et donc de pouvoir offrir avec ses résultats
ceux des autres, n’est pas propre à Excite. Déjà, fin 1995,
Metacrawler restituait sur ses propres pages web les ser-
vices de tous les moteurs de recherche existants. À ce jour,
il existe un très grand nombre de métamoteurs de recherche
qui compilent les recherches croisées à travers divers types
de bases de données.
5. Par la suite, Monier a travaillé pour eBay ; il s’est
associé à Google en 1995.
6. En 1996, la valeur d’une telle recherche ne pouvait
pas encore être estimée en termes financiers, étant donné
l’état embryonnaire dans lequel se trouvait l’économie
dédiée à internet. Mais son potentiel trouve une illustration
éclairante en DEC, la société chargée de la partie hardware

217
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 218

La face cachée de Google


d’AltaVista. Pourtant, le groupe DEC ne réussira pas à saisir
l’occasion, à cause d’une série malencontreuse de restruc-
turations internes qui disloquèrent l’équipe d’AltaVista,
acquis en 2003 par Ouverture (lui-même cédé ensuite à
Yahoo!).
7. Remarquons cette approche absolument irréaliste,
autant que politiquement inconséquente et intrinsèquement
totalitaire, du fait qu’elle soutient l’existence d’une autorité
en mesure de fournir et d’expliciter une réponse « juste,
rapide et correcte » à un désir. Il peut exister plusieurs par-
cours individuels pour construire une réponse acceptable et
satisfaisante eu égard à un besoin/désir (voir le chapitre 5).
8. Voir le chapitre IV.
9. Voir le chapitre VI.
10. Le système de publications scientifique est né en
1665 avec The Philosophical Transactions, la première
revue scientifique fondée par Henry Oldenburg à la Royal
Society de Londres. C’était une sorte de registre public de
la propriété intellectuelle ; elle fonctionnait comme une
sorte de bureau de dépôt pour les idées scientifiques. La
revue voulait introduire clarté et transparence dans les pro-
cessus de reconnaissance des prétendants à l’innovation.
Ces prétentions étaient satisfaites par l’attribution, par les
pairs, d’un titre de « noblesse intellectuelle », laquelle assu-
rait un titre particulier de propriété, intellectuelle justement.
L’importance des publications contribuait à la création
d’une « hiérarchie des pairs » fondée sur un idéal d’excel-
lence ; toutefois, comme les résultats avaient besoin de
publicité pour être appréciés, l’organisation des règles de
publication joua un rôle central, puisque pour un scienti-
fique se rendre visible devenait fondamental pour acquérir
notoriété et prestige.
11. Le concept de déluge informationnel a été déve-
loppé essentiellement par Pierre Lévy, à partir de l’idée d’un
« second déluge » de l’artiste Roy Ascott. Il en dérive un
cadre philosophique dans lequel le mouvement de « virtua-
lisation » joue un rôle central. Voir Pierre Lévy, Qu’est-ce
que le virtuel, Paris, 1995 (la version française est on line :
http://hypermedia.univ-paris8.fr/pierre/virtuel/virt0.htm).
De son côté, Manuel Castells parle d’« informationalisme »
et d’« économie informationnelle ». Une grande partie de
la littérature économique au sujet de l’époque du déluge
informationnel, en particulier en France, en Italie et aux
États-Unis, est d’inspiration marxiste et s’appuie sur des

218
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 219

Notes
interprétations forcées des phénomènes d’« intelligence col-
lective » des réseaux, hypostases du General Intellect de
Marx. Voir par exemple : Olivier Blondeau, « Le Capita-
lisme Informationnel -Genèse et subversion », http://www.
vulgum.org/article.php3 ?id_article=158 ; la revue mono-
graphique “La società del General Intellect”, DeriveAp-
prodi, Rome ; Wark McKenzie, Un manifeste hacker,
Éditions Criticalsecret, Paris, 2006.
12. Sitographie sur la question des comités de lecture.
Définition : http://fr.wikipedia.org/wiki/Comité_de_lecture.
Sur la topologie d’un réseau de citations : Stefano Maz-
zocchi, « Peer Review vs. Citation Network Topology »
http://www.betaversion.org/~stefano/linotype/news/74/.
Articles critiques récents, dans The scientist : Alison
McCook. « Is Peer Review Broken ? »,Volume 20, Issue 2,
page 26, http://www.thescientist.com/2006/2/1/26/1/ ;
Richard Gallagher, « Taking on peer review », Volume 20,
Issue 2, page 13, http://www.thescientist.com/2006/2/1/
13/1/ Google et les comités de lecture : http://www.lib.
uiowa.edu/hardin/md/notes4.html. Le phénomène des Blogs,
l’information et les rumeurs : Fabio Giglietto, http://next-
media.blogspot.com/2004/10/informazionenon-informa-
zione-fra.html. Citations et comités de lecture, sciences
dures et sciences molles : Francesca di Donato : « Verso
uno European Citation Index for the Humanities – Che cosa
possono fare i ricercatori per la comunicazione scientifica »
http://bfp.sp.unipi.it/~didonato/ovre/ECIH.html. Voir aussi
le travail exhaustif de Jean-Claude Guédon, « In Olden-
burg’s Long Shadow : Librarians, Research Scientists,
Publishers, and the Control of Scientific Publishing », Uni-
versité de Montréal, http://www.arl.org/arl/proceedings/
138/guedon.html
13. Sitographie sur l’accès au savoir, la liberté de
l’information et l’accès ouvert à la littérature scientifique :
signalons en particulier le volume du Groupe Laser, Il
sapere liberato, Feltrinelli, Milano, 2005, on line sur
www.ippolita.net/laser/. Dans le domaine des sciences
humaines, le travail effectué par Francesca de Offert réussit
à conjuguer une approche qualitative (et non pas scientiste)
avec la nécessité de décentraliser archives et informations,
et définit un nombre minimum de critères a priori de cata-
logage (des métadonnées, par exemple à travers XML) à
échanger par un protocole commun. Voir « HyperJournal.
Un software open source per l’Open Publishing » (abstract

219
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 220

La face cachée de Google


e slides) http://purl.org/hj/bfp/102/ ; Séminaire : « Dopo
Berlin 3 : politiche di accesso aperto alla letteratura scien-
tifica » (Pisa, 16 febbraio 2006) http://bfp.sp.unipi.it/blog/
html/notizie/oapisa.html. Le site d’HyperJournal : http://www.
hjournal.org/
14. Pour une analyse de détail de ces rapports, voir cha-
pitre III.
15. Le centre de données de Google est actuellement
composé de divers centres de données répartis partout dans
le monde, qui traitent les demandes effectuées et se char-
gent de diffuser les modifications des indexations. La
modernisation des bases de données, cependant, ainsi que
le calcul du pageranking, se ressent de cette décentralisa-
tion : les données mettent habituellement quelques jours,
voire plus, pour s’aligner ; ce déphasage donne lieu à ce
qu’on appelle la « Google Dance », la dance du ranking.
Pour une vue d’ensemble, voir les articles http://www.
alverde.net/articoli/stampa.asp ?ID=145 et http://www.motori-
cerca.info/articoli/google-dance.phtml sur la “Google Dance”.
16. Les deux sociétés détiennent toujours la majorité des
parts dans le capital de Google.
17. Un OEM est une société qui construit des compo-
sants utilisés par les systèmes que vend une autre société
(comme un revendeur, par exemple). Les sociétés vendant
des produits dont les composants proviennent d’OEM sont
courantes dans l’industrie électronique et informatique.
Ordinairement, l’OEM sous-traite au détail, c’est-à-dire que
le produit est fourni à des tiers sans les supports des origi-
naux (disques d’installation, manuels, etc), intégrés à ceux
du revendeur.
18. CPM, CPC, etc : les modèles de commerce publici-
taire on line sont toujours plus complexes et plus raffinés.
Pour une rapide introduction, voir (en anglais) : http://ear-
lystagevc.typepad.com/earlystagevc/2005/08/web_20_
needs_bu.html ; en italien, signalons le blog de Mauro Lupi,
d’AdMaiora : qui peut parler de publicité mieux qu’un
publicitaire (même s’il ne le fait certes pas de façon cri-
tique) ?
19. L’histoire de Goto est emblématique, parce qu’elle
montre comment, même dans le paysage du web, on tend
de plus en plus aux mégafusions typiques du capitalisme
informationnel. Un bon résumé de cette question jusqu’en
2004 se trouve en italien à cette adresse : http://www.moto-
ridiricerca.it/goto.htm ; sur wikipedia, des éléments sur le

220
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 221

Notes
rôle commercial joué par Goto/Ouverture dans le commerce
de Yahoo ! http://en.wikipedia.org/wiki/Yahoo !_Search_
Marketing.
20. Nous indiquons ici seulement les services plus inté-
ressants ; pour une énumération exhaustive des services
offerts par Google, voir http://www.google.com/intl/en/
options/ (les services disponibles en français et dans les
autres langues sont moins nombreux, mais d’accès rapide :
http://www.google.fr/intl/fr/options/).
21. Définition du réseau de Google selon Google :
https ://adwords.google.it/support/bin/
answer.py ?answer=6104&topic=82
22. Voir le service photographique du Time sur Google-
plex : http://www.time.com/time/photoessays/2006/inside_
google/
23. La philosophie de Google Inc. : http://investor.google.
com/conduct.html
24. Seulement trois exemples dans la masse d’informa-
tions à ce sujet : un article de Wired, « Google vs. Evil »,
www.wired.com/wired/archive/11.01/google_pr.html ; un
sympathique récit de Paul Ford, The Banality of Google
(pastiche de la célèbre banalité du mal...), http://www.
ftrain.com/GoogleIP.html ; et un portail entier concernant
la devise, qui va jusqu’au retour d’un vœu de confiance
dans les affaires, dans la politique, dans les média, avec tant
de manifestations parce que Google reste fidèle à ses prin-
cipes, http://www.dontbeevil.com/
25. Pour l’instant, Geico est le seul à avoir perdu. Dans
les deux autres cas, Google a été condamné à une amende.
Signalons ici quelques sources influentes sur ces événe-
ments judiciaires : « il caso American Blind and Wall-
paper Factory » : http://punto-informatico.it/p.asp?i=46751 ;
Google condamné à dédommager Louis Vuitton en France
http://www.juriscom.net/jpt/visu.php ?ID=641 ; Google gagne
contre Geico http://webnews.html.fr/news/2514.htm
26. L’association Oceania, à but non lucratif, se bat pour
la qualité de l’eau : www.oceania.org
27. La version intégrale du rapport, signé par Jonathan
Zittrain et Benjamin Edelman, se trouve à l’adresse http://
cyber.law.harvard.edu/filtering/google/
28. En ce sens, l’ouvrage de Ferry Bite et Claudio Par-
rini, Les moteurs de recherche dans le chaos du réseau – kit
de survie, ShaKe, Milan, 2001, est une source riche de réfé-

221
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 222

La face cachée de Google


rences et de propositions, qui a même été indispensable pour
la rédaction du présent texte.

II. BE GOOGLE
1. Déclaration rapportée par Marc Lucovsky, salarié de
Microsoft, lors d’une séance au tribunal de l’État de Was-
hington, pour l’affaire Kai-Fu Lee ; Lucovsky aurait aussi
mis en relief une présumée « stratégie de vengeance » de la
part de Microsoft. Les informations sont tirées de divers
articles de Point Informatique, http://punto-informatico.it/
2. John Battelle, The Search : How Google and Its
Rivals Rewrote the Rules of Business and Trannéesformed
Our Culture, Portfolio Hardcover, 2005 (trad. fr. La revo-
lution Google, Comment les moteurs de recherche ont réin-
venté notre économie et notre culture, Eyrolles, Paris,
2006).
3. Les implications commerciales de la « longue traîne »
(long tail) – dans le contexte de l’e-commerce, cette termi-
nologie est devenue courante – ont fait l’objet des célèbres
explications de Chris Anderson, rédacteur en chef de
« Wired », dans un article d’octobre 2004 écrit pour sa
revue. Anderson a ensuite publié en 2005 l’ouvrage The
Long Tail. Comme Battelle, Anderson a tenu un blog à
propos de la genèse de son livre sur www.thelongtail.com
et le terme est maintenant devenu d’usage courant. Les lon-
gues traînes ne sont pas une invention d’Anderson : il s’agit
d’un concept familier à n’importe qui a passé un examen
en statistique. En effet, il y a des distributions statistiques
très communes dont les graphiques décrivent un petit
nombre d’évènements qui arrivent très souvent et un grand
nombre d’évènements (la longue traîne) qui se passent rare-
ment. Dans l’ensemble du système, les évènements rares
peuvent pourtant être plus nombreux que les évènements
normaux. http://www.technologyreview.it/index.php?p
=article&a=551. La longue traîne en France : article sur
http://www.internetactu.net/ ?p=5911
4. Vilfredo Pareto (1848-1923) était sociologue et éco-
nomiste. Une bonne introduction se trouve sur Wikipedia,
http://fr.wikipedia.org/wiki/Vilfredo_Pareto
5. Voir A.L. Barabasi, Link, Einaudi, Turin, 2001.
6. Voir l’article en français de Charles H. Ferguson,
publié sur Technology Review : http://www.technologyre-
view.fr/index.php ?p=article&a=340

222
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 223

Notes
7. Le moteur de recherche de Microsoft : http://search.
msn.com/
8. La domination architecturale équivaut à battre mon-
naie et, si on l’administre avec sagesse, elle peut durer tou-
jours. L’architecture des ordinateurs mainframe IBM a été
introduite en 1964 ; Intel a développé son premier micro-
processeur en 1971 ; le premier système opérationnel
Microsoft a été présenté en 1981 ; Cisco Systems a vendu
son premier routeur en 1986. Aucune de ces technologies
ne donne de signes de fatigue et chacune d’elles a dans
l’ensemble engendré des centaines de milliards de dollars
de chiffre d’affaires.
9. Voir Charles H. Ferguson, op. cit.
10. Voir Ippolita, Open non è free, Elèuthera, Milan,
2005, chapitre V.
11. Le panoptique souhaité par Bentham et analysé par
Foucault trouve dans le projet Echelon l’une de ses réali-
sations les plus terrifiantes. Sans tomber dans la paranoïa
et la peur du complot, signalons parmi de très nombreux
volumes et articles, un bref écrit introductif sur la question :
Alex Jones et Paul Joseph Watson, A Mass Surveillance
Prison For Humanity, http://www.prisonplanet.com/articles/
january2006/110106thepanopticon.htm
12. Sur le concept d’informationalisme, voir en particu-
lier Manuel Castells, L’ère de l’information : société, éco-
nomie, et culture, Fayard, 1998.
13. On signale beaucoup de dysfonctionnement dans
Google ; du reste, il est évident que les problèmes se mul-
tiplient au fur et à mesure que les dimensions et les services
croissent. De plus, la pratique de diffuser des versions bêta
que les utilisateurs testent de manière exhaustive augmente
la probabilité de dysfonctions. Un exemple concret : Marco
Deseri sur Google Analytics : http://www.deseri.it/articoli/
google-analytics-rallenta-il-sito
14. Journaliste au Time Magazine dans les années
soixante-dix et quatre-vingt, il est aujourd’hui considéré
comme un « veteran venture capitalist » et semble avoir
une recette pour tout. Alors, peut-on encore aujourd’hui
créer un phénomène comme Google ? « L’important, dit-il,
est de créer quelque chose qu’on pense simplement pouvoir
être utile à soi-même ». Il aurait été artiste, s’il n’avait pas
donné la priorité à ses engagements de travail. Cet homme
de la vieille école du marketing, est toujours incisif : les

223
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 224

La face cachée de Google


idées justes sont qui celles qui nous satisfont nous-mêmes,
donc les consommateurs, voire « les utilisateurs ».
15. John Doerr poursuit ses investissements même après
Google : il a dernièrement parié 16 millions de dollars dans
un projet du nom de « Zazzle », dont le core business est
un marché on line où l’on peut acheter et vendre des pro-
duits hautement personnalisables. Concrètement, Doerr ne
veut pas être en retard sur les « personnalisations de
masse », maintenant en phase avancée de réalisation aux
USA. Les inspirateurs du projet sont des gens comme Eric
Von Hippel, qui « depuis son bureau de la Sloan School of
Management, soutient depuis longtemps l’idée que la pro-
chaine étape sera réellement celle-là : transformer la pro-
duction de masse d’influence fordiste et post-fordiste en
quelque chose de complètement différent, sur mesure, créé
et géré à travers le web » : http://www.bloggers.it/Mar-
cioweb/index.cfm?idForum=News%20dal%20Mondo&
blogact ion=archive&file=blog_7_20 05.xml
16. Voir http://www.google.fr/intl/fr/corporate/execs.
html#vint Rappellons qu’aux USA, pratiquement tout
employé est vice-président de quelque chose.
17. Voir le chapitre V.
18. Pour un panorama complet de la question, voir :
Thomas Hylland Eriksen, Tyranny of the Moment : Fast
and Slow Time in the Information Âge, 2001.
19. SantaMariaVideo, la TV qui ne transmet rien :
http://www.santamariavideo.tv/video/anonimato.mpg

III. GOOGLE OPEN SOURCE


1. La philosophie des Free Software : http://www.gnu.
org/philosophy/free – sw.it.html
2. La définition d’Open Source : http://www.opensource.
org/docs/definition.php
3. Le site de l’Open Source Initiative : http://www.open
source.org/
4. Même dans des articles récents, de bon niveau par
ailleurs, on remarque cette confusion entre Free Software
et Open Source, comme si le second était une amélioration
du premier, en parfait accord et en toute continuité. Le mou-
vement fondé par Stallman a sans doute largement montré
ses limites concrètes, pas seulement dans ses relations avec
le marché, mais aussi en adoptant des positions trop idéo-
logiques. Il ne nous semble pourtant pas correct de tracer

224
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 225

Notes
les contours d’une évolution simple lorsque le panorama est
très friable et très complexe. Voir par exemple « Économie
des Réseaux Open Source : histoire et dynamiques de mou-
vement du software libre », http://www.pluto.it/files/
journal/pj0601/economia_reti.html
5. La Free Software Foundation en français : http://
www.gnu.org/home.fr.html
6. Voir par exemple : Eric S. Raymond, « La cathédrale
et le bazar », http://www.linux-france.org/article/these/
cathedrale-bazar/cathedrale-bazar.html
7. La loi de Brooks selon Eric S. Raymond : http://
www.apogeonline.com/openpress/libri/545/raymondb.html
8. Pour une analyse approfondie, nous renvoyons à
Ippolita, Open non è free, Elèuthera, Milan, chapitre II, ou
on line : www.ippolita.net/onf/
9. Il s’agit d’une loi mathématique formulée à la fin des
années soixante par Robert Metcalfe, étudiant à la Harvard
University puis fondateur de la société 3Com, en plus d’être
un pionnier du networking (et l’inventeur du protocole
ethernet, encore fondamental aujourd’hui pour les réseaux
intranet). Voici la traduction ad hoc du passage concerné :
« La valeur d’un réseau croît de manière exponentielle par
le nombre des ordinateurs reliés au réseau même. Donc,
chaque ordinateur qu’on ajoute à un réseau d’une part en
utilise les ressources (c’est-à-dire les informations ou les
compétences) et de l’autre, apporte des ressources nouvelles
(c’est-à-dire de nouvelles informations ou compétences) au
réseau, dont il développe par là la valeur intrinsèque ». De
ce principe général, il suit que : 1. Le nombre de relations,
ou de méta-relations, ou de connexions possibles à l’inté-
rieur d’un réseau croît de manière exponentielle en fonction
de la croissance des ordinateurs qui lui sont reliés (d’où la
valeur stratégique des liens à l’intérieur d’un réseau). 2. La
valeur d’une communauté croît de manière exponentielle
en fonction de la croissance d’inscrits à cette communauté
(d’où la valeur stratégique des communautés virtuelles).
Voir http://fr.wikipedia.org/wiki/Loi_de_Metcalfe
10. Dans un contexte arriéré comme celui de l’Italie, où
les entreprises, même dans le secteur des TIC, continuent à
appliquer les logiques fordistes obsolètes de la production de
masse sans valoriser le moins du monde les potentialités des
individus, il peut sembler méprisant d’attaquer le capitalisme
de l’abondance de Google. Mais de même que nous ne
croyons ni au développement durable ni au consumérisme

225
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 226

La face cachée de Google


responsable promus par une habile propagande tiers-mon-
diste, nous ne pouvons admettre aucune forme d’exploita-
tion des individus, même celle de Googleplex, subtile et
même agréable pour les travailleurs maintenant devenus des
créateurs enthousiastes. Il ne s’agit pas de rigidité dogma-
tique, mais d’un bon sens commun, minimal (common
decency) : la mission ultime n’est pas la pleine réalisation
des individus, mais plutôt déploiement sans fin du capital,
peu importe qu’il soit souple ou férocement répressif.
Richard Sennett l’a montré avec une lucidité appuyée par
une vaste culture historique dans Le travail sans qualité :
les conséquences humaines de la flexibilité, Albin Michel,
2000, dont le titre original est bien plus caustique : « The
Corrosion of Character », la corrosion du caractère. D’autre
part, le consumérisme extrême du capitalisme de l’abon-
dance pourrait constituer un premier pas vers un nouveau
fascisme, comme le montre la vision lucide de J.G. Ballard
dans ses romans récents Millenium People, Denoël, 2005,
et Que notre règne arrive, Denoël 2007.
11. Voir chapitre I.
12. Le Summer of Code a été proposé à nouveau en
avril 2006 : http://code.google.com/soc/ : succès garanti !
13. XML, eXtensible Markup Language, est un langage
extensible réalisé pour pouvoir utiliser simplement des
documents structurés, étudiés pour le Web, et pour dépasser
les limites du HTML (Hypertexte Markup Language), par
la possibilité de l’utiliser en différents milieux. Développé
à partir du W3C, le World wide web Consortium, XML il
est un sous-ensemble de sgml (Standard Generalized
Markup Language), un standard international qui définit les
règles de l’écriture en markup language ; il écarte volon-
tairement certains caractères complexes de sgml difficiles
à mettre en œuvre sur le Web. Le premier essai du XML
remonte à novembre 1996, l’aspect actuel de XML est
consultable à l’adresse http://www.w3.org/TR/1998/REC-
xml-19980210 la traduction en français de ce document est
consultable à l’adresse suivante : http://www.xml.fr/REC-
xml-19980210-fr.html
14. On est frappé du fait que le moteur de recherche,
dans son interaction avec les API, est limité à mille
demandes par jour. Cela signifie que les softwares qui repo-
sent sur les API pourront effectuer au maximum mille inter-
rogations journalières. Probablement les limitations dimi-
nueront-elles avec le temps, parce que la capacité de Google

226
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 227

Notes
croît sans arrêter ; toutefois, les limitations sont imposées
par Google sans fournir aucune motivation.
15. La vidéo est disponible à l’adresse http://video.
google.com/videoplay ?docid=-8618166999532839788.
16. Les informations sont tirées de Laser, de http://
www.e-laser.org/htm/news.asp ?idNews=233 et de http://
www.elaser.org/htm/news.asp ?idNews=151 ainsi que du
volume du Groupe Laser, op. cit., www.ippolita.net/edi-
toria/2/laser_- _il_sapere_liberato.pdf ; Sources juridiques
directes sur le cas Madey : www.law.nyu.edu/journals/
lawreview/issues/vol79/no4/NYU406.pdf

IV. LES ALGORITHMES, QUELLE PASSION !


1. « Algorithme : ensemble de règles ou de directives
aptes à fournir une réponse spécifique à une ou plusieurs
données d’input ». Pour une première introduction, http://
it.wikipedia.org/wiki/Algorithme. Le terme algorithme dérive
du nom d’« al-Khwarizmi », important mathématicien arabe
du neuvième siècle. Muhammad ibn Musa al-Khwarizmi a
introduit l’usage des nombres arabes dans les mathémati-
ques : son ouvrage (Livre) d’al-Khwarizmi sur les nombres
indiens fut traduit en latin comme Algorismi de numero
Indorum. C’est sur ce texte que l’Europe entière apprit à
employer le système de notation décimale positionnelle
encore aujourd’hui en vigueur ; la numération romaine fut
progressivement abandonnée. Les procédures qui permet-
taient d’effectuer des calculs en notation décimale furent
ainsi connues comme « algorismi » ou des « algoritmi » et
plus tard, le même terme fut appliqué en général aux pro-
cédures de calcul nécessaires pour obtenir un résultat déter-
miné.
2. La méthode la meilleure pour rejoindre Paris peut être
de partir avec un vol direct depuis l’aéroport le plus proche
de sa propre ville, ou bien de prendre le premier vol au
départ du même aéroport et de descendre à l’arrivée pour
remonter sur le premier avion, descendre et repartir à nou-
veau, en continuant tant qu’on ne sera pas à Paris. Il est
assez certain que les deux méthodes nous permettront toutes
deux de rejoindre la destination : la première démarche
permet d’arriver au but en le moins de temps possible et
probablement avec le moins d’argent dépensé ; la seconde,
en revanche, nous permettra d’apprécier les principaux
aéroports des capitales européennes aux différentes périodes

227
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 228

La face cachée de Google


de l’année. Des algorithmes différents décrivent différentes
possibilités.
3. Voir le chapitre II.
4. Le peer-to-peer. On entend généralement par peer-to-
peer (ou P2P) un réseau d’ordinateur ou n’importe quel
réseau qui n’a ni client ni serveur fixes, mais un nombre de
nœuds équivalents (« peer » signifie, justement, « pair »)
qui font fonction soit de client soit de serveur à l’égard
d’autres nœuds du réseau. Ce modèle de réseau est l’anti-
thèse de l’architecture client-serveur, où il existe un rapport
hiérarchique entre le fournisseur de service (serveur) et celui
qui le reçoit (client). Par le biais de cette configuration de
répartition, n’importe quel nœud est en mesure d’entamer
ou de compléter une transaction. Les nœuds équivalents
peuvent différer dans leur configuration locale, dans leur
vitesse d’élaboration, dans l’ampleur de leur bande et dans
la quantité des données mémorisées. L’exemple classique
de P2P est le réseau pour le partage de dossiers (source :
http://www2.autistici.org/inventa/doku.php ?id=glossario_
no-copyright_ecc).
5. Echelon est le nom d’un système de surveillance et
d’espionnage électronique global mis en œuvre aux USA.
La justification officielle est aujourd’hui la lutte contre le
terrorisme : communications téléphoniques, courrier et
communications numériques sont interceptées et analysées
à des fins politiques et économiques. Pour une analyse
approfondie, voir Duncan Campbell, Surveillance Électro-
nique Planétaire, Allia, Paris, 2003 ; http://home.hiwaay.
net/~pspoole/echres.html rassemble un grand nombre des
ressources disponibles.
6. Voir le chapitre V.
7. Voir par exemple la documentation rendue publique
d’IBM Almaden Research Center : http://www.almaden.
ibm.com/webfountain/publications/
8. En argot informatique, l’expression « black box »
désigne une « boîte noire » qui reçoit les inputs, les élabore
de manière cachée à l’utilisateur et lui rend un output. Le
concept de « blank box » calque cette méthode, mais de
manière implicite, et donc ambiguë, parce qu’il s’agit d’un
« espace propre, vide » (blank, justement) qui est en fait
chargé de significations et de fonctions de recherche hau-
tement diversifiées.
9. On désigne la conception d’une nouvelle image, des-
tinée à un produit ou à un service, par l’expression brand

228
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 229

Notes
identity ; lorsque cela concerne une société particulière, on
parle de corporate identity. Aujourd’hui, le concept de
« brand » a largement dépassé l’idée de « marque distinc-
tive », et vient à se configurer plutôt comme une « marque »
qui est dans l’obligation de trouver des développements
mentaux, territoriaux, commerciaux. Pour une première
introduction, voir http://it.wikipedia.org/wiki/Marque
10. La google-mania envahit et engendre de nouveaux
langages. Pour une vision d’ensemble, voir : http://en.wiki-
pedia.org/wiki/Google_(search_engine) ; pour la liste des
services et des outils corrélés à Google, http://en.wiki-
pedia.org/wiki/List_of_Google_services_and_tools
11. Jakob Nielsen, informaticien danois d’une cinquan-
taine d’années, est l’une des voix plus influentes dans le
domaine de l’ergonomie web. Nielsen est connu, entre
autres, pour ses critiques envers l’excès de dessins et d’ani-
mations (par exemple Flash) qui affecte beaucoup de sites
populaires aux dépens de l’ergonogmie, et nuit surtout aux
handicapés. Son dernier ouvrage publié est Jakob Nielsen
et Marie Tahir, L’art de la page d’accueil, Eyrolles, 2002.
Les dix problèmes de l’ergonomie : http://www.shiny-
news.it/usability/1005-errori.shtml
12. Le HTML (acronyme pour Hyper Text mark-Up
Language) est un langage employé pour décrire les docu-
ments hypertextes disponibles sur le Web. Ce n’est pas un
langage de programmation, mais un langage de markup,
c’est-à-dire qui décrit le contenu, textuel ou pas, d’une page
web. Voir : http://fr.wikipedia.org/wiki/HTML, mais sur-
tout le site du W3 sur standard HTML : http://www.w3.org/
MarkUp/
13. Voir par exemple MyYahooo !, my.yahoo.com
14. Texte d’un e-mail reçu sur info@ippolita.net en mai
2005. La position de Google sur SEO : http://www.google.
fr/support/webmasters/bin/
answer.py ?answer=35291&hl=fr. Pour des approfondisse-
ments techniques, nous renvoyons au guide stratégique du
positionnement sur Google, http://www.googlerank.com/,
dont une version française est également disponible.
15. Pour des approfondissements sur le concept de
mondes clos localisés (LCW, Localized Closed World), voir
le travail sur les réseaux d’Andrea Marchesini : http://
www2.autistici.org/bakunin//doc/reti/index.xml
16. Pour une introduction sur les chaînes de Markov,
voir : http://en.wikipedia.org/wiki/Markov_chain.

229
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 230

La face cachée de Google


17. Voir le chapitre III.
18. L’impression que la science est trop difficile à
comprendre pour ceux qui ne sont pas spécialistes est socia-
lement enraciné en tous ceux qui, dans leur vie quotidienne,
se sentent étrangers à elle. Les barrières du travail technique
semblent infranchissables. La commune expression anglaise
« ce n’est pas la science des fusées » (it’s not rocket
science), observation sarcastique qu’on fait couramment à
celui qui a des difficultés insolites à effectuer des tâches
faciles, est seulement un exemple de révérence publique
envers l’intensité intellectuelle de la science et sa séparation
avec les communes activités de tous les jours. Voir à ce
propos l’activité de CAE, Critical Art Ensemble, de
www.critical-art.net
19. Robert K. Merton, Science, technologie et société
en Angleterre au XVII siècle, Franco Anges, Milan, 1975.
20. Eugene Garfield, « The Impact Factor », in Current
Contents, n. 37 (25) 1994, pp. 3-8 ; http://www.isinet.com/
isi/hot/essays/journalcitationreports/7.html
21. Voir l’article (en italien) « L’évolution des habi-
tudes de citation dans la communication scientifique pri-
maire. Le cas de physique des hautes énergies », Marco
Fabbrichesi, Barbara Montolli ; http://jekyll.comm.sissa.it/
notizie/lettere02_01.htm

V. EN PRIME, D’AUTRES FONCTIONS INGÉNIEUSES


1. La littérature sur les graphes est infinie ; pour une
première approche, voir la catégorie homonyme de wiki-
pedia, http://fr.wikipedia.org/wiki/Theorie_des_graphes
2. Plus formellement, étant donnés un ensemble V de
nœuds et un ensemble E d’arcs, un graphe G est un
ensemble G = (V, E).
3. Le profilage est un secteur clé de l’économie de la
recherche, en expansion continue, qui intègre des concepts
tels que Clickstream analysis, CRM (Customer relationship
management), data mart, data mining, data warehouse,
OLAP (On line Analytical Processing). Pour une introduc-
tion élémentaire à la question, voir : http://www.diodati.org/
scritti/2002/g_stat/stat05.asp. Il est intéressant de noter que
les techniques de profilage des consommateurs dérivent en
dernière analyse des activités profiling des criminels.
4. Pour un approfondissement sur les cookies volatiles,
voir en particulier : http://www.google-watch.org/cgibin/

230
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 231

Notes
cookie.htm et http://www.scroogle.org/. Google Watch
explique la gestion des cookies faite par Google et présente
des méthodes pour se protéger du profilage ; Scroogle se
propose d’anonymer les recherches vers Google, en faisant
de sorte que le cookie éternel de Google ne puisse pas per-
mettre un traçage historique des recherches effectuées par
l’utilisateur.
5. Pour un approfondissement sur la thématique, voir
l’intervention « le privacy et les moteurs de recherche », de
Claudio Agosti « vecna » – s0ftpj.org à l’occasion du col-
loque « e-privacy – entre Trusted Computing et Data Reten-
tion », tenu à Florence le 19-20 mai 2006 http://e-pri-
vacy.firenze.linux.it/, disponible à l’adresse http://e-pri-
vacy.firenze.linux.it/atti/eprivacy_ 2006_Agosti_Privacy_
e_motori_di_ricerca.pdf
6. Voir à ce propos l’appendice 1 : « La fin du monde
en une biscotte ».
7. Productor-consumer, producteur-consommateur.
8. http://code.google.com/webtoolkit/
9. http://googlesystem.blogspot.com/2006/05/nokia-
770-will-include-gtalk.html
10. À propos des implémentations du web sémantique,
bien différent du « web 2.0 », voir le roadmap de 1998
de Tim Berners-Lee, http://www.w3.org/DesignIssues/
Semantic.html ; la coordination du W3C, http://www.
w3.org/2001/sw/ ; un document introductif à la philosophie
du web sémantique : http://www2.autistici.org/bakunin/
doc/reti/index.xml
11. L’acronyme VoIP, Voice over ip (Voix par Proto-
cole Internet), désigne une technologie qui permet d’effec-
tuer une conversation téléphonique en exploitant une
connexion internet ou un autre réseau dédié qui utilise le
protocole ip, plutôt que de passer par la ligne normale de
transmission téléphonique. Voir http://fr.wikipedia.org/wiki/
Voice_over_IP. Il n’y a pas seulement Skype et Google qui
fournissent des services VoIP, mais aussi bien sûr des pro-
grammes free, comme Asterisk, http://www.asterisk.org/
12. Il existe même des suites complètes de bureautique
utilisable sur le web, comme gOffice, produit par la société
Silveroffice, Inc. de San Francisco, qui affirme : « gOF-
FICE elle n’est pas affiliée à Google Inc., mais il nous plaît
de penser que ce sera l’objet d’une belle bataille, tant que
leur mission restera l’indexation de toutes les informations
du monde, tandis que la nôtre est d’aider les gens à créer

231
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 232

La face cachée de Google


ces informations. Nous avons donc besoin de Google pour
rechercher les contenus que nos utilisateurs créent avec
gOFFICE ! Peut-être devrions-nous ajouter une fiche à notre
barre d’outils appelée « recherche »... www.goffice.com

VI. QUALITÉ, QUANTITÉ, RELATION


1. Un système émetteur broadcast envoie des informa-
tions à un grand nombre de systèmes récepteurs de manière
unidirectionnelle (communication un-plusieurs). Dans un
réseau d’ordinateur, une transmission broadcast envoie les
informations à tous les ordinateurs reliés à ce réseau ; les
autres systèmes de transmission sont unicast (un seul récep-
teur), multicast (plusieurs récepteurs), anycast (n’importe
qui est récepteur à l’intérieur d’un groupe). Les systèmes
p2p, tout comme les systèmes téléphoniques, sont l’exact
opposé des systèmes broadcast, parce qu’ils déterminent
une communication de type plusieurs-plusieurs.
2. Ce n’est pas ici le lieu pour un examen exhaustif du
concept d’« information », mais cette définition est évidem-
ment simplifiée volontairement. Elle ne tient pas compte,
par exemple, du fait que les moteurs de recherche comme
Google indexent même des contenus qui ne sont pas web,
comme les archives des messages Usenet ou bien le contenu
des ordinateurs qui utilisent Google Desktop ; toutefois,
comme cette masse d’informations est présentée à travers
une interface de médiation Web, on considèrera comme
acceptable la définition adoptée.
3. L’émergence est un principe qui décrit le comporte-
ment des systèmes complexes. Il peut être défini comme un
processus de formation et l’apparition de comportements et
de schémas complexes à partir de règles simples. Les
sciences cognitives utilisent le concept d’émergence pour
décrire « l’explosion » de la complexité typique de l’intel-
ligence : à partir d’éléments simples par eux-mêmes incons-
cients (les neurones), naissent la pensée et la conscience
manifeste des procès cérébraux. http://fr.wikipedia.org/
wiki/émergence
4. La satisfaction des utilisateurs à l’égard des résultats
obtenus par cette méthode « immédiate » constitue toute
affaire : Voir à ce propos Jean Véronis, A comparative study
of six search engines, Université de Provence, http://
www.up.univmrs.fr/veronis, http://aixtal.blogspot.com
5. Le texte fondamental pour approcher les dynamiques

232
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 233

Notes
cognitives non-linéaires est Humberto R. Maturana, Fran-
cisco J. Varela, Autopoiesis and Cognition. The realization
of the Living, Boston, 1980.
6. L’interface est le point, la zone, le territoire qui met
en liaison des éléments qualitativement différents ; dans le
cas des moteurs de recherche, l’interface permet la relation
entre le sujet qui cherche et le bassin d’informations.
7. Explorer les réseaux signifie créer les réseaux : en ce
sens, en étendant l’approche de Maturana et de Varela, nous
pouvons parler d’« autopoiesi des réseaux », réseaux qui se
construisent du fait de nos actions.
8. :-)

VII. TECHNOCRATIE
1. À propos de la vision de la technologie comme
« pont » d’hybridation entre nature et culture (extrémités
théoriques de la schizophrénie moderne), voir l’œuvre de
Bruno Latour, et en particulier Nous n’avons jamais été
modernes. Essai d’anthropologie symétrique, La Décou-
verte, 1994. Un point de vue comparable est celui de Gilbert
Simondon, qui élabore un discours philosophique sur la
« technique transindividuelle », un espace métisse constitué
simultanément d’individuel et de collectif.
2. Littéralement, p2p signifie « de pair à pair » ; en
général, il s’agit d’un modèle de communication dans lequel
chacune des parties a les mêmes caractéristiques et peut
entamer la session de communication, à l’inverse des autres
modèles comme serveur/client ou maître/esclave. Souvent
la communication P2P est mise en œuvre en offrant à
chaque nœus de communication les caractères de serveur et
de client. Dans le langage courant le terme Peer to Peer est
employé pour décrire les applications avec lesquelles les
utilisateurs peuvent, à travers Internet, s’échanger directe-
ment les fichiers avec les autres utilisateurs. En particulier,
en ce qui concerne Internet, p2p est un type de réseau « tran-
sient » qui permet à un groupe des personnes ayant le même
programme, de se joindre et d’accéder directement aux res-
sources partagées. Napster jusqu’à récemment, et mainte-
nant Emule, Lopster, etc sont des exemples de tels soft-
wares.
3. Le terme « transitoire » dérive de l’astrophysique et
de l’acoustique et se réfère à une source dont les émissions
varient dans le temps de manière irrégulière. Les réseaux

233
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 234

La face cachée de Google


sont « transitoires » du point de vue des flux information-
nels qui les composent ; dans le cas des réseaux p2p, ce
statut dépend de la variation de quantité d’informations par-
tagées par chaque individu.
4. Pourtant, violer les lois sur le copyright est un délit
aussi commun qu’incroyablement grave : c’est un délit
pénal ! L’Italie comme la France ont adopté la réglementa-
tion européenne connue comme EUCD, calquée sur le
modèle américain DMCA, en 2003 ; Voir : http://www.soft-
warelibero.it/progetti/eucd/
5. http://technorati.com (novembre 2006)
6. Voir le rapport sur la blogosphère et les média,
www.casaleggioassociati.it L’autorité du blog de Beppe
Grillo, seul italien à apparaître parmi les 100 premiers blogs
du monde pour le nombre de liens, est plus grand que celle
du blog de la Repubblica et du Corriere della Serra.
7. Il y a beaucoup de méthodes pour truquer les données
relatives aux liens d’un blog, par exemple les liens farm
(groupes étendus de pages web créées pour augmenter la
popularité d’une page), ou le fake blog, c’est-à-dire un blog
créé automatiquement par des programmes, peut-être en
exploitant des agrégats de données type RSS. Google
cherche depuis longtemps à résoudre ce problème, qui
engendre le phénomène des clicks frauduleux qui discré-
dite, au moins en partie, le mécanisme publicitaire.
8. La vie à Baghdad sous les bombardements sur le blog
de Salam Pax : http://dear_raed.blogspot.com/
9. www.indymedia.org ; section française : http://www.
indymedia.org/fr/ : « Indymedia un collectif regroupant des
organisations de médias indépendants et des centaines de
journalistes cherchant à offrir une couverture non mar-
chande, à partir de la base. Son objectif est de produire
démocratiquement des récits radicaux, exacts et passionnés
sur la réalité. Il est élaboré pour inspirer les gens qui conti-
nuent à travailler pour un monde meilleur, malgré la désin-
formation des médias classiques, et pour couvrir médiati-
quement les efforts pour libérer l’humanité ».
10. Par exemple : http://www.cyberjournalist.net/http://
alternet.org/ www.warnews.it http://zmag.org/ http://
slashdot.org http://wikipedia.org http://digg.com etc.
11. Pour faire partie du réseau freenet : http://freenet-
project.org/
12. La cryptographie fait peur aux gouvernements,
parce qu’elle engendre des espaces privés qui ne sont pas

234
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 235

Notes
immédiatement accessibles au contrôle policier : pour une
fois, la législation américaine ne considérait pas comme des
« armes », au moins jusqu’à récemment, les moyens de
cryptage lourd. Aujourd’hui, la législation en place est très
confuse. Naturellement la possibilité de décrypter un docu-
ment dépend de la puissance de calcul employée. Il ne s’agit
pas donc d’une sûreté absolue, mais raisonnablement pro-
portionnelle à l’évolution technologique. Ainsi l’utilisation
de clés de cryptage asymétrique lourd comme GPG (Gnu
Confidentiality Guard) à 1024 kb offre, en 2006, une pro-
tection très élevée, mais pas totale. The Gnu Confidentiality
Guard : http://www.gnupg.org/
13. www.foaf-project.org
14. En termes plus techniques, FOAF est un vocabulaire
RDF/XML pour le web sémantique ayant pour fin de tra-
duire dans un langage compréhensible aux machines (par
exemple à un spider) ce qui est habituellement écrit dans
une page personnelle sur l’auteur d’un site ou d’un projet.
15. Écrire son propre document FOAF n’est pas diffi-
cile en utilisant des moyens comme foaf-a-matic, http://
www.ldodds.com/foaf/foaf-a-matic.it.html
16. www.indyvoter.org : « The League of Young Voters
is doing national voter-organizing out of New York City.
Our mission is to engage pissed off 17-35 year olds in the
democratic process to build a progressive governing majo-
rity in our lifetime ».
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 236


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 237

Table

Avertissement ........................................... 7

Introduction ............................................. 9

I. Histoire des moteurs ........................... 19


Des moteurs et des recherches .............. 19
La naissance de Google. Au commence-
ment était le garage, puis l’Université .. 24
Google.com. Publicité directe à l’inté-
rieur des pages ....................................... 29
Le self-service publicitaire. Par delà la
bulle de la nouvelle économie .............. 33
Style, morphologie et multiplication des
services .................................................. 35
Google, le bon géant s’en va-t-en bourse. 42
Google Inc. : le monopole de la recherche 45

II. BeGoogle ............................................. 53


La fuite des cerveaux vers Google : la
guerre pour le contrôle du web ............. 53

237
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 238

La face cachée de Google

Longues traînes dans les réseaux. Google


contre Microsoft dans l’économie de la
recherche ................................................ 57
La guerre des standards ........................ 62
Arme n. 1 : GooglePlex, le capitalisme
souple ..................................................... 67
Arme n. 2 : perfectionner la stratégie de
l’accumulation ....................................... 71
Arme n. 3 : l’image fait tout, mais un
peu de « philosophie » ne nuit pas ....... 74
Arme n.4 : Google et l’Open Source .... 81

III. Google Open Source ........................ 85


Théorie et pratiques : Open n’est pas
Free ........................................................ 85
Les hackers de Stanford ........................ 87
L’ère de l’Open Source economy : concur-
rence et bonté d’âme ............................. 91
Séduire les hackers : autonomie, argent
facile, outils gratuits .............................. 95
Milieux hybrides entre université et
entreprise ............................................... 104

IV. Les algorithmes, quelle passion ! ... 109


Algorithmes et vie réelle ....................... 109
La stratégie de l’objectivité .................. 112
Spider, bases de données et recherches . 116
Du brand-identity à l’interface participa-
tive ......................................................... 121
PageRank, ou l’autorité absolue d’un
monde fermé .......................................... 128
PageRank™, ou la monnaie de la science 133

238
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 239

Table

V. En prime, d’autres fonctions ingé-


nieuses ................................................. 139
Les filtres sur les algorithmes : banques
de données préfabriquées et contrôle
desutilisateurs ........................................ 139
Les cookies de Google, des biscottes qui
laissent des traces .................................. 145
Onanisme technologique : créez, cher-
chez et consommez vos propres conte-
nus ! ....................................................... 148
Les browsers comme milieux de déve-
loppement .............................................. 154
Confidentialité, Paranoïas, Pouvoirs ..... 158

VI. Qualité, Quantité, Relation ............. 163


L’émergence de l’information .............. 163
Quantité et qualité ................................. 167
Le mythe de la recherche instantanée .. 169
Sous le voile du mythe ......................... 173
Modèles de recherche ............................ 175

VII. Technocratie .................................... 179


Technocratie : les experts de la science . 180
Miracles de la technologie : des opinions
subjectives à la vérité objective ............ 184
Public et privé ....................................... 188
Voies de fuite : médias indépendants,
cryptographie, blog, foaf ....................... 191

Conclusion ................................................ 199

Appendices ............................................... 207


1. La fin du monde en une biscotte ..... 207

239
bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 240

La face cachée de Google

2. Interzones : influences et domina-


tions dans les mondes numériques ....... 209

Remerciements ......................................... 215

Notes .......................................................... 217


bozza non definitiva brouillon non definitif non-final draft

M-Payot - La face cachée - 120 x 195 - 3/1/2008 - 8 : 3 - page 241

Déjà parus

Marc Augé, Les Formes de l’oubli


Zygmunt Bauman, Vies perdues
Bruce Benderson, Sexe et Solitude
Michel Cassé, Théories du ciel
Anne Cauquelin, Petit traité du jardin ordinaire
Claude Chabrol et François Guérif, Comment
faire un film
Catherine Chalier, De l’intranquillité de l’âme
Malek Chebel, Du désir
Mauro Corona, Le Vol de la martre
A. Gnoli-F. Volpi, Entretiens avec A. Hofmann
James Hillman, La Trahison et autres essais
James Hillman, La fiction qui soigne
Gabriel Matzneff, De la rupture
Rob Nairn, Qu’est-ce que la méditation ?
Dominique Noguez, Les Plaisirs de la vie
Dominique Noguez, Comment rater complètement
sa vie en onze leçons
Dominique Noguez, Vingt choses qui nous
rendent la vie infernale
Jackie Pigeaud, Poésie du corps
Pierre Sansot, Du bon usage de la lenteur
Pierre Sansot, Chemins aux vents
Pierre Sansot, La beauté m’insupporte
Pierre Sansot, Ce qu’il reste
Fernando Savater, Pour l’éducation
Manlio Sgalambaro, Traité de l’âge
Michel Surya, De l’argent
Chantal Thomas, Comment supporter sa liberté
Chantal Thomas, Souffrir
Shmuel Trigano, Le Temps de l’exil
Raoul Vaneigem, Pour l’abolition de la société
marchande
bozza non definitiva brouillon non definitif non-final draft

Apostille 2008

La domination de Google semble sans cesse s'étendre sur les mondes numériques. Pour
cette raison, les analyses et les perspectives abordées dans la présente recherche, commencée
à la fin 2005, sont plus que jamais d'actualité. Les lumièeres son sans cesse plus douteuses, et
le côté obscur toujours plus évident. Aujourd'hui, il est plus urgent que jamais de dépasser
l'approche à sensations, toujours à l'affût du dernier scoop en termes d'innovations
technologiques. Au contraire, prenons le temps et le recul nécessaires pour élaborer un
discours critique. Le pari de ce livre est de proposer une réflexion de fond sans suivre les
incessantes innovations de Google. Néanmoins, nous constatons avec satisfaction que les
diverses hypothèses avancées dans ce texte se son concrétisées. En particulier, le mécanisme
de profilage des activités de recherche s'est affiné.
La page d’accueil de Google est devenue plus complexe : les services y sont directement
accessibles. Au moment des recherches, les suggestions qui apparaissent dans les marges
témoignent d’un mécanisme de profilage des activités de recherche toujours plus invasif et
plus précis.
Entre Google et la téléphonie mobile, le rapprochement anticipé et discuté dans le chapitre
V s’est concrétisé par le lancement en grande pompe d’Android, un système fonctionnant sur
appareils mobiles (pals, smartphone, GSM, etc.), entièrement open source, sur une base
Linux, bien entendu. Android est développé par Open Hadset Alliance, qui rassemble des
opérateurs mobiles, des fabricants de semi-conducteurs, des producteurs de dispositifs
mobiles, des concepteurs de logiciels, des agences commerciales : des dizaines de colosses
des technologie de l’information, d’Intel à Motorola, de Samsung à eBay. Google a lancé un
concours destiné à primer les meilleures propositions de développement pour les applications
d’Android. Le concours attribuera aux applications vainqueures (sélectionnées en interne par
Google) un certain nombre de prix et de subventions pour la somme rondelette de dix millions
de dollars. Google confirme ainsi son orientation vers les logiciels : le Gphone tant attendu ne
sera pas un nouvel objet technologique, mais un « Androïde », un moyen d’utiliser les outils
déjà existants ou d’imaginer les outils de demain.
Il faut souligner que, dans la meilleure tradition d’utilisation des ressources libres, la
licence d’Android permet à Google de recevoir gratuitement les contributions des coders du
monde entier, puis de revendre en toute légalité les fruits de leur travail. En effet, la seconde
version de la licence Apache a été retenue, beaucoup moins radicale que la GPL quant à la
protection des libertés. Android est seulement la dernière mossa de la stratégie de Moutain
View pour phagocyter le monde de l’Open Source et du Logiciel Libre. Plus aucun des projets
Open Source de Google n’est hébergé sur le site de Sourceforge.net : ils se trouvent
directement sur le serveur de Google, à code.google.com, jouissant d’une excellente visibilité,
de services meilleurs et d’un contrôle plus direct. Une fois encore, le maître mot est
l’accumulation.

View publication stats