Vous êtes sur la page 1sur 270

Marta Severo, Alberto Romele, Traces numériques et territoires, Paris, Presses des Mines,

Territoires numériques, 2015.


© Presses des MINES - TRANSVALOR, 2015
60, boulevard Saint-Michel - 75272 Paris Cedex 06 - France
presses@mines-paristech.fr
www.pressesdesmines.com
ISBN : 978-2-35671-206-6
© Couverture : Emiliano Neri
Dépôt légal : 2015
Achevé d’imprimer en 2015 (Paris)
Tous droits de reproduction, de traduction, d’adaptation et d’exécution réservés pour tous
les pays.
Traces numériques
et territoires
Collection Territoires numériques

Dans la même collectin

Devenirs urbains
Maryse Carmes, Jean-Max Noyer

Les débats du numérique


Maryse Carmes, Jean-Max Noyer
Traces numériques
et territoires
Marta Severo, Alberto Romele
Introduction
Marta Severo, Alberto Romele
Ces dernières années, les nouvelles technologies ont profondément changé les territoires.
Ce qui rend ce changement particulièrement intéressant est le fait qu’il affecte à la fois
les territoires dans leurs matérialités et la façon de les étudier et de les gérer. Les médias
numériques sont intéressants dans la mesure où toute interaction qui les traverse laisse des
traces qui peuvent être enregistrées, analysées et visualisées. Cette traçabilité intrinsèque
promet, si contrôlée par une méthodologie adéquate, de fournir une source nouvelle de
données pour l’étude des territoires. Face à l’abondance de ces nouveaux types de données,
plusieurs études empiriques ont été réalisées, mais une réflexion théorique sur l’emploi de
ces données dans les études territoriales est encore faible. Cet ouvrage vise alors à combler
au moins partiellement ce vide théorique en proposant des pistes d’analyse de la rencontre
entre trace et territoire dans le cadre d’approches disciplinaires différentes.

D’abord, il est apparu nécessaire d’approfondir la question des méthodes et notamment de


nouvelles méthodes digitales développées pour traiter ce type de données. Pour cette raison,
l’ouvrage débute par un texte de Richard Rogers qui s’interroge sur l’impact des big data sur le
travail du chercheur en sciences humaines et sociales. Rogers veut aller au-delà des critiques
épistémologiques et éthiques de ces données pour poser l’accent sur les problèmes liés à leur
traitement. Dans la promesse d’un regard distant sur les phénomènes sociaux, les big data
risquent plutôt, selon l’auteur, de produire une forme de cécité et de mettre au second plan
les questions liées à la signification de ces données. Rogers revient, enfin, sur la question de
la méthode adaptée aux traces numériques et insiste sur la différence entre natifs numériques
et numérisés qui peut s’appliquer tant aux données qu’aux méthodes dans les études en SHS.

Plusieurs chercheurs en STS (études des sciences et technologies), informatique et sociologie


politique ont attiré également l’attention sur la convergence entre méthodes sociologiques
et méthodes digitales. Dans leur contribution, Marres et Gerlitz s’intéressent plutôt aux
similitudes et aux différences entre les outils grand public en ligne, qui s’offrent à l’analyse
de données, et les techniques de recherche sociologique. Avec le terme « méthode interface »,
les auteures veulent indiquer précisément des méthodes émergentes que les chercheurs en
sciences sociales ne peuvent pas dire être leurs, mais qui rentrent suffisamment en résonance
avec les démarches qui leur sont familières.

Dans leur intervention, Severo et Romele passent de la question de méthodes à la question


des données et introduisent l’étiquette de « soft data ». Les soft data peuvent être définies
comme des données disponibles sur Internet, facilement accessibles et récoltables. Elles sont
constituées principalement par les nouveaux types de données issues du Web 2.0 (Facebook,
Twitter, fils RSS, etc.) qui s’offrent au décideur public comme une source originale et riche
8 Traces numériques et territoires

d’informations sur les phénomènes sociaux qui ont lieu dans un territoire. Par rapport au
terme big data, parler de soft data permet de souligner que les données numériques peuvent
être bien utiles pour les politiques publiques même si elles n’ont pas le volume, la vitesse
et la variété des grandes bases de données. Par rapport aux open data, un regard orienté soft
permet d’accueillir toutes les données qui ne sont pas libres de droit.

La première partie de l’ouvrage se termine avec le chapitre de Jos de Mul qui se concentre
sur le passage des données numériques à l’identité numérique. Dans une perspective
philosophique, de Mul s’interroge sur l’identité humaine à l’époque des grandes bases
de données informatisées. Si les traditions ont toujours joué un rôle important dans
la configuration de nos identités, c’est notre rapport aux traditions qui a changé. Dans
les sociétés prémodernes, les traditions allaient de soi ; dans les sociétés modernes, les
populations sont conscientes de la diversité historique et culturelle des traditions, et habiter
une tradition est question de choix existentiel. Enfin, dans les sociétés postmodernes, la
tradition est devenue plus une commodité qu’un choix existentiel. Selon l’auteur, les TIC,
et en particulier les bases de données informatisées, ont été à ce regard déterminantes.
D’un point de vue technique, les bases de données se trouvent derrière chaque site Web ;
d’un point de vue anthropologique, les bases de données deviennent de plus en plus des
métaphores conceptuelles qui structurent notre expérience du monde et de nous-mêmes.

Dans la deuxième partie, cet ouvrage se concentre sur des questions plus théoriques
soulevées par la rencontre des traces numériques et des territoires. D’abord, il est nécessaire
d’approfondir la notion de territoire pour en saisir ses nouvelles dimensions liées au
numérique. Dominique Boullier, dans son texte, propose « une description progressive de
huit propriétés des territoires les plus classiques pour discuter à chaque fois les nouvelles
dimensions qui peuvent être ouvertes ». Pour chacune des propriétés, il part d’un agencement
topographique pour définir un agencement topologique puis un agencement chronologique
généré par les traces des plates-formes numériques. L’auteur met l’accent sur le fait que ces
agencements et leurs combinaisons complexes doivent être pris en compte pour la gestion
et le gouvernement des territoires.

L’article de Boris Beaude aborde la question du rapport entre trace numérique et espace
et y répond dès la première ligne de son chapitre en affirmant que « les traces numériques
sont éminemment spatiales ». Dans son texte, l’auteur souligne le potentiel inédit des
traces pour les sciences qui s’intéressent à la dimension spatiale du social, tout en posant
également l’accent sur les nombreuses questions soulevées par leur emploi. Entre autres,
Beaude analyse la question de la visibilité, les enjeux des traces entendues comme big data,
l’opacité des processus et surtout le risque de réductionnisme et d’appauvrissement des
analyses qui risquent de réduire le Monde en général, et l’individu en particulier, à ses traces.
En conclusion, Boris Beaude, comme d’autres auteurs dans ce volume, pose l’accent sur
l’opportunité offerte par ce type de données mais en même temps sur la nécessité de prendre
en compte leurs limites.
Introduction 9

Franck Cormerais porte son regard sur un objet spatial spécifique, la ville, et propose la
notion d’hyperville – à ne pas confondre avec la smart city – comme une alternative possible
à la « gouvernementalité algorithmique ». L’hyperville serait un « système local où la relation
aux données, c’est-à-dire aux traces-signes, opère une reconfiguration dans la redistribution
spatiale et temporelle ». Néanmoins, un tel concept n’est pas naïvement optimiste. Il s’agit
plutôt d’une approche « pharmacologique » – poison et remède, selon le double signifié du
mot grecque pharmakon – des données, qui offrent à la fois des opportunités et des dangers.
Dans les différents domaines de l’hyperville – politique, sociale, artistique, industrielle,
d’opinion, économique – existent en effet de bonnes et de mauvaises pratiques digitales.
Dans le cas du social, par exemple, là où la décision publique concerne l’intégration, les
mêmes données peuvent fonctionner pour la création de réseaux sociaux ou pour leur
segmentation. La nature de l’hyperville, en somme, consiste en des données, traces-signes,
qui peuvent être utilisées de deux manières diamétralement opposées. Il en revient finalement
à nous de valoriser ses aspects les plus contributifs. Un renouveau politique de la ville peut
en effet modifier nos conditions politiques d’existence.

Si l’intervention précédente assume une posture quasiment neutre à l’égard des données
numériques, Carmes et Noyer proposent une vision décidemment plus critique par rapport
à ce qu’ils appellent le « plissement numérique du monde ». A son origine, l’omniprésence de
capteurs de données. Comme conséquence, des nouvelles (bio)politiques et économiques
du pouvoir. La ville représente à ce propos un cas paradigmatique : elle ne sera vraiment
smart que lorsque ses habitants, ses interfaces et applications seront domestiqués, i.e. seront
tous devenus des « capteurs infatigables […] des activités de la vie quotidienne ». Les auteurs
soulignent opportunément que la datafication du monde ne peut que passer par la création
et l’alimentation d’un désir de données. Discours et rhétoriques, utopies et idéologies, jouent
à ce propos un rôle fondamental. Carmes et Noyer s’appuient notamment sur les trans et
les post humanismes, qui tentent à leur avis de fournir un horizon – une justification ou des
conditions d’existence et efficacité, nous pourrions dire – anthropologique du plissement
numérique du monde.

Enfin, dans une troisième et dernière partie, cet ouvrage se confronte aux conséquences
de l’utilisation des traces numériques pour l’aménagement et la gestion des territoires.
Aujourd’hui, le décideur public doit intégrer les données traditionnelles avec les nouvelles
données générées, selon une approche bottom-up, par les acteurs du Web 2.0. On assiste ainsi
à l’avènement d’un nouvel impératif participatif dans l’élaboration et la mise en œuvre des
politiques territoriales.

Matthieu Noucher propose d’utiliser le concept de trace numérique pour renouveler la


cartographie critique. Une telle approche est aujourd’hui en crise face à de nouveaux
phénomènes et de nouveaux acteurs de l’information géographique, comme Google Maps
et OpenStreetMap, qui ont changé radicalement la manière de produire des cartes. Selon
l’auteur, dans cette optique de renouvellement, de nouveaux cadres méthodologiques doivent
être mis en place pour analyser la fabrique cartographique et dans ces cadres, une entrée
10 Traces numériques et territoires

par les traces numériques peut contribuer à mettre en avant la question de l’intentionnalité
cartographique et notamment du rapport entre source, trace et carte.

Le livre s’achève sur deux cas empiriques qui exemplifient l’usage des traces numériques
dans les domaines les études territoriales. Dans l’analyse de Laurent Beauguitte et Marta
Severo, les traces numériques deviennent sources d’information géographique. Les auteurs
proposent d’utiliser des traces médiatiques, en particulier les fils RSS des journaux quotidiens
pour étudier les rapports entre individus et échelles, à travers l’exemple du New York Times.
Cette recherche, réalisée dans le cadre du projet ANR Corpus Géomédia, met en évidence
les potentialités de ces nouvelles données pour l’analyse des territoires mais elle cherche
également à identifier les problèmes méthodologiques que leur usage soulève.

Enfin, Nicolas Douay et Maryvonne Prévot analysent l’impact des traces numériques sur
les politiques urbaines. Comme le soulignent les auteurs, aujourd’hui les outils numériques
ont contribué à la création des nouvelles dynamiques participatives de mobilisation sociale
et de co-construction de la décision dans le contexte de la ville. Le cas de la plate-forme
Carticipe à Strasbourg et à Marseille est analysé dans ce chapitre à travers des entretiens avec
différents acteurs qui ont contribué à son développement et usage. Si la nature positive de
ces expérimentations émerge clairement, la complexité de la cohabitation de ces innovations
numériques avec d’autres dispositifs plus classiques de la participation établis par les acteurs
institutionnels est également évidente.

En dépit de la différence d’approches et de perspectives, nous pouvons retracer au moins


trois traits communs à ces interventions. Premièrement, une convergence vers la question
des traces numériques, des données ou des big data – une distinction terminologique
qui reste souvent gérée de manière implicite. Il nous semble que les traces représentent
aujourd’hui le point de rencontre et discussion pour maintes disciplines qui s’intéressent au
numérique, selon différentes perspectives – ontologiques, épistémologiques et méthodiques,
anthropologiques, éthiques et politiques, pratiques, etc. Deuxièmement, tous les auteurs
paraissent partager une approche ambivalente – « pharmacologique », nous pourrions
dire – envers ces traces et leurs usages. La conscience des avantages de ces nouvelles
sources d’information sur la réalité sociale et le territoire est contrebalancée par celle de
leurs limites. La méfiance par rapport aux mauvaises pratiques liées à leur traitement –
surveillance, quantification du soi, etc. – est modérée par une confiance dans les bons usages.
Troisièmement, les auteurs ne s’arrêtent pas à cette constatation, mais se soucient souvent
de donner une mesure précise des potentiels et des limites, des dangers et des avantages
des traces numériques. En conclusion, nous pouvons dire que cet ouvrage, loin encore de
constituer le point final de la recherche sur les traces numériques et le territoire, indique une
direction pertinente pour ceux qui veulent poursuivre dans ce domaine.
Partie 1
La trace, les méthodes et les données
Au-delà de la critique big data
La recherche sociale et politique à l'ère numérique

Richard Rogers
INTRODUCTION : BIG DATA ET LE TOURNANT COMPUTATIONNEL

Parmi les débats actuels se pose la question de l’harmonisation de la recherche en


sciences politiques et sociales avec l’ère du numérique. Comment faire face aux
défis que posent Internet et le numérique, notamment les données désormais
accessibles en ligne, à la recherche ? Alors que le terme big data connaît un succès
grandissant, il semble que la recherche, tout comme l’ensemble de ce que l’on
pourrait appeler le calendrier programmatique (numéros spéciaux des revues,
appels à financement, titres des conférences, séminaires, etc.), soit guidée par
des méthodes et des outils bien spécifiques. Pour certains, ce phénomène a pris
le nom de tournant computationnel, qui désigne l’intégration des techniques
informatiques et des big data en plein essor, aux pratiques appliquées à la recherche
en sciences sociales [Berry, 2011]. Dans un premier temps, je propose d’examiner
le tournant computationnel, les big data et les multiples critiques qui leur ont
été adressées, pour ensuite les étudier indépendamment de ce que l’on pourrait
appeler le « tournant numérique ». Ce dernier offre en effet certaines opportunités
de recherche s’appuyant sur l’analyse mais selon une approche différente de ce que
l’on a pu observer dans le tournant computationnel et les big data.

Le débat consiste en partie à estimer l’étroitesse des liens qui unissent le tournant
computationnel à l’influence croissante des big data, une notion qui, dans le « hype
cycle » du cabinet Gartner, a évolué du stade des « attentes exagérées » en juillet
2013 à celui du « gouffre des désillusions » un an plus tard [Gartner, 2014]. Cette
descente coïncidait avec le problème de surestimation dont fut victime le site
Google Flu Trends, un projet novateur de big data en recherche médicale et sociale
grâce auquel les recherches sur les symptômes de grippes ou associés effectuées
sur le moteur de recherche sont géolocalisées et utilisées pour mesurer l’activité
réelle de la grippe et sa localisation. Ce service avait surévalué l’importance de
la grippe (par un coefficient de deux) par rapport aux chiffres publiés par les
systèmes habituels de surveillance de l’Institut national de la Santé américain et
ses équivalents ; ceci avait amené les chercheurs à s’interroger sur les méthodes
de mesure pratiquées sur le Web et si celles-ci ne se limitaient pas à identifier
des effets médiatiques plutôt que des réalités sur le terrain [Lazer et al., 2014].
A l’annonce d’une nouvelle vague de grippe, constate-t-on plus d’activité sur
le moteur de recherche, sachant que la personne qui effectue les recherches est
14 Traces numériques et territoires

susceptible de ne ressentir aucun symptôme ? Parmi les principales critiques


adressées aux big data est le fait que l’on peut très bien voir un modèle là où il n’en
existe pas, ce que boyd et Crawford, dans leur contribution au débat, désignent
par apophénie [boyd et Crawford, 2012].

BIG DATA : POINTS DE VUE CRITIQUES

L’avènement des big data est censé avoir entraîné une rupture, notamment à
cause du remplacement de l’interprétation par la recherche de modèles [Savage
et Burrows, 2007 ; Watts, 2007 ; Lazer et al., 2009]. Cela signifie que dans une
démarche type de recherche, le prélèvement d’un échantillon (en sciences sociales)
ou l’identification d’une collection (en sciences humaines) serait remplacé par
une collecte de données par quadrillage systématique, dont la finalité n’est pas
simplement la constitution exhaustive d’un mais plutôt de plusieurs ensembles
de données, de grande taille et collectés selon plusieurs méthodes, notamment
la capture en temps réel. L’apprentissage automatique et l’analyse des réseaux
formeraient les points de départ de telles démarches analytiques. On pratiquerait en
effet l’analyse non pas par une lecture « de près » mais par une lecture « à distance »,
ou topologique, qui élèverait, en points de mire des résultats, la cooccurrence de
mots, les tendances du moment, les prescripteurs, ainsi que l’anomalie et le hors-
norme [Piper, 2013]. Franco Moretti, qui a théorisé la lecture à distance, a montré
que la lecture de près produit un canon qui a pour conséquence de limiter la
portée de ce qui est lu, et encourage, à l’inverse, à apprendre à ne pas lire [Moretti,
2005]. En utilisant ces techniques, il serait possible de soumettre à l’analyse une
plus grande production, et non plus seulement des œuvres canoniques.

Dans le domaine des big data, l’infrastructure computationnelle et les moyens de


la préserver deviennent des obstacles à la saisie scientifique. On pourrait, d’une
certaine manière, comparer l’investissement à fournir à celui d’un grand moteur
de recherche ou d’une chaîne d’information. Il faut pouvoir faire preuve d’équipes
dédiées de techniciens-chercheurs et de programmeurs scientifiques capables
d’entreprendre une telle tâche, ce qui implique une expertise dans le traitement
de données et une certaine habileté dans l’utilisation de logiciels d’analyse et de
leurs nombreux paramètres. En d’autres mots, il n’est plus possible d’exploiter des
ensembles de données au moyen d’un tableur ou « à la main ».

Ceci a des conséquences directes sur les systèmes réputationnels appliqués au


domaine scientifique. En basculant vers des infrastructures d’envergure avec leurs
équipes d’analystes et de techniciens, l’écart entre supra-science et petite-science se
creuse à nouveau, au sein même, cette fois-ci, des sciences humaines et des sciences
sociales [Price, 1963]. Avec l’avènement du tournant computationnel et de sa vision
orientée vers les supra-sciences, la valeur d’une étude se mesure à travers le prisme
Au-delà de la critique big data 15

des dispositifs de capture de données employés, ainsi que par la taille et la complexité
de ces données. L’application d’une méthode et d’un procédé, la combinaison de la
force brute de l’équipement à la finesse des paramètres choisis, sont ici capitales.

Les résultats des analyses produisent par ailleurs des modes de connaissance à
distance, à savoir des compétences particulières dans la compréhension de clusters
graphiques et autres complexités visuelles. On peut comparer ces nouvelles
connaissances chez les scientifiques à celles que possèdent des gestionnaires de
systèmes d’exploitation, comme les contrôleurs aériens ou les analystes d’images
satellites [Rochlin, 1997 ; Parks, 2005].

En collectant en continu des données en temps réel, faire de la recherche reviendrait


à observer une sorte de veille médiatique à l’aide d’un dispositif de capture en
« back-end » mais aussi d’un tableau de bord en « front-end ». L’interface de ce
tableau de bord, à partir duquel on peut gérer à la fois la réception des données et
les résultats d’analyses, offre de nombreux modes de visualisations, par exemple les
graphiques, cartes et arbres de Moretti, mais également des cartes géographiques
qui pourraient nous renseigner sur les points de densité de l’attention. La courbe
d’apprentissage pourrait alors inclure des informations comme les dimensions
des tuiles et les noms des fournisseurs de tuiles qui produisent les carrés utilisés
pour la composition de la carte.

Lorsque l’on s’intéresse aux big data, certaines questions connexes peuvent se révéler
très importantes. En tout premier lieu, on ne peut ignorer le vaste débat sur la
pertinence ou non d’analyser les données personnelles à l’aide des big data, sachant
qu’on a peu de chance d’obtenir une autorisation d’utilisation des données et qu’il
est tout à fait délicat de se substituer à cette autorisation en s’appuyant sur les
conditions d’utilisation de l’entreprise. Si un cas d’éthique est jugé acceptable, il faut
alors mettre en place des stratégies qui, tout en n’exigeant pas d’autorisation, ne
soient pas préjudiciables. La solution de l’anonymat ne convient pas forcément ; cela
tient en partie à la situation à laquelle furent confrontés les chercheurs en données
d’AOL, lorsque des journalistes et des défenseurs du droit à la vie privée ont pu
identifier certains utilisateurs du moteur de recherche après que leurs recherches des
six derniers mois ont été rendues publiques [Sweeney, 2000 ; Hansell, 2006]. On peut
également citer la technique du cloaking ou de dissimulation, plus communément
appelée pseudonymisation, par laquelle des identifiants artificiels sont insérés à la
place des véritables noms. Une autre manière de répondre aux questions éthiques
qui émergent de l’analyse des big data personnelles est de les agréger et de les
dépersonnaliser : c’est le cas, par exemple, lorsque l’on recueille les listes des intérêts
postés sur leur page Facebook par les amis des candidats à la présidence américaine
(ou de n’importe quelle autre personnalité publique qui possède une page officielle)
dans le but de les observer et d’en déduire certains rapports de cause à effet, comme
par exemple l’influence des guerres entre cultures ou les préférences médiatiques
des amis selon leur orientation politique à gauche ou à droite.
16 Traces numériques et territoires

Aujourd’hui, les critiques des big data pointent une tendance à davantage se
fier à des flux et des signaux de données disponibles (par exemple les APIs
des réseaux sociaux) plutôt qu’à appliquer la méthode usuelle qui consiste à en
chercher de nouveaux mais qui demande davantage d’efforts [Vis, 2013]. Dans
les fondamentaux de la recherche, les données auraient-elles remplacé une vision
qui privilégiait les problèmes à résoudre ? Par exemple, quelqu’un qui voudrait
géolocaliser des poches de haine ou d’intolérance doit-il s’engager sur la piste
potentiellement prometteuse des tweets géotaggés, ou doit-il prendre en compte
des données nouvelles et les moyens de les recueillir ? Dans ce cas, c’est la
disponibilité immédiate des données qui déclenche le questionnement scientifique
et la recherche qui en découle, et non une question sociétale en soi.

Souvent, lorsque les big data sont impliquées, on se tourne vers les grandes
compagnies de médias et de communications pour récupérer des groupes de
données, données qui réorientent ensuite vers d’autres intérêts bien précis
(par exemple, l’utilisation des données mises à disposition par les compagnies
de téléphone mobile pour retracer les différents types de trajets empruntés
quotidiennement). Une autre manière de s’assurer un accès facile à des données
exploitables est de s’asseoir, littéralement, à l’un des postes de travail d’un
laboratoire d’une grande compagnie en tant qu’invité ou collaborateur chercheur.
On peut alors mener la recherche sur place mais il est impossible de quitter le
bâtiment avec les données, ou de les sauvegarder sur un serveur à distance.

Ainsi, les modalités d’accès aux big data deviennent elles-mêmes sujets d’études, y
compris pour celles qui bénéficient d’un accès public, comme les archives Web des
bibliothèques nationales et bientôt l’archive Twitter du Congrès américain. Sur un
mode comparable au laboratoire d’une grande compagnie, le chercheur doit souvent
se trouver au sein même de la bibliothèque pour pouvoir accéder aux données, qu’il
ne peut emprunter comme il le ferait avec des livres. La différence entre nouveaux
médias et médias traditionnels est ici flagrante et l’enjeu des débats sur les modes
de production de la connaissance à partir des big data et des techniques de lecture à
distance, apparaît ici pleinement [Schulz, 2011 ; Allison et al., 2011]. Non seulement
faut-il être, si l’on peut dire, proche des données pour pouvoir les lire à distance ; il
faut encore obtenir le droit de les approcher et d’y accéder physiquement.

Il faut encore ajouter à cela le temps passé à travailler sur les données, une mission
très longue, surtout lorsque l’on doit rester sur place, avec les données. Comme il a été
mentionné plus haut lorsqu’ont été évoqués les phénomènes de pseudonymisation et
de dépersonnalisation des données, avant même l’analyse des données, il faut parfois
entreprendre des démarches nouvelles en terme de prévention, des démarches
récemment apparues qui répondent aux actes de désanonymisation initiés par des
tiers (journalistes et défenseurs de la vie privée notamment). Il est important de
se préparer à la montée de ce que l’on appelle la science de la ré-identification,
Au-delà de la critique big data 17

ou l’ensemble des techniques qui permettent de rétablir l’identité de personnes


délibérément brouillée [Ohm, 2010]. On a, par conséquent, ajouté au nettoyage des
données une étape préparatoire supplémentaire.

Pour résumer, la critique des big data a des points d’ancrage épistémologiques,
esthétiques et éthiques, à commencer par une rupture conceptuelle en faveur de
la reconnaissance de modèles, un mode analytique de l’apprentissage automatique,
des préférences en termes de graphiques, cartes et arbres, et tout ce qui touche
à la manière de gérer les données de sujets humains. Les big data divisent aussi,
en créant des structures réputationnelles par l’intervention, à chaque étape de la
recherche, d’une perspicacité – ou cécité – computationnelle : collecter, accéder,
traiter, analyser, produire et présenter les données.

Les big data peuvent être commercialisées. De nouveaux marchés de données se


développent, ce qui implique qu’il faille parfois payer pour mener des recherches
sur les données [Puschmann et Burgess, 2013]. Pour accéder aux données
historiques de Twitter, fournies par Gnip (lui-même détenu par Twitter), on
peut souscrire à un abonnement ou déposer des demandes ponctuelles sur des
collections de tweets, ce qui, dans les deux cas, sépare les bases de données riches
des bases de données pauvres. Sifter, l’interface de Texifter qui propose l’accès à
des données historiques de Twitter, offre une estimation du coût de la transaction ;
par exemple, fin 2014, une demande portant sur l’accès à toutes les données
historiques des tweets contenant un hashtag encore actif depuis 2007 revenait à
20 000 USD.

DU TOURNANT COMPUTATIONNEL AU TOURNANT NUMERIQUE

Une autre manière, plus subtile, de caractériser l’invasion des ordinateurs,


qu’incarnent notamment ces ordinateurs portables bardés d’autocollants et
les Hacking Workshop, pourrait être le tournant numérique, où l’étude et les
méthodes de la culture numérique influencent la recherche dès lors qu’elle utilise
les données (en ligne), les logiciels d’analyse et la visualisation infographique.
Faire la distinction entre le tournant computationnel (des big data) et le tournant
numérique permet de ne pas céder à une compréhension monolithique, ou
unitaire, de l’évolution des besoins en recherche politique et sociale à l’ère du
numérique [Lovink, 2014].

Au sein même du tournant numérique, il existe tout un panel d’approches qui


englobent les humanités numériques, les sciences sociales numériques et celles des
médias numériques (qui forment toutes les « études numériques » ou digital studies)
et dont les engagements et positionnements ontologiques et épistémologiques
se distinguent à première vue nettement les uns des autres. Je vais tâcher ici de
18 Traces numériques et territoires

contextualiser et d’examiner certaines pratiques de la recherche numérique


observées en humanités numériques (analytique culturelle et culturomique), en
sciences sociales (cybermétrie et mesures alternatives d’impact ou altmetrics), et
dans des études croisées (méthodes numériques), et de montrer, à travers quelques
exemples, en quoi elles peuvent contribuer à la recherche en sciences politiques et
sociales [Manovich, 2011 ; Michel et al., 2010 ; Priem et al. 2010 ; Rogers, 2013]. Je
m’intéresserai particulièrement à ce que l’on a appelé les méthodes et techniques
quali et quanti du tournant numérique, ainsi qu’aux méthodes de recherche utilisées
lors d’un « data sprint », en les envisageant séparément du phénomène big data.

En premier lieu, on peut différencier l’ensemble des méthodes utilisées en sciences


numériques les unes des autres, selon qu’elle utilise un type de document plutôt
qu’un autre, ou une méthode bien précise ; ceci revient à distinguer les études
qui utilisent des documents et des méthodes issus de la numérisation, les natifs
numériques, ou une combinaison des deux1. Sur la question des documents, les
chercheurs en humanités numériques, tout particulièrement, se voient de plus en
plus offrir de nouveaux corpus de recherche alors que les bibliothèques nationales,
les archives et les musées livrent régulièrement des fournées fraîches de matière
numérisée et indexée. On parle même de crise dans certains domaines de recherche
en humanités numériques, car l’accueil réservé par les chercheurs à ces nouveaux
documents n’a pas été à la hauteur de cette ruée vers la numérisation. Par exemple,
les archives Web sont encore rarement utilisées à des fins scientifiques, si l’on en
juge par le nombre de publications citant des collections archivées de données
Web [Dougherty et al., 2010 ; Thomas et al., 2010]. De plus, certaines interrogations
subsistent quant à l’équipement et la formation des enseignants-chercheurs et des
étudiants, là où l’enjeu essentiel porte à la fois sur la pertinence et la manière
d’enseigner la programmation (ou le codage) [Manovich, 2015].

Pour les chercheurs en sciences sociales numériques, les données numériques


natives (issues du Web) pourraient présenter un plus grand intérêt que les objets
patrimoniaux numérisés, dans la mesure où les données sont utilisées pour étudier
les tendances, les opinions, les rumeurs, les prises de position, etc., ainsi que l’avait
signalé en 2009 un groupe de chercheurs en sciences sociales qui s’était penché sur
le tournant computationnel dans sa discipline [Lazer et al., 2009]. Reste à savoir si
vraiment, comme certains se le sont demandé, on peut évaluer l’opinion publique
en étudiant les tendances à partir, par exemple, de données recueillies sur Twitter.
Existe-t-il une corrélation entre l’humeur détectée sur Twitter et le comportement
des « esprits animaux » sur le marché boursier [Bollena et al., 2011] ? Peut-on inférer
l’incidence de maladies et de troubles médicaux, des tweets touchant à la santé
[Mitchell et Hitlin, 2013] ? Le problème se pose dans les mêmes termes que pour
le Google Flu Trends : étudie-t-on ici une tendance sociétale ou le fonctionnement
des réseaux sociaux ? Dans quels cas l’étude de données Twitter ne concerne-t-elle

1 Voir également Rogers [2009].


Au-delà de la critique big data 19

que Twitter, et dans quels cas (ou jusqu’où) est-il possible d’étudier grâce à Twitter
des phénomènes sociétaux « à l’état naturel » ? A l’occasion d’un concours organisé
en 2013 par le Centre américain pour le contrôle et la prévention des maladies (US
Centers for Disease Control, CDC), une série d’études avait été publiée qui avait montré
comment l’évolution de la grippe pouvait être suivie sur Internet non seulement
grâce au moteur de recherche de Google mais également par le type de pages
vues sur Wikipédia et de tweets géotaggés sur Twitter. On pourrait qualifier cette
méthode qui consiste à obtenir des résultats à partir de données disponibles en
ligne d’« inférence en ligne » : les résultats sont souvent accessibles sur des interfaces
type tableaux de bord, avec des cartes montrant les zones d’activité, comme l’a
fait par exemple le lauréat du concours du CDC, « Prédire la prochaine saison de
grippe, un site de prévision des maladies infectieuses (grippe) de l’Université de
Columbia » [CPID, 2015]. Si l’algorithme de prévision s’appuie sur la combinaison
de données de surveillance compilées par le CDC avec l’aide d’un Google Flu
Trends révisé (et réhabilité), l’authenticité des résultats n’en repose pas moins sur
les régimes de surveillance traditionnels tels que les admissions à l’hôpital, ce qui
leur donne davantage de crédibilité.

En termes de méthode, on pourrait considérer que les sciences sociales et


humanités numériques numérisent la méthode, dans le sens où elles déplacent leurs
instruments sur le Web (enquêtes, sondages, etc.) ou les intègrent à des logiciels
(en mesurant et éditant les propriétés formelles des objets d’art, comme dans le
cas du logiciel ImagePlot). On pourrait pousser le raisonnement un peu plus loin
et envisager la numérisation des concepts ou des projets de recherche, adaptant
ainsi au Web les méthodes de recherche pratiquées en sciences politiques et sociales
(par exemple en étudiant l’expression de la sphère publique dans les forums, en
s’attaquant aux espaces réservés aux commentaires pour y trouver des traces de
débat public, ou en étudiant Twitter comme source de l’opinion publique).

Faire la distinction entre des documents numérisés et des documents numériques


natifs, entre méthode et concept, revient à imposer des distinctions ontologiques
entre ceux qui « appartiennent au médium » et ceux qui l’ont intégré à la suite
d’une migration [Blood, 2002]. Les blogs, que l’on considère comme appartenant
au Web, sont dans ce cas des numériques natifs, tandis qu’un livre numérisé,
disponible sur Google Books, est un nouvel arrivant numérique, soit un document
numérisé. Les pages Web qui ne peuvent être imprimées mais seulement capturées
à l’écran sont une autre manière de conceptualiser la distinction entre objets du
médium et ceux qui en dérivent [Latour, 2004].

La distinction entre natifs numériques et documents numérisés peut également


s’appliquer à la méthode employée dans les sciences humaines et sociales. On
trouve, d’un côté, des méthodes qui ont effectué une migration vers le Web – les
enquêtes en ligne par exemple –, et de l’autre, des méthodes spécialement créées
pour une utilisation en ligne, comme le PageRank de Google (un classement
20 Traces numériques et territoires

qui privilégie un site Web plutôt qu’un autre) ou l’EdgeRank mis en place par
Facebook (qui privilégie un ami plutôt qu’un autre selon votre affinité avec lui).

On peut donc placer les différentes approches en recherche numérique sur une
matrice binaire (ou, si l’on préfère, les disposer sur un graphique en éventail,
ou bien les faire défiler horizontalement à l’aide d’un curseur), où l’on verrait
apparaître quels types de documents sont davantage sollicités pour les données
(numérisés ou natifs) et quelles méthodes sont imitées ou natives (voir Tableau 1).

Enfin, en lieu de la numérisation des concepts comme cela a été évoqué plus haut,
existe un discours spécifique à l’usage du Web, que l’on entend aussi bien dans la
presse professionnelle que dans l’utilisation des logiciels critiques, un langage dont
on pourrait tirer une utilisation analytique : le spam, les creative commons, la wikification,
le versioning – ou gestion de version –, le malware – ou logiciel malveillant –, le
codage, la plate-forme, le profil, etc. Des études telles que celles de Lawrence Lessig
et Eben Moglen ont expressément souligné l’utilisation, dans le discours juridique
des nouveaux médias, des mots formés à partir du préfixe « re- », des termes tels
que le remix, le reuse – ou ré-utilisation, la redistribution, la révision et le recyclage –
redistribute, revise et recycle –, qui apparaissent comme autant de défis lancés par les
médias numériques aux lois et mœurs existantes. De façon similaire, l’étude des
natifs numériques, ou ses enjeux, qui est mise en avant dans la notion même de
méthodes numériques, propose de réorienter la méthodologie du médium et des
concepts qui lui sont associés, et de les appliquer à la recherche en sciences sociales
et politiques. Cette variante du tournant numérique invite en effet à étudier non
seulement ce qui est numérisé mais également le numérique natif, en se servant
des données et en suivant un raisonnement qui reprenne les méthodes du médium.
Comment faire pour réorienter, dans le cadre de la recherche en sciences politiques
et sociales, les techniques et notions numériques vers une utilisation en ligne ?

Pour répondre à cette question, je vais m’intéresser à un nouvel espace


d’expression politique (Facebook) et développer une approche analytique à la
fois qualitative et quantitative (ou quali-quanti) qui utilisera les données recueillies
sur Facebook (mentions J’aime, partages, commentaires, mentions J’aime sur les
commentaires) afin d’étudier l’engagement politique, une préoccupation fréquente
en sciences politiques mais également un terme utilisé par les analystes spécialisés
en médias. Cette méthode numérique se fonde sur un mode opératoire appelé
analyse des contenus en réseau (networked content analysis) qui associe le comptage
à l’interprétation du contenu le plus sollicité au sein d’un réseau d’utilisateurs.

Disons-le d’emblée, les méthodes numériques fonctionnent, que ce soit pour


l’analyse des contenus en réseau ou d’autres protocoles de recherche, et on voit
de plus en plus se développer un nouveau format de recherche appelé « data
sprint ». Les data sprints, qui partagent quelques similarités avec les hackathons, les
barcamps, et autres formes expérimentales de workshops reposant sur le partage
Au-delà de la critique big data 21

de compétences, opèrent sur un format court, en concentrant l’exécution pratique


du travail de recherche sur une durée courte, par exemple une semaine. Des
équipes composées d’experts en la matière, analystes, programmeurs et designers
d’information, travaillent ensemble à la production d’un projet d’études sous la
forme d’un court rapport et d’une série de graphiques. Il arrive souvent que
plusieurs projets soient conduits en parallèle et chacun des projets est présenté
à tous les autres groupes à la fin de cette semaine de « sprint ». C’est une forme
de « science rapide » ou fast science, qui n’est ni de la supra-science ni de la petite-
science, mais qui fait partie des pratiques apparues avec le tournant numérique.

DONNÉES NUMÉRISEES ET DONNÉES NUMÉRIQUES NATIVES

Lorsque l’on entreprend de créer un corpus de documents numérisés, on peut


appliquer les mêmes principes que ceux utilisés pour la constitution de « bonnes »
données ou données fiables (« good data »), à savoir la numérisation de données
« propres » et entières, couvrant toute la durée de vie de leur production [Borgman,
2009]. Dans le domaine des humanités numériques, la collection complète des
œuvres (connues) d’un artiste ou celle de toutes les couvertures d’un magazine
prescripteur tels que le Time Magazine représentent des données fiables et font
l’objet d’études en analytique culturelle, comme je le montrerai plus loin. Dans
le domaine des sciences sociales, les mesures médiatiques telles que les taux
d’audience mesurés par Nielsen et les tirages des journaux estimés par le BPA
(Business Publications Audit) ont recours à d’autres principes de fiabilité des données
(comme l’échantillonnage d’une population donnée).

Toutefois, on observe que le Web ne dispose pas d’une telle instance de


comptabilisation [Graves et Kelly, 2010]. Prenons Google et le nombre de résultats
estimés lors d’une recherche sur le Web : comme l’a révélé un cas bien connu, la
requête associée à un terme générique comme [voitures] (cars) produit moins de
résultats que celle, plus ciblée, de [voitures d’occasion] (cars –used) [Sullivan, 2010].
En effet, les données numériques natives ne partagent pas nécessairement les mêmes
propriétés que les « good data » car le Web de manière générale, et les plates-formes
de réseaux sociaux en particulier, sont des médias instables, c’est-à-dire éphémères,
et en perpétuel mouvement. Constamment de nouvelles caractéristiques (et par
conséquent des types de données) sont ajoutées ou rendues obsolètes.

La question de la fiabilité des méthodes de mesure du Web dans une étude


longitudinale pose donc problème. Le bouton « J’aime » de Facebook en est un
très bon exemple : sa date de création remonte à 2010 et, par conséquent, toute
mesure antérieure de l’activité de Facebook ne pourra prendre en compte cette
caractéristique, qui est l’une des plus populaires du site. De plus, de sa création à
la fin de l’année 2011, l’utilisation du bouton a augmenté de manière progressive
si bien que les analyses sur cette période risquent d’entraîner une sous-évaluation
22 Traces numériques et territoires

des données (« underreporting »), même en cas de pic d’activité [Richmond, 2011].
De la même manière, les résultats de recherche sur Google font preuve d’une
certaine volatilité dans le temps. Après d’importantes mises à jour de certains de
ses algorithmes par Google (Panda en 2011 par exemple), des sites internet ont
vu leur classement baisser, notamment ceux qui présentaient liens « spammy »,
fermes de spam ou répétiteurs de contenus (« content repeaters ») en nombre trop
important [Singhal et Cutts, 2011]. Il y a fort à parier que si l’on étudiait l’évolution
dans le temps des classements des résultats des moteurs de recherche, on verrait
à quel point des algorithmes instables produisent des positionnements fluctuants.

Tableau 1 : Cinq manières d’étudier les humanités numériques et les sciences sociales numériques
représentées selon les types de données et méthodes privilégiés

LES ÉTUDES NUMÉRIQUES

Ces dix dernières années, les méthodes et techniques déployées dans le cadre de la
recherche numérique (qui utilise à la fois des données numérisées et des données
en ligne), ont été énoncées selon une large gamme de descripteurs, notamment :
l’analytique, les indicateurs, les sciences -nomiques ou toutes méthodes connexes,
projetant ainsi tout un panel de nuances sur l’objet mesuré. En recherche numérique,
on associe naturellement l’utilisation de l’analytique à l’industrie de surveillance des
nouveaux médias, qui est de plus en plus impliquée dans la surveillance des réseaux
sociaux et l’écoute sociale, comptabilisant et transformant en indicateurs l’activité
des utilisateurs. On capture et on analyse les mentions, puis on en déduit une
signification afin d’obtenir « une vision opérationnelle », pour reprendre les termes
d’un fournisseur de logiciels [Adobe, 2014]. Dans la plupart des cas, la recherche de
la signification concerne l’impact et la mesure du sentiment. Un nom, un mot-clé,
une marque ou un autre terme s’est-il/elle propagé(e) ? S’est-il/elle diffusé(e) au-
delà d’un public captif (par exemple les followers d’un réseau social), trouvant ainsi
Au-delà de la critique big data 23

un écho en dehors de cette « bulle » ? Cette diffusion a-t-elle été bienveillante ? On


peut également mettre en place une veille sur la compétition entre des noms, des
mots-clés, des marques et autres termes, et voir dans quelle mesure une campagne
(ou un programme) trouve davantage d’écho (parmi les prescripteurs) que sa contre-
campagne (ou contre-programme) [Latour, 1991].

Les métriques (metrics) sont des normes de mesure ; leur nomenclature provient
des techniques de comptage utilisées notamment en bibliothèque et en sciences
de l’information, telles que la bibliométrie et la scientométrie. Ils s’intéressent
au facteur d’impact, à la pertinence et à l’influence, en d’autres termes non pas
uniquement à la force brute mais à la force relative et à son endurance. Sur les
réseaux sociaux et sur tout autre environnement numérique personnel quantifié
(par exemple les logiciels d’évaluation d’un programme fitness), les métriques
comptabilisent et communiquent l’intensité de l’activité – les « J’aime » sur
Facebook par exemple –, et ont été notamment critiquées pour leur incitation à
« “vouloir toujours plus”, poussant les gens à vouloir toujours plus de “J’aime”,
plus de commentaires, et plus d’amis » [Grosser, 2014].

L’utilisation du suffixe -nomique est moins directement liée à la question des


relations entre l’industrie du Web et les sciences ; il renvoie à la « loi », dans le
sens des lois de la nature, et fait donc allusion aux fondamentaux de la vie et
la recherche fondamentale. Il partage avec le terme « méthodes » une approche
épistémologique illimitée. Quelle que soit notre progression dans le travail, et
quelle que soit la démarche adoptée, les méthodes soulignent la construction par
étapes d’une procédure ou d’un protocole de recherche. Si l’on applique cette
description aux méthodes numériques, celles-ci pourraient embrasser l’ensemble
des procédures utilisées pour l’étude des documents numériques, même si le
terme désigne plus spécifiquement les méthodes utilisées en ligne pour l’étude
des données du Web. Je reviendrai à cette question après un bref examen de
l’analytique culturelle, de la culturomique, de la cybermétrie et des métriques ;
après les avoir présentées, j’offrirai quelques pistes pour les adapter à la recherche
en sciences politiques et sociales.

La première de ces approches en humanités numériques, l’analytique culturelle, a


souvent comme objet d’étude des collections numérisées (par exemple l’ensemble
des couvertures historiques de Time Magazine, toutes les peintures de Rothko ou
de Mondrian, etc.), et s’intéresse à leurs propriétés formelles et la manière dont
elles changent avec le temps. Son logiciel attitré est ImagePlot, qui regroupe des
images selon leurs propriétés formelles telles que la luminosité et la saturation (voir
Figure 1). On appelle le produit de cette analyse un « espace de style » : « les images
visuellement similaires sont dites proches ; celles qui sont différentes se retrouvent
éloignées les unes des autres » [Manovich, 2011]. Ce terme s’inspire de la notion de
styles utilisée en histoire de l’art, qui permet de regrouper et de réunir en catégories
des œuvres d’art.
24 Traces numériques et territoires

Figure 1 : Rothko contre Mondrian. Produit par le logiciel ImagePlot et Cultural Analytics.
Comparaison des espaces de style. L’axe des abscisses montre la luminosité, l’axe des ordonnées la
saturation. Source : Software Studies Initiative, 2011

Figure 2 : Caractérisation d’image sur les premières images apparues sur Google Images lors d’une recherche sur
le terme [Gezi], selon « save the trees » (« sauver les arbres », en vert) ou « bring down the government » (« faire
chuter le gouvernement », en rouge), juin 2013. © Digital Methods Initiative, Amsterdam, 2013
Au-delà de la critique big data 25

Cette notion d’espace de style a été utilisée dans l’analyse des selfies, ces autoportraits
photographiés à l’aide d’un smartphone et postés ensuite sur Instagram par des
utilisateurs dans plusieurs villes. Le projet avait pour but d’analyser les propriétés
formelles des portraits, afin de les regrouper et d’en extraire certaines constantes
comme la pose (inclinaison de la tête), le sexe, l’âge et l’expression du visage, dans les
villes de Berlin, Moscou, Sao Paolo, Bangkok et New York ; parmi les conclusions,
on peut mentionner le fait qu’il y ait nettement plus de femmes que d’hommes qui
prennent des selfies, qu’à Sao Paulo on pose avec beaucoup de sérieux, avec un angle
d’inclinaison de la tête à environ 17 degrés. Certaines villes (Sao Paulo et New York)
affichent plus de bonne humeur que d’autres (Berlin et Moscou, où les auteurs de
selfies sont plus âgés). L’étude ne va pas jusqu’à mesurer la teinte et la saturation
pour en inférer des conclusions sur la culture de l’exposition en ligne chez les jeunes.

Comment appliquer l’analytique culturelle à la recherche en sciences politiques ? On


peut citer en exemple une étude qui portait sur des clichés pris lors de manifestations
et recueillis sur des médias en ligne, et pour lesquels on pouvait reconstituer une
chronologie des événements ; cela avait été notamment le cas avec des images prises
au parc Gezi à Istanbul durant les manifestations de mai-juin 2013. En utilisant la
technologie ImagePlot, on assiste à la transformation qui a traversé cette « révolution
des arbres » en Turquie ; comme le dit un témoin, « la transformation de l’espace
public en espace privé montre pourquoi le but de l’occupation du parc Gezi n’était
pas seulement de sauver des arbres mais de sauver la démocratie turque » (voir Figure
2) [Turkey EJOLT team, 2013]. La couleur verte dominante décline progressivement
et cède la place aux images de manifestants aspergés de gaz lacrymogènes puis, plus
généralement, à la lutte pour les droits.

La culturomique, également pratiquée par les humanités numériques, est une


discipline qui interroge (à partir de Google Ngram Viewer) la base de livres
numérisés de Google sur des mots précis, faisant ainsi ressortir des tendances
culturelles ou sociétales ; elle se concentre essentiellement sur les ouvrages en
anglais parus entre 1800 et 2000, bien que l’on trouve aussi des livres dans d’autres
langues [Michel et al., 2011]. On obtient, sous forme de graphiques, la variation
de fréquence d’utilisation de mots-clés à travers la période mentionnée ; ces
graphiques rappellent (à la fois méthodologiquement et visuellement) les premières
versions du dispositif Google Insights qui montrait les statistiques associées
à des recherches d’utilisateurs par mots-clés sur les moteurs de recherche. Ces
recherches peuvent revêtir une nature politique, et certaines peuvent diriger les
utilisateurs vers des sites se situant plutôt à gauche ou plutôt à droite. Ainsi, dans
la course aux élections présidentielles américaines en 2012, ceux qui rentraient le
terme « obamacare » étaient orientés en majorité vers des sites identifiés à droite,
alors qu’une recherche contenant les mots-clés « obama student loan forgiveness »
(« obama emprunt étudiant dispense ») vous amenait vers des sites identifiés à
gauche (voir Figure 3) [Borra et Weber, 2012]. La recherche sur Internet comme
sujet de recherche – ce qui est une façon de décrire la culturomique – ou l’analyse
26 Traces numériques et territoires

des termes de recherche peut également comprendre la géolocalisation des


utilisateurs, et donc mener à un travail sur l’utilisation des mots selon la localisation
de leurs utilisateurs. Sur le même mode que ce qui a été fait pour l’évaluation et la
localisation de la grippe sur Google Flu Trends, on pourrait très bien géolocaliser
les discours de haine (à partir d’une recherche de termes linguistiques précis) et
ainsi observer de manière longitudinale ses constantes ou ses fluctuations.

Figure 3 : Political Insights, Yahoo! Labs, montrant les recherches des sympathisants de gauche et de
droite ayant pour sujet Obama, 2011. Source : Borra et Weber, 2012

En sciences sociales numériques, la cybermétrie consiste à appliquer des méthodes


d’analyse de citations en utilisant des liens Internet (principalement) de la même
manière que s’ils étaient des citations extraites d’ouvrages universitaires, et en
traitant le lien Internet comme un gage de crédibilité ou de mesure d’impact
[Thelwall et al., 2005 ; Ackland, 2013]. On retrouve l’approche cybermétrique dans
des logiciels tels que Issuecrawler ou VOSON, qui fouillent méticuleusement (ou
« crawl ») les sites Web, identifient des liens et représentent ces relations sous la
forme de graphes de réseaux : ils en montrent ainsi les caractéristiques, y compris la
centralité ou la périphéralité d’un ou plusieurs acteurs. Elle peut également mettre en
évidence une stratégie en ligne, comme l’ont montré les graphes de réseaux publiés
par Issuecrawler suite à la campagne en ligne d’Obama en 20082. Le caractère
exceptionnel de la forme étoilée du réseau s’explique par la stratégie de mise en
relation par laquelle s’est illustrée la campagne d’Obama en 2008 (voir Figure 4).
Le cœur du réseau est formé par le site http://barackobama.com et ses sous-sites,
tels que http://latinos.barackobama.com, http://faith.barackobama.com et http://
students.barackobama.com. La périphérie est constituée en majeure partie par des
sites de réseaux sociaux consacrés à Obama, ainsi que par les pages du candidat

2 Voir également Foot and Schneider [2006] ; Krippendorff [2012].


Au-delà de la critique big data 27

sur LinkedIn, Facebook, Flickr, etc. Le réseau écarte par ailleurs d’autres sites et ne
fait donc pas état des campagnes – Web – populaires influencées par les nouveaux
médias, comme celle de Howard Dean en 2004, qui avait permis aux utilisateurs de
créer leurs propres histoires lors des rencontres ; il s’efforce davantage de montrer
une approche centralisée, concentrée sur le message à délivrer [Rogers, 2005].

Figure 4 : Graphique produit par Issuecrawler sur les interconnections entre les différents sites Internet
consacrés à Obama, 2008. Source : Issuecrawler.net, © Govcom.org Foundation, 2008, mentionné
dans Krippendorff, 2012

Les mesures alternatives d’impact ou altmetrics diffèrent de celles issues de la


scientométrie traditionnelle dans le sens où elles comptabilisent les citations des
ouvrages universitaires publiés non dans des revues mais sur les blogs, Twitter,
ou tout autre réseau social universitaire ou plate-forme de citation de type http://
28 Traces numériques et territoires

academia.edu ou Mendeley. La comptabilisation (et l’interprétation) de références


bibliographiques sur les réseaux sociaux participe d’une approche analytique plus
large de la matière substantielle et des responsabilités de la source sur une question
d’actualité ou un réseau idéologique, observé par exemple sur Facebook ou Twitter.

On peut prendre comme exemple les contenus les plus référencés sur Twitter (dans
ce cas précis, ceux qui renvoient le plus à des pages Web) par les fonctionnaires
hollandais rattachés à des ministères. Il s’avère que ces fonctionnaires tendent
naturellement à suivre les actualités, les hommes ou femmes politiques, ainsi que
les observateurs des nouveaux médias et de la vie politique, plutôt que de simples
citoyens (voir Figure 5). De plus, le sujet le plus référencé est l’utilisation, par les
fonctionnaires, des nouveaux médias et les actions et campagnes innovantes sur le
Web, ce qui signifie que le contenu partagé est avant toute chose auto-référentiel
et centré sur les médias plutôt qu’un sujet d’actualité.

Figure 5 : Réseau élargi des follow-followers des fonctionnaires ministériels hollandais, mars 2013.
Données recueillies par TCAT, DMI Amsterdam, et représentation graphique avec Gephi. Source :
Baetens et al., 2013

Comme nous l’avons déjà mentionné, pour certains, le terme « méthodes


numériques » couvre l’ensemble des technologies du tournant numérique que
nous avons décrites plus haut, ou des techniques de recherche considérées de
plus en plus comme « classiques » [Venturini, 2010]. Plus précisément, le terme
fait référence à l’adaptation, inimaginable dans un autre contexte, de dispositifs
et plates-formes réservés au Web (par exemple le moteur de recherche Google,
Facebook et Wikipédia) à la recherche en sciences politiques et sociales. Parmi
ces outils figure le développement du « Lippmannian Device », un Google Scraper
qui détecte les préférences ou les penchants d’un acteur en se fondant sur le type
Au-delà de la critique big data 29

de mot-clé mentionné (voir Figure 6). On peut alors, en parcourant plusieurs


sites Web sur les changements climatiques, effectuer une recherche par nom de
climato-sceptiques et ainsi trouver des acteurs qui soient acquis à la cause (sans
oublier les sites de veille qui les suivent ou les mentionnent). Dans ce cas, on a
préféré réorienter Google en véritable module destiné à la recherche, plutôt que
de l’utiliser, plus traditionnellement, en appareil conçu pour informer des clients

Figure 6 : Présence des climato-sceptiques sur les principaux sites consacrés aux changements
climatiques selon http://google.com, juillet 2007. Source : analyse à distance par Google Scraper dit
Lippmannian Device (dispositif Lippmanian), © Digital Methods Initiative, Amsterdam, 2007

.CONCLUSION

On ne peut pas considérer les méthodes numériques, dans leur application générale
ou dans celle, plus spécifique, de réorientation de dispositifs, comme de simples
boîtes à outils ou comme le mode d’emploi d’une série de logiciels ; les méthodes
numériques questionnent plus largement la manière de faire de la recherche en
ligne. Elles invitent à considérer ou à imaginer d’un point de vue sociologique les
opportunités de recherche qu’offre la culture en ligne, en se laissant guider par
le médium au lieu de le faire répondre à des ordres disciplinaires, conceptuels.
Prenons l’exemple, en guise de conclusion, de l’activisme politique. On pourrait
observer d’un œil critique la montée du slacktivisme ou du clicktivisme, cette
activité en ligne qui requiert (par un simple clic) un engagement minimum mais
donne pour autant l’impression d’avoir été utile à une cause. On pourrait, à
l’inverse, étudier dans quelle mesure aimer, partager et commenter un contenu
est une preuve d’engagement, et par là-même étudier, par exemple, autour de
quelles vidéos et quelles photos se rassemblent aujourd’hui les groupes et pages
anti-islamiques sur Facebook (voir Figure 7). L’étude de l’engagement s’inspire
ici d’un cadre analytique qui capte aussi bien les clics que les commentaires et qui
30 Traces numériques et territoires

identifie le contenu qui rassemble, ouvrant ainsi la porte à d’autres interprétations.


Il s’agit ici, dès la phase préliminaire, de s’appuyer sur les mesures d’activité du
médium, et de se demander ensuite quels enseignements peuvent en être tirés.

Figure 7 : Contenus les plus suivis sur les réseaux Facebook européens anti-djihadistes, janvier
2013. Tiré de « What does the Internet add? Studying extremism and counter-jihadism online »,
International Workshop and Data Sprint. © Digital Methods Initiative, Amsterdam, 2013

RÉFÉRENCES BIBLIOGRAPHIQUES
[Adobe, 2014] Adobe, 2014, « Adobe Analytics », http://www.adobe.com/solutions/digital-
analytics.html.
[Ackland, 2013] Ackland, R., 2013, Web Social Science: Concepts, Data and Tools for Social
Scientists in the Digital Age, London : Sage.
[Baetens et al., 2013] Baetens, T., Juetten, T., Maessen, J., Borra, E. et Rogers, R., 2013, De
Uitzondering op de Regel: Over Ambtenaren in de Openbaarheid, The Hague : Ministry
of Internal Affairs/Emma Communicatie.
[Berry, 2011] Berry, D. M., 2011, « The Computational Turn: Thinking About the Digital
Humanities », Culture Machine, 12, 1-22.
[Blood, 2002] Blood, R., 2002, « Introduction », In Rodzvilla J. (éd.), We’ve Got Blog: How Weblogs
Are Changing Our Culture, Cambridge, MA : Perseus, ix-xiii.
[Bollena et al., 2011] Bollena, J., Maoa, H. et Zengb, Z., 2011, « Twitter mood predicts the stock
market », Journal of Computational Science, 2(1), 1-8.
Au-delà de la critique big data 31

[Borgman, 2009] Borgman, C., 2009, « The Digital Future is Now: A Call to Action for the
Humanities », Digital Humanities Quarterly, 3(4), http://digitalhumanities.org/dhq/
vol/3/4/000077/000077.html.
[Borra et Weber, 2012] Borra, E. et Weber, I., 2012, « Political Insights: Exploring Partisanship in
Web Search Queries », First Monday, 17, http://firstmonday.org/ojs/index.php/
fm/article/view/4070/3272.
[boyd et Crawford, 2012] boyd, D. et Crawford, K., 2012, « Critical Questions for Big data:
Provocations for a Cultural, Technological, and Scholarly Phenomenon »,
Information, Communication & Society, 15, 662-679.
[CPID], 2015 Columbia Prediction of Infectious Disease (CPID), 2015, International Research
Institute for Climate and Society, New York : Columbia University, http://cpid.iri.
columbia.edu.
[Foot et Schneider, 2006] Foot, K. A. et Schneider, S. M., 2006, Web Campaigning, Cambridge,
MA : MIT Press.
[Graves et Kelly, 2010] Graves, L. et Kelly, J., 2010, « Confusion Online: Faulty Metrics and the
Future of Digital Journalism », Tow Center for Digital Journalism, New York :
Columbia University Graduation School of Journalism.
[Hansell, 2006] Hansell, S., 2006, 8 août, « AOL removes search data on vast group of web users »,
New York Times.
[Krippendorff, 2012]Krippendorff, K. H., 2012, Content Analysis: An Introduction to its Methodology,
London : Sage.
[Lazer et al., 2014] Lazer, D., Kennedy, R., King, G. et Vespignani, A., 2014, « The Parable of
Google Flu: Traps in Big data Analysis », Science, 343 (6176), 1203-1205.
[Lazer et al., 2009] Lazer, D., Pentland, A., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D.,
Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G.,
Macy, M., Roy, D. et Van Alstyne, M., 2009, « Computational social science »,
Science, 323(5915), 721-3.
[Latour, 1991] Latour, B., 1991, « Technology is society made durable », In Law, J. (éd.), A Sociology
of Monsters: Essays on Power, Technology and Domination, London : Routledge, pp 103-
131.
[Latour, 2004] Latour, B., 2004, Paris: Invisible City, http://www.bruno-latour.fr/virtual/EN/
index.html.
[Manovich, 2011] Manovich, L., 2011, « Trending: The Promises and the Challenges of Big Social
Data », http://www.manovich.net/DOCS/Manovich_trending_paper.pdf.
[Manovich, 2015] Manovich, L., 2015, « Analyzing Cultural Data », https://docs.google.com/
document/d/1DsAQUQ7paWimVQMNwXDO5Qgm7xnpeqv9HQdpn9E
Pwsg.
[Michel et al., 2011] Michel, J. B., Shen, Y. K., Aiden, A. P., Veres, A., Gray, M. K., Pickett, J.
P., Hoiberg, D., Clancy, D., Norvig, P., Orwant, J., Pinker, S., Nowak, M.A.
et Aiden, E. L., 2011, « Quantitative Analysis of Culture Using Millions of
Digitized Books », Science, 331, 176-182.
[Moretti, 2005] Moretti, F., 2005, Graphs, Maps, Trees, London : Verso.
[Moretti, 2000] Moretti, F., 2000, « Conjectures on World Literature », New Left Review, 1, 54-68.
32 Traces numériques et territoires

[Ohm, 2010] Ohm, P., 2010, « Broken Promises of Privacy: Responding to the Surprising
Failure of Anonymization », UCLA Law Review, 57, 1701.
[Parks, 2005] Parks, L., 2005, Cultures in Orbit, Durham : Duke University Press.
[Piper, 2013] Piper, A., 2013, « Reading’s Refrain: From Bibliography to Topology », ELH,
80(2), 373-99.
[Priem et al.,] 2010 Priem, J., Taraborelli, D., Groth, P. et Neylon, C., 2010, « Alt-metrics: a
manifesto », http://altmetrics.org/manifesto.
[Puschmann et Burgess, 2013] Puschmann, C. et Burgess, J., 2013, « The Politics of
Twitter Data », HIIG Discussion Paper Series, 2013-01, http://ssrn.com/
abstract=2206225.
[Richmond, 2011] Richmond, R., 2011, 27 septembre, « As “Like” Buttons Spread, So
Do Facebook’s Tentacles », New York Times, http://bits.blogs.nytimes.
com/2011/09/27/as-like-buttons-spread-so-do-facebooks-tentacles.
[Rochlin, 1997] Rochlin, G., 1997, Trapped in the Net, Princeton, NJ : Princeton University Press.
[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Rogers, 2009] Rogers, R., 2009, The End of the Virtual, Amsterdam : Amsterdam University
Press.
[Rogers, 2005] Rogers, R., 2005, « Old and New Media: Competition and Political Space »,
Theory and Event, 8, 2.
[Savage et Burrows, 2007] Savage, M. et Burrows, R., 2007, « The Coming Crisis of Empirical
Sociology », Sociology, 41, 885-899.
[Sullivan, 2010] Sullivan, D., 2010, « Why Google Can’t Count Results Properly, Search
Engine Land », http://searchengineland.com/why-google-cant-count-results-
properly-53559.
[de Solla Price, 1963] de Solla Price, D.J., 1963, Little Science, Big Science… and Beyond, New York :
Columbia University Press.
[Singhal et Cutts, 2011] Singhal, A. et Cutts, M., 2011, « Finding more high-quality sites in
search », http://googleblog.blogspot.nl/2011/02/finding-more-high-quality-
sites-in.html.
[Thelwall et al., 2005] Thelwall, M., Vaughan, L. et Björneborn, L., 2005, « Webometrics », In
Cronin, B. (éd.), Annual Review of Information Science and Technology, 39, Medford,
NJ : Information Today, 81-135.
[Turkey EJOLT Team, 2013] Turkey EJOLT Team, 2013, « Turkey’s Tree Revolution – part 2:
Everyday I’m chapulling* », EJOLT: Mapping Environmental Justice, http://www.
ejolt.org/2013/06/turkeys-tree-revolution-part-2-everyday-im-chapulling.
[Venturini, 2012] Venturini, T., 2012, « Building on Faults: How to Represent Controversies
with Digital Methods », Public Understanding of Science, 21, 796-812.

[Watts, 2007] Watts, D. J., 2007, « A Twenty-first Century Science », Nature, 445, 489.
Les méthodes d’interface
La renégociation des liens entre recherche numérique, STS et sociologie

Noortje Marres, Carolin Gerlitz


INTRODUCTION

John Law et ses co-auteurs [Law et al., 2011] soutiennent que les médias numériques
sociaux rendent possibles de nouveaux modes d’organisation, mais aussi d’analyse,
de la vie sociale. Les applications technologiques grand public de partage et
d’échange social en réseau, comme Facebook et Twitter, représentent des espaces
nouveaux où des données sociales sont produites, collectées et analysées [Beer et
Burrows, 2007]. Cependant, leur notoriété croissante dans la vie sociale entraîne
aussi des conséquences méthodologiques pour la recherche sociologique [Savage, 2009 ;
Rogers, 2013]. Pour ceux qui cherchent à tirer un parti empirique des plates-formes
des médias sociaux, il devient rapidement évident que celles-ci ne nous offrent
pas des données brutes, mais plutôt des informations mises en forme : les modes
d’organisation des données sur les médias sociaux tendent à favoriser grandement
certaines méthodes d’analyse fortement spécifiques, par exemple une enquête sur les
« réseaux » personnels, ou bien la « popularité » de certains mots à certaines époques
[Marres et Weltevrede, 2013 ; voir aussi Gitelman, 2013]. Les médias sociaux, en
offrant la capacité à des acteurs sociaux de collaborer dans des activités prédéfinies,
rendent les activités de ces derniers analysables. Par ailleurs, grâce à des formes de
données standardisées, ces médias sociaux offrent une fonction de médiation sociale
des activités, qui se prêtent à certaines formes d’analyse et pas à d’autres.

Certains des « biais méthodologiques » des médias sociaux sont assez évidents,
comme c’est le cas avec Facebook qui facilite explicitement des actions, comme se
faire « des amis » ou signaler que l’on « aime » telle ou telle chose (les like), et non
l’inimitié et la critique, ce qui, de ce fait, favorise une analyse des réseaux d’un type
particulier et très nettement partielle [Gerlitz et Helmond, 2012 ; Bucher, 2012].
Toutefois, dans le présent article, nous aimerions aborder des formes plus ambiguës
et plus fluides de « biais méthodologiques » dans la recherche sur les médias sociaux
et traiter éventuellement leurs plus larges implications en recherche pour les études
sociales. La recherche sur les médias sociaux pourrait mettre en cause les relations
entre les participants à la recherche, dont celles entre sujets et objets de recherche,
ainsi que les hiérarchies supposées des acteurs et actants en recherche sociale. Par
exemple, lorsqu’une analyse de réseau est menée avec Facebook, est-ce vraiment le
chercheur qui dans ce cas décide d’employer cette méthode, ou n’est-ce pas plutôt
la décision qui est informée par l’objet d’étude avec les outils et les métriques qui
lui sont associés ?
34 Traces numériques et territoires

Qui plus est, dans la mesure où ils soulèvent pareilles questions, les médias sociaux
nous incitent à étudier plus en détail les similitudes et différences entre les méthodes
sociales, qui sont pour ainsi dire intrinsèquement « implantées techniquement » dans
ces médias sociaux en ligne, et nos « propres » méthodes sociologiques [Beer, 2012 ;
Beer et Burrows, 2007 ; Marres, 2012]. Ainsi, pour aller dans le même ordre d’idée
que l’exemple que nous avons employé plus haut : quelle comparaison se dégage
entre les méthodes, les mesures et les techniques de l’analyse de réseaux mobilisées
par une entreprise technologique à finalités commerciales et nos méthodes
« académique » pour analyser les réseaux dits « sociotechniques » dans les travaux
de recherche sociale et culturelle [voir aussi sur ce point Langlois et Elmer, 2012] ?
Pareil questionnement pourrait passer pour servir à confirmer une distinction entre
« eux » et « nous », c’est-à-dire entre une recherche « à but lucratif » et une autre « à
but non lucratif », entre des formes d’analyse de données et de savoirs appliquées
et universitaires. Cependant, comme nous l’avons exposé dans d’autres travaux,
les pratiques en matière de médias sociaux peuvent s’entendre de manière égale
comme un lieu où les divisions du travail bien connues en sciences sociales sont
utilement exposées au questionnement [Marres, 2012 ; Rogers, 2009 ; Jirotka et al.,
2013 ; Wouters et al., 2012].

Dans le présent article, nous voudrions prendre en charge ce questionnement de


manière particulière. Ainsi que nous le proposons ici, la recherche qui utilise les
médias sociaux se focalise sur une variété de ressemblances et d’affinités méthodologiques,
qui rendent encore plus difficile la constitution de frontières nettes à l’intérieur
comme au-dessus du champ de la recherche sociologique. Cet article a pour
objectif d’identifier les tensions et les opportunités qu’ouvrent ces résonances
méthodologiques, et tente de les investir tout en militant pour un engagement
positif envers le caractère multiforme de ces méthodes et outils pour la recherche
sociologique, à savoir : le fait que les provenances, les buts et les intérêts de ces
méthodes puissent être multiples et impossibles à réduire. Donc, dans cette
contribution, nous nous intéressons à la fois aux similitudes et aux différences entre
les outils grand public en ligne qui s’offrent à l’analyse de données et certaines
des techniques et méthodes qui sont actuellement pratiquées en sciences sociales
[Beer, 2012 ; T. Venturini, 2010]. Pour étudier ces résonances, et déterminer
comment elles peuvent être investies pour les rendre productives en recherche
sociale, nous nous concentrerons sur une méthode et une approche particulière
s’appliquant à l’étude de la dynamique de l’information, pratiquée tant dans
le cadre de la recherche sociologique que dans d’autres formes de l’analyse de
données en ligne : la cartographie des enjeux (ou issue mapping).

La cartographie des enjeux peut avoir une définition assez minimale : l’utilisation
de techniques informatiques dans le but de repérer, analyser et visualiser des
mouvements publics de contestation sur des affaires d’actualité [Marres, 2015 ; Marres
Les méthodes d’interface 35

et Rogers, 2005]3. On peut qualifier cette approche comme étant intrinsèquement


disciplinaire, étant donné qu’elle a été reprise, qu’elle a fait l’objet de prolongements
et de développements dans les sciences sociales, en informatique, ainsi que dans
des domaines plus appliqués : la recherche engagée, le journalisme et le design
numériques. La montée en puissance des médias sociaux numériques a donné une
nouvelle impulsion aux travaux sur la cartographie des enjeux, et l’emprise élargie
de Facebook et de Twitter par différentes pratiques sociales et publiques a été
accompagnée d’un éventail grandissant d’outils logiciels faciles d’emploi destinés
à l’analyse et la visualisation de données en ligne, qui peuvent être améliorés pour
produire des cartographies d’enjeux [voir aussi sur ce point http://demoscience.
org ; Gerlitz et Helmond, 2012]. Ils comprennent des outils gratuitement accessibles
destinés à l’analyse et la visualisation en direct des données, comme entre autres
Infomous4 et MentionMapp5. Infomous détecte l’activité associée à des termes
spécifiques liés à une affaire contenue dans des flux médiatiques sélectionnés qu’il
visualise sous la forme de réseaux de bulles dynamiques et interactives, regroupant
en cluster les mots étroitement liés. Mentionmapp, application également gratuite,
visualise quels sont les utilisateurs associés à des hashtags précis. Trendmaps trace
une carte de géolocalisation des hashtags les plus fréquemment utilisés. Une des
caractéristiques de ces outils d’exploitations de données tient à ce qu’ils s’appuient
sur des traditions analytiques différentes et les « croisent ». Ainsi, d’un côté, ils mettent
en œuvre des mesures d’analyse de texte par ordinateur et, de l’autre, les mesures
qu’ils appliquent ne sont pas sans ressemblance avec les techniques de cartographie
des enjeux que la recherche socioculturelle élabore depuis les années 1980.

Plus loin, nous examinerons plus en détail ces outils ainsi que les techniques et
méthodes qu’ils mettent en œuvre, et ce dans le but de clarifier une problématique
relativement plus large : que faire de ces résonances méthodologiques entre les
procédés d’analyse numérique et les méthodes sociologiques ? Notre but doit-il être
de lever les ambiguïtés méthodologiques qu’elles suscitent et de faire la différence
entre, d’une part, les utilisations journalistiques et commerciales, dans la pratique
quotidienne et par les gouvernements et, d’autre part, les applications sociologiques
de ces outils ? Ou bien ces résonances elles-mêmes et leurs prétendues affinités
recèlent-elles quelque chose de productif ? Il y a quelque pertinence dans cette
dernière question, nous semble-t-il, car les outils d’exploitation de données qui sont
généralement disponibles sont de plus en plus utilisés dans les travaux de recherche
empiriques, et ceci nous porte à nous demander quelle est la spécificité de leur
application dans la recherche sociologique numérique [Beer, 2012]. Nous émettrons

3 On trouvera un aperçu présentant de récentes études de cas et des modes opératoires pour
réaliser des cartographies des enjeux sur le wiki http://www.issuemapping.net que nous avons créé
dans le cadre du projet Demonstrating the Relevance of Issue Mapping for Participatory Research (Démontrer
la pertinence de la cartographie des enjeux pour la recherche participative) financé par l’Economic
and Social Research Council (Conseil pour la recherche en sciences économiques et sociales).
4 http://infomous.com.
5 http://mentionmapp.com.
36 Traces numériques et territoires

la proposition qu’il existe des avantages décisifs à promouvoir l’ambivalence


signalée plus haut qui veut que les procédés d’analyse numérique soient à la fois
similaires et différents des méthodes sociologiques. Notre proposition s’articule autour
de l’idée centrale que les procédés numériques font appel à un troublant mystère
méthodologique (methodological uncanny) du point de vue de la recherche sociologique :
les outils que nous avons cités comportent de fortes similitudes avec les techniques
et méthodes déployées en sciences sociales, mais nous ne pouvons certainement
pas les considérer comme étant « nôtres ». Nous allons soutenir l’argumentation que
ce troublant mystère méthodologique ouvre la voie à une approche différente en
recherche sociale et culturelle dans le développement de méthodes, celles que nous
appelons les « méthodes d’interface ». Nous souhaiterions esquisser cette démarche
ici en exposant un projet d’élaboration méthodologique appliqué à la cartographie
d’enjeux en ligne, projet où nous avons employé une technique d’analyse textuelle
informatisée, une analyse dénommée « analyse des cooccurrences », utilisée pour
cartographier des enjeux à l’aide de Twitter.

L’ANALYSE DU « CONTENU ÉVENTIF»

Les récents débats autour des implications d’un recours au numérique en sciences
sociales se sont concentrés sur les méthodes, et des sociologues de différents
horizons ont souligné les affinités méthodologiques de diverses natures entre
les méthodes numériques, répondant à une définition large, et la recherche
sociologique [Beer et Burrows, 2007 ; Latour et al., 2012 ; Ruppert et al., 2013 ;
Rogers, 2013]. Certains de ces auteurs ont signalé que les méthodes actuellement
intégrées dans des outils professionnels et grand public d’analyse numérique
ne sont pas sans ressembler aux méthodes d’analyse textuelle et de réseaux sur
lesquelles les sociologues académiques se sont longtemps appuyés [Beer, 2012 ;
Marres, 2012]. Une fois confrontés à ces affinités apparentes, certains sociologues
ont mis l’accent sur les divergences entre les buts et objectifs des procédés analytiques
numériques par rapport à la recherche sociologique classique [Savage et Burrows,
2007]. Au moment où le débat sur la « destinée » des méthodes sociologiques
a cours, des discussions plus précises encore sont à mener sur des méthodes
spécifiques, là où culture numérique et sociologie se chevauchent, comme c’est le
cas de la cartographie des enjeux.

Par le terme de « cartographie des enjeux », nous renvoyons à un ensemble de


pratiques interdisciplinaires qui ont été élaborées aux frontières des études des
sciences et techniques, de la sociologie, du journalisme, de l’activisme, des sciences
politiques et de la visualisation de l’information, et qui déploient des méthodes
informatiques pour détecter, analyser et visualiser l’actualité [Rogers et Marres,
2000 ; Venturini, 2010]. En recherche sociale et en sciences politiques appliquées,
l’approche adoptée repose sur des pratiques de longue date de « cartographies
Les méthodes d’interface 37

de débats », par lesquelles des controverses ou « affaires d’actualité » sont


communiquées à des publics sous la forme d’une représentation graphique des
acteurs, des camps en présence et de leurs positions discursives (on trouvera des
discussions sur le blog Emaps6). En sciences politiques et sociales, la cartographie
des enjeux repose davantage sur l’analyse des controverses dans l’espace public :
une approche a été élaborée à la fois en sociologie politique [Chateauraynaud,
2009 ; Beck et Kropp, 2011] et dans le domaine des études sociales des sciences
et techniques [Latour, 2005 ; Callon et al., 2001 ; Collins et Pinch, 1998]. Dans
ce dernier domaine, les méthodes de cartographie des enjeux ont été ressenties
comme rendant possible une approche empirique et processuelle apte à étudier
la société, les techniques et la science dans leurs rapports avec la nature [pour un
exposé sur ce point, voir Marres, 2015]. Ce que ces débats nous indiquent, c’est
qu’en retraçant empiriquement la genèse et l’évolution de sujets de controverses
publiques, comme le changement climatique, les aliments génétiquement modifiés
ou les antennes de téléphonie mobile, nous pourrions nous faire une idée sur la
manière dont des entités sociales, scientifiques, techniques et environnementales
se trouvent imbriquées dans la pratique. Au cours des dix dernières années, on
a adopté comme instrument essentiel les méthodes numériques pour pousser
plus loin sur les plans méthodologiques et intellectuels les projets d’analyse de
controverse et de cartographie des enjeux, comme dans le cas des travaux pour
l’atelier sur la vie sociale des enjeux, ou Social Life of Issues [Marres et Rogers,
2000, 2005 ; voir aussi Eklof et Mager, 2013] et pour le projet de cartographie
des controverses Mapping Controversies [Latour, 2008 ; Venturini, 2010], ainsi que
dans les recherches dans le domaine de l’« analyse des enjeux » [Thelwall et al.,
2006]. Et une bonne partie de ces travaux numériques ont trouvé leur point de
départ déclaré dans ce qui est perçu comme des affinités spéciales entre les procédés
d’analyse numérique et les méthodes sociologiques.

Des chercheurs de spécialités différentes en STS, analyse informatique et


sociologie politique ont attiré l’attention sur une convergence particulière entre
méthodes sociologiques et méthodes numériques : l’analyse des enjeux ou le
« contenu éventif » (happening content). Peut-être de manière la plus visible, Bruno
Latour et ses collègues ont affirmé une forte ressemblance entre les ontologies
des médias numériques et celles de la théorie de l’acteur-réseau, une approche qui
d’après Bruno Latour permet aux sociologues d’utiliser les controverses, en les
approchant comme occasions pour décrire la composition de la société [Latour,
2005]. Dans de récents articles, ils ont avancé que la numérisation permet une
généralisation des méthodes de la théorie de l’acteur-réseau [Latour et al., 2012].
Comme dans le principe associationniste qui veut que les entités puissent se définir
par leurs relations à d’autres entités, les mesures de l’analyse de réseau figurent au
centre de cet argument par lequel Latour et ses collègues situent la convergence
entre plates-formes numériques et la théorie de l’acteur-réseau (ANT) : d’après

6 http://www.emapsproject.com/blog.
38 Traces numériques et territoires

eux, le principe associationniste est central à la fois pour l’architecture des plates-
formes numériques et pour l’ANT. A partir de là, Latour et al. déclarent qu’une
ontologie hétérogène et dynamique – une hypothèse centrale pour la théorie de
l’acteur-réseau tout comme pour l’analyse des controverses – fait désormais partie
intégrante de la « câblerie » de la Toile [Latour et al., 2012].

D’autres travaux qui cherchent à élaborer la cartographie des enjeux sous forme de
méthode numérique, auxquels nous avons participé pour certains, ont également
postulé qu’il y a une affinité entre méthodes numériques et sociales ; toutefois,
ces similarités générales que l’on perçoit offrent l’occasion d’établir des différences
plus spécifiques et pertinentes entre les méthodes sociologiques et les méthodes
numériques pour l’analyse du contenu dynamique [Marres et Rogers, 2001].
C’est ainsi que les méthodes informatiques d’analyse de citation et d’analyse du
discours qui ont été exploitées à partir des années 1980 en STS et scientométrie
présentent de remarquables similitudes avec les méthodes d’analyse d’hyperliens et
de linguistique computationnelle qui jouent un rôle central dans le fonctionnement
de plates-formes numériques telles que Google et Twitter [Scharnhorst et Wouters,
2006 ; Brin et Page, 1998]. Cependant, comme nous l’avons signalé dans notre
introduction, dans le même temps, il n’est pas très difficile de différencier les mesures
intégrées dans les plates-formes des grands médias numériques et les méthodes
sociologiques apparentées appliquées à l’étude des réseaux et du discours. Par
exemple, des outils comme Mentiomapp sont spécialisés dans la détection des
acteurs influents sur Twitter à un moment donné, alors que les méthodes d’analyse
de contenu développées en STS ont été élaborées précisément pour détecter des
enjeux qui n’avaient pas (encore) atteint une certaine popularité et dont la pertinence
émergeait à peine [Callon et al., 1983]. De plus, des outils comme Infomous et
Mentionmapp sont faits essentiellement pour détecter les termes qui sont les plus
activement employés dans l’instant présent, tandis que la recherche sociologique s’est
concentrée sur l’analyse longitudinale, notamment sur la façon dont les termes
et les catégories qui organisent le savoir changent avec le temps [Bowker et Star,
2000 ; Uprichard, 2011]. Pareilles différences entre la « logique » des grandes plates-
formes numériques et les méthodes de la recherche sociologique ont tout autant
inspiré les premiers travaux de l’un d’entre nous sur l’analyse en ligne des « réseaux
d’enjeux » [Marres et Rogers, 2000]. Alors que les grands moteurs de recherche
(à cette époque) définissaient la pertinence d’une source comme étant le nombre
de sources faisant autorité contenant un lien vers elle – ce que nous avons décrit à la
manière d’une « contemplation d’étoiles » – l’analyse des réseaux d’enjeux privilégiait
des associations thématiques entre sources sur la Toile – offrant ainsi une mesure de
pertinence spécifiquement thématique ou propre à un enjeu. Si nous généralisions
quelque peu, nous pourrions dire que les procédés d’analyse implantés dans les
plates-formes numériques ont tendance à soutenir des conceptions de la réputation
centrées sur l’acteur, alors que la STS ont pensé des pertinences centrées sur l’enjeu,
et leur opposent une autre perspective [Marres et Rogers, 2008].
Les méthodes d’interface 39

Toutefois, si reconnaître ces différences entre les méthodes numériques et celles


de la STS est important, cela pose certains problèmes en tant que point de départ
pour la recherche sociologique numérique. En quelques mots, nous risquons
pour finir d’essentialiser les différences entre « méthodes du médium » et, entre
guillemets, nos méthodes de recherche, selon des modalités ne permettant pas
d’apprécier suffisamment la faculté d’appropriation et l’instabilité des méthodes
numériques et sociologiques. C’est pourquoi nous voulons dans cet article étudier
une approche tierce par rapport aux méthodes ressemblantes présentes sur les
plates-formes numériques et par rapport à celles de la recherche sociologique, une
approche qui ne se fige pas tant sur une découverte des similitudes et différences
des méthodes numériques et sociologiques, mais qui consiste à reconnaître et
affirmer l’instabilité relative et l’indétermination des techniques numériques de la
recherche sociologique. Il n’est pas toujours clair, avant que l’on se lance dans un
projet de recherche numérique, quels peuvent être les buts analytiques auxquels les
outils numériques peuvent servir, avec quels objectifs de recherche ils sont en
phase ou quelles sont les finalités disciplinaires qu’ils incarnent. Par le passé, l’un
d’entre nous a qualifié les outils de recherche sociologique d’« instruments variées »
(multifarious instruments), c’est-à-dire qui présentent, potentiellement, la possibilité
d’être employés pour de multiples objectifs, ce dont il n’est pas toujours facile de
prendre conscience [Marres, 2012]. Harvey, Reeves et Ruppert [Harvey et al., 2013]
proposent que les dispositifs sociotechniques ne doivent pas être perçus comme
de simples gadgets, mais compris comme des « assemblages complexes et instables
qui rassemblent une diversité de personnes, d’objets et de concepts poursuivant
des fins, des buts et des objectifs particuliers » [voir aussi le manuscrit de Van der
Velden]. En conséquence, les outils numériques pourraient mettre en capacité,
ou « activer » une variété d’acteurs et actants différents dans des configurations
différentes, et ils pourraient servir à mettre en œuvre un éventail de formes de
recherche différentes, ainsi que des projets politiques et éthiques.

Les outils d’analyse du contenu en ligne, nous semble-t-il, pourraient bien tomber
dans cette catégorie d’instruments variés. S’il est certes possible d’identifier des
similitudes et des différences spécifiques entre ces outils et les techniques de
recherche sociologique, cela ne veut pas dire que nous puissions décider – une bonne
fois pour toutes – que leurs buts analytiques s’alignent ou pas. Cela va dépendre
également du contexte d’utilisation, et de leur déploiement particulier. Sous
réserve de quelques ajustements, il est possible d’adapter une approche combinée
comme celle de Mentionmapp pour pouvoir mobiliser une analyse longitudinale
[Uprichard, 2011]. En effet, une bonne partie du débat sur les méthodes numériques
en recherche sociologique sur les médias a mis l’accent sur la possibilité de recibler
les dispositifs numériques [Rogers, 2009]. Des sociologues ont attiré l’attention sur
le fait que les méthodes de recherche numériques sont elles-mêmes instables et
sous-déterminées, proposant des notions comme les méthodes plastiques [Lury,
2012], en temps réel, ou live [Back et Puwar, 2012]. La variabilité des fins, en outre,
40 Traces numériques et territoires

est une caractéristique qui peut être assignée aux plates-formes de médias sociaux
eux-mêmes, car les configurations de ces plates-formes changent fréquemment
et cherchent à satisfaire des acteurs divers, devant s’interfacer et négocier avec
une multiplicité d’intérêts émanant de groupes d’utilisateurs différents y compris
les publicistes, des acteurs de tierce maintenance et les développeurs de logiciels
[Langlois et Elmer, 2013]. Les plates-formes de médias sociaux tout comme les
méthodes peuvent dès lors être caractérisées comme étant « multivalentes » : elles
peuvent être utilisées pour une multiplicité de fins analytiques et normatives qui
ne sont pas nécessairement transparentes, ni devant être réalisées en même temps,
ni être accessibles à tous les acteurs concernés [Gerlitz, 2012 ; Marres, 2011]. Dans
le présent article, nous souhaiterions pousser plus loin ce débat sur le dynamisme
des médias et des méthodes numériques en émettant la proposition qu’il permet
une approche distincte pour élaborer une méthodologie en sociologie numérique, que
nous appelons « méthodes d’interface ». À ce stade, nous définissions les méthodes
d’interface comme étant des méthodes émergentes, que nous comme chercheurs
en sciences de la société et de la culture ne pouvons précisément dire nôtres, mais
qui rentrent suffisamment en résonance avec nos intérêts et avec les démarches
qui nous sont familières pour offrir un espace productif d’engagement empirique
avec des contextes élargis, des pratiques, et des appareils7 techniques de recherche.
Toutefois, plutôt que nous lancer dans un développement sur une définition
générale des méthodes d’interface, nous souhaiterions en rendre compte par des
moyens empiriques en décrivant un projet de recherche numérique dans lequel
nous avons appliqué d’un point de vue critique et créatif une méthode d’interface
précise : l’analyse de cooccurrences.

LA COOCCURRENCE EN TANT QUE MÉTHODE D’INTERFACE

Revenons aux outils en ligne d’analyse de données cités plus haut et abordons
leur « troublant mystère méthodologique » (methodological uncanny) plus en détail.
Les outils en ligne pour l’analyse de données en temps réel comme Infomous,
proposons-nous, accomplissent des tâches grosso modo similaires à certaines
études connues en sociologie de la connaissance et de l’innovation : ils cherchent
à détecter ce que sont les enjeux actifs (happening issues) en analysant les relations
changeantes entre mots dans le contenu en direct telles qu’elles apparaissent sur
des plates-formes médiatiques particulières. Donnons un autre exemple : Twitter
Streamgraph est un autre outil logiciel gratuit disponible en ligne qui permet
l’analyse et la visualisation des données Twitter, soi-disant en temps réel. Si l’on

7 Ce terme tire en partie son origine des travaux de Lucy Suchman [2005], de Celia Lury [2004] et
d’Alexander Galloway [2012], lesquels ont tous attiré l’attention sur les interfaces en tant qu’espaces
cruciaux où se négocient les divisions épistémiques du travail. Formant un entre deux, les interfaces
rendent possibles une dynamique de la multivalence, où des outils, des données et des méthodes
peuvent être reliées de différentes manières, et ce pour autoriser différents objectifs analytiques et
normatifs.
Les méthodes d’interface 41

tape « climate change » (changement climatique), l’outil Streamgraph va nous


donner une courbe de l’activité associée à ce terme sur Twitter sur une période
de temps donnée, littéralement visualisée sous la forme d’un flux, qui montre les
mots-clés avec leur fréquence qui sont associés au terme recherché « climate change »
(voir Figure 1).

Figure 1 : Courbe de Twitter Streamgraph pour le mot-clé climate change

Twitter Streamgraph, à l’instar d’Infomous, mesure ensuite la cooccurrence des termes


en temps réel, détectant ceux qui ressortent le plus en même temps dans un flux
de médias sélectionné, ici Twitter, et montrant comment les relations entre termes
évoluent avec le temps. Dans Infomous, lorsqu’un plus grand nombre de termes
est relié de manière significative, un cluster prend forme et dans Streamgraph le
flux s’élargit quand plusieurs mots surgissent simultanément. En appliquant cette
mesure de la cooccurrence pour détecter « ce qui se passe » ces outils ressemblent
à une méthode dont la STS s’est fait la championne, et plus particulièrement la
théorie de l’acteur-réseau, à savoir l’analyse de cooccurrence de termes (co-word analysis).
Cette méthode a été élaborée dans les années 1980 par le sociologue des sciences,
technologies et société Michel Callon et ses collègues, pour détecter les sujets
émergents et innovants dans la littérature scientifique [Callon et al., 1983 ; voir
aussi Danowski, 2009 ; Marres, 2012]. L’analyse de cooccurrence de termes a été
élaborée à partir d’une mesure d’analyse textuelle plus simple, « cooccurrence »,
qui détecte les mots qui apparaissent conjointement (habituellement dans la même
phrase) à l’intérieur d’un texte donné. La « co-word » détecte les couples de mots –
c’est-à-dire les mots qui apparaissent dans le voisinage des uns et des autres – et
affectent une valeur à la relation entre ces mots qui s’appuie sur la distance qui
les sépare, disons une distance de 3, 4 ou 5 mots. Elle procède ensuite à une
pondération des relations entre termes en leur attribuant des valeurs exprimant
à la fois la proximité de la cooccurrence et le nombre de relations [Callon et al.,
1983 ; Danowski, 2009]. Callon et ses collègues se sont faits les promoteurs de cette
42 Traces numériques et territoires

méthode, moyen de détecter l’apparition de sujets émergents, également appelée


« poches d’innovation » (en anglais pockets of innovation) dans un corpus de textes.
L’analyse de cooccurrence de termes, si l’on en croit les arguments développés à
l’époque, rend possible la détection de changements dans des associations de sujets
dans le temps sans être obligé de s’appuyer sur des catégories préalablement définies, et sur leurs
critères implicites de pertinence. Elle y parvenait en adaptant les textes à l’analyse de
réseau, où ce faisant les associations de mots apparaissant empiriquement parmi
des mots figurant dans un ensemble de données déterminé, produisaient un critère
immanent de pertinence. (On peut aussi retrouver cette préoccupation de tracer
ces associations permettant une forme immanente d’analyse par la suite dans les
développements de la théorie de l’acteur-réseau).

Dans un certain sens, en appliquant des mesures de cooccurrence pour analyser du


contenu en temps réel, les outils en ligne d’analyse de données comme Infomous
ou Streamgraph offrent une méthode qui ne diffère guère de la méthode par
cooccurrence de termes développée dans les années 1980 : dans les deux cas, le
but est de détecter des « sujets occurrents » en analysant les relations entre termes et
leurs changements dans le temps [voir aussi Marres et Weltevrede, 2013]. Toutefois,
à regarder de plus près les mesures mises en œuvre dans les outils en ligne, les
similitudes qu’elles présentent avec les méthodes sociologiques commencent à
paraître plus discutables. En effet, les outils de mesure de données en ligne ne
traitent que la fréquence de mots cooccurrents et non la force de leur relation.
Cette spécialisation sur la fréquence n’est pas comparable à l’analyse de cooccurrence
de termes, qui détecte également les variations dans la force des relations entre
mots (en fonction de leur proximité spatiale). L’analyse de cooccurrence n’est
pas identique à l’analyse de cooccurrence de termes. On peut, certes, faire une
distinction nette entre les outils d’analyse de données en ligne et les méthodes
de recherche sociologique, les mettant chacun à sa propre place. Toutefois,
nous voulons souligner le fait que la résonance entre méthodes sociologiques
et techniques d’analyse numérique ouvre une zone d’indétermination, où nous
pouvons réinterroger les caractéristiques et les capacités de ces méthodes sur un
nouveau terrain. Les méthodes d’analyse numérique nous offrent l’occasion de
repenser le statut de nos « propres » méthodes qui ont été développées en recherche
sociologique et en STS, à savoir : celui de l’analyse de cooccurrence de termes.

A première vue, celle-ci peut paraître comme une méthode sociologique


robuste. Comme déjà indiqué, l’analyse de cooccurrence de termes incorpore
une forme rudimentaire du principe qui sera plus tard au cœur de ce que l’on
appellera la « théorie de l’acteur-réseau » qui s’applique à discerner les relations
changeantes entre entités hétérogènes [Latour, 2005]. Toutefois, ce type d’analyse
n’est pas, après tout, la « propriété » de la sociologie ou encore de la STS. Une
étude plus large de la littérature sur cette méthode informatique montre qu’elle
a été aujourd’hui reprise dans des domaines aussi divers que la scientométrie,
l’ingénierie logicielle ou les sciences de la communication [Coulter et al., 1998 ;
Les méthodes d’interface 43

Danowski, 2009]. Cette littérature sur l’analyse de cooccurrence de termes tend


à établir que cette méthode proviendrait des sciences de l’innovation ou de la
scientométrie. Pour l’heure, ce qui nous paraît d’une importance capitale, c’est
que ce qui se passe pour nos propres méthodes se rattache moins solidement
à nos traditions savantes habituelles. Les outils d’analyse de données en ligne
invoquent une trouble méthodologique : elles entrent en résonance avec des méthodes que
nous connaissons, mais elles nous rappellent également qu’elles ne sont pas les nôtres. Les outils
d’analyse de données mettent en lumière la polyvalence des méthodes sociales.

Toutefois, lorsque l’on compare les techniques numériques et les méthodes


sociales, il ne suffit pas de prendre en compte les caractéristiques formelles des
mesures analytiques seulement. Si l’on veut déterminer les capacités offertes par ces
techniques, il nous faut aussi examiner leurs contextes d’application, les différentes
questions, préoccupations et aspirations auxquelles ils font appel et les modes de
valorisation qu’ils permettent. Comme le discutent Marres et Weltevrede [2013], les
outils d’analyse de données en ligne comme Infomous et Streamgraph s’appliquent
dans un contexte très spécifique : ils s’inscrivent dans une infrastructure en constante
évolution qui instaure la Toile en temps réel, et plus largement des « cultures de
l’actualisation » (update cultures), où il est constamment nécessaire d’être informé « de
ce qui se passe, là, maintenant ». Les outils sont impliqués dans la valorisation du
contenu et de son « instantanéité » : prenant part à une économie numérique plus
large investie dans des analyses en temps réel [Back et Puwar, 2012], ces outils attirent
l’attention sur des sujets qui surgissent « dans l’instant ». Dans ce cas, la valeur se
situe dans la détection de variations instantanées au moment même de l’événement.
Le contexte analytique où l’on a voulu faire intervenir l’analyse de cooccurrence de
termes dans les années 1980 n’était pas le même : cette méthode avait été conçue
pour identifier ce que Callon et ses collègues appelaient la « dynamique de la
problématisation » ou les « poches d’innovation » [Callon et al., 1983]. Plutôt que de
se concentrer sur les tendances que l’on peut dénombrer instantanément, le but était
de détecter l’émergence de problématiques de recherche et de sujets à l’intersection
des catégories disciplinaires, autrement dit des innovations échappant à la détection
dans les formes alors prédominantes d’analyse scientométrique, comme l’analyse de
citations, qui selon Callon et al. tendaient à respecter la classification disciplinaire de
la recherche scientifique : les sujets qui apparaissaient aux frontières entre plusieurs
disciplines n’étaient pas prêts d’être repérés comme particulièrement pertinents tant
que des cadres disciplinaires fournissaient le schéma de référence pour valoriser
l’innovation, comme c’était le cas avec l’analyse de citations.

Ces différences de contexte peuvent servir à rendre compte des mises en œuvre
divergentes de l’analyse de cooccurrence entre l’analyse numérique et la sociologie de
l’innovation classique : la fréquence de cooccurrence semble constituer un indicateur
adéquat si l’on a pour but de découvrir ce qui est en train de faire l’actualité, alors
que la détection des « zones de problématisation » nécessite une identification à la
granularité plus fine des termes qui entrent plus exactement en relation suivant
44 Traces numériques et territoires

des modalités nouvelles dans des domaines donnés de la recherche scientifique.


Toutefois, pareilles restitutions contextuelles des techniques numériques suggèrent
aussi que ces techniques ne sont pas nécessairement « transparentes ». Alors que
des outils comme Infomous et Twitter Streamgraph sont relativement simples
d’un certain point de vue (en effet, lors de la présentation des présents travaux, des
statisticiens dans l’assistance ont fait remarquer à plusieurs reprises que ces mesures
étaient « basiques »8), ils font en même temps partie d’un complexe de pratiques
analytiques en émergence qui, elles, ne sont pas nécessairement simples. Dans leur
application particulière de l’analyse de cooccurrences, les outils d’analyse de données
en ligne dotent les pratiques de détection de ce qui fait l’actualité et, en cela, ils
participent de la valorisation du « temps réel » (liveness) [Lury, 2012 ; Lury et Wakeford,
2012] : quel est le mot qui apparaît le plus souvent dans les tweets, quel est l’article de
presse qui reçoit le plus de liens ou qui est le plus relayé de tweet en tweet, quel est
l’acteur le plus souvent cité ? Cette orientation se traduit par une économie politique
de l’information distincte, où la valeur est le résultat d’une propagation rapide
et momentanée avec laquelle des termes se diffusent dans un présent immédiat
[Bucher, 2012 ; Back et Puwar, 2012 ; Hansen et al., 2011]. De ce fait, il semble naïf
de définir les outils d’analyse et de visualisation de données en ligne purement par
rapport aux mesures qu’ils appliquent. Le contexte de cette mise en œuvre détermine
au moins aussi fortement la « méthode » que les mesures appliquées.

Dans ce cas, nous n’avons pas affaire à des mesures « dans leur nudité » : les outils
d’analyse de données façonnent la pratique analytique. Les utilisateurs sont-ils en
mesure de délimiter les jeux de données ou est-ce que c’est l’outil qui le fait pour
eux ? Lorsque nous recherchons des mots-clés dans un flux médiatique donné,
dans quelle mesure cela limite les questions que nous pouvons nous poser [boyd
et Crawford, 2012] ? Les outils d’analyse de données participent activement à la
configuration des pratiques analytiques, ce qui à son tour permet de concrétiser des
régimes de valorisation. Pour cette raison, les méthodes numériques peuvent être qualifiées de
méthodes intéressées ou « épaisses » (en anglais thick) : elles constituent des propositions
qui suggèrent des manières particulières de doter, organiser et valoriser les pratiques
et les connaissances. Alors que les mesures intégrées dans les outils d’analyse de
données en ligne sont, dans un certain sens, bel et bien « minces » (en anglais thin),
l’appareil sociotechnique qu’ils permettent (la détection de ce qui est d’actualité –
et gratuitement !) est, pour ainsi dire, bien plus « épais », car il intègre l’analyse de
données en direct dans les pratiques numériques, et en tant que tel permet de mettre
en place des sociétés de l’information qui sont orientée vers le temps réel. C’est
pourquoi nous aimerions penser la cooccurrence, ou du moins sa mise en œuvre
dans les outils d’analyse de données en ligne, comme étant une méthode fortement
intéressée9.

8 A nos yeux, ceci a mis en lumière de manière intéressante les obstacles qui compliquent la prise
en compte, la négociation et la remise en cause d’hypothèse ontologique de recherche numérique :
ces hypothèses sont considérées comme trop « basiques » pour justifier une interrogation détaillée.
9 Le terme de « méthode intéressée » nous a été suggéré par Kristin Asdal lors d’une communication
personnelle.
Les méthodes d’interface 45

Ces premiers examens de l’analyse de cooccurrence de termes employée comme


méthode et comme technique d’étude du « contenu éventif » (happening content)
soulèvent une question particulièrement sensible : pouvons-nous envisager un appareil
numérique destiné à l’analyse de « contenu éventif » qui promeut d’autres objectifs
que ceux poursuivis par l’analyse numérique orientée vers le moment en cours ?
Pouvons-nous imaginer une mise en œuvre dans la recherche sociale numérique qui
permettrait une détection de la pertinence ? Nous avons dis que l’analyse numérique
implique bien plus que la seule mise en œuvre de mesures analytiques, mais celles-
ci nous apparaissent néanmoins comme un site particulièrement fructueux pour
l’exploration de configurations alternatives de l’analyse du « contenu éventif ». Nous
aimerions, dès lors, aborder les mesures numériques comme ouvrant des espaces
d’engagement critiques et créatifs avec un appareil analytique plus large en devenir.
Nous aimerions traiter les méthodes en ligne d’analyse de cooccurrence de termes
comme des interfaces. Aborder l’analyse de cooccurrence de termes comme étant
une interface se traduit en un cahier des charges particulier pour le développement
des méthodes sociales en ligne. En s’appuyant sur les préoccupations qui ont
informé le développement de l’analyse de cooccurrence de termes, la question que
nous posons est la suivante : est-il possible de déployer une analyse de cooccurrence
de termes pour détecter pas seulement ce qui se passe en temps réel, mais ce qui
prend vie, pour mettre en lumière non pas les termes qui deviennent courants,
mais ceux qui sont en train de s’activer, ou leur vivacité (ou liveliness) [Marres et
Weltevrede, 2013] ? Nous en dirons davantage sur ce qui distingue ce qui est courant
de ce qui prend vie, mais nous voudrions souligner le fait que ce cahier des charges
de l’expérimentation méthodologique se forme à partir de notre engagement et
de nos préoccupations sur le contexte et les buts de l’analyse numérique, et des
intérêts et des objectifs qui informent l’élaboration à plus large échelle de l’appareil
sociotechnique de la recherche numérique.

Le fait d’aborder l’analyse de cooccurrence de termes comme une méthode


d’interface consiste alors à traiter notre mise en œuvre de cette méthode sociale
informatisée comme une occasion de s’engager, de manière critique et créative,
avec de méthodes similaires qui sont déployées à une échelle plus large de la culture
numérique. Dans ce cas, les méthodes d’interface s’inspirent, tout en divergeant,
de l’approche des méthodes numériques définies par Rogers [Rogers, 2013] : si
cette approche a bel et bien pour but de réorienter les méthodes « nativement
numériques », nous cherchons pour notre part à nous engager, dans une manière à
la fois critique et créative, avec la remédiation des méthodes sociologiques dans la
culture numérique. Autrement dit, nous voulons souligner le caractère incertain, la
multiplicité de provenances des méthodes sociales et cultures numériques, dans les
deux cas au moment où elles trouvent leur application dans la culture numérique
et dans la recherche universitaire sociologique et culturelle. Nous voulons profiter
46 Traces numériques et territoires

de cette ambivalence méthodologique à des fins de recherche sociologique10. Cependant,


avant d’aller plus loin dans la description de notre tactique méthodologique, nous
souhaitons présenter certains des premiers résultats de notre tentative de mettre en
application le cahier des charges évoqué plus haut et de pratiquer en ligne l’analyse de
cooccurrence de termes.

LE CHANGEMENT CLIMATIQUE SUR TWITTER

Dans notre expérimentation méthodologique, donc, nous cherchons à mettre


en œuvre l’analyse de cooccurrence de termes comme méthode analytique
appliquée au « contenu éventif » (happening content) en ligne. De la sorte, nous nous
engageons dans une utilisation, à la fois critique et créative, des outils et des mesures
appliquées à l’analyse de contenu en ligne qui sont disponibles sur la Toile et qui
concernent principalement le phénomène d’actualité. Nous tentons de dépasser une
opérationnalisation, couramment répandue, mais restrictive, du concept de « contenu
éventif ». Nous voudrions élaborer une technique permettant de détecter la vivacité
(liveliness) plutôt que l’actualité, c’est-à-dire déterminer non quels termes deviennent
populaires mais ceux qui s’activent, vus sous l’angle des relations changeantes qu’ils
nouent avec d’autres termes dans le temps. Bien sûr, notre ambition est précaire,
car la dynamique des enjeux se conçoit depuis longtemps comme « l’ascension et le
déclin » de mots-clés dans les contenu des médias [Downs, 1972], et il serait absurde
de notre part de penser que cette « dimension verticale » de l’activité des enjeux
(des augmentations et des diminutions de leur fréquence de mention) pourrait
d’une certaine façon perdre en pertinence. Ce que nous recherchons, donc, c’est
de formuler des mesures pour la détection de dynamiques d’enjeux sur les médias
en ligne qui combinent des figures « proportionnelles » de pensée et de mesure à
d’autres mesures « associationnistes », ce qui définit la pertinence en s’appuyant sur
la formation de relations entre termes précédemment non reliées.

Pour développer et tester notre technique, nous décidons de nous en tenir aux
données de Twitter. Ces dernières sont relativement faciles à obtenir en passant les
APIs de Twitter. Pour capter et analyser les tweets, nous avons utilisé TCAT (Twitter
Capture and Analysis Toolkit) développé par le Digital Methods Group de l’Université
d’Amsterdam11. Notre but étant d’appliquer une analyse de cooccurrence de termes
en recherche numérique, nous nous concentrons sur les mots, mots-clés et hashtags,

10 Notons qu’il est également possible de faire une analyse dite de « cooccurrence de termes »
avec des données en ligne sans trop se préoccuper de l’application couramment répandue d’outils
similaires en ligne. En d’autres termes, on peut également « numériser » cette méthode et, par exemple,
les en-têtes de blogs de la même manière que l’on analysait les résumés d’articles scientifiques par
le passé [Hellsten et Elefteria, 2012].
11 DMI-TCAT est développé par Erik Borra et Bernhard Rieder. Les scripts de capture de flux sont
disponibles sur https://github.com/bernorieder/twitterstreamcapture.
Les méthodes d’interface 47

plutôt que d’autres objets Twitter, tels que les URLs et les noms d’utilisateurs. Les
données Twitter conviennent pour une analyse de cooccurrence de termes, parce
que le tweet limité à 140 caractères offre une unité de données exploitable où il est
possible de détecter des relations de cooccurrence. Comme indiqué par Callon et al.
[Callon et al., 1983], l’analyse de cooccurrence de termes fonctionne particulièrement
bien sur des fragments relativement courts d’informations mises en forme, comme
les résumés d’articles scientifiques, ce type d’information étant déjà structuré pour
démontrer une pertinence. Toutefois, notre première décision de nous appuyer sur
cette démarcation classique de l’unité de données – le tweet – où nous pourrions
déterminer les relations de cooccurrence n’est pas sans conséquence. Par exemple,
cela veut dire que nous écartons, au moins au départ, la possibilité de spécifier en
outre la « force » de la relation de cooccurrence à l’intérieur de chaque tweet, comme
l’avaient initialement formulé Callon et al.

Pour faire notre analyse de « contenu éventif » (happening content), nous décidons
de nous concentrer sur un terme relevant d’un enjeu assez général, à savoir le
« changement climatique » (ici, climate change), et d’inclure dans notre ensemble de
données tous les tweets utilisant ce terme sur une période de près de trois mois,
du 1er mars au 15 juin 2012, colligeant 204 795 messages de ce type au total,
soit un ensemble de données d’une taille largement exploitable. Nous avons mis
l’accent sur ce thème très général parce qu’il nous était familier à la suite de travaux
précédents sur la cartographie d’enjeux en ligne [Rogers et Marres, 2000 ; Niederer,
2009]. Lors de différents ateliers à Londres et à Amsterdam12, nous avons effectué
des études pilotes avec divers mots-clés d’une granularité plus fine (comme le style
de vie durable et l’action climatique : sustainable living et climate action) et à différents
intervalles, mais il semble qu’il faille un thème d’un enjeu relativement large et un
nombre suffisant d’intervalles de temps pour capter des variations thématiques que
l’on puisse interpréter. Une fois délimité notre ensemble de données, nous nous
sommes posé la question : sur quels termes nous concentrer ? Notre discussion
sur les différents critères de sélection initiaux possibles démontre à quel point
la conception proportionnelle de la pertinence est enracinée dans les pratiques
médiatiques en ligne : pour sélectionner nos « mots-cibles », nous nous sommes
d’abord portés sur les mots-clés des listes de 5, 10 et 20 premiers obtenus par
analyse de fréquence. Nous avons ensuite décidé de tester une mesure alternative,
à savoir l’analyse de cooccurrence, en nous interrogeant sur la différence que cela
engendrerait si au lieu d’étudier avec quelle fréquence un mot est cité dans Twitter,
nous nous intéressions à comment il est relié à d’autres mots. Avant de répondre à
cette question, cependant, nous devions nous attaquer à un problème tout aussi
épineux : nous concentrons-nous sur les mots ou les hashtags (les mots précédés
d’un signe dièse [#]) ? Notre but plus général étant de procéder à des analyses

12 Ceux-ci comprenaient les ateliers Issue Mapping Online et Co-Word Machine qui se sont tenus à
Goldsmiths College à l’Université de Londres en mai 2012, tous deux financés par le programme
Digital Social Research Programme du ESRC, ainsi que la Digital Methods Summer School organisée
à l’Université d’Amsterdam en juillet 2012.
48 Traces numériques et territoires

de contenu ou d’enjeux, il serait surement préférable de s’intéresser au véritable


contenu, c’est-à-dire les mots, plutôt que les hashtags, qui fonctionnent comme des
mots-clés et qui sont généralement utilisés pour identifier des sujets, démarquer
des conversations et rendre recherchables les tweets portant un hashtag [Bruns
et Stieglitz, 2012]. Les hashtags sont des termes généraux, voire généralisateurs,
et en tant que tels ne semblent pas être les mots les plus intéressants lorsqu’on
doit identifier ce qui fait sujet d’enjeu sur le plan du contenu plutôt que sur le plan
d’une classification « disciplinaire » ou « publicitaire ». Toutefois, des considérations
touchant à la logistique informatique sont entrées en ligne de compte : exécuter
une analyse de cooccurrence de mots (au lieu des hashtags) sur notre corpus sur le
changement climatique aux premières étapes de notre projet aurait pris des heures.
Depuis lors, ce problème a été résolu grâce à de nouveaux ordinateurs, mais à
l’époque ce point a grandement simplifié notre choix : c’était sur la cooccurrence de
hashtags, et non des mots, que nous allions porter notre attention.

Figure 2 : Hit-parade des hashtags mesurés en fréquence de citation de termes (à gauche) et les liaisons
de cooccurrence (à droite) mesurées sur 6 intervalles hebdomadaires. Echantillon : le changement clima-
tique (climate change) sur Twitter

La Figure 2 montre le classement des hashtags mesurés en fonction de la fréquence


du mot (à gauche) et selon leurs liaisons de cooccurrence de termes (à droite), et
comment ceux-ci ont changé d’un intervalle à l’autre13. La colonne sur la gauche
montre les hashtags qui sont les plus souvent cités dans notre ensemble des données

13 Pour la fréquence comme la cooccurrence, nous avons commencé par calculer le classement
global des termes (tous intervalles confondus) avant de calculer l’occurrence par intervalle. Nous
Les méthodes d’interface 49

pour chaque intervalle, et comment cet ensemble de hashtags les plus populaires
change avec le temps. La colonne de droite montre les hashtags qui y apparaissent
le plus souvent tout en étant associés à d’autres hashtags également présents dans
notre ensemble des données pour chaque intervalle14. Ces résultats divergent très
sensiblement, car les mesures de fréquence et celles de cooccurrence de termes
font ressortir des résultats différents des hitparades de hashtags provenant de notre
ensemble des données. Dans la colonne des fréquences, des hashtags renvoient à
des institutions ou des manifestations, comme #cop16 ou #auspol, tout comme
d’autres correspondent à des campagnes comme #savethearctic. Là où on applique
la cooccurrence de termes, des hashtags formés de substantifs sont davantage mis
en avant, dont #economics, #flood, #co2, #health. La figure rend aussi compte la
différence entre l’actualité et la vivacité des enjeux. Les hashtags qui sont globalement
fréquents sont davantage exposés à des dynamiques, en quelque sorte, de battage :
ils apparaissent rapidement, atteignent de fortes fréquences grâce à des activités de
retweet de courte durée, puis disparaissent, comme c’est le cas de #cleancloud et
#newbedon. Les hashtags aux fréquences les plus élevées sont spécifiquement internes à
Twitter, puisqu’on y trouve des termes comme #qanda (question & answer : « questions-
réponses ») or #newbedon15, bien que l’analyse de cooccurrence de termes fasse
bel et bien ressortir #dt (donated tweet, ou « don en tweet »). Les mots qui jouissent
de bonnes cooccurrences ont plus de chance de survivre d’un intervalle à l’autre,
ce qui en montre l’endurance, ce sont : #environment, #tcot (topconservatives,
ou archiconservateurs), et #drought (sécheresse). D’un point de vue empirique, la
figure apporte, au départ, de l’eau à notre moulin pour affirmer que les mesures
proportionnelles (la fréquence) sont plus susceptibles de diriger notre attention vers
des dynamiques propres au médium (feu de paille ou bursting, battage ou hyping), alors
que les mesures relationnelles (la liaison) permettent davantage de faire ressortir au
premier plan des dynamiques propres à l’enjeu. Cela veut dire que le choix de la
mesure peut orienter l’analyse davantage en direction d’une « étude de la dynamique
du médium » ou vers une « étude de la dynamique de l’enjeu », bien que l’une comme
l’autre feront les deux [voir sur ce point : Marres, 2015]. Toutefois, lorsqu’il s’agit de
détecter la vivacité d’enjeux, cette première figure laisse une question importante
sans réponse : elle donne une indication du nombre de liaisons de cooccurrence
pour un hashtag donné, mais ne nous dit rien sur la variation des liaisons, c’est-à-dire
les modalités d’évolutions des mots associés à ces hashtags.

avons exclu les termes de requête « climate change », « climate » et « change », ceux-ci n’apportant rien à
notre analyse.
14 Nous avons employé précisément la mesure de du « degré moyen pondéré », c’est-à-dire le degré
pondéré de liaisons entre un hashtag et d’autres hashtags.
15 Concernant newbedon, son apparition semble être indicative d’un phénomène propre à Twitter :
ce terme fait référence à des personnalités de l’opposition dans les Emirats Arabes Unis qui se sont
vus dépossédés de leur nationalité, et ce hashtag a été utilisé à des fins de sensibilisation. Ce hashtag
doit avoir été kidnappé, peut-être par des spammers.
50 Traces numériques et territoires

COMMENT DÉTECTER LA VITALITÉ ?

Pour résumer brièvement ce que nous avons établi jusqu’ici, trois points nous
semblent particulièrement importants. Premièrement, la traduction opérationnelle
de l’analyse de cooccurrence de termes pour analyser des données sur Twitter :
celle-ci nous a certes permis d’affirmer et de problématiser la distinction entre des
mesures proportionnelles (de la fréquence) et relationnelles (des cooccurrences)
de la pertinence. En traitant nos données avec ces mesures, nous avons trouvé
différentes façons dont l’intérêt pour la fréquence se trouve intégré aux pratiques
des médias numériques. Cela ne représente pas seulement une caractéristique des
outils prédominants d’analyse des données. Ainsi, l’importance des retweets nous
a rappelé combien la « fréquence de la mention » est recherchée activement – et
produite – dans le cadre d’une tactique publicitaire sur Twitter : retweeter est une
technique pour que des messages soient repris par le système. Deuxième point :
dans l’opérationnalisation de l’analyse de cooccurrence de termes pour la recherche
en ligne, notre propre démarche est influencée par son contexte d’application.
En appliquant concrètement en ligne l’analyse de cooccurrence de termes, notre
démarche a fini par intégrer certains des « présupposés du médium ». En effet, en
adoptant le tweet comme une unité significative d’analyse, nous avons aussi opté
pour la mesure de la cooccurrence plutôt que pour l’analyse de la cooccurrence
de mots. Notre outil de cooccurrence de terme définit une relation entre « co-
hashtags » comme étant l’occurrence de deux hashtags dans le même tweet, et
cette approche nous dispense efficacement de mesurer la relation de force relative
des liens comme le préconise Callon – la proximité relative entre mots – une
caractéristique primordiale de l’analyse de cooccurrence de termes. Toutefois, en
même temps, en abordant l’appareil de recherche Twitter, nous avons acquis une
vision plus claire de nos propres objectifs et intérêts méthodologiques. Nous avons
perçu clairement que si nous voulons détecter la vivacité d’enjeux grâce à Twitter,
nous devons élaborer une heuristique supplémentaire pour pouvoir repérer quelles
sont les mutations pertinentes parmi les associations fluctuantes de termes.

L’analyse de cooccurrence de termes présente un problème qui tient au fait qu’il


s’agit d’une mesure « expansive » : en traitant des données textuelles, la technique
détecte de plus en plus de relations entre termes, et de modifications dans ces
relations entre termes, mais sans offrir nécessairement un moyen explicite de
différenciation entre ces changements et d’en estimer l’importance16. Pour
commencer à traiter ces problèmes, nous avons développé l’heuristique du « profil
d’associations » (ou associational profile). Cette heuristique est inspiré par l’idée d’un
réseau-acteur, selon laquelle une entité peut se définir au travers des entités qui
lui sont associées [Callon et al., 1986 ; Latour, 2005]. Le profil d’associations
d’un hashtag est constitué des autres entités auxquelles il est relié (par voie de
cooccurrence). Nous pouvons envisager que différentes entités forment le profil

16 La mesure de la « force du lien » nous a permis de traiter ce problème.


Les méthodes d’interface 51

d’un hashtag, autrement dit les autres hashtags, mais aussi les URLs, auxquels il est
associé, ainsi que les utilisateurs17. Notre notion de profil d’associations reconnaît
ainsi les ontologies propres au médium, contrairement à Latour et al. [Latour et
al., 2012]. De plus, nous voulons utiliser cette heuristique du profil d’associations
pour détecter les modifications dans le temps des associations concernées : notre
recherche ne porte pas tant sur le côté ontologique de ce que composent les
associations (le profil) d’une entité donnée à un instant donné. Nous nous
intéressons davantage aux changements du profil de la composition d’un hashtag
comme indice de la variabilité d’un enjeu, ou son degré d’animation.

Pour examiner l’utilité de cette heuristique, nous avons décidé de produire trois
types de profils pour certains des hashtags les plus importants que nous avions
préalablement identifiés dans notre ensemble de données Twitter sur le changement
climatique : les profils d’acteurs, d’utilisateurs et de hashtags. En accomplissant
cet exercice, nous nous sommes concentrés au départ sur les hashtags les plus
explicitement politiques qu’il contient, à savoir : #ows (occupez Wall Street) et #tcot
(top conservateurs), en présupposant que des hashtags aussi polarisés offriraient
le plus de chances de présenter des profils distinctifs et notre analyse a bel et
bien révélé des différences explicites entre ces hashtags. Nous avons déterminé
les profils d’acteurs en rapport avec nos hashtags en identifiant quels étaient les
URLs figurant au premier plan des tweets contenant le hashtag en question, et
nous avons découvert que #ows est, pour la plupart, associé à des sites politiques
ou d’organisation et à des médias sociaux et de diffusion d’actualités en ligne18.
Par contre, #tcot est associé principalement à des médias de diffusions d’actualité
et généralistes, et à des intervalles ultérieurs de plus en plus à des blogs et au site
de l’organisation progressiste http://thingprogress.com. Le profil des hashtags
globalement progressifs #p2 est dominé par des organisations, plutôt que des sites
politiques, http://thinkprogress.org étant la source la plus fréquemment citée, mais
renvoie aussi fortement vers les sites d’actualité et médiatiques. Dans l’ensemble,
il semble exister des différences particulièrement significatives entre les profils
d’acteur de #ows et de #tcot : #tcot est essentiellement associé à des préoccupations
d’actualité, #ows à une démarche de campagne d’opinion et #tcot apparaît comme
étant plus diversifié que #ows au regard des sources citées19. Dans une deuxième

17 Selon le même principe qui veut que le tweet fournit le site et les moyens de liaison, on peut
dire : si deux entités sont reliées au même tweet, elles sont alors reliées.
18 Ressortent principalement http://majority.fm et http://savetheartic.org, un site de lanceurs
d’alerte et un site de campagne.
19 Nous tirons cette explication des données : une lecture attentive des tweets associés à ces deux
hashtags fait ressortir que, au moins dans l’échantillon de données liées au changement climatique,
un nombre significatif de tweets contenant #tcot faisait des commentaires sur le conservatisme.
Prenons un commentaire comme celui-ci, par @DukeMaximum : « Ouah, cette affaire de
changement climatique s’est changée en un clin d’œil d’une enquête scientifique légitime en culte
de fin du monde, non ? [Wow the climate change field went from legitimate scientific inquiry to a doomsday cult
in the blink of an eye didn’t it?] #tcot ». Ces tweets n’avaient pas toujours une orientation conservatrice
52 Traces numériques et territoires

phase de profilage, nous avons examiné les associations entre utilisateurs et hashtags.
Cette opération s’est avérée intéressante pour différentes raisons, notamment parce
qu’elle a mis en relief l’hétérogénéité des entités impliquées dans le changement
climatique sur Twitter20. Lorsque nous avons travaillé sur ce sujet pendant la Digital
Methods Summer School d’Amsterdam, un certain nombre de participants a décidé
d’examiner quels étaient les types d’utilisateurs que l’on trouve dans notre ensemble
de données Twitter, et ils se sont rapidement entendus sur la différence entre
utilisateurs humains et non humains (les bots) comme constituant la distinction la
plus importante. Comme l’exposent Niederer et Van Dijck [2010], les robots (les
bots) jouent un rôle important dans l’organisation du discours public présent sur les
plates-formes de médias sociaux. Ce point, toutefois, ne fait pas que soulever des
questions d’identification (sur Internet, peut-on vraiment savoir qui est quoi ?) dans
le même ordre d’idée que le test de Turing. La question pertinente est tout autant
celle-ci : à quel point les bots exercent-ils une influence sur l’organisation du discours
public sur le changement climatique sur Twitter ? Cette deuxième interrogation
diffère de la première. En effet, dans le deuxième cas, ici, elle ne porte pas sur la
différenciation entre discours humain et non humain, ou sur la possibilité d’en
faire une. Le but est plutôt de détecter les propriétés du discours public que la
plate-forme facilite dans la mesure où cela implique une diversité d’entités à la fois
humaines et non humaines, autrement dit, dans la mesure où cela implique une
certaine composition de bots et d’humains [voir aussi sur ce point Wilkie et al., 2015].
Toutefois, pour évaluer l’inflexion du discours sur le changement climatique sur
Twitter due aux bots, il reste nécessaire d’identifier ces utilisateurs non humains, et les
méthodes utilisées au cours du projet d’école d’été pour différencier ces deux types
d’acteurs ont été sans conteste expérimentales (voir Figure 3). Les utilisateurs ont
été sélectionnés en utilisant une mesure de fréquence (ils n’étaient que 60 utilisateurs
à écrire 100 tweets et plus), et ils ont été catégorisés à la main entre utilisateurs
humains et bots en fonction d’une description de profil, de l’activité en tweets et
des liens utilisés21. Une première série de résultats nous a permis de déterminer

en eux-mêmes, mais proposaient des commentaires sur le conservatisme où une préoccupation avec
l’actualité s’explique. De fait, #tcot est décrit comme un hashtag pour suivre les ultraconservateurs
sur Twitter (http://www.topconservativesontwitter.net [consulté le 16 juillet 2013]). A l’inverse, il
semble que les contributions contenant #ows sont davantage susceptibles de suivre une orientation
militante en soi.
20 Notons que les méthodes de profilage ci-dessus instaurent chacune un niveau élevé
d’homogénéité dans les données, ainsi dans un premier cas nous nous sommes concentrées sur les
relations entre les hashtags uniquement, puis, dans le second cas, entre hashtags et URLs contenues
dans les tweets, toutes les autres entités ayant été délibérément ignorées [pour une discussion, voir
Marres, 2012].
21 Les tweets créés par des bots suivent souvent un modèle très régulier, affichent une structure
de tweet semblable, et utilisent de façon répétée une chaîne de spam ou la même URL. Nous nous
sommes aussi demandé si les humains ou les bots présentent souvent un thème de prédilection issu
de la biographie de leur profil ou du contenu du tweet, et même chez les bots il est possible de trouver
des descriptions ciblées thématiquement.
Les méthodes d’interface 53

qu’il existe un grand nombre de bots génériques, c’est-à-dire des bots qui publient du
contenu qui n’est pas particulièrement spécifique au hashtag utilisé (climate change). Il
semble que ces bots s’avèrent profiter de la relative actualité des hashtags pour trouver
des publics, qu’importe le contexte sur le fond. La présence de bots peut donc être
prise en compte de manière très indirecte comme un indice d’activité autour d’un
enjeu en rapport avec le changement climatique sur Twitter. Leur présence, en effet,
suggère que le hashtag en question est d’actualité, mais dans la mesure où ces bots
sont génériques, l’actualité est une caractéristique qui s’applique au médium, et non
à l’enjeu. Il se peut que nous devions aussi faire une distinction entre l’activation
qui est plus spécifique à un médium (associations changeantes entre hashtags et
bots), par opposition à une activation qui est mobilisée par variation d’associations
sur le fond à l’intérieur de l’espace d’un même enjeu (comme une opposition entre
organisations et informations d’actualité).

Figure 3 : Comparaison humains et bots : profils d’utilisateurs pour les hashtags #ows, #tcot et #p2
en relation avec le thème du changement climatique (mot-clé climate change)

Pour finir, nous en sommes revenus à nos questions antérieures sur les liaisons entre
hashtags eux-mêmes. A quels hashtags se relient ceux que nous avons sélectionnés
dans chaque intervalle ? Comment ces associations de hashtags changent-elles d’un
intervalle à l’autre ? En collaboration avec des programmeurs et des designers,
nous avons mis au point une technique pour déterminer les profils d’associations :
détecter, pour un mot-cible donné, les hashtags qui lui sont associés par intervalle
et créer une visualisation qui montre la variation de ces associations sur l’ensemble
des intervalles (figure que nous appellerons provisoirement « courbe de vie de
54 Traces numériques et territoires

hashtag »). Ce type de profil de hashtag transcrit graphiquement l’intensité avec


laquelle les hashtags forment des liaisons avec d’autres hashtags dans le temps
(voir la figure 4 sur le hashtag #drought, ou sécheresse). Dans ces premiers profils,
nous avons distingué les nouvelles liaisons entre hashtags (les termes en noir)
et celles qui se sont arrêtées (les termes en rouge), puisque nous conjecturions
que des changements dans les liaisons pourraient marquer des changements ou
des glissements thématiques. L’emploi de couleur marque la persistance et le
changement : les traits en bleu et en vert montrent des liaisons stables, alors que
les traits en rouge en fin d’intervalles indiquent la disparition de certaines liaisons.
Ces premières transcriptions visuelles présentent donc non seulement la croissance
et le reflux d’enjeux, mais aussi les changements dans leurs associations pour
faire ressortir cette interrogation : quels sont principalement les autres termes qui
composent le profil du hashtag et comment changent-ils dans le temps ? Le fait
de se poser cette question, nous semble-t-il, nous offre un moyen de retracer la
« vie » ou la « vivacité » du terme représentatif d’un enjeu. Ainsi, le profil du hashtag
#drought est indicatif d’un certain nombre d’événements en relation avec ce sujet,
comme l’arrivée sur le devant de la scène d’inondations dans le Yorkshire dans le
premier intervalle (Figure 4). De prime abord, cela nous a paru être une anomalie,
mais John Bloomfield, du British Geological Survey, en a souligné l’importance : au
cours de l’été 2012, la survenance de crues lors d’une période qui avait été définie
comme une sécheresse a entraîné bien des remises en cause institutionelles, que ce
soit sur le plan de la communication auprès du public au sujet de ces « événements
météorologiques » apparemment contradictoires ou sur celui d’hypothèses établies
dans la modélisation des sécheresses. Pour finir, nous avons relevé un moment de
recomposition quasi totale de l’enjeu dans le profil de #drought, dans le moment
où la terminologie associée au sommet se voit presque totalement remplacée par
des termes spécifiques à l’Afrique dans le dernier intervalle.

Enfin, à un niveau plus général, ces transcriptions visuelles de profil peuvent


être lues comme offrant la « signature » ou l’« empreinte » d’un hashtag, ces lignes
de vie affichant à la fois la granularité (y a-t-il une multiplicité des hashtags qui
apparaissent et qui disparaissent ?) et la volatilité (à quel point les changements
dans la composition des hashtags sont-ils spectaculaires ?). Le hashtag
#environment, par exemple, possède un profil plus diversement composé que la
sécheresse (#drought), avec des divergences et des reconvergences de courbe plus
nombreuses (voir la comparaison en Figure 5). En élargissant pareille comparaison,
nous pouvons repérer différents types de profils, entre des hashtags émergents
et des hashtags vivants. Certains présentent des liaisons décousues, d’autres plus
éruptives ; certains sont hétérogènes dans leurs liaisons, d’autres moins. Nous
interprétons les hashtags qui font montre de changements périodiques avec
associations durables et hétérogènes comme jouissant d’une vivacité particulière.
Les méthodes d’interface 53

Figure 4 : Profil du hashtag #drought (sécheresse)

 
Figure 5 : Profils d’associations pour #ows (à droite) par rapport à #environment (à gauche)

CONCLUSION : PROBLÉMATIQUE DES MÉTHODES D’INTERFACE

Notre expérience de profilage par association a eu pour conséquence l’élaboration


d’un outil prototype fonctionnel [Marres et al., 2013], mais pour conclure le présent
article nous souhaiterions aborder ce que notre expérimentation nous enseigne
jusqu’ici sur les méthodes d’interface. Comme indiqué, le but initial de notre
expérimentation était de nous abstenir de déterminer – ou figer artificiellement –
ce qu’est l’analyse de cooccurrence de termes et les capacités analytiques qu’elle
offre. Et nous avons pu en effet constater que le type d’analyse qui peut être
produite à l’aide de l’analyse de cooccurrence de termes dépend en partie du médium
54 Traces numériques et territoires

auquel elle est appliquée. Twitter offre un autre cadre et un autre contexte que les
résumés d’articles scientifiques. Ainsi, alors que nous avions commencé nos
travaux à l’aide de l’analyse de cooccurrence de termes parce qu’elle offre une
méthode relationnelle, notre décision à travailler avec des données Twitter nous a
contraintes à nous occuper de différents effets proportionnels et liés à la fréquence.
Nous aimerions indiquer deux raisons expliquant cette situation. Premièrement,
nous avons été constamment confrontées à des effets proportionnels dans nos
données, par exemple sous la forme d’activités de retweets provoquant des salves
de hashtags, ou celle des bots en kidnappant certains. En menant cette analyse
sur Twitter, par conséquent, l’« ontologie » qui ressort des données de cette plate-
forme, son format spécifique et les pratiques d’usage associées ne peuvent être
tout simplement ignorés par notre méthode, et, de fait, elle semble avoir été
contaminée dans une certaine mesure. Les données provenant des médias sociaux
se présentent sous une forme, un format spécifique et sont façonnées par des
pratiques d’utilisation distinctes qui peuvent orienter l’analyse dans des directions
particulières, dans notre cas celles de formes d’analyse proportionnelles.

En deuxième lieu, et avec une égale importance, par notre tentative d’adapter
une démarche sociologique à l’analyse du « contenu éventif » (happening content) à
l’aide de Twitter, notre projet de recherche a créé le cadre d’une rencontre entre
différentes approches méthodologiques, et, partant, entre différentes traditions
analytiques dans la recherche sociale et culturelle. Nous en sommes venues à
l’analyse de cooccurrence de termes avec en tête un intérêt marqué par la STS pour
la cartographie d’enjeux et pour les méthodes relationnelles appliquées à l’étude
du contenu dynamique, le repérage de « poches d’innovation » ou ce que nous
avons préféré appeler « vivacité ». Toutefois, en cherchant à appliquer l’analyse
de cooccurrence de termes à la recherche numérique, cette méthode a fait l’objet
de discussions concernant une méthode apparentée, mais légèrement différente,
l’analyse des cooccurrences. S’il est vrai que les applications actuelles de cette
dernière méthode sont en partie déterminées par l’analyse de cooccurrence de
termes, celle-ci débouche assurément sur une traduction autre que celle que nous
avions appelée par le passé « analyse des relations inter-mots ». Comme indiqué,
l’analyse de cooccurrences se fixait sur la fréquence de liaisons cooccurrentes,
mais sans examiner les proximités relatives entre termes. Dans notre cas, le format
Twitter des tweets sert d’unité de référence pour l’analyse, et non le « cluster
de mots » – moins dépendant du médium – composé de mots présentant des
distances entre termes variables. En tentant cette mise en œuvre, nous avons
appris à connaître beaucoup mieux la méthodologie que nous proposions. On ne
peut certainement pas dire que l’analyse des données de Twitter en soi se limite
d’elle-même à un cadre proportionnel, et au travers de notre étude nous avons
appris beaucoup au sujet des champs d’opportunités et des contraintes que les
médias numériques imposent aux « méthodes associationnistes ». Nous voudrions
relever un des avantages essentiels des données Twitter : qu’il permet d’utiliser des
hétérogénéités préstructurées pour construire des profils d’associations ; celles-ci
Les méthodes d’interface 55

peuvent être des URLs ou des utilisateurs, auxquels pourraient s’ajouter la langue,
les appareillages et la plate-forme informatiques utilisés pour la publication
en ligne, ainsi que le type de tweet (@reply, tweet, retweets, etc.). Une telle
hétérogénéité préstructurée pourrait offrir un moyen formidable pour qualifier
plus avant les objets de profil et leur vivacité. Nous voulons aussi simplement
signaler que la délimitation de l’échantillon de données vis-à-vis du « médium dans
son intégralité » – ainsi que nous l’avons fait en nous concentrant sur tous les tweets
mentionnant le changement climatique (avec le mot-clé climate change) – oriente
l’analyse vers la détection d’effets propres à un médium.

Enfin, et c’est peut-être l’enseignement le plus important, nous avons tiré des leçons
sur l’importance de la mauvaise adéquation de la méthode par rapport au médium,
et sur la nécessité de créer un certain nombre d’ajustements bien choisis pour rendre
opérante une certaine part sélective d’inadéquation entre méthode et médium. Ce
point pourrait aussi servir de définition ad hoc de l’analyse contestante, ou pour dire
les choses plus simplement, de l’« intervention ». Comme nous avons porté notre
méthode pour qu’elle « interface » avec les pratiques analytiques et techniques de la
recherche sur Twitter, nous avons fini par adopter une méthode hybride. La question
se pose ainsi : qu’avons-nous gagné à accueillir de tels effets d’interface ? Qu’avons-
nous gagné en autorisant que des effets liés au médium déterminent notre étude
sur les effets d’enjeux ? Dans nos projets empiriques, nous avons tenté de créer
des relations informées entre notre méthode, les données et l’analyse de contexte,
comme la sociologie de la connaissance et l’analyse numérique, la spécificité de
Twitter et l’analyse de la dynamique des enjeux. S’il est vrai que nous n’avons pas
réussi à tous égards à établir pareilles relations, nous avons pu bel et bien nous
familiariser avec les façons plus ou moins déterminées par lesquelles celles-ci ne
sont pas adaptées les unes aux autres. Les pratiques sur Twitter peuvent susciter à
nouveau un intérêt pour la fréquence grâce aux pics de retweets, les bots peuvent
faire revenir la dynamique du médium dans l’étude de la dynamique des enjeux.
En d’autres mots, le biais proportionnel d’une bonne partie de l’analyse de Twitter
n’est pas seulement un artefact dû aux tendances méthodologiques de ceux qui
la pratiquent. Il y a des comportements, des pratiques et des effets spécifiques
aux médias qui produisent, participent à la production, des conditions qui rendent
possible la montée en notoriété de cette approche méthodologique : le fait de
retweeter, les tweets déclenchés par l’événement, et les invasions de bots sont un
certain nombre des phénomènes que nous avons rencontrés. Pour cette raison, il ne
paraît pas exagéré que les analyses proportionnelles sur Twitter parlent le « langage
du support » : elles ne sont pas seulement au fait de ce support, mais aussi bien
adaptées aux pratiques de ses utilisateurs, à leurs effets et à la culture spécifique de
ce médium.

Rien de surprenant donc que notre tentative de nous écarter de l’analyse


proportionnelle pour aller vers des mesures différentes n’a réussi que
partiellement : la tendance systémique en direction de la proportionnalité des
pratiques d’utilisation l’a réintroduite dans notre analyse relationnelle. De plus,
56 Traces numériques et territoires

notre propre démarche d’analyse des cooccurrences de termes ne peut se passer


de mesures de fréquence. Ce qui explique pourquoi, au lieu de nous figer sur une
distinction en « ou, ou » entre mesures relationnelles et mesures proportionnelles
ou bien entre vivacité et actualité, c’est l’interaction des dynamiques d’enjeu et des
dynamiques du médium que nous avons tenue pour pertinente.

La dynamique du support, dans notre cas celle sur Twitter, est coconstitutive du
biais favorable à l’analyse proportionnelle. On ne peut toutefois mettre la dynamique
du médium entre parenthèses, il faut y être attentif. La question est ouverte, mais
le fait de la poser implique une autre compréhension des méthodes d’interface.
Nous avons commencé par reconnaître que la question des outils et des mesures
reste ouverte, mais pour élaborer des formes d’analyse à l’interface de différentes
traditions méthodologiques, il peut également être important non seulement de
chercher à les aligner, mais également de reconnaître un éventuel vice d’ajustement
des différentes composantes constitutives de la pratique analytique. Nous concevons
alors les méthodes d’interface comme une remédiation à la fois du médium, des
données, des pratiques, des enjeux, des techniques et des méthodes, ce qui demande
une attention à l’égard à la fois de l’alignement ou du défaut d’alignement des
différents agents analytiques qui leur sont intégrés ou qu’elles rendent possibles.

REMERCIEMENTS

Nous remercions les participants de l’école d’été Digital Methods Summer School
2012 sur les dynamiques des enjeux en ligne intitulée « Issue Lifelines » : Albrecht
Hofheinz, Colleen Reilly, David Moats, Diego Dacal, Esther Weltevrede, Jill Hopke,
Johannes Passmann, Kalina Dancheva, Sara Kjellberg and Tally Yaacobi-Gross.
Nous remercions particulièrement, Alessandro Brunetti, designer d’information.
Nous tenons aussi à exprimer notre gratitude envers les participants des ateliers de
cartographie d’enjeux en ligne (Issue Mapping Online) et d’analyse de cooccurrences
automatique (The Co-Word Machine) à Goldsmiths College, University of London,
notamment : Esther Weltevrede, Marieke van Dijk, Richard Rogers, Sabine Niederer,
Anne Helmond, Bernhard Rieder, Emma Uprichard, Erik Borra, Lucy Kimbell,
Astrid Mager, Sam Martin, Esteban Damiani et Ea Ryberg Due. Pour finir, nous
tenons à remercier Simeon Smith pour sa lecture des données Twitter en qualité
d’adjoint de recherche.

FINANCEMENTS

Cet article a été possible grâce à une subvention de démonstrateur accordée par
le Conseil pour la recherche en économie et sciences sociales (Economic and
Social Research Council – ESRC) au titre de son axe sur le numérique en sciences
Les méthodes d’interface 57

sociales (Digital Social Research Programme) et un crédit complémentaire au titre


de son programme communautaire pour 2012-2013.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Back et Puwar, 2012] Back, L. et Puwar, N., 2012, « A manifesto for live methods: provocations
and capacities », The Sociological Review, 60, 6-17.
[Beck et Kropp, 2011] Beck, G. et Kropp, C., 2011, « Infrastructures of risk: a mapping approach
towards controversies on risks », Journal of risk research, 1(14), 1-1.
[Beer, 2012] Beer, D., 2012, August 31, « Using Social Media Data Aggregators to Do Social
Research », Sociological Research Online.
[Bowker et Star, 2000] Bowker, G. C. et Star, S. L., 2000, Sorting Things Out: Classification and Its
Consequences, Cambridge, MA : MIT Press.
[Bruns et Stieglitz, 2012] Bruns, A. et Stieglitz, S., 2012, « Quantitative Approaches to Comparing
Communication Patterns on Twitter », Journal of Technology in Human Services, 30(3-
4), 160-185.
[Bucher, 2012] Bucher, T., 2012, « Want to be on the top? Algorithmic power and the threat of
invisibility on Facebook », New Media & Society, 14(7), 1164-1180.
[Burrows et Beer, 2007] Burrows, R. et Beer, D., 2007, September 30, « Sociology and, of and in
Web 2.0: Some Initial Considerations », Sociological Research Online.
[Callon et al., 1983] Callon, M., Courtial, J.-P., Turner, W. A. et Bauin, S., 1983, « From translations
to problematic networks: An introduction to co-word analysis », Social Science
Information, 22(2), 191-235.
[Callon et al., 1986] Callon, M., Law, J. et Rip, A., 1986, Mapping the dynamics of science and
technology: sociology of science in the real world, London : Macmillan.
[Chateauraynaud, 2009] Chateauraynaud, F., 2009, « Public controversies and the Pragmatics of
Protest: Toward a Ballistics of collective action », Working Paper EHESS, Paris.
[Collins et Pinch, 1998] Collins, H. M. et Pinch, T., 1998, The golem: What you should know about
science, Cambridge : Cambridge University Press.
[Coulter et al., 1998] Coulter, N., Monarch, I. et Konda, S., 1998, « Software engineering as seen
through its research literature: a study in co-word analysis », Journal of the American
Society for Information Science, 49(13), 1206-1223.
[boyd et Crawford, 2012] boyd, D., et Crawford, K., 2012, « Critical questions for big data:
Provocations for a cultural, technological, and scholarly phenomenon.
Information », Communication & Society, 15(5), 662-679.
[Danowski, 2009] Danowski, J., 2009, « Inferences from word networks in messages », In
Krippendorff, K. et Bock, M. A. (éd.), The content analysis reader, Thousand Oaks,
CA : Sage, pp 421-429.
[Downs, 1972] Downs, A., 1972, « Up and down with Ecology: the Issue Attention Cycle », The
Public Interest, 28, 38-50.
58 Traces numériques et territoires

[Eklof et Mager, 2013] Eklof, J. et Mager, A., 2013, « Technoscientific promotion and biofuel
policy: How the press and search engines stage the biofuel controversy », Media
Culture Society, 4(35), 454-471.
[Galloway, 2012] Galloway, A. R., 2012, The Interface Effect, Cambridge : Polity.
[Gerlitz, 2012] Gerlitz, C., 2012, Continuous Economies, Goldsmiths, University of London : PhD
thesis.
[Gerlitz et Helmond, 2013] Gerlitz, C. et Helmond, A., 2013, « The Like economy: Social buttons
and the data-intensive web », New Media & Society, 15(8), 1348-1365.
[Gitelman, 2013] Gitelman, L. (éd.), 2013, Raw Data Is an Oxymoron, Cambridge, MA : MIT Press.
[Hansen et al., 2011] Hansen, L. K., Arvidsson, A., Nielsen, F. Å., Colleoni, E. et Etter, M.,
2011, « Good friends, bad news. Affect and virality in Twitter », Future Information
Technology, Berlin/Heidelberg : Springer, 34-43.
[Harvey et al., 2013] Harvey, P., Reeves, M. et Ruppert, E., 2013, « Anticipating Failure:
Transparency devices and their effects », Journal of Cultural Economy, 3(6), 294-312.
[Jirotka et al., 2013] Jirotka, M., Lee, C. P. et Olson, G. M., 2013, « Supporting Scientific
Collaboration: Methods, Tools and Concepts », Computer Supported Cooperative
Work (CSCW), 22(4-6), 667-715.
[Langlois et Elmer, 2013] Langlois, G. et Elmer, G., 2013, « The Research Politics of Social Media
Platforms », Culture, 14, 1-17.
[Latour et al., 2012] Latour, B., Jensen, P., Venturini, T. et Boullier, S. G. D., 2012, « The Whole
is Always Smaller Than Its Parts’: A Digital Test of Gabriel Tarde’s Monads »,
British Journal of Sociology, 63(4), 590-615.
[Law et al., 2011] Law, J., Ruppert, E. et Savage, M., 2011, The Double Social Life of Methods, CRESC
Working Paper Series, 44(95), 1-12.
[Lury, 2004] Lury, C., 2004, Brands. The logos of the global economy, London/New York : Routledge.
[Lury, 2012] Lury, C., 2012, « Going live: towards an amphibious sociology », The Sociological Review,
60(2012), 184-197.
[Lury et Wakeford, 2012] Lury, C. et Wakeford, N., 2012, Inventive Methods: The Happening of the
Social, London/New York : Routledge.
[Marres et al., 2013] Marres, N., Gerlitz, C., Weltevrede, E., Borra, E. et Rieder B., 2013, Mapping
WCIT with Twitter: Issue and Hashtag Profiles, http://issuemapping.net/Main/
WCITProfiles.
[Marres, 2015] Marres, N., 2015, « Why Map Issues? How digitization is changing the settings of
controversy analysis and what to do about it », Science, Technology and Human Values,
http://sth.sagepub.com/content/early/2015/03/16/0162243915574602.
[Marres, 2011] Marres, N., 2011, « The costs of public involvement. Everyday devices of carbon
accounting and the materialisation of participation », Economy and Society, 40(4),
510-533.
[Marres, 2012] Marres, N., 2012, « The redistribution of methods: on intervention in digital social
research, broadly conceived », The Sociological Review, 60(2012), 139-165.
Les méthodes d’interface 59

[Marres et Rogers, 2005] Marres, N. et Rogers, R., 2005, « Recipe for Tracing the Fate of Issues
and their Publics on the Web », In Latour, B. et Weibel P. (éd.), Making Things
Publics: Atmospheres of Democracy, Cambridge, MA : MIT Press, pp 922-935.
[Marres et Rogers, 2008] Marres, N. et Rogers, R., 2008, « Subsuming the ground: how local
realities of the Fergana Valley, the Narmada Dams and the BTC pipeline are put
to use on the Web », Economy and Society, 37(2), 251-281.
[Marres et Rogers, 2001] Marres, N. et Rogers, R., 2001, « Depluralising the Web and Repluralising
Public Debate: The Case of the GM Food Debate on the Web », In Rogers, R.
(éd.), Prefered Placement: Knowledge Politics on the Web, Maastricht : Jan van Eyck
Academie.
[Marres et Weltevrede, 2013] Marres, N. et Weltevrede, E., 2013, « Scraping the Social? Issues in
real-time social research », Journal of Cultural Economy, 6(3), 313-335.
[Niederer et Van Dijck, 2010] Niederer, S. et Van Dijck, J., 2010, « Wisdom of the crowd or
technicity of content? Wikipedia as a sociotechnical system », New Media &
Society, 12(8), 1368-1387.
[Niederer, 2009] Niederer, S., 2009, Climate Change Sceptics. Digital Methods Initiative, https://wiki.
digitalmethods.net/Dmi/ClimateChangeSkeptics.
[Rogers, 2009] Rogers, R., 2009, The End of the Virtual – Digital Methods. Media, http://www.
govcom.org/rogers_oratie.pdf.
[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Rogers et Marres, 2000] Rogers, R. et Marres, N., 2000, « Landscaping climate change: a mapping
technique for understanding science and technology debates on the World Wide
Web », Museum, 9, 1-23.
[Ruppert et al., 2013] Ruppert, E., Law, J. et Savage, M., 2013, « Reassembling Social Science
Methods: The Challenge of Digital Devices », Theory, Culture & Society, 30(4),
22-46.
[Savage, 2009] Savage, M., 2009, « Contemporary Sociology and the Challenge of Descriptive
Assemblage », European Journal of Social Theory, 12(1), 155-174.
[Scharnhorst et Wouters, 2006] Scharnhorst, A. et Wouters, P., 2006, « Webindicators: a new
generation of S&T indicators », Cybermetrics, 10.
[Suchman, 2005] Suchman, L., 2005, « Agencies in Technology Design: Feminist
Reconfigurations », http://www.lancs.ac.uk/fass/sociology/papers/suchman-
agenciestechnodesign.pdf.
[Thelwall et al., 2006] Thelwall, M., Vann, K. et Fairclough, R., 2006, « Web issue analysis: An
integrated water resource management case study », Journal of the American Society
for Information Science and Technology, 57(10), 1303-1314.
[Uprichard, 2011] Uprichard, E., 2011, « Dirty data: longitudinal classification systems », The
Sociological Review, 59(c), 93-112.
[Van der Velden, 2014] Van der Velden, L., 2014, « A study into third party elements on Dutch
governmental websites », doctoral dissertation chapter, Media Studies, University
of Amsterdam [ms].
[Venturini, 2010] Venturini, T., 2010, « Diving in magma: how to explore controversies with actor-
network theory », Public Understanding of Science, 19(3), 258-273.
60 Traces numériques et territoires

[Venturini, 2012] Venturini, T., 2012, « Building on faults: how to represent controversies with
digital methods », Public Understanding of Science, 21(7), 796-812.
[Wilkie et al., 2015] Wilkie, A., Michael, M. et Plummer-Fernandez, M., 2015, « Speculative Method
and Twitter: Bots, Energy and Three Conceptual Characters », The sociological
review, 63(1), 79-101.
[Wouters et al., 2012] Wouters, P., Beaulieu, A., Scharnhorst, A. et Wyatt, S. (éd.), 2012, Virtual
Knowledge: Experimenting in the Humanities and the Social Sciences, Cambridge, MA :
MIT Press.
Soft data
Essai d’une nouvelle définition des données pour les études territoriales

Marta Severo, Alberto Romele


INTRODUCTION

L’étiquette de « soft data » que nous utilisons dans le titre de ce chapitre constitue
un essai provisoire de réponse à une sensation d’insatisfaction terminologique
émergeant des travaux de l’axe scientifique Médias et territoire du Collège
international des sciences du territoire (CIST, Paris). Ces dernières années, la
recherche et l’administration publique se trouvent confrontées à un phénomène
qui semble pouvoir renouveler la façon de gérer et d’étudier le territoire. Nous nous
référons au déluge de nouveaux types de données générées par les technologies
numériques, notamment par l’Internet, qui se proposent comme nouvelle source
d’information sur le territoire [Hey et Trefethen, 2003].

Ces données représentent en même temps une réalité, un désir et un besoin. Une
réalité, car une des caractéristiques fondamentales des technologies numériques
est sûrement leur pouvoir de générer des traces. Toute action qui les traverse
laisse des traces qui peuvent être facilement récoltées et traitées. Un désir, car ces
données, grâce à leur valeur de trace de l’action sociale, promettent de répondre à
un désir généralisé des politiques publiques. Aujourd’hui le décideur public sent la
nécessité de trouver de nouvelles sources de données concernant la vie collective,
des informations disponibles en temps réel et produites avec des dynamiques
bottom-up qui puissent l’aider à rendre son action plus efficace. Dans ce sens, il
suffit de penser au nombre de collectivités territoriales qui se sont lancées dans
des projets de big et d’open data. Enfin, ces données représentent également un
besoin pour des méthodes et des outils plus adaptés à leur traitement.

Si les projets qui incluent des données provenant du Web dans l’étude de la société
se sont multipliés ces dernières années, nous pouvons noter comment les auteurs
les plus enthousiastes envers les données numériques se trouvent aujourd’hui à
faire un pas en arrière et à assumer des positions bien plus prudentes, voire parfois
pessimistes. Prenons le cas de David Lazer qui en 2009, dans un article collectif
[Lazer et al., 2009], arrive à la définition de la science sociale computationnelle
(Computational social science). Il observe : « Les nouvelles technologies, tels que la
surveillance vidéo, l’email, les badges nominatifs “intelligents”, offrent une image
instant par instant des interactions sur de longues périodes, en fournissant des
informations sur la structure et le contenu des relations ». Il continue : « Internet
offre une canal entièrement différent pour comprendre ce que les gens sont en
62 Traces numériques et territoires

train de dire, et comment ils se connectent » et il conclut : « En bref, une science


sociale computationnelle est en train d’émerger, qui tire profit de la capacité de
collecter et analyser les données avec une ampleur, une profondeur et une échelle
sans précédents ». Le même David Lazer, dans un article plus récent [Lazer et al.,
2014], a une attitude bien plus modérée envers les données numériques et souligne
la nécessité de prendre des précautions dans ce type d’études, notamment quand on
parle de big data. Il est intéressant que l’auteur attaque notamment l’outil de Google
étudiant l’évolution de la grippe1, qui peut être sans aucun doute considéré comme
un parmi les symboles de cette nouvelle vague des méthodes numériques pour les
sciences sociales [Ginsberg et al., 2009].

De même, Venturini et al. [2014] identifient trois malentendus à l’usage des méthodes
numériques en sciences sociales et précisent toute une série de précautions à l’usage
des traces numériques dans ce type d’études qui contredisent paradoxalement
certains travaux antérieurs des même auteurs au Médialab de Sciences Po [Venturini
et Latour, 2012 ; Latour et al., 2013]. Ce mouvement vers l’arrière est certainement
représentatif d’un besoin d’une réflexion plus approfondie sur ces données et
d’une définition de méthodes plus adéquates aux différents contextes d’analyse.
Noortje Marres a été une des pionnières dans cette direction en mettant en avant
plusieurs limites des outils qu’elle-même avait utilisés précédemment [Marres
et Weltevrede, 2013]. En se concentrant sur la question de l’intervention des
technologies numériques dans les sciences sociales, l’autrice développe le concept de
« redistribution des méthodes » [Marres, 2012]. A travers cette expression, reprise des
STS [Latour, 1988 ; Rheinberger, 1997 ; Whatmore, 2009], elle souligne comment la
numérisation rend nécessaire la participation de nombreux acteurs à la définition des
méthodes utilisées dans la recherche : « Une approche redistributive à la recherche
sociale redéfinit les méthodes comme impliquant la combinaison et la coordination
de compétences différentes : classification, conception visuelle, analyse automatisée,
et ainsi de suite. Derrière les débats sur la faillibilité des données générées par les
sujets de recherche et le “désordre” des contenus en ligne auto-indexés, se trouve un
débat sur la redistribution des méthodes entre chercheurs, dispositifs, informations
et utilisateurs dans les environnements en ligne » [Marres, 2012 : 161]. D’ailleurs,
nous trouvons un autre exemple de cette attitude dans l’article de Marres et Gerlitz
publié ci-dessus.

Sans vouloir prendre position entre optimistes et pessimistes [Woogar, 2002],


cet article veut s’interroger sur ce besoin définitoire et contribuer à la réflexion
générale sur ces méthodes et ces données. L’objectif de ce texte est notamment
de contribuer à la prise de distance par rapport à la pratique pour revenir vers une
réflexion théorique sur l’usage des données numériques dans la recherche et dans
les politiques publiques. Nous n’avons pas la prétention ici de nous confronter
aux usages des data dans tout terrain de manière indistincte, mais au contraire

1 http://www.google.org/flutrends.
Soft data 63

notre réflexion sera basée sur des expériences d’usage de données dans les études
territoriales [Delaney, 2005]. En introduisant la catégorie de soft data, nous ne
voulons pas théoriser l’existence d’un type particulier de données. Les soft data ne
sont pas une alternative aux hard data, aux big data ou aux open data. Notre intention
est plutôt de suggérer une manière différente de regarder les données disponibles
sur Internet. A notre avis, la notion de soft data est plus inclusive, car elle arrive
à rendre compte de certaines données qui ne sont pas facilement catégorisables
dans les catégories déjà existantes. Cela est le cas par exemple des tweets, souvent
utilisés dans des analyses de phénomènes territoriaux [Wilken, 2014 ; Romele et
Severo, 2014] ou les checks-in Facebook qui promettent de nous faire découvrir
de nouvelles géographies relationnelles [Vienne et al., 2014]. Ces données, qui
sûrement ne sont pas des open data2, peuvent fournir des informations intéressantes même
si elles n’ont pas non plus toujours les caractéristiques des big data.

L’analyse sera structurée en trois parties. Dans une première partie, nous
reprendrons les définitions principales proposées ces dernières années pour parler
des données du Web. Nous poserons l’accent en particulier sur les termes de data,
big data et d’open data, ces deux dernières étant les plus utilisées dans le contexte de
l’analyse territoriale. Dans une deuxième partie, nous analyserons plus précisément
les caractéristiques des données employées dans ce type d’études. En premier
lieu, nous observerons que leur succès est dû principalement à l’insatisfaction
générée par celles qu’on appellera hard data, c’est-à-dire les données créées par les
fournisseurs des données traditionnels (comme Eurostat ou l’Insee) généralement
employées dans les études territoriales. En deuxième lieu, nous poserons l’accent
sur la caractéristique principale des données employées pour étudier l’espace, la
géolocalisation, mais nous chercherons à montrer comme l’accent sur une telle
caractéristique a rendu difficile l’identification du nouvel apport des données du
Web dans les études territoriales. Cela nous portera à notre troisième partie, dans
laquelle nous proposerons une nouvelle définition de soft data. Dans cette dernière
partie, nous préciserons ainsi la nouveauté de notre définition en rapport aux
usages faits précédemment du terme soft data et déclinerons les caractéristiques
de ces données qui montrent l’imperfection des définitions déjà existantes et
justifient la nécessité d’une nouvelle définition.

DE NOUVELLES DÉFINITIONS POUR DE NOUVELLES DONNÉES

Data

Avant d’introduire la nouvelle catégorie de soft data, dans cette partie nous allons
rendre compte des catégories déjà existantes. Avant de s’orienter sur les adjectifs
utilisés – « big », « open », etc. – il est nécessaire de préciser le sens du terme central « data ».

2 À propos des enjeux légaux liés à l’usage de Twitter, voir Beurskens [2014].
64 Traces numériques et territoires

Récemment, Venturini et al. [2014 : 3] ont suggéré une distinction méthodologique


entre traces numériques et données numériques : « “traces numériques” se réfère
à toute collection de bit stocké dans la mémoire d’un dispositif numérique (un
ordinateur, dans la plupart des cas) comme un résultat de l’implémentation délibérée
du système de traçabilité. Les “données numériques” sont par contre la collection
organisée d’informations, produite à partir des traces numériques à travers le travail
du chercheur qui les sélectionne, les nettoie et les exploite dans un étude spécifique ».
Cette distinction est très intéressante, cependant elle n’a aucune valeur du point de
vue étymologique, historique ou théorique.

Etymologiquement, le terme « data » est le pluriel de datum, terme latin qui dérive
du verbe dare, signifiant « donner ». Du point de vue étymologique donc, « data »
indique qu’il s’agit d’un élément donné ou accordé ou, encore mieux, qui se
donne ou s’accorde à quelqu’un en l’état. Les data ne sont pas travaillées par un
individu – par son regard, sa conscience, son intellect, etc. – ou par un groupe
d’individus, mais se donnent à cet individu ou à ce groupe dans leur évidence. De
ce point de vue, les données contrastent avec les faits, car factum est le participe
passé du verbe latin facere qui veut dire « faire », « exécuter », « accomplir ».

Historiquement, c’est précisément le caractère d’évidence qui est au cœur du mot


« data » et c’est aussi la raison de l’adoption de ce mot par l’anglais3. Jusqu’au XVIIe
siècle, le terme était tout simplement absent en anglais. La première occurrence
signalée par l’Oxford English Dictionary date de 1646, dans un traité théologique qui
parle d’un « amas (heap) de données » [Rosenberg, 2013 : 18]. En général, pendant tout
le XVIIe siècle le mot a été utilisé dans le sens technique qu’il avait chez Euclide, pour
indiquer des quantités données dans des problèmes mathématiques, contrairement
aux quaesita, qui étaient des quantités cherchées. En théologie, la parole signifiait les
vérités scripturaires données par Dieu et donc incontestables. En philosophie, les
data étaient les principes qui ne pouvaient pas être disputés, à cause de leur auto-
évidence ou par convention. Au cours du XVIIIe siècle, le terme devient plutôt
commun en anglais, au delà des domaines spécifiques des mathématiques, de la
théologie et de la philosophie, mais il assume aussi un sens nouveau, presque inverse.
Les data ne sont plus les bases indiscutées d’une argumentation, mais les faits mis
en évidence suite à une expérience : « Il est devenu habituel de penser aux données
comme le résultat d’une investigation plutôt que sa prémisse » [Rosenberg 2013 :
33]. Il est intéressant d’observer comment même dans cette nouvelle acception,
qui d’ailleurs est proche du sens actuel du mot, la prétention d’immédiateté reste
intacte. Bien que résultants d’un processus d’investigation, les données se révèlent
comme quelque chose qui était déjà là et qu’il s’agissait tout simplement de dévoiler.

3 Dans ce contexte, bien que nous utiliserons quelque fois le français « données », c’est le terme
anglais « data » qui nous intéresse.
Soft data 65

D’ailleurs, ce n’est pas sans raison que le philosophe Martin Heidegger traduisait le
terme aletheia, vérité en grec, par « dévoilement ».

Or, si nous approchons le terme « data » d’un point de vue plus théorique, nous
assistons à une sorte de renversement de perspective. Les données semblent être
non pas quelque chose de donné, mais plutôt quelque chose de capturé : « Dans l’usage
général, data se réfère aux éléments qui sont pris ; extraits à travers observations,
computations, expériences et enregistrements [… ]. Techniquement donc, ce que
nous comprenons comme data sont en réalité capta [… ] ; les unités des données
qui on été sélectionnées et récoltées à partir de la somme de toutes données
potentielles » [Kitchin, 2014a : chapitre 1, paragraphe What are data?]. Au fond, les
sciences « dures » comme les sciences « molles » n’ont jamais à voir avec un référent
qui se donne. Ce que Latour et Woolgar soulignaient à propos de la construction
de faits dans leur Laboratory Life, nous pouvons le dire aussi des données : « Un
fait devient tel quand il perd toute qualification temporelle et devient incorporé
dans un grand corps de connaissance fondé sur d’autres » [Latour et Woolgar,
1986 : 106]. Les faits ne sont rien d’autre que des métaphores mortes, « mythologie
blanche », pour utiliser l’expression par laquelle Derrida indiquait le processus à
travers lequel la culture occidentale finissait par prendre « sa propre mythologie,
l’indo-européenne, son logos, c’est-à-dire le mythos de son idiome, pour la forme
universelle de ce qu’il doit vouloir encore appeler la Raison » [Derrida, 1971 : 254].

Le philosophe de l’information Luciano Floridi refuse les interprétations


informationnelle et computationnelle des data, précisément à cause de leur tendance
à comprendre les données à partir de quelque chose d’autre – l’information dans le
premier cas, le support numérique dans le deuxième. Les data ont plutôt une nature
« diaphorique », dans le sens que le terme « données » indique tout simplement une
manque d’uniformité – diaphora en grecque signifie « différence ». Les data sont alors
neutres d’un point de vue taxonomique, car elles sont des entités relationnelles,
typologiques, dans la mesure où on peut distinguer entre données primaires,
secondaires, metadata, etc. [Floridi, 2008 : 7-10]. Rosenberg nous semble à ce propos
encore plus clair, en affirmant que les data n’ont ni une nature ontologique, qui serait
celle des faits, ni épistémologique, celle des évidences, mais une nature rhétorique :
« Les faits sont ontologiques, l’évidence est épistémologique, data est réthorique.
[… ] L’existence d’une donnée est indépendante de toute considération sur la vérité
ontologique correspondante. Quand un fait est prouvé être faux, il cesse d’être un
fait. Une données fausse est quand même une donnée » [Rosenberg, 2013 : 18]. Un
regard théorique sur les data révèle en somme leur nature « molle » du point de vue
ontologique. En reprenant la fameuse distinction de Frege, nous pourrions dire que,
considérées par elles-mêmes, les données ont un « sens » (Sinn) mais n’ont pas de
« référence » (Bedeutung), au moins immédiate. Cette dernière dépend plutôt de qui
les utilise, dans certains contextes et selon des intérêts spécifiques.
66 Traces numériques et territoires

Big data

Selon Steve Lohr [Lohr, 2013], la première trace du terme « big data » remonte à
un article d’Erik Larson, publié en 1989 dans Harper Magazine puis republié par le
Washington Post. D’habitude, on reconnaît l’origine du terme dans la présentation
de John Mashey, déjà chercheur en chef à la Silicon Graphics, intitulée « Big data
and the Next Wave Infrastress » [Mashey, 1998], dans laquelle l’auteur se démontre
conscient du phénomène. Dans le contexte académique, la première occurrence
du terme remonte à l’ouvrage Predictive Data Mining: A Practical Guide [Weiss et
Indurkhia, 1998] où, dans les toutes premières lignes de la préface, les deux auteurs
affirment que « à l’époque d’Internet, des intranet et des entrepôts de données,
les paradigmes fondamentaux de l’analyse classique de données sont mûr pour le
changement. [… ] De très grandes collections de données [… ] sont aujourd’hui
compilées dans des entrepôts de données centralisés, permettant aux analystes
d’utiliser des méthodes puissantes pour examiner les données d’une manière plus
détaillée. En théorie, les “big data” peuvent conduire à des conclusions beaucoup
plus fortes pour les applications de fouille de données, mais en pratique beaucoup
de problèmes surgissent » [Weiss et Indurkhia, 1998 : xi]. En 2003, Diebold publie un
article intitulé « Big data Dynamics Factor Models for Macroeconomic Measurement
and Forecasting ». Comme l’affirme l’auteur lui-même dans une intervention qui
suit, il s’agit de la première référence au terme « big data » dans les domaines de
la statistique, de l’économétrie, etc. [Diebold, 2012]. Néanmoins, il paraît que le
vrai succès du terme arrive seulement en 2008. Dans un contexte de vulgarisation,
Anderson publie son fameux article « The end of theory: the Data Deluge Makes
the Scientific Method Obsolete », en annonçant l’entrée dans l’âge du petabyte : « Les
petabyte nous permettent de dire : “la corrélation est suffisante”. Nous pouvons
arrêter de chercher les modèles. Nous pouvons analyser les données sans hypothèses
sur ce qu’elles devraient montrer. Nous pouvons jeter les chiffres dans les plus
grandes clusters d’ordinateurs que le monde ait jamais vu et laisser les algorithmes
statistiques trouver des motifs (patterns) que la science ne peut pas trouver ». Dans
le contexte scientifique, Bryant, Kats et Lazowska, membres du Computer Community
Consortium, ont dédouané le terme avec leur article intitulé « Big-Data Computing:
Creating Revolutionary Breakthroughs in Commerce, Science, and Society ».

La définition la plus classique des big data est celle des 3V (volume, vélocité et
variété) selon laquelle les big data sont d’énormes bases de données, produites en
temps quasi réel, structurées ou non-structurées, et souvent temporellement et
spatialement référencées. La littérature émergente décrit les big data comme étant
(1) exhaustives, parce qu’elles ne se contentent pas d’un échantillon mais veulent être
représentatives de la totalité de leur objet de recherche ; (2) détaillées en résolution ;
(3) relationnelles, en ayant des aspects en commun qui permettent l’entrecroisement
entre différentes bases de données ; (4) flexibles, et donc facilement extensibles et
scalaires [Kitchin, 2014a : chapitre 6, Introduction]. A bien y voir donc, l’adjectif « big »
est en quelque manière trompeur, car les big data sont caractérisées par bien plus que
Soft data 67

leur volume : « En effet, certaines collections de données “small” peuvent être très
grandes en dimension, comme les recensements nationaux qui visent également
à être exhaustifs et à avoir une forte résolution et relationnalité. Néanmoins, les
collections de données concernant les recensements manquent de vélocité [… ], de
variété [… ], et de flexibilité » [Kitchin, 2014b : 2]. Or, la question des big data a été
envisagée selon différentes approches, techniques et méthodologiques, économiques
et sociales, éthiques, politiques et même philosophico-existentielles – voir l’article
de de Mul ci-dessus. Toutefois, c’est la perspective épistémologique qui a intéressé
le plus les interprètes et qui a polarisé le débat.

Surtout dans la première vague d’études sur les grandes bases de données, les experts
et les commentateurs ont eu tendance à reconnaître dans les big data un vrai tournant
épistémologique pour les sciences de la nature et les sciences humaines et sociales.
C’est le cas d’un auteur comme Lazer, que nous avons cité dans l’introduction.
Dans Mayer-Schönberger et Cukier [2013], ouvrage à la limite entre scientificité
et vulgarisation, nous trouvons plusieurs exemples du succès du traitement des big
data, comme le Google Flu Trends, l’algorithme d’Amazon pour la recommandation
de produits, la création de Farecast par Oren Etzioni ou le cas étrange des Pop-
Tarts chez Walmart aux Etats-Unis. A propos de ce dernier, les auteurs affirment :
« Nous n’avons plus forcément besoin d’une hypothèse substantive valide à propos
du phénomène pour commencer à comprendre notre monde. [… ] Nous n’avons
pas besoin de nous soucier des goûts culinaires des clients de Walmart. [… ] A la
place de l’approche orientée hypothèse, nous peuvent utiliser une approche orientée
données » [Mayer-Schönberger et Cukier, 2013 : 55]. Dans le premier livre de la
Métaphysique [981b 5-7], Aristote dit que « ce n’est pas l’habileté pratique qui rend, à
nos yeux, les chefs plus sages, c’est parce qu’ils possèdent la théorie et connaissent
les causes » et il définit la philosophie comme la science des causes primaires. Dans
cette approche aux big data, la recherche de la cause est clairement supprimée en
faveur de la simple constatation de corrélations, en voulant transformer ainsi un des
paradigmes fondateurs de la science occidentale.

La littérature plus récente a montré les limites et même les dangers de cet
enthousiasme initial. Dans leur « Six Provocations for Big data, boyd et Crawford,
en prenant position contre Chris Anderson et en citant Berry – qui à son tour se
réfère implicitement au « deuxième » Heidegger [boyd et Crawford, 2011 : 8] –,
soulignent : « Significativement, le rejet généralisé de toutes les autres théories et
disciplines proposé par Anderson révèle une allusion arrogante dans plusieurs
débats concernant les big data où toutes les autres formes d’analyse peuvent être
mises de côté [… ]. A la place de la philosophie – que Kant voyait comme la base
rationelle de toutes institutions – “la computationnalité pourrait être comprise
comme une ontothéologie, créant une nouvelle ‘époque’ ontologique comme une
nouvelle constellation historique d’intelligibilité” ». L’histoire des sciences guidées
par les données (data-driven) a commencé bien avant les grandes bases de données
numériques, et « la perception d’une “surcharge d’informations” a émergé à
68 Traces numériques et territoires

plusieurs reprises depuis la Renaissance, au début de la période moderne et dans


la modernité et à chaque fois des technologies spécifiques ont été inventées pour
traiter la surcharge considérée » [Strasser, 2012 : 85]. D’ailleurs, les attentes relatives
au traitement automatique de grandes bases des données ont été constantes au
moins à partir de la diffusion des cartes perforées utilisées pour le recensement
de 1880 aux Etats-Unis [Driscoll, 2012]. Comme nous l’avons dit dans la partie
introductive, même les enthousiastes comme Lazer, Latour et leurs collaborateurs
sont aujourd’hui plus prudents par rapport aux possibilités relatives au traitement
des données numériques pour les sciences sociales.

Certains aspects traditionnels de la recherche, comme le regard du chercheur,


l’interprétation, la formulation des hypothèses, et parfois même l’attitude
critique, ont été réadmis en tant que moments incontournables du parcours de
traitement de grandes bases de données. Toutes les étapes de l’analyse des big
data – data selection, pre-processing, data reduction and projection et data enrichment – et
plus précisément l’ensemble des techniques qui permet le recueil et l’analyse des
data, sont le résultat de choix, possibilités, stratégies et limites qui méritent d’être
attentivement questionnées. Ce qui semblait ramener les sciences de la nature à
leur esprit d’exactitude et rapprocher les sciences humaines et sociales de ce même
modèle, se révèle ainsi dans son caractère « mythologique » [boyd et Crawford,
2012 : 663] : les big data « ne parlent pas » par elles-mêmes et la marge de manœuvre
du chercheur ou du décideur publique reste importante.

Open data
Selon Chignard [2013], le terme open data est apparu pour la première fois en 1995
dans On the full and open Exchange of scientific Data, une publication du Committee
on Geophysical and Environmental Data du National Research Council des Etats-
Unis. En réalité, l’idée d’appliquer les principes des biens communs au domaine
de la connaissance remonterait au moins aux travaux des années 1940 de Robert
King Merton, parmi les pères de la sociologie des sciences. Dans son « The
normative Structure in Science », il définit quatre normes éthiques qui régissent
les comportements scientifiques : universalisme, « communisme » (communism),
désintéressement et scepticisme organisé. Le « communisme » en sciences consiste
« in the non technical and extended sense of common ownership of goods […
]. The substantive findings of science are a product of social collaboration and
are assigned to the community » [Merton, 1973 : 273]. Internet et les nouvelles
technologies ont donné un nouveau crédit à cette idée. Notoirement, la naissance de
la Toile est strictement liée à la culture du partage des connaissances [Castells, 2001 :
40]. Dans ses recherches aux limites de la description et de la prescription, Yochai
Benkler [Benkler, 2006 : 31] affirme qu’« une confluence particulière de changements
techniques et économiques est maintenant en train d’altérer la manière dont nous
produisons et échangeons les informations, la connaissance et la culture ». Du point
de vue économique, les biens informationnels sont dits « non-rivaux » : « Nous
Soft data 69

considérons un bien comme non-rival quand sa consommation de la part d’une


personne ne le rend pas moins disponible pour la consommation de la part d’un
autre » [Benkler, 2006 : 36]. De surcroît, les biens informationnels sont des biens
non-rivaux de nature particulière car, à la différence des biens publics, par exemple,
quand la consommation augmente ils ne s’épuisent pas, mais s’enrichissent.

Selon le site http://opengovdata.org, l’histoire du mouvement pour l’ouverture


des données commence en août 2005, avec « the open definition » selon laquelle « la
connaissance est ouverte si n’importe qui est libre d’y accéder, de l’utiliser, la modifier
et la partager – soumis, au plus, à des mesures qui en préservent la provenance et
l’ouverture ». Entre temps, de l’autre côté de l’Atlantique, The Guardian lançait en
mars 2006 l’initiative « free our data »4. En 2007, un groupe d’intellectuels et activistes
d’Internet se sont rencontrés à Sebastopol en Californie pour trouver une définition
de public open data et la faire adopter aux candidats pour les élections présidentielles
aux Etats-Unis. Les participants se sont mis d’accord sur huit principes, selon
lesquels les open data doivent être : (1) complètes ; (2) primaires (3) opportunes
(timely) ; (4) automatiquement exploitables ; (5) accessibles ; (6) non-discriminatoires :
« les données sont disponibles pour tous, sans besoin d’enregistrement » ; (7) non-
propriétaires ; (8) licence-free5. En janvier 2009, Barack Obama signe une note
« On Transparency and Open Government », dans laquelle les trois principes de
la transparence, de la participation et de la collaboration sont établis. A partir de
2010, une série d’institutions nationales et internationales dans le monde entier
commencent à ouvrir des bases de données jusque-là inaccessibles.

Or, sous certains aspects le mouvement des open data s’oppose à celui des big
data. En effet, le traitement des big data implique des investissements importants
au niveau économique et des compétences que très peu d’institutions sont
aujourd’hui en mesure de proposer. Sous cet aspect, le big data ressemblent plutôt
à des formes classiques de traitement de données, telles que les archives d’Etat, qui
sont fermées par nature [Derrida, 1995]. Le mouvement des open data veut changer
cette situation. Pour certains, l’ouverture des données concerne exclusivement
les données elles-mêmes, tandis que pour d’autres l’ouverture est un concept
plus vaste, qui concerne aussi leur utilisation, analyse et distribution [Kitchin,
2014a : chapitre 3, Open Data]. En outre, certains auteurs [Gurstein, 2013] ont
affirmé qu’il faut considérer les données ouvertes non pas comme un produit
mais comme un service, i.e. comme une relation entre le fournisseur et l’utilisateur.
Bien évidemment, en cherchant à démocratiser l’accès et l’utilisation des bases des
données, le mouvement des open data est orienté vers des questions de nature
éthique, politique, économique et sociale. La plupart des arguments en faveur des
open data se joue précisément en cette direction : les open data servent à évaluer
l’activité d’institutions publiques et non-gouvernementales, elles encouragent une

4 http://www.theguardian.com/technology/free-our-data.
5 https://public.resource.org/8_principles.html.
70 Traces numériques et territoires

participation active à la chose publique, elles poussent les institutions elles-mêmes


à améliorer leur productivité, etc. [Kitchin, 2014a : chapitre 3, The Case for Open
Data]. La majorité des critiques va aussi en ce sens : les open data alimentent une
idéologie néo-libérale et la monétarisation des services publiques, elles ne sont pas
en soi un processus de démocratisation mais peuvent conduire aussi à l’exercice
d’un pouvoir disciplinaire et finalement elles risquent, comme le dit Gurstein
[2011], de « donner du pouvoir à ceux qui en ont déjà (empowering the empowered) ».

Toutefois, pour arriver à préciser la différence entre les open data et notre proposition
de soft data, il importe de considérer ce mouvement du point de vue épistémologique.
Considérons pour un instant les huit principes des open data dont nous avons dressé
la liste auparavant. Les quatre premiers principes ne sont rien d’autre qu’une reprise
des caractéristiques des big data. Les quatre autres principes sont par contre ce qui
distingue les open data par rapport à toute autre approche vis-à-vis des données. Leur
mise en pratique par les administrations et les institutions est encore loin d’être
réalisée de manière extensive. Parfois, à cause de décisions politiques et stratégiques ;
d’autres fois, à cause des difficultés – manque d’expertise, de financements, de
confrontation entre les différentes réalités, etc. – liées à une série d’opérations
nécessaires pour rendre ces données vraiment ouvertes, comme la mise en forme et
la standardisation. Le fait que les données des administrations soient de plus en plus
disponibles en ligne ne signifie pas en effet qu’elles peuvent être considérées comme
open. Sans doute, la poursuite d’un accès plus immédiat aux données représente
une tâche qui mérite d’être poursuivie. Toutefois, la nouvelle catégorie de soft data
voudrait répondre à la situation actuelle. Dans les pratiques actuelles, comme sans
doute dans celles du futur proche, les institutions publiques et privées qui veulent
utiliser les données en ligne ne peuvent pas attendre l’ouverture totale des données,
mais doivent être capables de travailler à partir d’un amas de données qui peuvent
être ouvertes, semi-ouvertes ou non-ouvertes.

LES DONNÉES POUR LES ÉTUDES TERRITORIALES

Insatisfaction des hard data

Traditionnellement, la décision publique liée à la gestion du territoire est basée


sur la collecte et l’analyse de ce qui peut être qualifié comme données « hard », à
savoir les statistiques officielles et plus généralement les données produites par
l’administration publique à différents niveaux (local, national, international). Ces
données sont soigneusement harmonisées et stockées dans des bases de données,
soumises à divers contrôles, complétées par l’estimation de valeurs manquantes
et de métadonnées. Ces données représentent une valeur ajoutée exceptionnelle
pour les personnes intéressées par la politique territoriale. Elles garantissent une
structure claire, une qualité standard et un niveau de fiabilité de l’information qui
Soft data 71

en font une base solide pour des statistiques géographiques utiles à l’action des
décideurs publics [Burt et al., 2009 : 18].

Néanmoins, ces dernières années, les décideurs publics ont révélé certaines lacunes
ou des frustrations importantes liées à ces données qui peuvent être résumées par
trois éléments principaux :

1) Le trop long délai de publication. Les données officielles font l’objet d’un
processus technique et parfois politique d’harmonisation et de validation. Ce long
processus passe par des validations réitératives des données qui peuvent prendre
longtemps. Par exemple Fassmann et al. [2009 : 39 ; 115] observent que pour
l’étude des migrations la période entre deux recensements ainsi que la période
d’attente jusqu’à la disponibilité des données pour les chercheurs et politiciens
sont trop longues.

2) La couverture insuffisante de certains sujets d’intérêt pour la cohésion


territoriale comme l’attractivité des lieux, les sentiments des citoyens, la perception
des actions des décideurs publics. Ces sujets ne sont pas faciles à représenter avec
des données territoriales. Ils sont généralement abordés par de grandes enquêtes,
mais souvent le lien avec l’espace est très faible. Nous pouvons avoir par exemple
des enquêtes à l’échelle nationale, mais les données obtenues sont difficilement
transposables à des échelles plus précises comme la ville.

3) La définition top-down des données. En effet, la qualité de ces données est


garantie par l’application d’une méthodologie de production que seuls des
professionnels peuvent mettre en place et, comme nous l’avons déjà observé,
c’est exactement cette qualité et ce contrôle qui rendent ces données intéressantes
pour les politiques publiques. Pourtant, « les technologies de l’information sont
devenues des instruments qui permettent aux résidents des villes de participer à
la renégotiation et redéfinition des espaces urbains » [Unsworth et al., 2014]. Par
conséquent, les administrations publiques sentent de plus en plus la nécessité
d’insérer dans leurs démarches d’analyse territoriale des données participatives,
ouvertes et élaborées par les citoyens, les entreprises, les collectivités locales et
régionales [Guermond, 2011]. L’approche bottom-up [Frasera et al., 2006] pour la
définition des données d’intérêt est une dimension qui ne peut plus être ignorée
par les décideurs publics. La diffusion de l’approche bottom-up est notamment liée
au développement des systèmes d’information géographique pour la participation
publique (PPGIS). Comme Sieber [2006 : 503] a observé, « PPGIS fournit une
approche unique pour engager le public dans la prise de décisions à travers
son objectif d’incorporer la connaissance locale, d’intégrer et de contextualiser
des informations spatiales complexes, de permettre aux participants d’interagir
dynamiquement avec les données (input), d’analyser les alternatives et de valoriser
les individus et les groupes ». Michael Frank Goodchild [2007] a évoqué également
72 Traces numériques et territoires

la naissance d’un crowdsourcing développé à partir d’initiatives individuelles où le


citoyen devient capteur de phénomènes territoriaux.

Aucune de ces critiques n’était très importante il y a dix ans. Tant que des données
officielles étaient la principale source d’information pour les décideurs et les
citoyens, les gens étaient susceptibles d’accepter un certain retard dans le processus
de suivi des territoires. Cependant, l’ordre du jour de la cohésion territoriale a été
fortement modifié par la croissance exponentielle de l’information disponible sur
Internet. Un grand nombre d’informations concernant le développement territorial
est maintenant disponible sur le Web, en introduisant une concurrence claire
pour les producteurs classiques de données. Ce phénomène va bien au-delà de
la néogéographie et du géoweb6 [Haklay et al., 2008 ; Elwood, 2010]. L’apport du
Web 2.0 à la cartographie constitue certainement l’interface la plus évidente de la
rencontre entre Web et territoire, mais cet article veut souligner la présence d’autres
données disponibles sur la Toile, qui correspondent à une vision de cartographie
2.0 [Mericskay et Roche, 2011] plus vaste que celle généralement implicite dans le
concept de géoweb, et qui promettent de transformer les études territoriales.

La traçabilité de la vie des territoires


Comme nous l’avons déjà noté à plusieurs reprises, les nouvelles technologies,
et notamment Internet, ont radicalement changé plusieurs secteurs de la société.
Internet « est le premier moyen de communication moderne qui étend sa portée en
décentralisant la structure capitale de production et distribution de l’information,
de la culture et de la connaissance. Beaucoup du capital physique qui intègre la
plus grande part de l’intelligence dans le réseau est largement diffusée et possédée
par les utilisateurs finaux » [Benkler, 2006 : 29].

Ce qui rend ce changement particulièrement intéressant est le fait qu’il affecte


à la fois la société elle-même et la façon de l’étudier et de la gérer. En effet, la
communication numérique a secoué les conditions de la recherche et de la politique,
en multipliant la disponibilité de traces de phénomènes collectifs. L’avantage des
médias électroniques est que toutes les interactions qui les traversent laissent des
traces numériques qui peuvent être facilement enregistrées, massivement stockées,
puis récupérées et analysées. Ainsi, les médias numériques offrent de nouvelles
bases de données énormes qui peuvent être utilisées pour améliorer l’analyse des
phénomènes sociaux et, par conséquent, le processus de prise de décision qui leur
est lié [Rogers, 2013].

6 Le terme « géoweb » se réfère en général à un ensemble de technologies géospatiales et aux


informations géographiques disponibles sur le Web [Herring, 1994], tels que Google Earth et
MapQuest, où des outils basés sur la localisation, des données et contenus géospatiaux peuvent
être générés et partagés par toute personne ayant un connexion Internet.
Soft data 73

Les traces numériques ne sont pas seulement produites de façon automatique


par les technologies numériques, mais aujourd’hui, nous avons aussi de grandes
quantités de données provenant de nouveaux fournisseurs de données tels que
des membres de réseaux sociaux en ligne et des utilisateurs des plates-formes de
partage de contenu. Dans le contexte du Web 2.0, le succès des médias sociaux
n’est plus en doute et leurs taux de diffusion ont atteint des niveaux sans précédent.
Des centaines de millions d’utilisateurs sont inscrits à ces médias. Ils échangent via
des forums, des blogs et ils maintiennent des pages Facebook, ils racontent leurs
dernières pensées, humeurs ou activités en quelques mots. Le développement
d’appareils mobiles tels que les smartphones ou tablettes a favorisé l’émergence de
ces nouvelles pratiques. En conséquence, les utilisateurs de médias sociaux laissent
des traces de leurs activités en ligne et hors ligne qui peuvent devenir de nouvelles
sources d’information, que dans la suite nous appellerons soft, extrêmement utiles
pour des études territoriales et pour les politiques publiques.

Le besoin d’un nouveau concept est dû, par ailleurs, à la nécessité d’aller au-delà
du phénomène de l’information géographique volontaire [Gooldchild, 2007] qui a
occupé de manière quasi exclusive l’attention des chercheurs qui se sont intéressés
à la rencontre entre géographie et Web. Sans oublier le rôle joué par le citoyen
comme capteur géographique dans des plates-formes comme Wikimapia ou
OpenStreetMap, il est aujourd’hui essentiel de poser notre attention sur d’autres
données disponibles sur le Web qui n’ont pas toujours les caractéristiques de
l’information géographique volontaire. Prenons l’exemple de check-in Facebook,
c’est-à-dire quand un membre de réseau social partage sa position avec ses amis.
Comme l’ont noté Vienne et al. [2014], ces déclarations permettent des définir de
nouvelles géographies de proximité, mais ce n’est pas pour autant qu’on peut utiliser
l’étiquette de information géographique volontaire. En effet, si l’action du check-in
est sûrement une action volontaire, la motivation qui est à la base est difficilement
comparable à celle à l’œuvre dans des applications de VIG dans des contextes de
crise [Roche et al., 2013] ou dans d’autres contextes comme ceux décrits par la
Citizen science [Hand, 2010]. Alors, comme cet exemple le rend clair, de nouvelles
traces numériques sont disponibles aujourd’hui sur le Web qui peuvent fournir une
nouvelle information, plus fraîche et participative, et répondre aux désirs que les hard
data ne pouvaient plus satisfaire. L’objectif de la suite de cet article est de chercher à
en produire une définition qui puisse mettre en avant la nouveauté de cette source
de données et son impact potentiel sur les études territoriales.

CENTRALITÉ ET LIMITE DE LA GÉOLOCALISATION

L’usage des traces numériques pour l’étude des phénomènes collectifs est en
train de se diffuser rapidement dans tous les champs de la société. Prenons par
exemple tous les terrains d’application des big data, résumés efficacement par le
74 Traces numériques et territoires

rapport de Bulger et al. [2014] pour le Oxford Internet Institute. Si l’on considère
le terrain des études territoriales, il faut noter d’abord que ce type d’études
exige une caractéristique précise aux données : la présence d’une information
géographique. Une information, pour être utile dans une analyse territoriale, doit
être liée à l’espace, à une échelle spécifique, encore mieux à un point spécifique
identifiable par des coordonnées géographiques. Les potentialités du numérique
ont sûrement accru ce besoin. Paéz et Scott [2005 : 53], en faisant une courte
histoire du rôle des nouvelles technologies dans les études territoriales, observent :
« une récente expression de la longue tradition dans l’analyse urbaine qui consiste
à adopter rapidement les développements technologiques peut être observée
dans l’adoption des systèmes d’information géographique ». Des outils comme
les GPS ont rendu finalement possible de générer de données géo-référencées en
grande quantité. Cette possibilité technique est certainement très précieuse pour
les études territoriales qui peuvent aujourd’hui s’appuyer sur des informations très
précises concernant les territoires qu’elles analysent. Cependant, il faut noter des
risques importants liés à cette nouvelle centralité de la géolocalisation.

En premier lieu, comme nous l’avons noté dans un article précédent [Romele et
Severo, 2014], l’action de géolocalisation n’est pas neutre, elle cache toute une série
de choix liés à la plate-forme technique qui génère les coordonnées géographiques
et à la personne qui déclare sa position. En effet, il faut prendre en compte
les « intentions de l’utilisateur » ainsi que le fait que l’action de géolocalisation
sur une plate-forme du Web 2.0 peut être une action volontaire mais est plus
souvent le résultat d’un artefact technologique. Comme on l’a déjà noté, cela
signifie que ces traces numériques, apparemment fiables et objectives, doivent être
problématisées et approfondies. Notamment, l’impact des outils employés pour
récolter et analyser ces informations géo-taggées ne doit pas être sous-évalué.
L’analyse des outils de scraping proposée par Marres et Weltevrede [2013] constitue
un exemple optimal de l’attitude qu’il faut tenir vers les méthodes numériques
employées pour étudier ces traces du social.

En deuxième lieu, l’importance et la puissance de la géolocalisation, à notre


avis, ont porté à négliger d’autres caractéristiques de ces nouvelles données qui
méritent l’attention du chercheur. Dans cette direction, il faut citer la réflexion
de Crampton et al. [2013] qui soulignent la nécessité d’aller au-delà du géotag
dans l’analyse des big data pour les études territoriales. Les auteurs proposent
cinq solutions alternatives à l’information géographique classique pour identifier
les lieux dans les discours sur Internet. Ces cinq extensions des coordonnées
géographiques sont : « (1) aller au-delà du média social qui est explicitement
géographique ; (2) aller au-delà des spatialités du “ici et maintenant” ; (3) aller au-
delà de ce qui est proche ; (4) aller au-delà de l’humain vers des données produites
par des robots et des systèmes automatisés et (5) aller au-delà du géoweb même,
en exploitant ces sources contre les donnés accessoires, tels que les bulletins
d’informations et les données de recensements. Nous voyons ces extensions
Soft data 75

des méthodologies existantes comme fournissant le potentiel pour dépasser les


limitations actuelles de l’analyse du géoweb » [Crampton et al., 2013 : 2].

Par ailleurs, Mark Graham et Mattew Zook soulignent que « les lieux sont de
plus en plus définis par des couches denses et complexes de représentation
qui sont créées, accédées, et filtrées à travers les technologies numériques et
souvent à travers des lignes opaques d’algorithmes codés » [Graham et Zook,
2013 : 77]. Ils continuent en expliquant que « ces dimensions numériques de
lieux sont fragmentées en plusieurs axes comme le site, le langage et les réseaux
sociaux, avec des représentations également éclatées en fonction d’ensembles
uniques d’individus » [op. cit. : 78]. En ligne avec telle vision théorique, les auteurs
définissent de nouvelles géographies en étudiant la distribution des langues dans
les médias sociaux. En deux mots, les auteurs concluent : « outre à dévoiler où,
nous cherchons de comprendre quoi, pourquoi et qui » [op. cit. : 95].

Ces études nous aident à poser l’accent sur la variété et la richesse des informations,
que les données numériques peuvent offrir aux chercheurs et décideurs publics qui
s’occupent de gestion du territoire à toute échelle. Les coordonnées géographiques
sont certainement des données précieuses et puissantes qui permettent d’avoir une
vision ponctuelle de l’espace physique, même si cela ne doit pas devenir une limite
dans l’exploitation du potentiel qu’offre le numérique pour étudier l’espace social
et les phénomènes collectifs. C’est pour cela que dans le prochain paragraphe nous
essayerons de proposer une nouvelle définition de données numériques pour les
études territoriales basée sur un système plus articulé des caractéristiques.

LE BESOIN D’UNE DÉFINITION ALTERNATIVE : LES SOFT DATA

Le terme soft data n’est sans doute pas nouveau. Selon Cole [1983], il trouve ses
racines dans la hiérarchisation des sciences proposée par Comte au XIXe siècle.
En épistémologie des sciences, la distinction est introduite par Bertrand Russel
en 1914. Dans son Our knowledge of the external world as a field for scientific method in
philosophy, le philosophe définit d’abord les data comme étant « des objets (matters)
de connaissance commune, vagues, complexes et inexacts comme l’est toujours la
connaissance commune, mais néanmoins commandant de quelque manière notre
assentiment comme sur le tout et dans certaines interprétations quasi certainement
vraies » [Russel, 1914 : 65]. En d’autres termes, les données sont des connaissances
préthéoriques, communément acceptées et généralement vraies, bien qu’encore
confuses. Dans le livre posthume De la Certitude, Wittgenstein appellera ces formes
de connaissance « images du monde » (Weltbildern). A la différence de Wittgenstein,
selon qui les visions du monde ne peuvent pas être soumises à des jugements de
vérité et fausseté, Russel utilise la vérité empirique et de la logique pour ordonner
les données sur une échelle qui va du hard au soft : « Par “hard” data je veux dire celles
qui résistent à l’influence dissolvante de la réflexion critique, et par “soft” data celles
76 Traces numériques et territoires

qui, sous l’opération de ce procès, deviennent à nos esprits plus ou moins douteuses.
Les plus dures des hard data sont de deux espèces : les faits particuliers des sens et
les vérités générales de la logique » [Russel, 1914 : 70-71]. Déjà dans cette première
définition, la frontière entre hard data et soft data n’est pas claire. De surcroît, les
deux notions sont données par défaut par rapport à un modèle qui, comme l’a bien
démontré le Wittgenstein des Recherches philosophiques, est déjà problématique en soi.

À partir de cette distinction entre données dures et molles, les interprètes sont
arrivés à parler de hard sciences et soft sciences. Or, il y a au moins trois manières de
discerner ces deux types de sciences. La première, la plus immédiate, est à partir de
leurs objets respectifs. Toutefois, comme nous venons de le dire, l’idée selon laquelle
les objets des mathématiques, de la logique ou des sciences tels que la physique ou
la biologie sont des référents durs a été défiée par les considérations du « deuxième »
Wittgenstein. La deuxième est à partir des différentes méthodologies au sens large, i.e.
les techniques et technologies que chaque science utilise. Le philosophe Hans-Georg
Gadamer, dans son œuvre majeure Vérité et Méthode, distinguait par exemple entre
les disciplines de la vérité, comme l’art, l’histoire et la philosophie, et les sciences
de la méthode. La validité de cette distinction a été néanmoins niée par le succès
des sciences structurales du langage, qui s’efforçaient d’utiliser une méthodologie
rigoureuse dans des contextes normalement considérés comme mous comme la
littérature. En outre, la perspective gadamérienne ne fournissait pas de réponse pour
les cas limites de certaines sciences à l’époque déjà florissantes, comme la sociologie
et la psychanalyse, trop « dures » pour être considérées comme disciplines de la vérité
mais encore trop « molles » pour être accueillies parmi les sciences de la méthode.

Loin d’être dépassées, ces deux manières simplistes de discriminer entre sciences
dures et sciences molles sont encore bien présentes dans la littérature. En 1986,
le mathématicien Serge Lang accusait le candidat à la National Academy of Sciences,
Samuel Huntington, d’utiliser des pseudo-mathématiques dans ses analyses en
sciences politiques : « Comment Huntington mesure-t-il des choses comme la
frustration sociale ? Possède-t-il un compteur de frustration sociale ? Je conteste
à l’académie de certifier comme science de simples opinions politiques » [Lang,
1988]. Comme l’observe Diamond [1987], « la question que Lang soulève est
centrale à toute science, hard ou soft. Elle pourrait être définie comme la nécessité
d’“opérationnaliser” un concept. [… ] Malheureusement, opérationnaliser se prête
au ridicule en sciences sociales, parce que les concepts étudiés tendent à être
des concepts familiers sur lesquels nous tous imaginons être des experts ». Les
distinctions entre données dures et molles « orientées objet et méthode » sont
aujourd’hui communes dans le domaine des affaires [Stawarski et Phillips, 2008 :
108], de la géostatistique [Zhang et al., 2008 ; Lu et al., 2010], des sciences de
l’information [Pravia et al., 2008 ; Prentice et Shapiro, 2011], et d’autres encore.
Soft data 77

La troisième manière de distinguer entre hard et soft sciences est celle développée
par la sociologie de la connaissance scientifique, à ne pas confondre avec la
sociologie des sciences [Collins, 1983]. En s’appuyant sur les travaux liminaires
de Robert King Merton sur la reconnaissance et la récompense dans le domaine
des sciences, Norman W. Storer [1967] affirmait que la distinction entre sciences
dures et sciences molles ne peut s’appuyer ni sur une question d’objets visés, ni sur
l’idée qu’une hard science comme la physique nécessite une concentration majeure,
plus d’heures de travail et d’exercices en laboratoire qu’une soft science telle que la
sociologie7. La différence repose plutôt sur la difficulté qu’ont les sciences dures à
contribuer de manière significative à la discipline et donc aussi sur le risque assumé
par le chercheur à chaque contribution : « “Hardness” en ce sens [… ] suggère aussi
un degré de difficulté impliqué dans la tentative de contribuer au sujet et ainsi
un degré de risque qu’un scientifique prend quand il propose une contribution »
[op. cit. : 79]. La hardness des sciences a des effets directs sur les relations sociales
entre scientifiques : « si nous concluons qu’il y a plus de risque impliqué dans
la contribution en sciences dures qu’en sciences molles parce que les collègue
peuvent plus facilement identifier toute faiblesse dans le travail de quelqu’un, il
pourrait être que ce quelqu’un se sent moins “proche” de ces collègues en termes
de chaleur et confiance » [op. cit. : 79]. L’hypothèse était que l’impersonnalité des
sciences dures pouvait être mesurée « en cherchant si, en citant le travail d’autres
scientifiques, l’auteur d’un rapport de recherche a utilisé le prénom ou seulement
les initiales » [op. cit. : 80]. Les résultats des recherches conduites sur un échantillon
de publications dans dix domaines scientifiques confirmèrent cette hypothèse. Sur
la même ligne s’insère le travail de Solla Price dans Citation Measures of Hard Science,
Soft Science, Technology, and Non Science (1969), qui avance l’hypothèse selon laquelle
les hard sciences se caractérisent par l’immédiateté des citations, c’est-à-dire par le
fait que les références dans un article tendent à ne pas dépasser les cinq années
précédentes. Pour cette raison, plus haute est la quantité de vieilles citations, plus
probable est que l’article en question appartienne au domaine des sciences molles.

De cette histoire nous pouvons retenir au moins deux éléments. Premièrement, la


difficulté générale à tracer une ligne nette entre hard sciences et soft sciences. D’ailleurs,
plusieurs auteurs ont distingué entre une attitude « molle » et une attitude « dure »
dans la même discipline. La différence entre philosophie continentale et analytique

7 Similairement, Soler [2000 : 24] affirme que « l’opposition sciences dures/sciences molles n’est pas
à placer sur le même plan que [les autres classifications des sciences], dans la mesure où elle repose
essentiellement sur un jugement de valeur : parler de sciences “molles” est évidemment péjoratif ».
Dans l’éditorial de Nature 487/271 (19 juillet 2012), on trouve une défense des sciences sociales en
ces termes : « Une partie de la responsabilité doit se trouver dans la pratique d’étiqueter les sciences
sociales comme étant soft, que trop rapidement se traduit comme signifiant vagues et stupides (soft-
headed). Dans la mesure où ils ont à avoir avec des systèmes hautement complexes, capables de
s’adapter et non réglé de manière rigoureuse, les sciences sociales sont parmi les disciplines les plus
difficiles, méthodologiquement et intellectuellement ».
78 Traces numériques et territoires

repose précisément sur l’idée que cette dernière utilise une méthodologie plus
solide et a des objets d’investigation bien définis, notamment la logique. Dans la
sociologie aussi on a essayé de distinguer entre hard-data sociology et soft-data sociology
[Eriksson, 1978]. Face à cette difficulté, les interprètes ont ainsi dû développer des
méthodologies astucieuses comme celles que nous venons de voir. Deuxièmement,
nous pouvons retenir quelque chose du fait que les dernières définitions dont nous
avons parlé ont la particularité d’être intra- et inter-textuelles, mais de ne pas aller
au-delà de la production scientifique comme production de textes scientifiques.
Une fois écartée la possibilité de distinguer entre sciences dures et molles à partir de
leurs objets et de leurs techniques, il reste une distinction toute interne aux manières
respectives de produire des textes. Par conséquence, en utilisant la terminologie de
la linguistique, nous pouvons dire que la distinction entre sciences dures et molles
est ici de nature synchronique et non diachronique. Mais alors toutes les sciences
finissent par perdre au moins une partie de leur hardness. Les travaux de Bruno
Latour sur la construction des objets scientifiques (Pasteurisation) nous mènent
précisément dans cette direction.

Or, nous choisissons ici l’étiquette soft data pour trois raisons. Premièrement,
précisément parce que nous croyons qu’en général les données ont une nature
plus molles que ce qui a leur été attribué dans les sciences. Comme nous l’avons
dit dans le deuxième chapitre, les data ne sont ni de nature ontologique, comme
les faits, ni de nature épistémologique, comme les évidences, mais de nature
rhétorique ou « diaphorique ». Selon cette perspective, nous pouvons dire que si
« raw data is an oxymoron » [Gitelman, 2013], alors « soft data est un pléonasme ». Dans
leur réflexion, Gerardi et Turner [Gerardi et Turner, 2002] cherchent à construire
des bases théoriques solides pour la recherche qualitative en sciences sociales. Dans
Real man don’t collect soft data, ils affirment justement que la distinction entre hard et
soft « néglige le substrat de méthodes, perceptions, capacités et attentes implicites
qui imprègnent toute investigation, quelle que soit son organisation systématique,
et surestime l’importance des chiffres et des mesures » [op. cit. : 34].

Deuxièmement, nous choisissons ici l’étiquette soft data parce que nous pensons que
ceci est d’autant plus vrai dans le cas des données numériques. Si dans l’opposition
traditionnelle le terme soft sert à souligner l’absence de rigueur et de structure des
données dans les sciences humaines et sociales, ici nous volons poser l’accent sur
le fait que c’est exactement cette forme moins structurée qui rend intéressante
l’information contenue dans ces données. L’étiquette « soft data » permet de marquer
une différence par rapport à la prétention de hardness qui se cache derrière les
définitions de big data et d’open data. Encore une fois, comme nous l’avons dit en
introduisant ces termes dans la deuxième partie, la littérature a récemment mis
à dure épreuve l’idée selon laquelle les grandes bases de données représentent
une nouveauté épistémologique, une automatisation absolue et sans faille de tout
processus de connaissance. De surcroît, nous avons montré comment les données
Soft data 79

ouvertes ne font rien d’autre, du point de vue épistémologique, que reprendre ce


modèle d’exactitude présumée.

Troisièmement, c’est dans la pratique concrète de l’utilisation des données


numériques pour l’étude des territoires que nous voyons un avantage à l’utilisation
du terme soft data. Dans ce contexte, les soft data peuvent être définies comme
des données disponibles sur Internet8, généralement non contrôlées par une
administration. Elles sont constituées principalement – mais non seulement – par
les nouveaux types de données issues du Web 2.0 (Facebook, Twitter, fils RSS, etc.)
qui s’offrent au décideur public comme une source originale et riche d’informations
sur les phénomènes sociaux qui ont lieu dans un territoire. Elles se caractérisent
aussi par le fait d’être visible sur Internet et donc potentiellement accessibles et
récoltables. En ce sens, les soft data présentent des avantages par rapport à d’autres
sources de données : (1) un délai plus court de publication utile pour l’action
publique. Un exemple classique de cette réactivité est donné par l’enregistrement
des tremblements de terre par les médias sociaux comme Twitter. De nombreux
chercheurs [Sakaki et al., 2010] ont démontré que les utilisateurs de réseaux sociaux
peuvent être considérés comme des capteurs, capables de localiser les événements
catastrophiques en temps réel et de suivre leur développement ; (2) la couverture
de nouveaux sujets d’intérêt comme les modes de déplacement dans les zones
urbaines, la pauvreté et l’exclusion sociale, les sentiments des citoyens envers les
politiques publiques [Weller et al., 2014] ; 3) l’élaboration bottom-up, comme le montre
l’exemple d’Open Street Map, qui offre une alternative aux cartes officielles produites
par les instituts géographiques, mais encore plus toutes les données qui peuvent être
récoltées à partir des média sociaux. Ces données participatives peuvent également
être utilisées à des fins non prévues par leur créateur pour créer une information
sur mesure utile au décideur public [Severo et al., 2015].

Regarder les données du Web comme étant « molles » plutôt que « grandes » ou
« ouvertes » a aussi ses avantages. Par rapport à l’étiquette big data, parler de soft
data nous permet de souligner que les données numériques peuvent être bien
utiles pour les politiques publiques même si elles n’ont pas le volume, la vitesse
et la variété des grandes bases de données. Dans une époque de big data, les small
data ont encore une grande valeur : « les small data peuvent se focaliser sur des
cas spécifiques et raconter des histoires individuelles, nuancées et contextuelles.
Les études à partir des small data visent à trouver de l’or en travaillant dans des
mines étroites, tandis que les études à partir des big data visent à extraire des
pépites en creusant à ciel ouvert, en ramassant et criblant de grandes étendues

8 Souvent l’étiquette « données non structurées » est utilisées pour identifier ces données disponibles
sur le Web. Cependant, nous trouvons cette étiquette restrictive pour deux raisons. En premier lieu,
les données disponibles sur Internet ne sont pas toujours non structurées, mais si on y retrouvent pas
les structures classiques des données pour la recherche, elles sont souvent très codifiées et enrichies
de métadonnées. En deuxième lieu, le fait de caractériser ces données simplement pour leur forme, ne
permet pas de capturer toutes les spécificités liées à leur provenance et leur signification pour les SHS.
80 Traces numériques et territoires

de terrain » [Kitchin, 2014b : 4]. Par rapport aux open data, un regard orienté soft
permet d’accueillir toutes les données qui ne sont pas libres de droit. Les données
sur Internet sont souvent produites par des sujets, individuels ou collectifs, privés
ou publics, qui en gardent la propriété. Last but not least, le terme soft data offre un
abri à toutes les données numériques qui ne sont pas construites avec la rigueur
ontologique et épistémologique exigée par les big data et les open data.

CONCLUSION

Cet article visait à réfléchir sur l’usage des données numériques dans les études
territoriales. Dans la partie introductive, nous avons montré comment les auteurs
qui ont contribué le plus à développer cet enthousiasme pour les données
numériques se trouvent aujourd’hui à faire un pas en arrière et à assumer des
positions bien plus prudentes, voire pessimistes. Comme nous avons argumenté
dans la deuxième partie, c’est la nature même des données, et des données
numériques en particulier, qui nous impose une attitude différente. En ce qui
concerne les premières, nous avons dit qu’elles n’ont pas une nature ontologique
« dure », car leur référence dépend en grande partie des intentions – de la
pragmatique, pour utiliser le langage de Peirce – de leur utilisateur. A propos des
données numériques, nous avons travaillé les catégories de big data et open data avec
l’intention de déconstruire leur prétention à une épistémologie et méthodologie
hard. La littérature sur les grandes bases de données admet de plus en plus le
regard (critique) du chercheur là où auparavant elle voyait un procès automatisé,
anonyme et objectif. Si du point de vue socio-économique et socio-politique les
données ouvertes représentent une possible alternative aux big data, du point de
vue de leur fonctionnement elles reprennent le désir de complétude, primauté,
opportunité et exploitation automatique des big data. Dans la troisième partie, nous
avons orienté notre critique vers les traces numériques pour l’étude du territoire.
A ce propos, le cas des données géoréférencées s’est démontré paradigmatique.
Premièrement, parce qu’en dépit de son importance indiscutable, l’action de
géolocalisation n’est pas neutre, elle cache toute une série de choix liés à la plate-
forme technique qui génère les coordonnées géographiques et à la personne qui
déclare sa position. Deuxièmement, car les chercheurs ont souvent surestimé la
puissance de la géolocalisation à représenter de manière fidèle la réalité sociale, en
négligeant ainsi d’autres caractéristiques de ces nouvelles données.

L’attitude prudente et critique démontrée jusqu’ici ne s’est pourtant pas


transformée en pessimisme. Dans la quatrième partie nous avons en effet jeté
les bases pour une nouvelle définition qui peut rendre compte des faiblesses
attestées, en transformant ces faiblesses en une ressource potentielle. La catégorie
de soft data ne représente pas une alternative aux big data ou aux open data, mais il
s’agit plutôt d’une étiquette plus inclusive. Au cours de cette partie, nous avons
Soft data 81

d’abord montré comment la réserve générale envers les donnés soft ne tient pas.
La distinction entre sciences « dures » et « molles » ne peut se baser ni sur leurs
objets ni sur leurs méthodologies respectives. De surcroît, la discrimination inter-
et intra- textuelle proposée par la sociologie de la connaissance scientifique ne fait
que faire perdre un peu de hardness à toutes les sciences. Le terme de « soft data » est
préférable non seulement pour nommer les données scientifiques en général, mais
aussi les données numériques et les traces numériques pour l’étude du territoire en
particulier. Il nous permet surtout d’accueillir les data qui n’ont pas la voluminosité,
la vitesse et la variété des grandes bases de données ni la forme déjà structurée et
libre de droit des données ouvertes. C’est précisément avec ces données de nature
mixte que les institutions publiques doivent aujourd’hui apprendre à travailler.
En conclusion, cette proposition de définition est une invitation aux chercheurs
et aux décideurs publics à prendre conscience de la spécificité des données du
Web pour l’étude du territoire et de la nécessité d’identifier des procédures et
des techniques adéquates pour gérer certaines des problématiques mentionnées
jusqu’ici, comme la question de la propriété des données, de leur hétérogénéité et
de leur lien complexe avec l’espace.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 2008] Anderson, C., « The end of theory », Wired magazine, 16(7), 16-17.
[Benkler, 2006] Benkler, Y., 2006, The wealth of Networks. How social Production transforms Markets
and Freedom, New Haven et London : Yale University Press.
[Beurskens, 2014] Beurskens, M., 2014, « Legal Questions of Twitter Research », In Weller, K.,
Bruns, A. et Burgess, J. E. (dir.), Twitter and society, Peter Lang, pp 123-133.
[Bizer et al., 2009] Bizer, C., Heath, T. et Berners-Lee, T., 2009, « Linked Data: The Story so Far »,
http://tomheath.com/papers/bizer-heath-berners-lee-ijswis-linked-data.pdf.
[boyd et Crawford, 2011] boyd, D. et Crawford, K., « Six Provocations for Big data », A Decade in
Internet Time: Symposium on the Dynamics of the Internet and Society, http://ssrn.com/
abstract=1926431.
[boyd et Crawford, 2012] boyd, D. et Crawford, K., 2012, « Critical questions for big data:
Provocations for a cultural, technological, and scholarly phenomenon »,
Information, communication & society, 15(5), 662-679.
[Bulger et al., 2014] Bulger, M., Taylor, G. et Schroeder, R., 2014, Data-Driven Business Models:
Challenges and Opportunities of Big data, Oxford Internet Institute.
[Burt et al., 2009] Burt, J. E., Barber, G. M. et Rigby, D. L., 2009, Elementary Statistics for Geographer,
New York : Guilford Press.
[Castells, 2001] Castells, M., 2001, The Internet galaxy: Reflections on the Internet, business, and society,
Oxford : Oxford University Press.
[Chignard, 2013] Chignard, S., 2013, « A brief History of Open Data », ParisTech Review, http://
www.paristechreview.com/2013/03/29/brief-history-open-data.
82 Traces numériques et territoires

[Cole, 1983] Cole, S., 1983, « The Hierarchy of the Sciences? » American Journal of Sociology, 89,
111-139.
[Collins, 1983] Collins, H. M., 1983, « The Sociology of Scientific Knowledge: Studies of
Contemporary Science », Annual Review of Sociology, 9, 265-285.
[Crampton et al., 2013] Crampton, J. W., Graham, M., Poorthuis, A., Shelton, T., Stephens, M.,
Wilson, M. W. et Zook, M., 2013, « Beyond the geotag: situating “big data” and
leveraging the potential of the geoweb », Cartography and Geographic Information
Science, 40(2), 130-139.
[Delaney, 2005] Delaney, D., 2005, Territory: A Short Introduction, Malden, MA : Blackwell.
[Derrida, 1995] Derrida, J., 1995, Mal d’archive, Paris : Galilée.
[Derrida, 1971] Derrida, J., 1971, « La mythologie blanche », Marges de la philosophie, Paris : Editions
de Minuit.
[Diamond, 1987] Diamond, J., 1987, « Soft sciences are often harder than hard sciences », Discover,
août.
[Diebold, 2012] Diebold, F. X., 2012, « A personal Perspective on the Origin(s) and Development
of “Big data”: the Phenomenon, the Term, and the Discipline », Working paper,
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2202843.
[Driscoll, 2012] Driscol, K., 2012, « From Punched Cards to “Big data”: A Social History of
Database Populism », communication + 1, 1(4), http://scholarworks.umass.edu/
cpo/vol1/iss1/4.
[Elwood, 2010] Elwood, S., 2010, « Geographic information science: Emerging research on the
societal implications of the geospatial web », Progress in Human Geography, 34(3),
349-357.
[Eriksson, 1978] Eriksson, I., 1978, « Soft-Data Sociology », Acta Sociologica, 21(2), 103-124.
[Fassmann et al., 2009] Fassmann, H., Reeger, U. et Sievers, W., 2009, Statistics and Reality: Concepts
and Measurements of Migration in Europe, Amsterdam : Amsterdam University Press.
[Floridi, 2008] Floridi, L., 2008, « Data », In Darity, W. A. (dir), International Encyclopedia of the Social
Sciences, Detroit : Macmillan.
[Frasera et al., 2006] Frasera, E. D.G., Dougilla, A. J., Mabeeb, W. E., Reeda, M. et McAlpinec,
P., 2006, « Bottom up and top down: Analysis of participatory processes for
sustainability indicator identification as a pathway to community empowerment
and sustainable environmental management », Journal of Environmental Management,
78, 114-127.
[Gerardi et Turner, 2002] Gerardi, S. et Turner, B., 2002, « Real men don’t collect soft data », In
Huberman, A. Michael et Miles, Matthew B., The qualitative researcher’s companion,
Thousand Oaks : Sage, 81-100.
[Gitelman, 2013] Gitelman, L., 2013, Raw Data is an oxymoron, Cambridge, MA : MIT Press.
[Ginsberg et al., 2009] Ginsberg, J., Mohebbi, Matthew H., Patel, R. S., Brammer, L., Smolinski,
M. S. et Brilliant, L., 2009, « Detecting influenza epidemics using search engine
query data », Nature, 457 (7232), 1012-4.
[Goodchild, 2007] Goodchild, M. F., 2007, « Citizens as sensors: the world of volunteered
geography », GeoJournal, 69(4), 211-221.
Soft data 83

[Goodchild et al., 2007] Goodchild, M. F., Fu, P. et Rich, P., 2007, « Sharing geographic information:
An assessment of the Geospatial One-Stop », Annals of the Association of American
Geographers, 97(2), 250-266.
[Graham et Zook, 2013] Graham, M. et Zook, M., 2013, « Augmented realities and uneven
geographies: exploring the geolinguistic contours of the web », Environment and
Planning A, 45(1), 77-99.
[Guermond, 2011] Guermond, Y., 2011, « Les banques de données géographiques régionales e
de la révolution du libre accès à la participation citoyenne », L’Espace géographique,
2(40), 97-102.
[Gurstein, 2013] Gurstein, M. B., 2013, « Empowering the Empowered or effective Data Use for
Everyone? », First Monday, 16(2).
[Haklay et al., 2008] Haklay, M., Singleton, A. et Parker, C., 2008, « Web mapping 2.0: The
neogeography of the GeoWeb », Geography Compass, 22(6), 2011-2039.
[Hand, 2010] Hand, E. (2010). « Citizen science: People power », Nature, 466, 7307, 685-687.
[Herring, 1994] Herring, C., 1994, « An architecture of cyberspace: Spatialization of the Internet »,
US : Army Construction Engineering Research Laboratory.
[Hey et Trefethen, 2003] Hey, A. J. G. et Trefethen, A. E., 2003, « The Data Deluge: An e-Science
Perspective », In Berman, F., Fox, G., et Hey, A. J. G. (éd.), Grid Computing: Making
the Global Infrastructure a Reality, John Wiley and Sons, pp 1-17.
[Kitchin, 2014a] Kitchin, R., 2014, The Data Revolution: Big data, Open Data, Data Infrastructures
and their Consequences, London : Sage, Kindle Edition.
[Kitchin, 2014b] Kitchin, R., 2014, « Big data, new Epistemologies and paradigm shift », Big data
& Society, 1(1), 1-12.
[Kitchin et Lauriault, 2014] Kitchin, R. et Lauriault, T. P., 2014, « Small Data in the Era of Big
data », GeoJournal, 1-13.
[Lang, 1998] Lang, S., 1998, « Academia, Journalism, and Politics: A Case Study: The Huntington
Case », Challenges, New York : Springer Science & Business Media, 1-222.
[Latour et al., 2013] Latour, B., Jensen, P., Venturini, T., Grauwin, S. et Boullier, D., 2013, « Le
tout est toujours plus petit que les parties. Une expérimentation numérique des
monades de Gabriel Tarde », Réseaux, 31(177), 199-233.
[Latour, 1993] Latour, B., 1993, The pasteurization of France, Harvard University Press.
[Latour et Woolgar, 1986] Latour, B. et Woolgar, S. (1986), Laboratory Life L The Construction of
scientific Facts, Princeton : Princeton University Press.
[Lazer et al., 2014] Lazer, D. M., Kennedy, R., King, G. et Vespignani, A., 2014, « Big data. The
parable of Google Flu: Traps in big data analysis », Science, 343(6176), 1203-1205.
[Lazer et al., 2009] Lazer, D., Pentland, A., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D.,
Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G.,
Macy, M., Roy, D. et Van Alstyne, M., 2009, « Computational social science »,
Science, 323(5915), 721-3.
[Lohr, 2013] Lohr, S., 2013, The Origins of Big data: An etymological detective Story, http://bits.blogs.
nytimes.com/2013/02/01/the-origins-of-big-data-an-etymological-detective-
story.
84 Traces numériques et territoires

[Marres et Weltevrede, 2013] Marres, N. et Weltevrede, E., 2013, « Scraping the social? », Journal
of Cultural Economy, 6(3), 313-335.
[Marres, 2012] Marres, N., 2012, « The redistribution of methods: on intervention in digital social
research, broadly conceived », The sociological review, 60(S1), 139-165.
[Mashey, 1998] Mashey, J., 1998, « Big data and the Next Wave Infrastress », Computer Science
Division Seminar, Berkeley : University of California.
[Mayer-Schönberger et Cukier, 2013] Mayer-Schönberger, V. et Cukier, K., 2013, Big data: A
Revolution That Will Transform How We Live, Work, and Think, Eamon Dolan/
Mariner Books [réimpression].
[Mericskay et Roche, 2011] Mericskay, B. et Roche, S., 2011, « Cartographie 2.0 : le grand public,
producteur de contenus et de savoirs géographiques avec le web 2.0 », Cybergeo/
European Journal of Geography, 552, http://cybergeo.revues.org/24710.
[Merton, 1973] Merton, R. K., 1973, « The normative Structure of Science », In The Sociology of
Science. Theoretical and empirical Investigations, Chicago : University of Chicago Press.
[Nature, 2012] « A different agenda », Editorial, Nature, 487(7407), 271.
[Paéz et Scott, 2005] Paéz, A. et Scott, D. M., 2005, « Spatial statistics for urban analysis: a review
of techniques with examples », GeoJournal, 61(1), 53-67.
[Pravia et al., 2008] Pravia, M. A., Prasanth, R. K., Arambel, P. O., Sidner, C. et Chong, C. Y.
2008, « Generation of a fundamental data set for hard/soft information fusion »,
Proceedings of the 11th International Conference on IEEE.
[Prentice et Shapiro, 2011] Prentice, M. et Shapiro, S. C., 2011, « Using propositional graphs for
soft information fusion », Information Fusion (FUSION), Proceedings of the 14th
International Conference on IEEE.
[Rheinberger, 1997] Rheinberger, H.-J., 1997, Toward a History of Epistemic Things: Synthesizing
Proteins in the Test Tube, Stanford, CA : Stanford University Press.
[Roche et al., 2013] Roche, S., Propeck-Zimmermann, E. et Mericskay, B., 2013, « GeoWeb
and crisis management: issues and perspectives of volunteered geographic
information », GeoJournal, 78(1), 21-40.
[Rogers, 2013] Rogers, R., 2013, Digital methods, Cambridge, MA : MIT press.
[Romele et Severo, 2014] Romele, A. et Severo, M., 2014, « Une approche philosophique de la ville
numérique : méthodes numériques et géolocalisation », In Carmes, M. et Noyer,
J.-M. (dir.), Devenirs urbains, Paris : Presses des Mines, pp 205-225.
[Rosenberg, 2013] Rosenberg, D., 2013, « Data before Facts », In Gitelman, L. (dir.), Raw Data is
an oxymoron, Cambridge, MA : MIT Press, pp 15-25.
[Russell, 1914] Russell, B., 1914, Our knowledge of the external world as a field for scientific
method in philosophy, Open Court.
[Sakaki et al., 2010] Sakaki, T., Okazaki, M. et Matsuo, Y., 2010, « Earthquake shakes Twitter users:
real-time event detection by social sensors », Proceedings of the 19th international
conference on World wide web.
[Severo et al., 2015] Severo, M., Giraud T. et Pecout, H., 2015, « Twitter data for urban policy
making: an analysis on four European cities », Twitter for Research conference, Lyon.
Soft data 85

[Sieber, 2006] Sieber, R., 2006, « Public participation geographic information systems: A literature
review and framework », Annals of the Association of American Geographers, 96(3),
491-507.
[Soler, 2000] Soler, L., 2000, Introduction à l’épistémologie, Paris : Ellipses.
[Stawarski et Phillips, 2008] Stawarski, C. et Phillips, P. P., 2008, Data collection: Planning for and
collecting all types of data, Oxford : John Wiley and Sons.
[Storer, 1967] Storer, N. W., 1967, « The hard Sciences and the Soft: Some Sociological
Observations », Bulletin of the Medical Library Association, 55, 75-84.
[Strasser, 2012] Strasser, B. J., 2012, « Data-driven sciences: from wonder cabinets to electronic
databases », Studies in History and Philosophy of Biological and Biomedical Sciences, 43,
85-87.
[Unsworth et al., 2014] Unsworth, K., Forte, A. et Dilworth, R., 2014, « Urban Informatics:
The Role of Citizen Participation in Policy Making », Journal of Urban Technology,
21(4), 1-5.
[Venturini et al., 2014] Venturini, T., Baya Laffite, N., Cointet, J.-P., Gray, I., Zabban, V. et De
Pryck, K., 2014, « Three maps and three misunderstandings: A digital mapping
of climate diplomacy », Big data & Society, 1, 2.
[Venturini et Latour, 2014] Venturini, T. et Latour, B., 2010, « The social fabric: Digital traces and
quali-quantitative methods », In Proceedings of Futur en Seine 2009, Paris : Editions
Futur en Seine, 87-101.
[Vienne et al., 2014] Vienne, F., Douay, N., Le Goix, R. et Severo, M., 2014, « Lieux et hauts lieux
des densités intermédiaires : une analyse par les réseaux sociaux numériques »,
ASRDLF 2014.
[Weiss et Indurkhya, 1998] Weiss, S. et Indurkhya, N., 1998, Predictive Data Mining: A Practical Guide,
San Francisco : Morgan Kaufmann Publishers.
[Weller et al., 2014] Weller, K., Bruns, A., Burgess, J., Mahrt, M. et Puschmann, C. (éd.), 2014,
Twitter and society, New York : Peter Lang.
[Whatmore, 2009] Whatmore, S. J., 2009, « Mapping knowledge controversies: science, democracy
and the redistribution of expertise », Progress in Human Geography, 33(5), 587-598.
[Wilken, 2014] Wilken, R., 2014, « Twitter and Geographical Location », In Weller, K., Bruns,
A., Burgess, J., Mahrt, M. et Puschmann, C. (éd.), Twitter and society, New York :
Peter Lang.
[Woolgar, 2002] Woolgar, S. (dir), 2002, Virtual society? Technology, cyberbole, reality, Oxford : Oxford
University Press.
[Zhang et al., 2008] Zhang, T., Lu, D. et Li, D., 2008, « A statistical information reconstruction
method of images based on multiple-point geostatistics integrating soft data
with hard data », Computer Science and Computational Technology, 2008, ISCSCT’08,
International Symposium on IEEE, pp 573-578.
L’identité comme base de données
Identité personnelle et culturelle à l’ère de la mise en données du monde

Jos de Mul
INTRODUCTION

Le 27 février 2004, j’ai pris part au débat plutôt passionné qui agitait les Pays-Bas
sur le multiculturalisme en publiant un essai dans le NRC Handelsblad, un des
grands quotidiens néerlandais1. Cet article commençait par la brève description
d’une jeune Arabe qui, quelques mois auparavant, passait près de moi glissant sur
des rollers dans la station de métro Kralingse Zoom à Rotterdam. Elle semblait
être étudiante et se rendre, tout comme moi, à l’Université Erasme. Vêtue d’un
sarouel bouffant et d’un t-shirt arborant un smiley, et portant un petit sac à dos,
sa tête était couverte d’un foulard d’où dépassait le cordon de l’oreillette de son
téléphone portable. Lorsqu’elle fut assez proche de moi, je pus capter quelques
bribes de la conversation qu’elle menait, dans cet étrange mélange d’arabe et de
néerlandais mâtiné d’un fort accent de Rotterdam, avec une amie, pour autant que
je puisse le deviner au ton de la discussion. Pareille image d’une jeune musulmane
patinant sur des rollers était assez inattendue en 2004. Pourtant, à en croire un
des articles parus récemment sur le site Web de la communauté turque aux Pays-
Bas, la pratique du roller connaît un succès grandissant chez les jeunes filles
musulmanes néerlandaises2. De plus, cette pratique tendrait à gagner en popularité
dans des cercles musulmans plus orthodoxes. En avril 2012, les amateurs de
patinage artistique en Italie ont eu la faveur de voir Zahra Lari être la première
patineuse venue du Golfe à évoluer en niqab.

La raison pour laquelle je commençais mon essai de 2004 par cette image
pittoresque d’une jeune musulmane en rollers tenait à ce qu’elle était la
proclamation vivante d’une identité personnelle et culturelle dans une société
postmoderne. Elle se situait manifestement au-delà de l’opposition qui avait
paralysé le débat néerlandais sur le multiculturalisme pendant de nombreuses

1 Jos de Mul, « Het vlietend ‘thuis’. Interculturele vibraties », NRC Handelsblad. Cultureel Supplement,
27 février 2004, 21. La même année, cet essai a été publié dans un volume rassemblant les
contributions ayant suscité le plus de discussions lors de ce débat : Het multiculturele debat. Integratie
of assimilatie [Le débat multiculturel : intégration ou assimilation] [Rutgers et Molier, 2004 : 133-
38]. Une version mise à jour a été publiée dans Jos de Mul, Paniek in de polder. Polytiek en populisme
in Nederland [Panique dans le polder : polytique et populisme aux Pays-Bas] [de Mul, 2011 : 51-57].
Dans la première section de cet article, certaines parties de l’essai de 2004 ont été incorporées.
2 Voir http://turkseinfo.nl/moslima-steeds-vaker-te-zien-op-skeelers.
88 Traces numériques et territoires

années, à savoir : l’opposition entre le fait de conserver sa propre identité et celui de


s’adapter à la culture néerlandaise. Dans le présent chapitre, je souhaite examiner plus
avant l’identité postmoderne à l’aune de deux perspectives tendant à s’entremêler
de plus en plus fortement : la globalisation et la mise en données (datafication). Je vais
défendre la thèse que notre jeune musulmane de Rotterdam à rollers avec son
téléphone portable incarne à la perfection ce type d’identité qui est élaborée par
cette mise en données globale, caractéristique de la société postmoderne.

Ce chapitre se décompose en quatre parties. Premièrement, je vais traiter les notions


d’identité personnelle et d’identité culturelle, en mettant en relief le rôle crucial des récits
narratifs et des traditions. Avec ce contexte en vue, je procéderai à une critique de
l’opposition stérile entre multiculturalisme et monoculturalisme, pour défendre au lieu de
cela une position interculturaliste. Puis, je distinguerai entre les différents modes par
lesquels les traditions sont constitutives respectivement des identités prémodernes,
modernes et postmodernes. Dans la dernière partie, je porterai mon attention sur le
rôle que joue la mise en données dans la construction d’une identité postmoderne.
Je défendrai la thèse que les bases de données, telles que nous les trouvons installées
dans les médias sociaux grand public comme Facebook, transforment de plus en
plus l’identité narrative des personnes et cultures des âges prémodernes et modernes
en ce que l’on pourrait appeler une identité comme base de données (database identity).
Dans les identités de bases de données, nous trouvons d’un côté certains aspects
d’identités narratives radicalisées et, à l’inverse, d’autres aspects qui semblent être
transformés en une forme culturelle purement et simplement différente. En lien
avec le débat récent sur les big data, et en prenant Facebook comme exemple
central, mes réflexions porteront sur certains des avantages et inconvénients de la
mise en données et de la corrélationalisation de notre identité.

L’IDENTITÉ

Comme bon nombre de mots du langage quotidien ayant une longue histoire,
le mot « identité » est porteur d’un certain nombre de connotations. Ses racines
étymologiques remontent au concept latin identitas qui lui-même est un dérivé du
mot « idem » : le même. Je reste, de fait, le même ma vie durant dans la mesure
où ce mot désigne mon unité numérique : je suis identique à moi-même et à
personne d’autre. Qui plus est, il est raisonnable de prédire que demain je serai
encore la même personne qu’aujourd’hui et que je ne me réveillerai pas en étant,
par exemple, mon voisin. De toute évidence, cela ne veut pas dire que nous ne
changeons pas. Après tout, tout au long de notre existence, notre vie corporelle
et mentale connaît des modifications d’importance. En raison de la croissance et
du renouvellement biologiques (pratiquement toutes les cellules de notre corps
sont peu à peu remplacées par de nouvelles), de l’ingestion et de l’excrétion, des
nouvelles expériences, de processus d’apprentissage, du vieillissement, puis, pour
L’identité comme base de données 89

finir, de la décrépitude, notre identité change sans cesse, depuis le moment de


notre naissance jusqu’à notre mort. Pour cette raison, l’identité personnelle ne
désigne pas tant quelque entité immuable, mais davantage un type particulier de
continuité spatiale et temporelle.

Il y a continuité spatiale parce que les éléments à partir desquels nexus physique et
psychique se construisent ne forment pas un lâche conglomérat, mais constituent
plutôt un nexus interne, où la partie et le tout sont étroitement liés. Cet aspect est
évident pour la dimension physique, où les différentes parties du corps (les cellules,
les tissus, les organes, les membres, etc.) sont intégrées dans un tout fonctionnel.
De plus, nos pensées, actes, rôles sociaux et désirs consacrés forment un tout
significatif. Certes, cette intégration n’est jamais complète : l’identité humaine se
compose de nombreux éléments hétérogènes qui ne se correspondent pas toujours
et sont parfois antinomiques. De plus, notre existence témoigne de toutes sortes
d’états dissociatifs allant du rêve (ou la rêverie), l’extase religieuse ou sexuelle,
l’immersion dans un film, un morceau de musique, un jeu (informatique) jusqu’aux
symptômes de dégradation physique ou mentale3. Outre la continuité spatiale,
nous avons un vécu de continuité temporelle, car, bien que nous changions en
permanence au cours de notre vie, nos évolutions corporelles et mentales se
produisent pour la plupart progressivement. On ne devient pas un adolescent,
un adulte ou une personne âgée du jour au lendemain. Et il en va de même de
nos relations personnelles, de nos rôles sociaux, de notre métier, etc. Pour ce
qui concerne la continuité temporelle, la mémoire et l’anticipation jouent un rôle
crucial : elles constituent la permanence dans le temps. Tout comme dans le cas
de la continuité spatiale, la continuité dans le temps n’est jamais complète, elle se
caractérise par des interruptions (le sommeil) et des brèches (l’oubli). Et de même en
ce qui concerne le nexus temporel, il se peut parfois que des discontinuités radicales
(par exemple, une perte de mémoire en cas de démence, la perte d’un membre, une
opération transgenre, une addiction perturbante ou une conversion religieuse ou
politique radicale) puissent engendrer des changements fondamentaux, ou même
une distorsion totale, de l’identité temporelle (physique et mentale).

Une bonne part de ce que je viens d’énoncer sur l’identité personnelle s’applique
aussi à l’identité culturelle. Une culture (et une sous-culture) fait aussi montre
d’une certaine unité de ses parties constitutives. Une communauté de l’Eglise
néerlandaise réformée située dans le Bijbelgordel, la « ceinture biblique » des Pays-
Bas, et une sous-culture hip-hop d’Amsterdam, pour donner deux exemples, se
caractérisent chacune par un style de vie et une vision du monde spécifiques,
où les éléments constitutifs (leurs modes d’habillement, leurs goûts musicaux,
les rôles qu’ils assignent aux genres, les obligations morales, etc.) forment un

3 Quand le nexus fonctionnel ou signifiant est largement ou totalement détruit (par exemple, dans
le cas de troubles dissociatifs de l’identité), une désintégration voire une perte totale de l’identité de
la personne peut en résulter [cf. Glass, 1993].
90 Traces numériques et territoires

tout plus ou moins cohérent. Il ne faut pas s’attendre à ce qu’un membre de


l’Eglise néerlandaise réformée fête le carnaval ou aime écouter de la musique death
metal satanique. De plus, les cultures et sous-cultures font montre de continuité
temporelle. La communauté réformée et la culture hip-hop jouissent d’une
histoire particulière, qui s’exprime dans les traditions de ces cultures, leurs fêtes,
leurs souvenirs collectifs, artefacts, etc. Qui plus est, elles sont à l’origine de buts
et d’idéaux spécifiques qui guident des comportements futurs. Et pour ce qui est
simplement de l’identité personnelle, la continuité spatiale comme temporelle
des identités culturelles n’est jamais complète, mais révèle toutes sortes de
dissociations et d’interruptions. Et à l’instar de l’identité individuelle, les cultures
se caractérisent par une durée de vie dont la portée va de la naissance à la mort
avec entre temps des modifications et des influences mutuelles constantes.

Un troisième aspect, néanmoins crucial, de l’identité humaine, après son unité


numérique et sa continuité spatiotemporelle, est son caractère réflexif. Dans ce
contexte de l’identité, nous rencontrons cette dimension réflexive lorsque nous nous
demandons pour qui la caractéristique de continuité spatiotemporelle de l’identité
personnelle et culturelle apparaît. Bien qu’autrui puisse nous attribuer une identité
personnelle ou culturelle (ce qui de toute évidence peut exercer une grande influence
sur notre propre vécu), nous sommes nous-mêmes ceux qui vivent en fait notre
identité personnelle et culturelle. La réflexivité signe une conscience de soi, une
réflexion sur soi, une image de soi. Nous nous exprimons dans des conversations
quotidiennes, dans notre mode d’habillement, nos choix culinaires, etc., et faisons
aussi l’expérience de la façon dont les autres nous décrivent et nous traitent. Ce
qui est crucial pour notre identité, c’est le fait que nous nous reconnaissions ou
non dans ces (re)présentations. L’éventualité que la jeune musulmane à rollers que
j’ai rencontrée dans le métro possède une identité féminine, musulmane ou hip-
hop (et peut-être les intègre-t-elle toutes trois) n’est pas uniquement un tantinet
arbitraire, déterminée par des caractéristiques physiques, des actes, des habitudes, des
préférences ou des croyances qui peuvent être décrites du point de vue d’un tiers,
mais dépend fortement de la possibilité ou non que cette jeune femme, et de son
seul point de vue à la première personne, se considère et se reconnaisse comme telle.

En bref, notre identité personnelle et culturelle n’est pas seulement une entité
autarcique et invariable, dissimulée quelque part dans les profondeurs de notre
« moi intérieur » ou de notre « esprit national », elle est construite réflexivement dans
un monde social à l’aide d’une variété d’expressions. Entre autres expressions, les
récits et les biographies jouent un rôle de premier plan. Cela est compréhensible, car
ces récits sont particulièrement adaptés pour exprimer et transmettre la continuité
spatiotemporelle de notre identité. Ce n’est que dans les récits que nous racontons
aux autres et à nous-mêmes quant à nos vies et d’autres vies (réelles ou fictives)
que nous sommes en mesure d’exprimer nos propres identités, et c’est seulement
en nous identifiant à ces récits que naît notre identité réflexive. Aussi, dans cette
optique, comme nous le trouvons dans l’œuvre de Paul Ricœur, le récit narratif n’est
L’identité comme base de données 91

pas seulement une métaphore adéquate de l’identité chez l’humain, c’est également
de manière éminemment primordiale le médium à l’intérieur duquel nous, individu
et communautés, donnons forme à notre identité [cf. Ricœur, 1991b ; Ricœur,
1991a ; Ricœur, 1990].

Le modèle du récit narratif met également en lumière le caractère profondément


social de l’identité humaine et l’enchevêtrement de l’identité individuelle et de
l’identité culturelle. Autrui se présente dans les différents rôles que contiennent
les récits au travers desquels nous nous identifions. En premier lieu, nous nous
identifions aux autres qui apparaissent dans les récits qui sont contés dans notre
culture ou notre sous-culture. En deuxième lieu, autrui est constitutif de notre
identité parce qu’il fait toujours partie de notre récit de vie, sous la forme d’un
proche, d’un amant ou d’une amante, d’un voisin, d’un collègue, d’un employé, d’un
étranger, d’un ennemi, etc. En troisième lieu, nous sommes toujours acteurs dans
les récits des autres. Toutes ces relations dialectiques indiquent que nous sommes
toujours pris en permanence dans une multiplicité de récits et que notre identité,
par conséquent, n’est pas un unique récit narratif, mais plutôt un « tissu d’histoires »
[Ricœur, 1985 : 356].

MULTICULTURALISME, MONOCULTURALISME, INTERCULTURALISME

Dans le débat néerlandais sur l’intégration des minorités culturelles qui se poursuit
depuis que l’on a déclaré la faillite de la société multiculturelle, on peut distinguer
deux partis qui, malgré leurs différences d’opinions clamées haut et fort, partagent
un malentendu fondamental.

Les multiculturalistes, qui s’appuient sur le présupposé, remontant à l’époque du


romantisme, que toutes les cultures sont égales, plaident en faveur d’un type
d’intégration qui garde intactes les identités propres des groupes minoritaires, qu’ils
soient de nature ethnique ou religieuse. Pendant des siècles, le multiculturalisme
a été largement accepté aux Pays-Bas sous le nom néerlandais de verzuiling
(piliérisation). Cette forme de segmentation sociale verticale, où les différentes
sous-cultures religieuses et laïques (comme les protestants et les catholiques)
jouissaient d’une autonomie relativement forte, a largement rejailli sur les
politiques d’intégration dans les années 80 et 90. Cette popularité, toutefois, s’est
évaporée dans sa quasi-totalité instantanément. Dans la première décennie du
nouveau millénaire, les personnels politiques de gauche et de droite ont rivalisé
pour proclamer que le projet d’intégration multiculturelle est « un échec complet ».

Pour le camp opposé, les monoculturalistes, le fait de cultiver à coup de subventions


les identités propres des groupes minoritaires a été la cause de bon nombre
des problèmes sociaux supposés des Pays-Bas aujourd’hui, comme un
sentiment d’insécurité croissant, des chiffres de délinquance plus élevés et un
92 Traces numériques et territoires

fondamentalisme intolérant et violent. Les monoculturalistes estiment que les


différents groupes ethniques et religieux doivent être contraints de s’intégrer,
autrement dit dans ce cas, de s’assimiler. Ils doivent totalement s’adapter aux
normes et valeurs néerlandaises. Ceci s’appuie sur une idée profonde empruntée
aux Lumières qui veut que les cultures ne soient absolument pas égales et que
nous devions défendre « notre » culture contre les traditions prémodernes, des
auteurs moins courtois disent carrément « arriérées ».

Le problème de ce débat tient au fait que multiculturalistes comme monoculturalistes


semblent postuler qu’une culture est constituée d’une globalité homogène, autarcique
et immuable de traditions, de normes et de valeurs. De la sorte, le monde se divise
parfaitement entre « nous » et « eux ». Notre joyeuse étudiante musulmane de la
station de métro Kralingse Zoom est une preuve vivante de l’irréalité croissante de
cet « autisme culturel ». Tout compte fait, il n’y a jamais eu un cadre de traditions,
de valeurs et de normes univoques et universellement partagées dans la société
néerlandaise, qui a toujours été pluraliste dans les faits.

Ceci n’est pas seulement vrai pour les Pays-Bas. Les cultures sont toujours
hétérogènes. D’ailleurs, les membres des minorités ethniques néerlandaises
ne vivent plus dans des cultures homogènes. Le « Marocain » n’existe plus :
nous sommes en présence d’un ensemble kaléidoscopique de sous-cultures
hétérogènes qui diffèrent les unes des autres tout autant que la sous-culture hip-
hop d’Amsterdam par rapport aux fidèles de l’Eglise réformée de la ceinture de
la Bible néerlandaise.

Aucune culture n’est autarcique et immuable. Les cultures comportent toujours


un certain degré d’ouverture qui les maintient dans un état permanent de
transformation. Aujourd’hui, toutes sortes de mélanges hybrides s’élaborent à
grande vitesse. Différentes traditions ethniques et culturelles, langues et différents
modes de vie interagissent et s’interpénètrent. Bien que cela se situe loin des
tendances majoritaires, on peut même aujourd’hui écouter du death metal chrétien
si tel est son désir4. Les multiculturalistes et les monoculturalistes ont tendance
à oublier que des concepts comme la « tradition », l’« identité » et l’« intégration »
acquièrent des sens nouveaux dans notre société interculturelle.

TRADITIONS PRÉMODERNES, MODERNES, ET POSTMODERNES

Nous ne devons pas fermer les yeux sur le fait que même dans les sociétés
postmodernes hybrides les traditions gardent leur importance et restent tenaces.
Après tout, la vie humaine est impossible sans les usages, les habitudes, les mœurs,

4 Voir http://en.wikipedia.org/wiki/List_of_Christian_metal_bands.
L’identité comme base de données 93

les institutions et les biens culturels qui se sont transmis de personne en personne,
de groupe pair en groupe pair et de génération en génération. Les traditions,
incarnations de la continuité temporelle, nous offrent une « maison », elles
concentrent notre expérience et dirigent nos actes. Cette ténacité des traditions
est en lien avec la finitude fondamentale de l’existence humaine.

« Les êtres humains ne sont pas absolus : ils sont plutôt finis. Ils vivent et ne
choisissent pas (du moins, pas de manière prépondérante) leur vie de manière
absolue, et ce parce qu’ils doivent mourir. Pour reprendre les termes de Heidegger,
ils sont des « êtres-vers-la-mort ». Une limite est fixée à leur existence : vita brevis. La
vie humaine est trop courte pour un choix absolu. Au niveau le plus élémentaire,
les êtres humains n’ont tout simplement pas assez de temps de choisir, ou choisir
de rejeter, ce qu’ils sont déjà (accidentellement), et de choisir (ou même de choisir
de manière absolue), à la place, quelque chose d’entièrement différent et nouveau.
Leur mort vient toujours plus vite que leur choix absolu. […] Nous autres êtres
humains sommes davantage nos pratiques habituelles que notre choix absolu »
[Marquard, 1991 : 113, 117].

Notre espérance de vie est tout simplement trop courte pour découvrir toutes les
connaissances et compétences qui sont nécessaires pour nos vies. Par conséquent,
nous devons nous appuyer sur les expériences de nos prédécesseurs pour l’essentiel.

Les traditions que nous rencontrerons au cours de nos vies relèvent complètement
du fait accidentel, mais les traditions ne sont pas des prisons d’où il n’y a aucune
échappatoire. Les traditions sont fluctuantes et peuvent être redessinées. Beaucoup
de personnes prennent leurs distances, peu ou prou, des traditions dans lesquelles
elles ont grandi et adhèrent à une autre culture ou sous-culture ayant d’autres
coutumes et d’autres mœurs. Mais dans ce cas aussi, les traditions sont inévitables.

Les traditions sont aussi artificielles : elles ne sont pas innées, mais apprises.
Il est vrai que la plupart des traditions ont un fondement naturel, mais elles ne
peuvent être totalement réduites à cela. Les traditions transforment ce fondement
et nous offrent une « seconde nature ». Qui plus est, elles sont artificielles par
le fait qu’elles ne sont jamais originales, mais sont toujours empruntées à
d’autres cultures. Chaque culture doit son existence aux cultures précédentes et
environnantes. On oublie souvent que même sur le plan archétypique les biens
culturels néerlandais, comme la pomme de terre et la tulipe, ont leur « origine » en
Amérique du sud et en Turquie, respectivement. Même ce dont les Néerlandais
sont le plus fiers, leur esprit démocratique, est parvenu jusqu’à eux en passant
par des voies différentes en provenance de la Méditerrannée. Dans un contexte
culturel nouveau, pareils éléments peuvent acquérir un sens nouveau et devenir
quelque chose d’autochtone, mais ils doivent leur existence précisément à leur
94 Traces numériques et territoires

différence par rapport à l’« autre ». Dans ce sens, chaque culture est interculturelle :
l’origine se trouve toujours ailleurs5.

Les traditions jouent un rôle important dans les sociétés prémodernes. La question
est de savoir si cela s’applique également à la culture moderne, qui est après tout
caractérisée avant toute chose par un processus continu de renouvellement social,
politique, économique, technologique et culturel. Indéniablement, la modernité a
détruit bien des traditions, mais la rupture avec la tradition a elle-même engendré
une tradition. Dans l’art moderne, par exemple, domaine de renouvellement
constant et sans limites, la rupture avec la tradition est devenue… une tradition,
proclamée avec plus de dogmatisme encore [cf. Paz, 1991 : 29]. De plus, aucune
autre culture ne focalise aussi obsessionnellement sur la conservation des traditions
qu’elle détruit que la culture moderne. « Aucune époque n’a autant occulté le passé
que la nôtre, et en même temps aucune époque ne s’est accrochée à autant de
vestiges du passé : les entassant dans des musées, les conservant avec soin, les
protégeant écologiquement, les recueillant dans des archives, les reconstruisant
archéologiquement, les mémorisant historiographiquement » [Marquard, 1991 :
87]. Nous recueillons le passé dans notre mémoire culturelle, le revivons avec
nostalgie, le commercialisons sous la forme d’une mode ou d’un style rétro.

De plus, dans la société postmoderne, l’éventail des traditions s’élargit


constamment. Dans la plupart des villes du monde, la nourriture est devenue un
amalgame curieux de plats, entre autres, africains, chinois, italiens et thaïs. Et la
musique populaire, pour citer un autre exemple, est devenu le produit hybrique
d’une diversité de traditions et de styles musicaux. Lorsque l’on se promène dans le
centre de Pékin par une chaude journée d’été, on voit des geeks chinois pratiquer
la breakdance et le hip-hop américains, manger des pizzas italiennes et télécharger
les jeux coréens tout dernier cri sur leurs téléphones portables. Manifestement, les
choses ne se simplifient pas dans la société interculturelle. L’absence de traditions
n’est pas quelque chose faisant partie d’une liste avec de nombreux problèmes.
Non, LE problème, c’est l’abondance de choix.

5 La citationnalité des éléments culturels sape la notion d’une pure origine des cultures de manière
fondamentale. Ceci est un des éclairages de premier plan de la pratique de la déconstruction de
Derrida. En « citant » un élément culturel dans un autre contexte – Derrida emploie l’image de la
« greffe » d’un mot sur une autre « branche » [Derrida, 1972 : 381] – de nouveaux sens sont produits
en permanence : « Tout signe, linguistique ou non linguistique, parlé ou écrit (au sens courant de cette
proposition), en petite ou grande unité, peut être cité, mis entre guillemets ; par là il peut rompre avec
tout contexte donné et engendrer à l’infini des contextes, de façon absolument non saturable. Cela
ne suppose pas que la marque vaut hors contexte, mais au contraire qu’il n’y a que des contextes sans
aucun centre d’ancrage absolu. Cette citationnalité, cette duplication ou duplicité, cette itérabilité de
la marque n’est pas un accident ou une anomalie, c’est ce (normal/anormal) sans quoi une marque
ne pourrait même plus avoir de fonctionnement dit normal ».
L’identité comme base de données 95

Les traditions changent constamment et ce changement s’opère très rapidement


dans la société moderne. Cette mutabilité est une caractéristique de toute tradition.
Le changement est toujours « une répétition avec une différence ». Cela ne s’applique
pas seulement au contenu des traditions : leur nature et leur fonction changent également
au fil du temps. Si nous nous souvenons de la distinction énoncée plus haut entre
la culture traditionnelle ou prémoderne et la culture moderne, nous constatons que
les traditions qu’elles contiennent diffèrent essentiellement par leur caractère. Dans
les sociétés prémodernes les traditions allaient de soi, et vont encore de soi dans des
régions plus isolées du monde. Parce qu’il n’y avait pratiquement pas de solution
de rechange, elles étaient nettes et sans nuance, et ne soulevaient pas beaucoup de
questions. Les grands-parents de la jeune musulmane de la station de métro de
Rotterdam faisaient probablement la prière cinq fois par jour parce que tous les
gens qu’ils connaissaient la faisaient. On pourrait avancer que dans les sociétés
prémodernes les traditions sont traditions par la coutume. Elles ne sont pas immobiles,
mais la lenteur de leur mobilité se remarque à peine.

Dans les sociétés modernes, caractérisées par une certaine sensibilisation aux autres
cultures, et parfois une certaine familiarité avec elles, et une conscience historique
plus ou moins développée, les traditions ne vont plus de soi. Les populations
modernes sont conscientes de la diversité historique et culturelle des traditions.
Manifestement, la sensibilisation aux autres cultures n’entraîne pas forcément
une tolérance ou une ouverture : l’ethnocentrisme, la discrimination et la violence
font également partie des échanges interculturels modernes. Cependant, ce qui
distingue les populations modernes et prémodernes, c’est le fait que, en raison
de leur sensibilisation à d’autres options, elles ont plus d’opportunités à partir
desquelles opérer des choix. D’une certaine manière, elles sont forcées de choisir,
car rester dans la même tradition n’est plus une coutume, mais est devenu un choix
aussi. Et, en raison de cette disponibilité séduisante entre choix, les sociétés sont
caractérisées par de plus en plus de mobilité sociale et culturelle [cf. de Mul, 2005].

Vu sous cet éclairage, Oussama ben Laden était avant tout un « traditionaliste
moderne », ainsi que le soutient John Gray dans son livre Al Qaeda and what it means
to be modern [Gray, 2003]. Par contraste avec l’islamiste prémoderne, Oussama ben
Laden était un homme qui connaissait très bien la culture moderne. Il avait obtenu
un diplôme d’ingénieur et faisait usage des médias modernes de communication et
des technologies avancées pour se faire le chantre du retour à l’Islam traditionnel.
Cet Islam traditionnel là ne fait pas du tout partie de la tradition, mais est un
phénomène tout à fait nouveau dans de nombreux pays de son apparition, en
Indonésie, par exemple. Mais le fait même que ben Laden, à partir de la conscience
géographique et historique de la distinction entre culture islamique traditionnelle et
culture occidentale, à un moment de sa vie a choisi de vivre et de propager le mode
de vie islamique traditionnel, en fait un traditionaliste extrêmement moderne.
96 Traces numériques et territoires

Bien que des parties importantes du monde sont encore prémodernes, ou deviennent
à peine modernes, les processus de postmodernisation peuvent être constatés dans
de nombreuses autres régions6. Les sociétés modernes occidentales se caractérisaient
par des récits aux « grands narratifs » portant sur l’émancipation et le salut par
l’éducation, la politique ou la science qui étaient souvent des prolongations laïques
du christianisme. Dans la culture postmoderne, en raison de l’apparition de sociétés
multiculturelles et interculturelles, de la croissance économique, de l’assouplissement
de l’économie et de l’implantation mondiale des technologies de l’information et de
la communication, ces « grands narratifs » ont perdu le caractère d’évidence qu’ils
avaient par le passé [cf. Lyotard, 1979]. L’économie de marché néolibérale semble
être le seul grand narratif qui reste bien qu’avec la crise économique de 2008, celui-ci
a aussi perdu une part de sa crédibilité. À l’ère postmoderne, une fois encore, il existe
un changement structurel quant à la nature et la fonction des traditions.

La jeune musulmane de la station de métro est un exemple de cette forme


postmoderne de traditionalisme. Les coutumes, les mœurs, les habitudes et les
autres normes – dans les comportements postmodernes – ne sont plus observées
en raison de l’absence de solutions de remplacement connues, ou – d’un point de
vue moderne – choisies au motif d’une conviction profonde. Les « gènes » culturels,
ou mèmes [Dawkins, 1976 : chapitre 11] qui constituent notre identité, sont puisés
dans le « fonds de mèmes » de la société interculturelle selon un mode postmoderne,
c’est-à-dire provisoirement, de manière évasive et sous la forme de différentes
« recombinaisons », dont les contradictions internes ne sont pas rares. À notre
époque, la tradition est devenue plus une commodité qu’un choix existentiel. Les
traditions postmodernes par commodité sont caractérisées par leur caractère non
engageant et éphémère, elles sont « achetées ensemble » parce qu’elles sont utiles
ou agréables à un moment donné, mais elles peuvent être facilement remplacées
par la prochaine « tradition » qui fait son apparition dans les médias. A cause de
leur particularité extrêmement flexible, ces traditions ont souvent le caractère d’un
battage publicitaire. Par conséquent, à l’époque postmoderne, la mobilité devient
de l’hypermobilité.

L’ONTOLOGIE BASE DE DONNÉES DERRIÈRE LES TRADITIONS

Parallèlement aux nouveaux moyens de transport développés au XXe siècle,


les technologies numériques de l’information et de la communication jouent
et continueront à jouer un rôle crucial dans le processus de la globalisation. La

6 Comme le montrent des pays comme le Japon et la Chine au cours des dernières décennies,
la postmodernité n’est pas un phénomène exclusivement occidental, mais plutôt marque la fin de
la domination de la culture occidentale. La Chine est en particulier un cas intéressant, car ce pays
à bien des égards est passé à côté de la modernisation socioculturelle telle qu’elle est apparue en
Occident, et combine des caractéristiques prémodernes et postmodernes dans ses régions rurales
et urbaines respectivement.
L’identité comme base de données 97

circulation et les échanges de personnes, d’idées, d’usages et de marchandises au


niveau mondial ne sont pas un phénomène récent. Il a débuté il y a à peu près deux
millions d’années, quand l’Homo erectus a commencé à se disperser depuis l’Afrique
sur les autres continents. L’histoire de l’humanité est une histoire de mondialisation.
Que l’on songe aux liens commerciaux importants entre les civilisations de Sumer
et de la vallée de l’Indus, à la Route de la soie qui reliait les économies et les cultures
de l’Empire romain, de l’Empire parthe et de la dynastie Han.

Toutefois, les technologies numériques d’information et de communication qui se


développées pendant ces dernières décennies n’ont pas fait qu’accélérer le rythme
de la mondialisation, mais il s’en est fallu de peu qu’elles causent une rupture
qualitative, qui peut se résumer comme une mise en données de notre monde et de
nos visions du monde. Cette mise en données touche également la construction
d’identité de manière fondamentale.

Pour comprendre pourquoi, nous devons examiner l’ontologie base de données


qui est une partie inhérente de chaque programme informatique [cf. de Mul, 2009].
Bien que les programmes informatiques puissent différer entre eux à bien des
titres – somme toute, en tant que machine universelle, l’ordinateur peut simuler
toute machine mécanique imaginable – chaque programme se décompose en gros
entre les quatre opérations de base dites ABCD de l’informatique (Add – ajouter,
Browse – parcourir, Change – modifier, Destroy – détruire ; ou encore en langage
d’interrogation structuré dit SQL, les commandes d’insertion, de sélection, de
mise à jour et d’effacement). Ensemble, ces quatre commandes constituent les
éléments dynamiques d’une ontologie base de données. Bien sûr, les bases de
données (des collections d’éléments qui sont structurées d’une manière ou d’une
autre) ne sont pas nécessairement numériques. Les annuaires téléphoniques ou les
catalogues de fiches de répertoires sont des bases de données aussi. Cependant, les
bases de données électroniques sont différentes en raison de leur flexibilité. Alors
qu’ajouter de nouveaux numéros dans un annuaire papier nécessite que l’annuaire
complet soit réimprimé, et de reclassifier le répertoire de fiches, dans une base de
données numérique, comme dans une feuille de tableur, ces opérations peuvent être
accomplies en tapotant sur quelques touches d’un clavier. Lorsque l’on examine
la conception des bases de données depuis les années 1950, depuis les bases de
données hiérarchiques jusqu’aux bases de données relationnelles, nous constatons
que les bases de données numériques elles-mêmes sont devenues également
extrêmement souples.

Pour que la conception d’une base de données puisse être souple, il faut une
atomisation des données. Que nous traitions des données relatives aux gènes, à
des objets manufacturés ou des personnes, il faut que les données soient réduites
aux éléments les plus petits possibles. Selon les algorithmes, ces éléments peuvent
ensuite être combinés, décombinés puis recombinés de toutes les façons possibles.
98 Traces numériques et territoires

Les applications des bases de données couvrent pratiquement tout l’éventail


des logiciels, allant du système d’exploitation aux applications et à l’Internet, en
particulier les applications dites du Web 2.0. Ce qui distingue le Web 2.0 n’est pas
tellement son caractère social (le Web 1.0 avait déjà toutes sortes d’applications
sociales, comme les formulaires, les liens de messagerie électronique, ou les espaces
de clavardage), mais par le fait que derrière chaque site Web il y a une base de
données. « Les logiciels du Web 2.0 assemblent et génèrent des pages Web à partir
d’entrées de base de données, chaque fragment étant prêt à être assemblé à nouveau,
ce qui permet des recombinaisons et des remédiations en gigogne à l’infini : le Web
2.0 fonctionne à partir de données et non de pages, à partir de traitements logiciels
plutôt que d’une mise en page figée, et le Web 2.0 se fragmente puis se recombine,
modifiant perpétuellement des pages » [Van den Boomen, 2014 : 163]

De plus, à l’âge des big data, ces bases de données sont de plus en plus connectées
les unes aux autres et avec des flux de données connectés, comme les recherches
sur Google, les interactions sur Twitter et Facebook, et les achats sur les boutiques
en ligne. Ces grappes volumineuses de données sont suivies et utilisées pour du
profilage en temps réel par des entreprises commerciales (Amazon.com en étant
une des pionnières) et des organismes gouvernementaux comme la National Security
Agency (NSA). De plus, grâce à la mise en données des processus de production,
les virements d’argent, les appareils GPS, les caméras de surveillance, les mesures
biométriques et l’utilisation de téléphones intelligents et d’autres appareils
localisables, presque tout finit par faire partie d’une base de données mondiale, qui
« va transformer notre manière de vivre, travailler et penser » [Mayer-Schönberger
et Cukier, 2013].

L’impact des bases de données est si vaste, car il ne se limite pas au monde de
l’informatique. Les bases de données fonctionnent souvent comme des métaphores
matérielles [Hayles, 2002]. Elles évoquent des actes du monde matériel. Il y a comme
exemple des bases de données biotechnologiques utilisées en génie génétique,
des bases de données installées sur des robots industriels, ce qui permet des
personnalisations de masse, des profils d’aéroport, visant à détecter les terroristes.
En principe, tout ce qui peut être réduit en données finit par être contrôlé par une
base de données.

En raison de leur réussite opérationnelle, les bases de données deviennent de plus


en plus des métaphores conceptuelles qui structurent notre expérience du monde
et de nous-mêmes. Le psychologue Maslov faisait un jour la remarque, que tout
devient un clou pour ceux qui n’ont qu’un marteau. Dans un monde où l’ordinateur
est devenu la technologie dominante, nous commençons à tout aborder et tout
comprendre comme si c’était une base de données. Comme l’indique Manovich,
les bases de données sont devenues la forme culturelle dominante de notre époque
informatisée [Manovich, 2002 : 219]. Ou bien, comme l’exprime Azuma dans Otaku:
Japan’s Database Animals (Les Otakus, les animaux bases de données du Japon) :
L’identité comme base de données 99

« la base de données devient le centre du processus de création à notre époque


informatique ». [Azuma, 2009 : 227]. Qui plus est, comme tout autre ontologie,
l’ontologie base de données apporte avec elle une déontologie, des pratiques et des
buts particuliers. Nous ne faisons pas que voir des clous partout, on nous invite sur
le champ à actionner le marteau ! « Mettre en données ou diminuer » pourrait être le
slogan de l’âge des big data.

L’ontologie base de données affecte aussi la construction d’identité à un niveau


fondamental. Pour pouvoir expliquer comment, nous devons revenir à théorie de
Ricœur sur l’identité narrative. Dans cette théorie, les narratifs fonctionnent à la
fois comme des métaphores conceptuelles et matérielles. Notre identité peut être
comprise non seulement comme un récit dans le sens métaphorique (comme une
histoire, notre vie a un début, un milieu et une fin ; tout comme une histoire, notre
vie est faite de buts et de désirs, de motivations, de raisons et d’actes, etc.), mais c’est
aussi à l’aide d’histoires que nous construisons en fait notre identité narrative. Nos
vies sont souvent, pour reprendre la terminologie de Ricœur, discordantes. Le récit
de notre vie est souvent troublant et interrompu par des événements inattendus.
Nous avons besoin d’histoires, à la fois des récits autobiographiques et des histoires
portant sur nos modèles de rôle, nos héros, etc., pour structurer nos vies, expliciter
les liens implicites et conférer à nos existences contingentes7 des orientations, des
buts et du sens. Elles relient les différents événements du passé, du présent et de
l’avenir à l’intérieur d’une unique entité (porteuse de sens). Alors que nos actes
sont souvent accomplis sans être réfléchis dans le sens qu’ils nous arrivent tout
simplement « comme ça », en les soumettant à un narratif, nous attribuons à ces
actes des motivations et des raisons8. Les histoires créent une agentivité narrative et
une causalité et en les narrant nous nous approprions cette agentivité ainsi que les
motivations et les raisons, transformant ces actes comme étant nôtres9. Bref, nous
nous identifions aux histoires que nous (comme les autres) racontons à propos de
nous-mêmes.

7 Voir le chapitre « Chance Living », dans Jos de Mul, Destiny Domesticated. The Rebirth of Tragedy Out
of the Spirit of Technology [de Mul, 2014 : 23-36].
8 D’un point de vue sceptique humien, tel que représenté par des philosophes comme Dennett et
Burton, il peut être tentant d’affirmer que l’agentivité narrative n’est qu’une fiction [Dennett, 1992 ;
Burton, 2013], mais dans ce cas on omet d’apprécier qu’il s’agit là d’une « fiction » qui crée de réels
effets dans nos vies quotidiennes. En s’appropriant le daimon (ou les neurones de son cerveau, dans
une version moderne de ce récit) qui fait commettre à Médée son meurtre, celle-ci devient agente
morale et prend sa responsabilité.
9 La tragédie d’Euripide Médée offre un exemple ancien de ce type d’appropriation narrative. Quand
Médée se tient debout près de ses enfants endormis avec à la main le couteau qui les tuera, elle
se dit au début que ce n’est pas elle qui commet ce meurtre, mais sa main, marionnette obéissante
de son daimon, qui la pousse à se venger de son mari infidèle. Toutefois, elle finit par accepter que
ce soit son daimon qui l’incite à tuer ses enfants et prend la responsabilité de cet acte. Voir pour
un développement approfondi de la « responsabilité sans liberté » de Médée le chapitre « Tragic
Parenthood » dans Destiny Domesticated. The Rebirth of Tragedy Out of the Spirit of Technology [de Mul,
2014 : 150-165].
100 Traces numériques et territoires

Que se passe-t-il si nous remplaçons les histoires par des bases données devenant
le système d’exploitation de notre construction identitaire ? Si, en raison du
processus d’identification, la structure du médium est constitutive de l’identité de
l’utilisateur, nous pourrions nous attendre à ce qu’utiliser des bases de données
pour une construction identitaire produise un type différent d’identité. Même
lorsque Manovich exagère en proclamant que narratif et base de données sont
des « ontologies ennemies », il est clair que les histoires et les bases de données
structurent le monde et nous-mêmes de manière fondamentalement différente.

Que la construction identitaire soit un élément important pour des utilisateurs


d’Internet est manifeste dans le succès de Facebook, qui a désormais plus d’un
milliard d’utilisateurs dans le monde, dont bon nombre ont un téléphone intelligent
qui leur permet de travailler à la construction de leur identité 24 heures sur 24,
sept jours sur sept. Pour de nombreux utilisateurs, celui-ci est devenu le système
d’exploitation pour gérer leur identité. Contrairement aux mondes en ligne
comme Second Life et World of Warcraft, Facebook requiert de ses utilisateurs
qu’ils révèlent leur « réelle » identité du monde hors ligne. La structure complète
de Facebook est conçue d’une manière qui invite l’utilisateur ou l’utilisatrice à
exprimer son identité et à communiquer cette identité à des Amis. Les utilisateurs
de Facebook s’expriment en se forgeant un profil avec des photos, des listes de
centres d’intérêt, des coordonnées et d’autres renseignements personnels. De plus,
ils communiquent avec des amis et d’autres utilisateurs via des messages privés et
publics et la fonction de clavardage. Ils peuvent aussi créer des groupes d’intérêts,
adhérer à de tels groupes et des pages « J’aime ». La fenêtre principale d’une page
Facebook est le « fil d’actualité ». A cet endroit, l’utilisateur trouve une sélection
des sujets (1 500 en moyenne)10 provenant d’amis, des personnes qu’il suit et de
« pages à voir », opérés par un algorithme qui, entre autres, prend en compte la
fréquence avec laquelle on interagit avec un ami, une page ou une personnalité
publique (comme un acteur ou un journaliste), qui a publié un message, le nombre
de « like », de partages et de commentaires, de messages reçus depuis le monde
entier et d’amis en particulier, le nombre fois où un utilisateur a interagi avec
un certain type de messages par le passé, le fait qu’un utilisateur ou d’autres
personnes sur Facebook dissimulent ou font état d’un message donné. Bien que
certains messages publiés peuvent avoir individuellement un caractère narratif, et
que Facebook dans son mode d’affichage depuis 2011 classe automatiquement
toutes les activités par ordre chronologique dans ce qu’il appelle le « journal », la
structure générale de Facebook correspond à celle de la base de données. Bien

10 D’après la section Journal de Facebook (j.j. août 2013), ceci correspond à la médiane établie à
partir d’un échantillon pris au hasard de 7 000 utilisateurs actifs quotidiens sur une période d’une
semaine en juillet 2013. L’algorithme de Facebook sélectionne environ 300 sur les 1 500 nouvelles
publiées chaque jour pour améliorer le nombre de nouvelles lues dans les faits par l’utilisateur.
Facebook met constamment son algorithme à jour pour continuer à améliorer ce chiffre et ses
bénéfices (voir Note 12). https://www.facebook.com/facebookforbusiness/news/News-Feed-
FYI-A-Window-Into-News-Feed.
L’identité comme base de données 101

que celle-ci, qui travaille « en coulisse » dans ce que l’on nomme l’arrière-boutique
du site Web, n’est pas visible de l’utilisateur, depuis 2013 la fonction Graph Search
permet à l’utilisateur de filtrer les masses envahissantes de données11.

La popularité de Facebook n’est pas surprenante. Grâce à sa disponibilité sur


de nombreux appareils mobiles, Facebook permet à des utilisateurs de rester en
permanence en contact avec des amis, des proches et d’autres connaissances où
qu’ils se trouvent dans le monde. Facebook réunit des gens ayant des intérêts ou des
convictions en commun par l’intermédiaire de groupes et d’autres pages. Comme
les narratifs, la base de données de Facebook nous offre la possibilité de structurer
nos existences plus complexes que jamais. Toutefois, il existe un certain nombre de
différences importantes. Tout d’abord, Facebook est multimédia dans le sens où il ne
permet pas seulement aux utilisateurs de construire leur identité verbalement, mais
aussi en image, en sons et avec des vidéoclips aussi. Ce caractère multimédia offre
aux utilisateurs de construire une identité plus complexe, à de multiples niveaux.

Deuxièmement, Facebook comme la locution « médias sociaux » le suggère, est


un moyen profondément social d’expression personnelle. Alors que le journal
classique est strictement intime (symbolisé par le cadenas), Facebook est, de
manière prédominante, un moyen de se présenter aux autres. Bien que, comme
nous l’avons développé dans la première partie, l’identité narrative possède aussi
un caractère social (parce que les autres jouent toujours un rôle important dans nos
récits biographiques, comme rôles modèles, amants ou amantes, collègues, etc.),
dans le cas de Facebook nos amis participent à la construction de notre identité
dans la base de données en publiant leurs commentaires, leurs photos, ce qu’ils
aiment sur notre « mur » d’identité. En d’autres termes, les cloisons entre nous et
nos Amis deviennent semi-perméables. De plus, tous les éléments de notre identité
comme base de données (avec qui nous sommes reliés, les documents visuels sur
nos vies, nos conversations et nos évaluations (nos « J’aime ») sont explicités et
visibles pour partie par nos Amis. Cette composante de la construction de notre
identité, qui plus est, est déterminée par les algorithmes de Facebook. En même
temps, dans la partie publique de Facebook, l’utilisateur peut contrôler une partie
de sa présentation personnelle en acceptant ou en refusant les invitations d’amis

11 « Google traite plus de 24 pétaoctets par jour, un volume qui correspond à des milliers de fois
tous les documents américains imprimés que contient la bibliothèque du Congrès américain (U.S.
Library of Congress). Facebook, entreprise qui n’existait pas il y a une décennie, reçoit plus de
10 millions de nouvelles photos par téléchargement toutes les heures. Les membres de Facebook
cliquent sur le bouton « J’aime » ou déposent un commentaire près de trois milliards de fois par
jour, créant des traces numériques que l’entreprise peut prospecter pour en apprendre sur les
préférences des utilisateurs. En même temps, les 800 millions d’utilisateurs mensuels du service
YouTube chargent environ une heure de vidéo toutes les secondes. Le nombre de messages sur
Twitter augmente à un rythme d’environ 200 % par an et en 2012 a dépassé les 400 millions de
tweets par jour. » [Mayer-Schönberger et Cukier, 2013 : 8].
102 Traces numériques et territoires

potentiels, en effaçant les messages déplaisants ou en bloquant des tags provenant


d’autres utilisateurs de Facebook.

Troisièmement, l’identité comme base de données qui est construite avec l’aide de
Facebook est extrêmement flexible. Ceci est directement l’effet de l’ontologie base
de données qui exige une atomisation de l’utilisateur, et sa division en de nombreuses
entités plus petites, appartenant aux multiples dimensions d’identité, comme les
données biographiques, les « J’aime », les photos, les achats, etc. D’une certaine
manière, les utilisateurs de Facebook, ne sont plus des individus, mais deviennent
plutôt, pour reprendre l’expression de Deleuze, des dividuels [cf. Aas, 2004]. Les
fragments épars de l’individu peuvent, par la suite, être combinés, décombinés et
recombinés de nombreuses manières. Par conséquent, l’identité comme base de
données est toujours en construction et semble ainsi concrétiser le rêve d’Ulrich
dans le roman de Robert Musil L’Homme sans qualités pour remplacer notre sentiment
de réalité par un sentiment de possibilité [de Mul, 2010 : 161-192]. Dans ce sens,
l’identité comme base de données exprime la flexibilité et l’hypermobilité que
requiert le fait de vivre dans une culture postmoderne globalisée.

Le succès énorme de Facebook semble indiquer que nous profitons de l’emploi


de bases de données pour nous construire. Toutefois, la base de données en tant
que constructrice d’identité comporte aussi ses côtés obscurs. Pour commencer, le
contrôle que l’utilisateur exerce en devanture a ses limites, car elle ne peut empêcher
des amis de répondre à ses publications12, et de rendre celles-ci visibles à leurs
propres amis. L’atomisation de notre identité implique aussi que des échantillons
de notre identité soient facilement décontextualisés et recontextualisés.

Cela est d’autant plus vrai des utilisations de la base de données en arrière-
boutique, partie à laquelle l’utilisateur n’a qu’un accès limité – par exemple en
utilisant Graph Search – ou, dans la plupart des cas, pas d’accès du tout. Les bases
de données « en coulisse » n’offrent pas seulement à l’utilisateur la possibilité
de combiner, décombiner, recombiner les éléments atomisés de leur propre
dividualité mais aussi celle de leurs amis, elles offrent aussi aux propriétaires de
Facebook la capacité de profiler et de fouiller dans les vies mises en données de
leurs utilisateurs en temps réel pour aller à la chasse aux schémas de comportement

12 Des travaux de recherche récents tendent à indiquer que, en plus d’utiliser les paramètres
de confidentialité par défaut, des utilisateurs connaissent cette limitation et élaborent un certain
nombre de stratégies pour satisfaire leurs besoins de confidentialité. « Ces stratégies sont utilisées
essentiellement pour se préserver de menaces envers la confidentialité sociale et consistent à
exclure des informations de contact, en utilisant les options de profil limité, à retirer des tags, des
photographies et à limiter les demandes d’amis issus d’inconnus. Les stratégies de confidentialité
sont destinées techniquement à la gestion du profil Facebook, qui d’après nous fonctionne comme
une avant-scène. Cette gestion active du profil permet à des utilisateurs de transiger entre un besoin
de se connecter à Facebook et le désir d’une plus grande confidentialité. » [Young et Quan-Haase,
2013 : 479].
L’identité comme base de données 103

exploitables commercialement. Cette « visibilité invisible » des utilisateurs de


Facebook [Keymolen, 2007 ; Hildebrandt, 2009] ne soulève pas seulement de
graves objections sur le plan de la protection de la vie privée et de la sécurité, mais
elle menace de réduire le consommateur à une « ressource naturelle » destinée à
l’économie des big data13. Ce n’est pas seulement les traditions qui deviennent des
biens de consommation pour les utilisateurs des bases de données mondiales, c’est
l’utilisateur qui finit par être lui-même l’ultime objet de cette marchandisation. Le
paradoxe de cette affaire c’est que les utilisateurs de Facebook eux-mêmes, dans
une large mesure, deviennent les producteurs gratuits de ces précieuses données :
« La conception et le fonctionnement de Facebook partent du principe et mettent
en application le fait que les utilisateurs ne vont pas seulement fabriquer des
profils reposant sur des identités “réelles”, en utilisant des noms réels et des détails
personnels précis. Cette position idéologique d’identité singulière imprègne la
conception technologique de Facebook et, en partie, se trouve mise en pratique par
la culture de la transparence que le site promeut. Etant donné que les serveurs de
Facebook sont constitués pour l’essentiel des données produites grâce à la main-
d’œuvre immatérielle et gratuite de ses membres [Terranova, 2000] et que la valeur
monétaire de Facebook tient à l’utilité publicitaire de ces dômes-là, il n’y a pas de
quoi s’étonner que Zuckerberg préfère une extrême transparence. » [Grosser, 2011]

Dans le cas où des pouvoirs publics accèdent à la base de données mondiale,


comme c’est le cas de la NSA, qui a recueilli des milliers de milliards de transactions
entre citoyens américains et étrangers, la fouille des données et les opérations
de profilage des utilisateurs de Facebook prennent également une dimension
politique. La NSA et les autres agences de sécurité dans le monde transforment
l’ensemble de la société de l’information mondiale en un panoptique numérique
géant. Alors que la devanture de Facebook peut être considérée comme un

13 « Facebook a engrangé 2,6 milliards de dollars en 2012, dont 1,25 milliard provenait de la
publicité, dont 80 % issues des annonces Web. La raison la plus importante de la réussite de
Facebook vient de la publicité. […] Facebook accède à toutes les informations que vous déposez
sur le site. Il publie ensuite des publicités dans votre écran qui sont directement liées à l’endroit
où vous êtes, ce que vous faites, ce à quoi vous vous intéressez, et j’en passe. Si vous mettez
votre statut à jour en indiquant que vous sortez pour faire un jogging, vous allez commencer à
voir Nike et d’autres marques apparaître sur votre page d’accueil. Vous aimez boire de la bière ?
Mettez votre statut à jour en en parlant, et vous verrez une pub de la microbrasserie la plus proche.
Voilà en réalité ce qui se passe : Facebook et une marque de grande consommation, mettons Nike,
passent un accord appelé Facebook Exchange ou FBX. A partir de là, Facebook va vendre ses
informations sur les utilisateurs à Nike, qui va les utiliser pour viser une base de données Facebook
spécifique. Imaginons que vous venez d’acheter une paire de chaussures Nike neuves et que vous
avez donné votre adresse de courriel ou vos numéros de téléphone au moment de l’achat. Nike peut
se reporter à la base de données de Facebook via FBX et vous recevrez instantanément des publicités
Nike dans vos pages Facebook. Facebook ne manque pas d’affirmer qu’il protège strictement les
informations personnelles de l’utilisateur. L’importance de FBX tient au fait que n’importe quelle
marque peut utiliser les informations pour viser des utilisateurs spécifiques, plutôt qu’une vague
catégorie démographique, et de payer Facebook pour pouvoir faire paraître ses annonces sur la page
de cet utilisateur précis. » [Kulkarni, 2013 ; cf. Mayer-Schönberger et Cukier, 2013 : 150ff].
104 Traces numériques et territoires

« panoptique participatif » [Cascio, 2005], où les utilisateurs sont constamment en


train de s’observer mutuellement et ont conscience qu’ils sont observés, dans le cas
de la « visibilité invisible » de l’utilisateur dans l’arrière-boutique de Facebook, les
utilisateurs ne savent pas bien souvent ce qui arrive à leurs échantillons d’identité.

A n’en pas douter, il y a des situations où la fouille de données et le profilage


sont bénéfiques pour la société. Toutes choses étant bien considérées, toutefois,
les recombinaisons d’identité dans la culture de bases de données peuvent être
dangereuses. La recombinaison du fondamentalisme islamique et la culture du
pathos révolutionnaire des années soixante-dix, comme les attentats de Madrid
et Londre en 2004 et 2005 et, plus récemment, l’attaque à Charlie Hebdo, ont
démontré, peuvent facilement déboucher sur des activités terroristes. Si l’analyse
des données de masse peut empêcher la concrétisation d’un mélange explosif
entre les inspirations de Baader-Meinhoff et les lectures fondamentalistes du
Coran, c’est une bonne chose. Toutefois, une innocente étudiante passant par
la station de métro de Rotterdam, à qui il peut arriver d’aller visiter les plates-
formes de discussion sur Marroko.nl, pourrait facilement avoir des ennuis quand
elle essaie d’acheter un billet d’avion pour New York et choisit un repas halal.
Le profilage racial ou religieux peut non seulement entraîner une discrimination
envers certains groupes, mais aussi une « culpabilité par association ». Les partisans
d’une fouille de données et d’un profilage de large envergure avancent que plus
nous utiliserons de données, moins nous aurons de discrimination, parce que le
profilage sera d’autant plus individualisé. « Grâce aux big data, nous pouvons sortir
du carcan des identités de groupe, et les remplacer par des prévisions beaucoup
plus granulaires pour chaque individu » [Mayer-Schönberger et Cukier, 2013 : 161].
Cela pourrait bel et bien éviter à notre jeune étudiante musulmane d’être soumise
à une deuxième fouille, malgré son nom arabe et sa religion musulmane.

Toutefois, l’« individualisation » pourrait ne pas être le terme approprié pour décrire
ce qui arrive quand des personnes en viennent à subir la mise en données. En
l’espèce, Facebook pourrait servir d’exemple à nouveau. Paradoxalement, malgré
les possibilités presque illimitées pour combiner, décombiner et repanacher les
éléments de la base de données, Facebook force ses utilisateurs à entrer dans
une structure technologique extrêmement homogène avec des menus prédéfinis,
des listes déroulantes et des catégories. La soi-disant « individualisation » exige
des formes extrêmes de standardisation, d’homogénéisation technologique et
culturelle14. Ainsi, la structure de Facebook à l’origine excluait les personnes
transgenre. Ce n’est qu’après une longue période de protestations que Facebook
a ajouté une icône pour le mariage homosexuel dans sa fonction journal en juillet
2012. En 2014, Facebook a voulu semble-t-il régler cette question une bonne fois

14 L’homogénéisation culturelle ne devient pas seulement manifeste dans les catégories utilisées
dans la base de données, mais aussi, et en lien avec cela, dans la domination de la langue anglaise
dans l’univers informatique.
L’identité comme base de données 105

pour toutes et a ajouté pas moins de 50 identités sexuelles différentes à sa base de


données [Bradley, 2014]. Bien que ceci soit certainement une amélioration sur le
plan du pluralisme, cette évolution a un prix. A regarder la structure standardisée
des innombrables pages Facebook, nous ne pouvons écarter l’impression que
l’univers Facebook aux possibilités illimitées est plutôt monomorphe et morne.
Les identités de bases de données sont des identités personnalisées de masse15.

Toutefois, comme nous l’avons déjà observé, l’individu ne fait pas que subir une
massification, mais aussi une atomisation et un tri. A ce niveau, peut-être, se trouve
le plus grand danger de l’identité comme base de données. Dans le monde des big
data, la corrélation a remplacé la causalité et ceci rejaillit sur l’agentivité humaine
à un niveau fondamental [voir Hildebrandt, 2008]. A un niveau plus ou moins
innocent, nous voyons cela se produire dans les boutiques en ligne sur le Web. En
utilisant des techniques de fouille de données connues sous le terme de « filtrage
collaboratif objets », Amazon.com propose aux acheteurs d’un livre d’autres livres
qu’ils seraient susceptibles d’aimer. Aujourd’hui, un tiers des ventes d’Amazon
seraient le résultat de cette technique. D’une certaine manière, Amazon en sait
plus sur les préférences d’un acheteur que cette personne elle-même16. Toutefois,
Amazon n’a aucune idée de la raison pour laquelle les acheteurs d’un certain
livre s’intéressent à un autre livre en particulier. Le « prochain livre à acheter »
pourrait être, mais pas nécessairement, du même auteur, du même genre ou dans
la même langue. Le système s’appuie uniquement sur des corrélations : « savoir
quoi, mais pas pourquoi, c’est suffisant » [Mayer-Schönberger et Cukier, 2013 : 52].
Alors que dans l’univers de l’identité narrative le « pourquoi » est essentiel, les récits
portent toujours sur les raisons pour lesquelles les protagonistes agissent comme
ils agissent, sur les pulsions et sur les raisons qui motivent leur agentivité, pareille
causalité narrative n’intervient pas dans le cas des identités de bases de données.
Les identités de bases de données sont des « soi corrélatifs ». Les entreprises
commerciales ou les organismes publics, pour des raisons de pur pragmatisme,
veulent uniquement savoir ce que les clients et les citoyens pourraient souhaiter,
mais ne s’intéressent pas à leurs motivations ou leurs raisons. Le danger, dans
ce cas, réside en particulier dans la tentation d’utiliser les big data pour prédire le
comportement futur des personnes, par exemple, au moment de choisir des études
qui conviennent aux enfants, ou pour profiler une personne par anticipation de

15 « Une succession sans fin de manœuvres soutenues par de gigantesques investissements ont
encouragé des jeunes pénétrant pour la première fois l’univers du Web à créer des présences
standardisées sur des sites comme Facebook. Des groupes commerciaux ont encouragé l’adoption à
grande échelle de modèles standardisés comme le blog et ces modèles ont encouragé le pseudonymat,
du moins dans certains aspects de leurs modèles, comme les commentaires, au lieu de la fière
extraversion que l’on a connue pendant la première vague de la culture du Web » [Lanier, 2010].
16 Bien entendu, bien que relativement innocente, la question économique demeure : à qui
appartiennent les données, les informations, les connaissances qui sont extraites à partir de ces
données ? [Lanier, 2013].
106 Traces numériques et territoires

son comportement face à des circonstances qui ne se sont pas encore présentées17.
« C’est la quintessence de la pente dangereuse, qui mène tout droit vers la société
dépeinte dans Minority Report, un monde où le choix individuel libre sera éliminé,
où notre boussole morale individuelle aura été remplacée par des algorithmes
prédictifs et où les personnes seront exposées à la vindicte sans entrave de
l’arbitraire collectif. Si elles étaient exploitées ainsi, les big data menaceraient
de nous emprisonner tous, qui sait, à la lettre, dans les probabilités » [Mayer-
Schönberger et Cukier, 2013 : 163].

POUR FINIR…

L’analyse ci-dessus de l’identité comme base de données montre que ce


nouveau type de construction identitaire est plutôt ambigu et ambivalent. D’un
côté, les identités de base de données semblent s’accorder parfaitement avec
l’hypermobilisation et la flexibilisation qui caractérisent la culture postmoderne.
De plus, les identités de bases de données sont pour l’essentiel ludiques. Armés
de leurs téléphones portables (intelligents), de leur PC ou de leurs tablettes, et
d’autres appareils numériques, les gens qui peuvent se permettre ces gadgets (une
majorité de la population mondiale) jouent avec les bases de données et leur
propre identité et cela semble leur plaire. En même temps, nous sommes les jouets
des bases de données que nous avons nous-mêmes créées.

Il serait naïf de penser que nous pourrions arrêter, ou sérieusement ralentir,


le processus de globalisation et de mise en données. En fait, cela ne serait pas
même souhaitable, car notre survie est de plus en plus dépendante de l’utilisation
mondiale des technologies de bases de données. De fait, les menaces et les pièges
sont sérieux eux aussi. Comme c’est bien souvent le cas avec les technologies, les
inconvénients et les avantages sont les deux faces de la même pièce. Cependant,
nous ne devons pas oublier que la globalisation et la mise en données ne suivent
pas une évolution autonome, pas entièrement. Bien que nous devions admettre
que les bases de données mondiales – par exemple dans le cadre des logiciels
sociaux ou des biotechnologies – construisent de plus en plus nos identités, nous
devons aussi prendre conscience que nous sommes engagés dans une aventure

17 « Ces nouveaux instruments répressifs ne sont pas déterminés par la logique linéaire de cause
à effet, mais par la logique additive. A ne suis pas B pour une certaine raison, mais plutôt A peut
être relié, ou s’ajouter, à B au hasard » [Lash, 2002]. « Ce phénomène a été décrit comme étant un
empilement d’informations. […] L’empilement signifie que l’on peut combiner de plus en plus divers
éléments d’information sur un coup de tête, sans idée particulière de développement interne ou de
progression ou d’objectif. On ne “sait pas vraiment où on va”. […] Différentes formes de police, de
systèmes de cartographie criminelle et de prescriptions en matière de prononcé des peines sont, pour
cette raison, des instruments répressifs qui ne tentent pas de répondre à la question du “pourquoi”
(un certain acte a été commis ou pourquoi la réaction envers lui doit se faire d’une certaine manière).
Ce ne sont pas des instruments de compréhension, mais des instruments pour l’action » [Aas, 2004].
L’identité comme base de données 107

de productivité et de créativité relationnelles réciproques : nous sommes des


constructeurs construits, comme nous l’avons peut-être toujours été.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Aas, 2004] Aas, K. F., 2004, « From narrative to database: Technological change and penal
culture », Punishment Society, 6, 379-393.
[Bradley, 2014] Bradley, C., 2014, Bigender, Cisgender, Two-spirit: Which of Facebook’s new 50 options
are you?, http://www.mirror.co.uk/news/technologyscience/technology/
facebook.
[Burton, 2013] Burton, R. A., 2013, A skeptic’s guide to the mind : what neuroscience can and
cannot tell us about ourselves, New York : St. Martin’s Press.
[Cascio, 2005] Cascio, J., 2005, The Rise of the Participatory Panopticon, http://www.worldchanging.
com/archives/002651.html.
[Dawkins, 1976] Dawkins, R., 1976, The selfish gene, Oxford : Oxford University Press.
[de Mul, 2005] de Mul, J., 2005, « From Mobile Ontologies to Mobile Aesthetics », Contemporary
Aesthetics, Special Volume I: Aesthetics and Mobility.
[de Mul, 2009] de Mul, J., 2009, « The work of art in the age of digital recombination’, in Digital
Material: Anchoring New Media », In Raessens, J., Schäffen, M., Boomen, M. V.
D., Lehmann, A.-S. et Lammes, S. (éd.), Daily Life and Technology, Amsterdam :
Amsterdam University Press.
[de Mul, 2010] de Mul, J., 2010, Cyberspace odyssey : towards a virtual ontology and anthropology,
Newcastle upon Tyne : Cambridge Scholars.
[de Mul, 2011] de Mul, J., 2011, Paniek in de Polder. Polytiek en populisme in Nederland, Zoetermeer :
Uitgeverij Klement.
[de Mul, 2014] de Mul, J., 2014, Destiny Domesticated. The Rebirth of Tragedy Out of the Spirit of
Technology, Albany : State University of New York Press.
[Dennett, 1992] Dennett, D. C., 1992, « The Self as a Center of Narrative Gravity », In Kessel,
F., Cole, P. et Johnson, D. (éd.), Self and Consciousness, Hillsdale, NJ : Erlbaum.
[Derrida, 1972] Derrida, J., 1972, Marges de la philosophie, Paris : Editions de Minuit.
[Glass, 1993] Glass, J. M., 1993, Shattered Selves: Multiple Personality in a Postmodern World, Itchaca/
London : Cornell University Press.
[Gray, 2003] Gray, J., 2003, Al Qaeda and what it means to be modern, New York : New Press.
[Grosser, 2011] Grosser, B., 2011, « How the Technological Design of Facebook Homogenizes
Identity and Limits Personal Representation », http://bengrosser.com/wp-
content/themes/grosser/files/GROSSER-facebook-identity.pdf.
[Hildebrandt, 2009] Hildebrandt, M., 2009, « Who is Profiling Who? Invisible Visibility », In
Gutwirth, S., Poullet, Y., Hert, P., Terwagne C. et Nouwt S. (éd.), Reinventing
Data Protection?, Rotterdam : Springer Netherlands.
[Keymolen, 2007] Keymolen, E., 2007, Onzichtbare Zichtbaarheid. Helmuth Plessner ontmoet profiling,
BA, Erasmus University.
108 Traces numériques et territoires

[Kulkarni, 2013] Kulkarni, A., 2013, « How does Facebook Make Money? », http://www.
buzzle.com/articles/how-does-facebook-make-money.html.
[Lanier, 2010] Lanier, J., 2010, You are not a gadget: a manifesto, New York : Alfred A. Knopf.
[Lanier, 2013] Lanier, J., 2013, Who owns the future?, New York : Simon & Schuster.
[Lyotard, 1979] Lyotard, J.-F., 1979, La condition postmoderne, Paris : Editions de Minuit.
[Manovich, 2002] Manovich, L., 2002, The Language of New Media, Cambridge, MA : MIT Press.
[Marquard, 1991] Marquard, O., 1991, In Defense of the Accidental: Philosophical Studies, Oxford :
Oxford University Press.
[Mayer-Schönberger et Cukier, 2013] Mayer-Schönberger, V. et Cukier, K., 2013, Big data: a
revolution that will transform how we live, work, and think, Boston : Houghton Mifflin
Harcourt.
[Paz, 1991] Paz, O., 1991, Children of the mire: modern poetry from Romanticism to the
avant-garde, Cambridge, MA : Harvard University Press.
[Ricœur, 1985] Ricœur, P., 1985, Temps et récit III : le temps raconté, Paris : Le Seuil.
[Ricœur, 1991a] Ricœur, P., 1991a, « Life in the Quest of Narrative », In Wood, D. (éd.), On Paul
Ricœur. Narrative and Interpretation, London : Routlegde.
[Ricœur, 1991b] Ricœur, P., 1991b, « Narrative identity », In Wood, D. (éd.), On Paul Ricœur.
Narrative and Interpretation, London : Routlegde.
[Ricœur, 1990] Ricœur, P., 1990, Soi-même comme un autre, Paris : Le Seuil.
[Rutgers et Molier, 2004] Rutgers, G. R. et Molier, G., 2004, Het multiculturele debat: integratie of
assimilatie?, Den Haag : Boom Juridische Uitgevers.
[Terranova, 2000] Terranova, T., 2000, « Free Labor: Producing Culture for the Digital
Economy », Social Text, 18, 33-58.
[Van den Boomen, 2014] Van den Boomen, M., 2014, Transcoding the Internet. How metaphors
matter in new media, Amsterdam : Institute of Network Cultures.
Partie 2
Rencontre entre traces numériques et
territoires
L’écume numérique des territoires
Dominique Boullier
Lorsque le numérique saisit le territoire1, il ne le fait jamais de façon univoque.
Une « politique numérique » qui se projette sur un territoire ne peut que renforcer
la définition classique du territoire, qui se résume à la projection d’un pouvoir sur
un espace défini par des frontières et approprié comme idéologie [Lussault, 2007].
Cette définition produit déjà des dimensions qui ne seront pas nécessairement
présentes de la même façon selon les choix stratégiques effectués : un pouvoir,
des frontières, une idéologie. La seule présence de l’idéologie ouvre la dimension
double des territoires référés aux états-nations : non seulement des états mais aussi
des nations, c’est-à-dire encore des « communautés imaginées » [Anderson, 1991].
Apparait ainsi un effet d’agencement particulier : si les agencements étatiques sont
massivement topographiques, cela ne résume pas le travail des états qui peuvent
et doivent avoir des dimensions topologiques dans les relations de pouvoir et
d’influence qu’ils mobilisent [Lévy, 2002]. Nous chercherons ici à ouvrir encore la
possibilité des combinaisons pour montrer que l’émergence des réseaux numériques
et la traçabilité généralisée qu’ils instaurent nous obligent à penser un agencement
chronologique des territoires, ce qui, au bout du compte, pourrait même remettre
en cause la pertinence du concept de territoire pour penser ces processus.

En mobilisant une approche par agencement, et en suivant l’impulsion de J. Lévy,


nous empruntons certes à Deleuze [1975] mais sans exploiter pour autant toute
la portée philosophique de cette entrée car nous visons à exploiter les qualités
empiriques du terme : à la fois matérialité et énoncé (ce qui le rapprocherait du
dispositif de Foucault) mais aussi potentiel « d’agencies » nouvelles, de pouvoir
d’agir distribués dans chacune des médiations alignées pour faire tenir ces
agencements (et cela nous rapproche nettement de l’anthropologie de Latour),
médiations toutes singulières et toutes différentes qui obligent à ce travail
empirique de suivi des montages. La définition de Colson de l’agencement permet
bien de faire cette connexion : « L’agencement est le mode de composition d’un
être collectif qui commande la qualité de son désir et son degré de puissance et
d’autonomie ». [Colson, 2001 : 21]. Définition que l’on peut compléter par celle
de Zourachbichvili : « On est en présence d’un agencement chaque fois que l’on

1 Ce travail sur les relations entre territoire et numérique a été commencé par la publication d’un
article dans un ouvrage en 2008. Il a été repris et travaillé en 2014-2015 lors de présentations à
Lille, à Compiègne, à Grenoble et enfin à Poitiers. Il a été conduit parallèlement à une analyse
comparée des politiques des villes intelligentes qui a fait l’objet de plusieurs présentations et d’une
publication (2014). Des variations sensibles sont à noter entre toutes ces approches qui sont subi
aussi l’influence des travaux en cours sur les sciences des vibrations, sciences sociales de 3eme
génération, en 2015.
112 Traces numériques et territoires

peut identifier et décrire le couplage d’un ensemble de relations matérielles et d’un


régime de signes correspondant » [Zourachbichvili , 2003 : 7].

Pour rendre compte des médiations matérielles et signifiantes de ces agencements


qui informent les territoires, nous procéderons par une description progressive
de huit propriétés des territoires les plus classiques pour discuter à chaque fois
les nouvelles dimensions qui peuvent être ouvertes. Nous partirons de chaque
propriété d’un agencement topographique, car c’est celui qui a constitué le
territoire (frontières et pouvoir), et nous la transposerons en agencement
topologique puis en agencement chronologique. La comparaison devrait faire
apparaitre le décentrement nécessaire par rapport aux notions conventionnelles
de territoire pour prétendre avoir prise sur des couches du territoire, comme on
le dit dans les systèmes d’information géographiques, qui le rendent plus peuplé
(les opinions, les vibrations) mais aussi plus incertain.

TERRITOIRES ÉQUIPÉS VS. TERRITOIRES ATTRACTEURS VS. MILIEU ASSOCIÉ

Pour les décideurs politiques, numériser les territoires signifie le plus souvent
équiper le territoire physiquement par des réseaux techniques, en les planifiant,
en les finançant ou en les gérant directement, la combinaison reste assez ouverte.
Cette réduction à un équipement physique possède un avantage évident : elle
opère par transposition directe de la vision des infrastructures de réseaux de
transport, qui ont tant marqué l’histoire de « l’aménagement » en France mais
aussi dans tout le monde occidental. Les « autoroutes de l’information » en étaient
sans doute l’expression la plus fameuse et la focalisation sur le très haut débit et
l’équipement de tous les territoires la prolonge avec une obstination non démentie
depuis le XIXeme siècle, après l’impulsion essentielle de Saint-Simon [Musso,
2003]. Notons cependant que le modèle des réseaux tend rapidement vers la
métaphore biologique, dès lors que l’on pense le territoire comme un organisme,
irrigué par des vaisseaux, ou mieux par un système nerveux, qui convient mieux
à la société de la connaissance, mais qui laisse entendre qu’il reste un cerveau qui
pilote l’opération, à savoir le gouvernement du territoire.

Si l’on peut comprendre ainsi le territoire équipé de réseaux comme une forme de
traduction topographique de l’Etat, les diffusions médiatiques qui contribuent à
constituer la nation n’ont jamais connu les mêmes limitations de frontières. En effet,
la nation constituée solidairement à l’état n’a ni les mêmes principes ni les mêmes
conditions de félicité. Desrosières [1993] montre ainsi comment la radio devint, à
partir de 1925, une condition d’existence de la nation américaine, notamment parce
qu’elle était le vecteur nouveau des campagnes présidentielles qui, seul, permettait
de toucher toutes les populations en même temps et de leur permettre de se faire
une idée sur les candidats. C’est à cette occasion que se constitua l’opinion publique
de façon opérationnelle grâce à ces médias mais aussi aux sondages d’opinion qui
L’écume numérique des territoires 113

purent ainsi la calculer, toutes choses étant égales par ailleurs, avec un degré de
connaissance partagée supposée. Cette dimension mass-médiatique des territoires
avait certes été initiée par les journaux mais sans la puissance d’immédiateté des
médias de masse qui synchronisent des populations entières. Plus encore, c’est tout
un « esprit national » qui se constitue ainsi et qui peut même tenter de s’exporter
dans la diffusion des contenus à l’étranger, ce qu’on a nommé le « soft power ».
Les émissions de radio des USA vers le bloc soviétique faisaient cependant appel
à un autre agencement, celui qui constitue une audience et que nous appellerons
topologique. La puissance des médias n’est pas seulement de produire une zone
d’influence, elle consiste aussi à mobiliser des désirs, politiques ou consumeristes,
et dans tous les cas, à rendre attractif un territoire. Le marketing territorial s’y
emploie désormais et reproduit les mêmes méthodes que toute marque, lorsqu’elle
doit diffuser son influence. Cela suppose toujours un centre mais son territoire est
alors agencé sur le mode topologique, fait de nœuds d’influence qui permettent la
propagation (cf. le two-step flow de Katz et Lazarsfeld, 1955).

Mais cette propagation a désormais muté, elle ne provient plus d’un centre, d’un
pouvoir central, ni d’un maillage topologique des influences. C’est la métaphore
biologique de l’épidémiologie qui s’impose, celle de la prolifération virale, permettant
aux idées de circuler à travers des contacts éphémères, sans qu’un centre soit bien
défini et sans qu’un réseau soit identifiable a priori. Lorsque les territoires prennent
l’initiative de créer des « clusters » qui associent des entités diverses, entreprises de
production, de services ou de R&D, laboratoires, notamment, c’est un effet du
type de la propagation épidémiologique qui est recherché. Les particularités du
« milieu » permettent à des ingénieurs ou à des chercheurs de choisir des secteurs
où l’ambiance culturelle ou environnementale est de plus grande qualité et où la
seule proximité permet de générer des rencontres stimulantes sans que cela relève
uniquement d’une théorie de la classe créative [Florida, 2012]. Le territoire n’est
plus un organisme comportant des limites précises que l’on peut irriguer plus ou
moins activement. Il est devenu un milieu de référence, un écosystème qui ne reste
vivant qu’à la condition d’activer ses échanges avec son environnement. Lorsque
le numérique permet de donner un statut permanent et actif aux diasporas de
tous types, par exemple [Boullier et al., 2008], c’est tout le territoire qui se redéfinit
comme « milieu associé », c’est-à-dire indépendamment des distances physiques
et de l’équipement lui-même. Car si un certain équipement en est la condition, ce
n’est pas « l’autoroute de l’information » entre deux villes du territoire qui devient
essentielle mais la plate-forme qui soutient la dynamique des flux, bien au-delà des
territoires et des « communautés », nationales ou non. Internet a bien été structuré
comme réseau distribué qui s’est transformé en véritable milieu, assurant une
symétrie potentielle entre toutes les contributions. Pourtant, le risque est désormais
de voir les plates-formes (GAFAT), qui garantissaient la fluidité et la contagion
rapide, capter les externalités générées par cette connectivité pour reconstituer
des asymétries et des centres. En procédant ainsi, on finirait par tuer le principe
même du milieu et sa capacité à trouver des voies multiples de survie, qui génèrent
114 Traces numériques et territoires

toujours des solutions originales. Les « plates-formes souveraines » [Boullier,


2015a] auraient alors reconstitué un agencement topographique analogue à celui
des états, contre l’agencement chronologique qui préside à ce réseau distribué où le
caractère éphémère des connexions est une qualité. Pourtant, le modèle du milieu
reste la meilleure approche pour saisir la propagation sous formes de traces et de
mèmes [Boullier, 2015b] qui envahit les réseaux sociaux mais aussi l’internet des
objets. Ce milieu doit être considéré comme un cosmos, aux propriétés écologiques
qui enveloppe tous les acteurs et qui ne peut être stratégiquement dominé par une
posture en surplomb. La mutation permanente par contact est au cœur de son
principe et la métastabilité apparente s’obtient par des rééquilibrages permanents
entre puissances des entités circulantes, sauf lorsque la circulation est bloquée
ou contrôlée par les plates-formes souveraines qui pourtant constituent ce milieu
technique.

TERRITOIRES À POUVOIR CENTRAL VS . TERRITOIRES À DISTRIBUTION VS .


DÉPLOIEMENT DES QUASI SUJETS

Si l’on pose le territoire équipé comme un système nerveux, c’est bien qu’on lui
suppose ou qu’on lui souhaite une topologie centralisée, construite sur une asymétrie
où l’on chercherait un quelconque cerveau. Mais ce pouvoir central ne peut être
pensé comme centre isolé de son histoire et de ses justifications. Il est mythiquement
relié au-delà de lui-même, il puise dans une tradition qui le rend incommensurable,
que cette tradition soit de droit divin ou fondée dans les lumières de la Raison.
Face à lui, ce sont bien des sujets, qui gagnent ainsi une place, certes, mais au prix
de la perte de prise sur leur propre système politique territorial. Or, ce montage
asymétrique ne tient plus guère et ce n’est pas le numérique qui le rend incertain
mais l’élévation générale du niveau d’éducation et l’affaiblissement de ces traditions
incorporées qu’étaient la religion ou les grands systèmes d’adhésion politiques. Cette
asymétrie possède des propriétés topographiques aisément restituées par les cartes
de distribution des ressources et des pouvoirs. Plus ou moins décentralisé, selon les
systèmes politiques, le pouvoir ne repose malgré tout dans cette approche que sur
une centralité, souvent visible. Les techniques numériques peuvent l’équiper sans
difficulté et les centres de commandement urbain que IBM peut proposer, comme
à Rio, sont des traductions numériques réussies de cette mise en scène du pouvoir
central qui dispose désormais d’énormes tableaux de bord (« dashboards ») tous
interopérables.

Cependant, elle ne rend pas compte de la version topologique de cette centralité.


En effet, du point de vue médiatique, désormais étendu à tout le potentiel des
terminaux mobiles, il faut pouvoir desservir chaque « subscriber » (de la carte SIM)
au plus près de ses activités. La distribution des émetteurs n’est pas une simple
décentralisation car elle permet d’assurer une commutation, l’ouverture de canaux
à volonté entre ces abonnés. Le territoire des mobiles est par excellence le règne
L’écume numérique des territoires 115

de la topologie, et tout l’enjeu n’est plus de rapporter au pouvoir central toutes


les activités des sujets mais de leur permettre de cohabiter sur des fréquences, en
proposant une répartition du spectre, dont la carte n’a rien de topographique.

Mais l’abonné est encore d’une certaine façon le sujet d’un opérateur, il dépend
entièrement de cette offre de fréquence, qui permet d’échanger, comme c’est
le cas pour les mass-médias eux-mêmes. Or, cela ne rend pas compte de ce qui
circule, des entités qui produisent cette contagion, des modes, des rumeurs, du
buzz, toutes choses fort dédaignées par la supposée société de la connaissance et
qui pourtant vivent de leur vie, prolifèrent et dépassent de supposées intentions
individuelles ou stratégiques. L’assujettissement n’est pas le régime d’existence de
ces êtres qui peuplent les réseaux numériques. Il convient plutôt de les désigner
par le concept de Michel Serres de « quasi sujets ». Ce ne sont plus a priori des
humains ou des objets qui font l’histoire ou qui l’inspirent mais bien plutôt les
entités qui résultent de leur frottement tangentiel [Boullier, 2004] entre elles. Il
ne s’agit plus donc de penser des formes de cohabitation, ce qui serait encore
supposer un espace partagé, comme dans le cas des répartition de fréquences,
mais des formats d’association qui font émerger des quasi sujets. Tout le problème
de cette gestion des rumeurs, des réputations tient dans cette absence de source,
d’origine supposée du message, du pouvoir et du mythe, aussi fictifs étaient-ils
dans le cas du pouvoir central d’un territoire donné. Disparition du centre veut
dire disparition des sujets mais émergence des circulations. Et ce ne sont pas celles
des véhicules, qui sont autant d’entités découpables et identifiables mais celles
des contagions (biologiques, magnétiques, mimétiques ou autres) où l’entité, bien
qu’existante, n’est plus visible et n’offre plus de prises immédiates. On ne peut
espérer s’en tirer par une stratégie d’image offensive car c’est dans le maillage de
ces quasi sujets que réside la source même des informations et des connaissances.
C’est pourquoi aucune carte des communautés ne permet de rendre compte de
cette mise en tension des quasi-sujets. Ils sont mis en tension autour de problèmes,
d’ « issues » [Marres, 2007] et non en permanence. Ce sont les problèmes qui sont
les quasi-sujets qui font agir d’autres quasi-sujets, qu’on classe comme humains
alors qu’ils ne sont que des comptes Facebook ou Twitter.

TERRITOIRES À FRONTIÈRES VS. HUB DES ACCÈS VS. EXTENSIONS ÉPIDÉMIQUES

La puissance de l’image du territoire tient à l’effet de délimitation nette et arbitraire


que produit l’institution de frontières dans un continuum géophysique toujours
flou. La définition naturalisée tend à valoriser la frontière comme clôture, comme
marque des limites du domaine, qui permet de produire un contrôle, voire même
un blocage total des échanges. Mais il est déjà notoire que cette vision terrestre a
quelque difficulté à s’appliquer sur des milieux naturels plus « incertains » comme
le domaine maritime, même si on tend à le réduire à sa référence aux fonds
terrestres (avec leurs ressources objets de toutes les convoitises comme on le
116 Traces numériques et territoires

voit avec les batailles sous le pôle Nord). Ce sont plutôt des routes maritimes qui
sont essentielles à préserver, des circulations plutôt qu’une domination sur un
domaine impossible à clore. C’est encore plus vrai pour l’espace aérien, même
si les violations peuvent être détectées par les radars et provoquer des tensions
internationales à épisodes réguliers. C’est encore plus difficile pour l’espace
hors atmosphère terrestre où la question des orbites et des altitudes est plus
décisive, même si les satellites géostationnaires ont bien entendu un ancrage
terrestre mais impossible à délimiter en adéquation avec les frontières politiques
des territoires. Ce n’est plus vrai pour l’espace hertzien [Boullier, 1987] qui n’a
jamais été totalement contrôlé malgré toutes les tentatives techniques totalitaires
pour le faire (émetteurs, brouillages, etc.) et malgré la répartition internationale
des fréquences. Et les frontières ne veulent plus dire grand-chose pour le réseau
internet, à l’exception de certaines tentatives totalitaires en Chine ou en Iran par
exemple, et malgré les problèmes juridiques que cela pose pour faire appliquer des
réglementations et des lois. Les effets de territoire semblent désormais reposer
sur des frontières produites à volonté selon les impératifs de la sûreté de l’état :
tout drone militaire transforme toute zone d’un autre pays en territoire du pays
attaquant qui y fait régner son ordre [Chamayou, 2013]. Si l’état se définissait chez
Weber par ce monopole de la violence, il le faisait dans le cadre des limites du
territoire qu’il domine [Weber, 1995]. Désormais, c’est la technologie qu’il contrôle
qui transforme tout espace en territoire soumis à la loi nationale, indépendamment
de ses frontières. Cette mutation est considérable et fait reposer la définition des
frontières sur la zone d’action possible des capteurs et des effecteurs au service
du centre comme pour toute opération logistique. L’état logisticien produit un
agencement topographique qui redéfinit les relations territoriales classiques tout
en s’y inscrivant (les capteurs sont bien disposés dans l’espace physique).

C’est précisément cette relative impuissance à maitriser cette nouvelle dimension


des territoires qui doit conduire à « orienter les accès » plutôt qu’à contrôler les
frontières. Les hubs fonctionnent ainsi dans les analyses topologiques du Web
[Ghitalla et Boullier, 2004], le hub étant aussi employé dans le système aérien
pour concentrer des vols . Les sites web qui permettent de renvoyer vers d’autres
grâce à une liste de liens peuvent atteindre un score de hub, un out-degree élevé
[Kleinberg, 1998]. Ils organisent le Web, cet espace non territorialisé, non pas
en découpant des frontières qui, de toutes façons, resteraient incontrôlables
mais en favorisant certains accès, en devenant le lieu des circulations électives,
en affichant leurs « attachements préférentiels ». Les accès [Rifkin, 2000] sont au
cœur de toute l’économie de l’immatériel, et l’abondance de l’information rend
indispensable de favoriser les accès, ce qui reconstitue un territoire à agencement
topologique. C’est ainsi que toutes les cartes que nous portons sur nous, dans
nos portefeuilles ou dans nos sacs à main, constituent autant de droits d’accès
et qu’elles délimitent de fait un territoire potentiel où nous pouvons agir (de la
carte bancaire à la carte de santé) [Boullier, 2011]. Mais ce territoire n’a plus rien
de continu, il dépend du service et des attributs des accédants. Le pouvoir qui
L’écume numérique des territoires 117

est ainsi offert est permis par l’autorité émettrice, qui conserve le fichier de tous
ses membres et la trace de toutes leurs interactions. Le territoire nouveau qui fait
l’objet du contrôle est bien plus celui des annuaires, des fichiers de membres et
des logs d’activité que celui balisé par une frontière. On peut ainsi imaginer qu’un
territoire donné, et non seulement ceux qui ont par tradition le rôle de délivrer
des papiers d’identité, pourrait diffuser à tous ceux qu’ils considèrent comme
membre, une carte donnant des privilèges d’accès dans n’importe quel espace,
réel ou virtuel, et bien au-delà de ses frontières administratives, puisqu’il s’agirait
alors d’un service fourni à tout moment. Cette image rend bien compte du
changement de paradigme entre frontière et accès et du rôle de passeur que peut
jouer une autorité supposée gérer un territoire. L’évolution actuelle des moteurs de
recherche vers une personnalisation accrue des réponses aux requêtes, comme le
fait Google avec son algorithme Hummingbird, contribue à basculer d’une logique
de présentation d’une carte du web à une logique d’accès. Chaque internaute n’a
plus aucune chance de visualiser une liste commune à tous les internautes, qui
pourrait laisser croire à un territoire balisé par le moteur. Désormais, ce sont les
requêtes précédentes, son historique et toutes ses traces exploitées par le moteur
qui lui fourniront une image supposée plus adaptée à sa « demande véritable » au-
delà de la requête explicite saisie dans le champ prévu à cet effet. Ce qui engendre
les risques du « filter bubble » signalé par Eli Pariser [2011].

L’accessibilité n’est cependant pas une innovation propre au numérique : elle


a été depuis longtemps considérée comme une des qualités essentielles de la
ville [Lefebvre, 2001]. Elle se traduit dans la place de marché où s’échangent
tous les biens qui deviennent ainsi accessibles à une clientèle qui se concentre
spatialement pour cette opération éphémère. Le numérique permet cependant la
démultiplication de ces « espaces places de marché » et permet à certaines autorités
territoriales de réinventer leur rôle en organisateur de services et d’accès.

Cette capacité à faire varier le territoire et ses critères d’accès selon les attributs des
entités qui y circulent ne permet pas cependant de rendre compte de ces processus
épidémiques qui font l’objet des rumeurs, des imitations déjà évoquées. Les limites
de l’accès reposent plutôt sur cette « hésitation » dont parlait Tarde [2001] entre deux
rayons d’imitation qui entrent en conflit pour nous faire agir. Il est cependant possible
désormais de suivre à la trace toutes ces propagations et de mieux comprendre les
capacités d’extension de certaines épidémies, ou de certaines olas dans un stade,
car les phénomènes sont du même ordre. Ces émergences éphémères peuvent
être tracées sur le web avec des dispositifs comme le memetracker de Leskovec
et Kleinberg [2009]. Leur agencement n’est pas tant spatial que chronologique car
la propagation produit certains patterns temporels qui changent la nature même
de l’épidémie. La vitesse de propagation mesurée en Tweet per second devient un
élément clé pour repérer l’extension d’une épidémie. La vélocité captée par le Big
Data devient le critère clé pour comprendre cette extension. Quand bien même
on peut après coup projeter ces propagations sur des cartes avec frontières ou sur
118 Traces numériques et territoires

des réseaux avec accès différenciés, c’est le rythme de l’extension qui constitue le
phénomène épidémique et non ses frontières ni ses relais. Le territoire ainsi décrit est
avant tout une « extension en train de se faire » et non plus une « extension déjà faite
», pour reprendre l’opposition classique de B. Latour dans son analyse de la science.

TERRITOIRES À CENTRALITÉ HIÉRARCHIQUE VS. COMPARATEURS D’AUTORITÉS


VS. RÉSEAUX DE CAPTEURS DE VIBRATIONS

Un territoire s’organise en référence à une centralité qui définit ainsi de fait des
périphéries. Il produit un espace hiérarchisé, qui peut être aligné sur la dimension
politique et symbolique (mais ce n’est pas toujours le cas). On constate ainsi à quel
point il est difficile de faire vivre des échelles territoriales nouvelles, telles que les
« pays » en France, lorsqu’ils ne sont pas reliés à (ou producteurs de) une forme de
centralité, et la globalisation indique bien cette perturbation des conventions lorsque
les espaces pertinents pour les échanges ne sont pas contrôlés par des pouvoirs
correspondant à la même échelle. L’analyse des fonctions urbaines permet cependant
de différencier les types de centralité, comme c’est le cas lorsqu’on ne constate pas
une congruence entre centralité politique, administrative, économique, commerciale,
universitaire voire symbolique. Ce sont alors des centralités qui se combinent entre
elles en autant de configurations locales pour faire tenir les territoires. La tradition
française a très nettement tendance à empiler les différents types de centralité
qui se neutralisent alors les unes les autres et à attendre les arbitrages de l’Etat,
seule hiérarchie acceptée au finale. La démultiplication des centralités, selon des
spécialisations, est rarement comprise par le citoyen ordinaire (cf. les divisions des
rôles entre départements, régions, communes et services décentralisés de l’Etat
par exemple en France). De la même façon, les réputations des universités restent
souvent globales et s’étendent à toutes les spécialités de la même institution, alors
qu’il existe des fonctions et des activités fort différentes, mais on ne peut afficher
plus d’une « marque » institutionnelle. Ces enjeux apparaissent lors du lancement de
sites web institutionnels qui fonctionnent comme des vitrines pour des marques
qui encapsulent toutes les autres entités dans leur cadre unique, le site portail.
Les conflits sont fréquents car la publication en ligne oblige à expliciter les frontières
et les hiérarchies sans laisser proliférer la diversité née de l’activité spontanée.

Or, avec le numérique en réseaux, émergent d’autres possibilités de visibilités,


puisque les sites spécifiques ou les pages d’un portail peuvent être indexées et
accessibles directement via les moteurs de recherche. Il devient alors possible de
multiplier les centralités dans des domaines particuliers, la seule contrainte étant
ensuite de pouvoir s’orienter pour les retrouver au moment voulu (d’où l’importance
de l’orientation des accès vue précédemment). Un territoire donné peut alors
combiner des centralités extrêmement réduites et peu significatives sur son espace
physique mais pour autant réputées et reconnues à une échelle mondiale. Le cas
se rencontre tout autant dans le domaine de la recherche où l’on trouve sur un
L’écume numérique des territoires 119

territoire des spécialistes mondiaux d’un domaine très pointu alors que cela ne
représente en aucun cas une attraction spatiale ou démographique visible du point
de vue du territoire physique. Les entreprises qui se sont développées sur des niches
qu’elles ont réussi à étendre à un niveau mondial par la qualité de leur offre, qui
en font des autorités dans leurs domaines, et par la qualité de leur connexion au
reste du monde, constituent de fait de nouvelles centralités tout aussi importantes.
L’espace médiatique ainsi équipé par les réseaux numériques permet d’effectuer
de véritable comparaisons entre autorités, ainsi que le montre la tendance générale
au ranking international. Les territoires de réputation sont ainsi constitués sur
un mode équivalent à celui des marques lorsqu’elles mobilisent les médias. Les
comparateurs peuvent être des moteurs généralistes mais aussi des moteurs plus
spécialisés ou tout média qui prétend couvrir un domaine pointu. Le numérique
et sa dimension de réseau permettent de fournir l’infrastructure nécessaire pour
faire émerger ces diverses autorités, en les rendant visibles et comparables, ce qui
permet au public de s’orienter sans avoir à passer par des médiateurs multiples.
Cette tendance au benchmarking [Bruno et Didier, 2013], très soutenues par
les modèles de management de l’économie financière, est ainsi un instrument
pour délégitimer les autorités instituées à centralité hiérarchique et proposer une
objectivation algorithmique permettant de mettre en ordre le monde selon d’autres
critères. Dans notre étude sur la culture scientifique et technique française sur le Web
[Boullier, 2008], nous avons observé qu’un site amateur spécialisé en aquariophilie
était ainsi devenu le centre d’agrégation de tous les sites parlant de ce thème dans
le monde entier, alors que les autorités du domaine, les aquariums de la CSTI, se
cantonnaient sur le Web à promouvoir leur équipement sans s’intéresser à toutes les
dimensions de ce thème. Le site amateur en question est topologiquement un hub.
D’une intermédiation spécialisée peut ainsi naître un nouveau pouvoir, non central
ni hiérarchique mais capable d’organiser la comparaison et la commutation entre
toutes les offres. C’est ce que l’on observe avec les moteurs de recherche, et Google
en premier, qui tendent à occuper cette place d’autorité de substitution alors même
qu’ils ne sont que des hubs qui renvoient vers d’autres sites. Leurs algorithmes non
publics de ranking permettent de faire apparaître des résultats qui font office de
certification d’autorités en quelque sorte par leur présence en tête de liste de Google,
qui devient ainsi le garant de ces résultats alors même qu’il prétend en rester à un
rôle d’orientation sans certification d’aucune sorte.

Comme on le voit, un traitement topologique d’un territoire ne fait pas disparaitre


les asymétries et permet même parfois de reconstituer des centralités selon d’autres
principes. Mais cela s’inscrit dans la longue durée et dans des relations « instituées »
à travers des liens par exemple. Or, un grand nombre de traces sur les réseaux
sont beaucoup plus éphémères ou moins visibles qu’un site web institutionnel
ou même qu’une liste de liens. Or, ce qui tisse la dynamique de la toile n’est plus
tant ces liens entre sites que les micro-actions délibérées (un like ou un retweet)
ou involontaires (un clic, une géolocalisation) qui génèrent des traces typiques du
Big Data en volume, en variété et en vélocité. Aucune centralité ne se constitue
120 Traces numériques et territoires

dans ces processus si ce n’est celle, très éphémère, du buzz qui met en avant
une citation, un même, ou une entité nommée. Cette focalisation de l’attention
[Boullier, 2009] n’est même plus topologique car la carte de la propagation ne dit
rien des « acteurs » concernés mais indique seulement quel attribut d’un compte
a été percuté et rendu visible par le mème ou ce que nous appellerons désormais
une « vibration » donnée [Boullier, 2015b]. Ce qui apparait alors ce sont des
« bursts and streams » [Leskovec et Kleinberg, 2009], des flux de propagation
qui font subir des mutations ou des dérivations aux entités qui circulent dès lors
qu’elles pénètrent certains milieux et qui provoquent dès lors des tremblements
de terre ou plutôt d’esprit. Les mesures de ces vibrations sont réalisées par des
capteurs, qui sont l’équivalent des sismographes que Pierre Levy considérait en
2000 comme notre mode d’existence. Or, qui sont les sismographes du monde
numérique ? Les plates-formes qui génèrent elles-mêmes les dispositifs de traces
(les likes, les RT et les clics) et qui produisent la mesure en la mettant de façon de
plus en plus contrôlée à disposition des marques et des chercheurs pour en faire
la matière première de leurs stratégies ou de leurs analyses.

TERRITOIRES ESPACES VS. TERRITOIRES CLUSTERS VS. TERRITOIRES TEMPS

Lorsqu’on parle de territoires, la dimension spatiale semble toujours aller de soi.


Le territoire, comme le dit Jacques Lévy [2002], est avant tout un ensemble de lieux
reliés, intégrés, dont on peut rendre compte topographiquement puisqu’on traitera
de voisinages et qu’un territoire se caractérisera par sa continuité. Par contraste
avec cette approche spatiale élémentaire du territoire, il a distingué des « réseaux
exclusivement topologiques » (RET) que sont les réseaux de télécommunications
par opposition aux « réseaux à agencement partiellement topologique » [RAPT]
tels que les réseaux techniques de transport notamment, qui permettent de mixer
les deux dimensions.

Les réseaux exclusivement topologiques relèvent alors des analyses de graphes et


la spatialisation qui est nécessaire à leur visualisation ne s’appuie pas sur d’autres
référents que les principes de calcul et les contraintes de l’affichage. C’est pourquoi
toutes les analyses de réseau auront tendance à faire apparaitre des clusters qui ont
la forme de régions hyperconnectées sans que cela ne dise rien de leur ancrage
topographique [Fouetillou, 2008]. Les liens qui permettent de calculer ces graphes
peuvent parfois faire référence à des matérialités inscrites dans l’espace, comme
pour un réseau de télécommunications dont les routeurs sont implantés dans des
fermes de serveurs bien localisables sur un territoire espace. Mais le principe de
leur connexion reste propre au système et leur distribution dans l’espace physique
ne dira rien de leur architecture logique. La plupart du temps, ces territoires clusters
sont totalement indépendants de toute matérialité dans l’espace physique comme
les réseaux sémantiques dans un corpus de citations en scientométrie. Le territoire
L’écume numérique des territoires 121

conceptuel d’une discipline peut être représenté spatialement en réseaux sur une
surface mais cela permet de faire apparaitre des proximités et des distances (on
parle de word space pour les analyses de cooccurrences). Ces approches se sont
étendues largement hors de la scientométrie où elles sont nées pour donner lieu à
des visualisations de tous types, depuis les sites web reliés par des liens hypertextes
qui permettent de produire des clusters d’attachement politique à des opinions
voisines par exemple, jusqu’aux graphes produits par les réseaux sociaux comme
Linkedin ou Facebook qui visualisent les statuts d’amis ou les mentions faites des
uns et des autre sur les comptes. L’espace de sociabilité peut ainsi être considéré
comme un territoire mais il a ses propriétés qui sont topologiques comme l’analyse
sociologique des réseaux sociaux le pratiquait depuis longtemps. Penser un
territoire en tant qu’espace de sociabilité ne saurait dès lors se résumer à décrire
les propriétés des voisinages dans des quartiers par exemple mais doit intégrer
la dimension topologique des clusters affinitaires pour rester en prise avec les
pratiques observables.

Cependant, l’analyse de réseaux sociaux avait établi que dans une même relation
plusieurs valeurs d’échange pouvaient circuler [Degenne et Forsé, 1994]. Ils parlaient
alors de multiplexage. Or, cette dimension nécessite une dimension temporelle car
le multiplexage nécessite malgré tout que chaque valeur d’échange soit mobilisée
tour à tour : on peut être en relation en tant que collègues, anciens de la même
école, ou membres du même club de foot mais ces valeurs d’échange s’expriment
les unes après les autres dans un échange donné (à travers des indices verbaux
qui permettent de switcher sur la valeur pertinente). Ce switching temporel est
exactement la définition du commutateur [Guillaume, 1999]. Sur un même support
physique, plusieurs signaux peuvent passer en commutation temporelle, ce qui
correspond à un type de multiplexage (il existe aussi du multiplexage spatial sur la
fibre optique).

Les technologies de commutation temporelle permettent d’exploiter le temps avec


une fréquence élevée de commutation pour rendre le même espace polyvalent.
Cette fragmentation nécessaire du temps permet d’organiser une séparation
des communications (voix ou données) mais nécessite ensuite un travail de
synchronisation pour faire correspondre correctement l’émission et la réception.
Or, cette métaphore technique se trouve être en même temps un élément de
l’infrastructure de nos échanges les plus ordinaires numériques. Séparation,
découpage infinitésimal, commutation et synchronisation. Les territoires que l’on
prétend gouverner prennent une toute autre configuration si on les considère
comme déployés dans le temps. Attention, nous ne faisons pas tant référence ici à
l’histoire, à la mémoire, celle des personnes, des lieux ou des objets, qui nous font
vivre dans plusieurs moments à la fois dans un même espace équipé, cet aspect
vivant du patrimoine (dimension du passé et de la tradition). De même, un territoire
ne reste vivant que s’il se projette dans le temps, s’il bâtit son projet, à la fois désir et
122 Traces numériques et territoires

plan d’action, et l’énergie dépensée pour les prospectives des territoires sous diverses
formes montre bien ce souci constant (dimension de l’avenir, de la vision). Mais tout
semble s’ordonner comme un déplacement, solidaire dans le temps, d’une même
configuration avant tout marquée par son caractère spatial.

Or, les réseaux numériques que l’on doit penser désormais sont avant tout
organisés en « réseaux à agencement chronologique », ce qui complète l’approche
de Jacques Lévy. La vision du territoire se démultiplie ainsi en plusieurs couches
tenant compte de cette multiplexité propre aux réseaux numériques. Il devient
crucial de permettre la circulation entre ces réseaux dans des temporalités
courtes. Tous les acteurs que l’on peut recenser comme de supposés membres
peuvent ainsi participer à plusieurs univers à la fois sur des modes intermittents
en basculant de l’un à l’autre dans des délais extrêmement courts. On peut en
trouver la trace dans les mobilisations politiques ou citoyennes [Boullier, 2008]
devenues elles aussi intermittentes, loin des fidélités militantes construites
dans la longue durée et tendant au monopole. C’est ce que nous avons appelé
le « High Frequency Politics » [Boullier, 2013] que l’on résume parfois au buzz
mais qui agit en réalité en propre pour modifier la synchronisation collective
sur une haute fréquence. Les grands médias avaient cette capacité à organiser la
synchronisation à travers ce qu’on appelait « les grands messes du 20 heures » qui
ont largement contribué à constituer la « communauté imaginée » nationale. Mais
la fragmentation des audiences menace ce point de référence et les fonctions
de synchronisation se déportent vers des instances plus imprévues. Des grands
organisateurs d’événements, sportifs, culturels, peuvent jouer un rôle essentiel
dans cette synchronisation encore classique. Mais sur les réseaux, ce sont des
effets de focalisation de l’attention sur certains « événements » propres à la toile
qui peuvent créer cet effet, lorsque des millions de connexions sont recensées
sur le site de YouTube pour la vidéo scandaleuse qu’il faut avoir vue ou lorsqu’on
mesure en Tweet per second la propagation d’une nouvelle. Il n’existe plus
d’instance de synchronisation en tant que telle mais un moment de focalisation
sur un support qui peut accepter des flux de masse agrégés à un instant donné.
. Mettre en forme le passage d’un événement à un autre entre milieux différents
[Boullier, 2010] nécessite un équipement de commutation que peuvent instituer
les territoires au sens traditionnel du terme. L’une des fonctions politiques des
territoires serait ainsi désormais d’organiser cette synchronisation qui doit être
considérée comme l’équivalent de la continuité topographique.

TERRITOIRES ADMINISTRATIONS VS. SPHÈRES D̓INFLUENCE VS. PLATES-FORMES DE


COLLECTE

Tenir un territoire, et donc le faire durer au-delà même des aléas du politique,
repose entièrement sur une bureaucratie, aurait dit Weber, et plus précisément
L’écume numérique des territoires 123

sur une administration. Les technologies administratives comportent des outils de


comptage (dont l’état-civil) et de suivi permanents (dont les « statistiques », bien
sûr) qui permettent de rendre visible le territoire. Les cartes sont d’ailleurs l’un
des modes d’administration des plus efficaces, par leur puissance de synthèse et de
surplomb, surtout en France où la mise en œuvre des décisions se déroule sur le
mode de la magistrature sociale, centrée sur des territoires sélectionnés, comme le
montre Donzelot [2003] (et non en s’appuyant sur les capacités des personnes). On
comprend d’ailleurs ainsi d’autant mieux la difficulté à passer à un autre modèle.
Tenir un territoire, c’est le faire exister en le rendant visible mais aussi en instituant
un corps professionnel qui devient à lui seul le territoire. Dispositif de visibilité,
corps professionnel mais aussi procédures spécifiques. L’administration est l’arme
majeure de la procéduralisation, celle qui traduit les volontés politiques dans les
actes et qui doit pour cela reposer sur une captation de données pour suivre l’état
d’une population et les effets des actions administratives. Le numérique a modifié
considérablement le mode de fonctionnement des registres [Desrosières, 1993]
qui permettaient la quantification d’un territoire à la condition de standardiser les
modes de recueil et les entités enregistrées.

Cependant, le territoire en tant qu’administration ne peut pas prétendre transposer


ses méthodes dans le monde des réseaux numériques qui ne sont pas dépendants
de sa propre administration interne (même s’il tente de l’étendre sans cesse en
instituant pour tous les organismes qui contractent avec lui des méthodes de
reporting, des ratios et tout l’arsenal du management numérique). En s’aventurant
sur Facebook ou sur Twitter, par exemple, il doit être prêt à prendre la mesure
d’une extension de lui-même sans visibilité réelle (autre que celle données par les
plates-formes), sans procédures (car ce sont des ajustements par influence qui
font la loi), et sans personnel professionnel (car ce ne sont pas les webmasters
qui font le poids face à la myriade des bloggeurs et autres pro-am -professionnels
amateurs- qui investissent un temps considérable dans des domaines très pointus).
Le territoire est plus parlé qu’il ne parle et dans ce cas, il devient impossible de
l’administrer, tout juste s’agit-il de repérer qui parle et qui exerce une influence qui
peut avoir un lien avec ou un intérêt pour le pouvoir en charge du territoire. Le
territoire à agencement topologique prend alors la forme de sphères d’influence
qui s’appuient sur de multiples relais. Ils font aussi tenir le territoire, avec des
fluctuations de réputation et des effets de mobilisation qui peuvent être très
importants sans aucune administration enregistrée comme telle (on sait en fait que
ces pro-am finissent par constituer cette couche de spécialistes qui se détachent
de la masse et qui font à la fois l’opinion et la faisabilité technique des échanges).
Comment un territoire traditionnel est-il capable de remettre son sort entre les
mains de ces armées de pro-am définitivement incontrôlables ? On le voit, c’est
un changement radical de cadre de pensée et d’action qui serait nécessaire. Mais
cette perte de maitrise permet aussi de mieux comprendre ce qu’est l’influence
qui n’est pas la propagande et qui se rapproche plus du « soft power ». A condition
124 Traces numériques et territoires

d’admettre que ces relais d’opinion comme on les appelle ne se gouvernent mais
s’influencent eux-mêmes. La carte de leurs relations, de leurs arguments, de leurs
positions prend une forme topologique parce que les échanges d’influence ont
une nature topologique. La proximité avec des études d’opinion est certaine mais
elle s’appuie alors sur des méthodes d’opinion mining dont nous avons montré les
limites [Boullier et Lohard, 2012]. Comme on le voit des métriques concurrentes
peuvent s’instituer pour faire émerger cette opinion sous influence mais dans tous
les cas, elles seront bien différentes de celles adoptées par l’administration et par
ses registres.

Ces approches des topologies des sphères d’influence peut prendre des formes assez
durables, le statut d’influenceur exigeant du temps pour se construire. Cela ne doit
faire oublier que la vie des réseaux numériques a produit des vibrations d’un autre
type, beaucoup plus éphémères, à partir des traces laissées sur les plates-formes.
La circulation, la propagation de (et la focalisation sur) certains événements, ou
certains messages constituent des phénomènes qui gagnent une visibilité de plus
en plus grande et qui finissent par rétroagir sur une administration par exemple
lors d’un buzz négatif sur un incident avec la police municipale. L’administration
de ces traces est entièrement prise en charge par les plates-formes que sont les
GAFAT (avec Twitter en plus) qui produisent, suscitent, mesurent et vendent ces
traces pour leur compte propre. Le territoire à agencement chronologique n’est
plus seulement hors de la compétence des administrations territoriales classiques,
il est directement capté, défini et administré par les plates-formes. Ce qui n’était
pas le cas des blogs par exemple qui se traduisaient par une dissémination des
sphères d’influence sans administration véritable. La centralisation de l’internet
et la perte de son caractère distribué permettent aux plates-formes de produire
leur territoire qui n’a pas de matérialité spatiale mais qui insuffle la pulsation
des attentions, un agencement typiquement chronologique. Les personnels qui
peuvent gérer ces situations ne sont plus ni des administratifs ni des bloggeurs
indépendants mais des équipes en formation commando qui réagissent en temps
réel aux alertes des systèmes de « social listening » pour lancer des guerres éclairs
ou même provoquer des effets de traces à l’aide de l’astroturfing. La présence
durable sur des réseaux d’échange d’opinions n’est plus d’aucune utilité dans ce
cas, c’est la réactivité immédiate qui compte.

TERRITOIRES GOUVERNEMENT VS. MOUVEMENTS D’OPINION VS. ZONES D’ALERTE

Le territoire n’est jamais réductible à son administration puisqu’elle est toujours en


lien, à des degrés variés d’autonomie selon les Etats et les niveaux administratifs,
avec un gouvernement. Ce gouvernement porte la légitimité politique via des
médiations nombreuses et des chemins parfois fort longs qui prennent forme de
partis et d’élections et autres délégations. Le gouvernement est à la fois issu de ce
processus de représentation, de délégation, supposé porter la parole du peuple
L’écume numérique des territoires 125

plus que celle du territoire. Mais il finit pourtant par incarner ce peuple, au point
de parler au nom du territoire dans cette assomption d’une personnalité morale
d’un type particulier qui s’exprime par la voix de ces êtres politiques (« la France
pense que », « la Bretagne veut », etc.). Le pouvoir du gouvernement dépend de
sa capacité à faire taire (comme pour tout porte-parole, comme le rappelle la
théorie de l’acteur-réseau, Latour, 2006) toutes les autres voix qui pullulent sur le
territoire. C’est désormais le territoire qui doit parler, grâce à ces ventriloques d’un
type particulier que sont les élus qui gouvernent. La mise en scène de ce pouvoir
et du silence qu’il impose par le fait qu’il dépasse tous les citoyens qu’il est censé
représenter peut faire appel aussi aux médias numériques, sans aucun doute. Mais
cela ne serait qu’un avatar de plus de ce porte-voix qui fait descendre la bonne
parole sur le troupeau. Le bon pasteur, cette métaphore fondatrice du politique
chez Platon, protège et fait en même temps respecter l’ordre et le silence.

Or, le numérique en réseaux n’est pas un média de plus, il donne un porte-


voix à tous ceux qui ne veulent pas se taire alors même qu’ils ont pourtant élu
et désigné des porte-parole qui doivent donc, en théorie, se substituer à leur
parole. La prolifération des voix, des ci-devant « sans voix » comme on parlait des
sans culottes, n’est pas un travers du numérique en réseaux, il en est constitutif
techniquement par son architecture et par son extraterritorialité qui veut dire
extra autorité. L’imprimerie fut le levier essentiel de diffusion de la Réforme
face à l’église qui au départ n’avait pas perçu la menace et qui changea ensuite
radicalement de position en imposant l’imprimatur [Eisenstein, 1991]. De la même
façon, le numérique est le levier essentiel de la remise en cause des Etats-nations
en tant qu’espaces publics divisés et contrôlés. Le troupeau n’a pas nécessairement
pris la forme d’une révolte mais la capacité des réseaux à faire se mêler toutes
les fonctions, toutes les appartenances pour en faire émerger de nouvelles rend
la mission du pasteur difficile dès lors qu’il raisonne en gardien du parc humain
[Sloterdijk, 2000]. Pourtant, c’est sur cette base que son rôle peut se réinventer.
Car une fois perdu le monopole de la parole et de l’autorité, reste l’exercice subtil
de l’attention, de la surveillance, qui est en fait largement facilitée par le numérique
en réseaux. A défaut de pouvoir mobiliser les anciens ressorts de la propagande,
il reste possible de tout écouter pour suivre les mouvements d’opinion. C’est
bien la critique faite désormais aux gouvernements : leur suivisme vis-à-vis des
mouvements d’opinion et leur incapacité à leur donner une orientation, une vision.
La puissance de diffusion médiatique s’est elle-même diluée dans la réaction aux
supposées tendances du public. Le territoire à agencement topologique n’a pas de
centre mais des aires de préoccupation (areas of concern) qui captent l’attention.

Cette veille devient désormais une activité essentielle de tout gouvernement


(de territoires politiques ou d’entreprises d’ailleurs). Mais elle dépasse de loin
toutes les veilles médiatiques classiques que nous venons d’évoquer où l’on
peut sonder les esprits à travers les expressions recueillies par sondage ou par
opinion mining. Désormais, les outils de traçabilité peuvent exploiter tout ce qui
126 Traces numériques et territoires

se passe ouvertement dans ces espaces que l’on a qualifié « d’extimes » [Tisseron,
2000] tels que ceux que l’on trouve sur les réseaux sociaux, mais aussi toutes les
traces laissées volontairement ou non sur les réseaux. Un bon gouvernement est
désormais non pas celui qui parle à la place de ses citoyens, non plus celui qui
sait les écouter mais celui qui peut devancer leurs propres désirs et peurs à partir
des traces qu’ils laissent dans toutes leurs activités numériques. Désormais le
territoire se vit sous alerte et se résume à une mise en alerte 24heures sur 24. Tout
ce qui ne peut être tracé et ne peut générer d’alerte n’a plus d’existence car il ne
participe plus à la sismographie collective, à la vibration qui met le monde sous
tension. La capacité à être en alerte n’est en rien le propre de larges entités comme
un gouvernement territorial. Chacun des êtres (y compris les objets désormais)
appartenant à ces territoires a appris à pratiquer cette veille, à être en alerte. A
tel point que le téléphone portable génère ainsi un régime d’engagement dans le
monde, une posture d’alerte [Boullier, 2008] qui résume quasiment le principe de
l’habitèle [Boullier, 1999, 2014a]. Il ne faut pas risquer de perdre une occasion
et, à l’aide du téléphone portable, des notifications des news, des flux RSS, des
tweets ou des SMS, on peut désormais être à l’affût de toutes les opportunités.
Le petit gouvernement de ce territoire multiplexe que constitue notre supposé
« moi » procède ainsi comme tous les gouvernements de l’ère numérique : plus
de contrôle direct, plus de silence imposé mais au contraire une alerte constante
aux signaux qui émergent du bruit général. Le territoire ainsi défini peut être
très éloigné des frontières physiques car l’alerte peut se déclencher à travers des
connexions improbables mais pourtant réelles grâce au réseau. La qualité des
capteurs ou des balises qui auront été placées aux endroits stratégiques (sur les
réseaux, sur les objets, sur des acteurs) permettra au gouvernement de reprendre
prise sur ce territoire incertain ou au contraire de n’entendre que sa propre voix, en
ignorant d’éventuels signaux faibles porteurs pourtant d’orages à venir. Ce zonage
pertinent de capteurs d’alerte devient ainsi le nouveau gouvernement paradoxal.
Et là encore, les plates-formes ont un avantage certain. Mais ce principe des
alertes est aussi au cœur du pilotage des capteurs de données environnementales,
de trafic, ou d’autres situations à risques ou à pilotage fin. Les traces, dans leur
principe de signal élémentaire, irriguent tout le système de vibration mis en place
dans les territoires.

TERRITOIRES À RÉCIT FONDATEUR VS. TERRITOIRES DU STORYTELLING VS. FORUMS


POLYPHONIQUES

Il est d’usage de qualifier le numérique et ses manifestations sur les écrans de


« virtuel », voire même de parler dès lors de territoires virtuels. C’est renforcer un
contre-sens qui aveugle. Le territoire est par définition « virtuel », il est toujours
une construction faite de projection, de réinvention, de postulats, de lois et de
mythes, toutes choses profondément virtuelles. Ce n’est pas parce que l’on voit
L’écume numérique des territoires 127

le panneau « France » que le territoire en question est plus « réel » : nous avons
admis avec le temps qu’il était la marque d’un tout dont nous ne pouvons, ni
aucun humain d’ailleurs, embrasser la totalité ni « l’essence ». La convention de
la nation, qui semblait bien arbitraire face à la tradition des provinces, a fini par
devenir vraie. Et il a fallu pour cela bien plus que de la discipline ou du découpage
du territoire physique, il a fallu produire cette « fiction vraie » de la nation (mais
aussi de la région, du pays, de la ville, la fiction du département étant certes un
peu difficile à rendre vraie, on le sait). Le territoire n’est rien sans cette fiction
vraie qui va mobiliser des récits fondateurs, qu’on a parfois été chercher fort loin
dans les traditions au XIXeme siècle pour la création des nations européennes
[Thiesse, 1999]. Rien ne sert d’adopter à cette occasion une posture de critique
ou de dénonciation : il n’existe pas de territoire qui ne soit mythique ou virtuel.
Dès lors, le numérique possède seulement une autre matérialité, celle des réseaux,
des processeurs et des écrans mais ce n’est pas en cela qu’il est virtuel. Il peut
mobiliser d’autres récits fondateurs ou au contraire reprendre les anciens récits
fondateurs à son compte, voilà en quoi il renouvelle la fiction vraie et dès lors
permet d’associer d’une autre façon les êtres concernés. L’effet de ces récits a été
décrit par Sloterdijk [2002] comme relevant du phénomène des « baldaquins », ces
ciels qu’embarquaient les voyageurs au long cours lors des grandes navigations,
pour garder en permanence avec eux les repères de leur ciel de départ (et l’on voit
à cette occasion que l’image du territoire est en fait celle du ciel d’origine plutôt
que celle de la terre !). Et le baldaquin opère comme un cadre mental qui reste
inchangé malgré la confrontation avec l’étranger, malgré le dépaysement. Dans
tous les cas, il garde une connexion étroite avec l’origine, le temps et le lieu, il
reste une topographie portable, certes, mais bien ancrée dans un espace physique.

Cet ancrage n’est pas nécessaire pour le marketing territorial qui fait la promotion
des villes et des territoires dans des espaces de transaction qui valent avant tout
pour leur connectivité. Certes, les ressources du territoire physique peuvent servir
d’argument de vente mais ce sont bien plutôt les qualités de connectivité (via les
transports, les réseaux de télécommunications et les centres de congrès qui seront
recherchées. Dans ce cas, la présence sur les réseaux et la réputation construite
à l’occasion d’événements pèse plus lourd que les qualités patrimoniales ou les
références à un récit fondateur. Tout peut devenir matière à un storytelling qui
n’a plus guère de rapport avec ces récits. Car les événements et les arguments
de connectivité redessinent le territoire dans une mise en scène attractive. Le
marketing territorial est capable même de réinventer un ersatz de récit fondateur
en allant chercher parfois des éléments oubliés, des indices qui peuvent prendre
place dans le storytelling qui circule sur les réseaux. Les connexions avec les
nœuds pertinents pour assurer la propagation de l’histoire doivent être soignées.
Les territoires n’existent alors que par ces liens, par leur présence dans un réseau
porteur d’un storytelling formaté.
128 Traces numériques et territoires

Pourtant, avec le numérique en réseaux, les récits fondateurs prolifèrent, malgré


leur fonds commun d’utopie [Flichy, 2001, Musso, 1998] et ne sont plus l’apanage
d’un pouvoir ou d’un management particulier. Le récit devient un mode d’existence
puisqu’il est non seulement possible mais nécessaire de se raconter, de se mettre
en scène, individu ou collectif, dans un dispositif qui relève plus du forum que du
baldaquin. Le récit unique ne fonctionne plus comme fondation et donne place à la
possible ouverture de controverses, à toute occasion. Imaginer qu’une quelconque
autorité pourrait faire revenir à l’âge du récit vrai, c’est ignorer la diffusion profonde
d’une culture sémiotique et politique de la diversité des points de vue et du savoir
communiquer. S’inquiéter de cette prolifération qui génère incertitude, c’est persister
dans un rôle du territoire qui doit relier substantiellement autour d’un récit unique.
Or, le numérique permet d’offrir une place pour une fonction de médiation tout
aussi importante et profondément démocratique : l’organisation de l’espace du
forum, la garantie de la prise de parole possible pour chacun. Fiction là encore, bien
évidemment, mais fiction vraie dès lors qu’elle rend plausible l’engagement de tous
dans la construction d’un récit polyphonique, dans une démarche d’exploration,
dans le partage de cadres pour le débat. Constituer l’enceinte de ces débats possibles,
et se contenter de cela, c’est à la fois un travail techniquement très subtil dans le
choix des options qui vont produire l’architecture de cet espace [Lessig, 1999] (et
tout animateur de blog, de réseau social ou de forum le sait) mais aussi politiquement
vital. L’appel au modérateur sur de nombreux sites relève de cette attente, qui est
aussi un nouveau rôle politique : selon la façon dont ce rôle est rempli, le territoire
peut se réinventer sous des formes très différentes. Mieux même, les capacités à
restituer l’état des débats, à suivre la forme des conflits et conjonctions de points
de vue existent aussi dans les dispositifs de suivi des traces lorsqu’elles portent sur
les débats. Le design des arènes de ces forums polyphoniques devient un enjeu
démocratique bien plus important que la dernière mouture du site web qui met en
scène le territoire.

CONCLUSION

Le tableau qui suit permet de résumer les contrastes entre des approches des
territoires selon les types d’agencement. Qui dit agencement dit aussi architecture
technique et en particulier architecture de données. Cette ouverture permet de
ne pas cantonner le numérique dans les villes et dans les territoires en général,
à une dimension unique puisqu’il peut amplifier les trois agencements que
nous proposons. L’obligation de repenser ce qui fait territoire nous est apparu
nécessaire dès lors qu’une nouvelle couche de données s’impose pour saisir et
expérimenter les territoires, non plus seulement d’un point de vue de surplomb
mais de l’intérieur. Cette nouvelle peau n’est pas seulement celle que les individus
produisent avec leur habitèle, l’appropriation de leur « personal data ecosystem »,
elle est collective et constitutive de la matérialité des territoires que l’on habite. La
L’écume numérique des territoires 129

différence entre les trois agencements a été mise en avant mais il va de soi que de
multiples combinaisons sont possibles et nécessaires pour l’expérience, la gestion
et la gouvernement des territoires. Il est cependant important de souligner que
l’agencement chronologique que nos avons introduit ici change assez radicalement
le statut du territoire au point de questionner la pertinence même du terme. En
effet, ce principe des traces éphémères qui sont massivement traitées par des
plates-formes remet en cause la durabilité et la supposée évidence des frontières
pour provoquer une synchronisation extrêmement volatile. L’intérêt de Sloterdijk
pour les écumes, pour une aphrologie, théorie des écumes, se comprend mieux
par ce déplacement vers un agencement chronologique qui tient compte de
l’interpénétration et la « co-fragilité » de ces voisinages des bulles dans l’écume.
L’écume est ainsi superficielle pense-t-on, et pourtant elle organise la pulsation
de nos vies dans les territoires et elle tend même à en mobiliser la visibilité par
saturation attentionnelle. Simmel disait bien que la vie urbaine était superficielle
et qu’il fallait cesser de s’en plaindre. Nous sommes entrés dans l’ère des écumes
urbaines et territoriales qui rend parfois improbable ou inutile le gouvernement des
autres couches du social. En cela, les territoires seraient affectés par le virus de la
finance qui depuis plus de trente ans a transformé la vie économique en économie
d’opinion, en succession de bulles et de manipulation des reflets réciproques. Cela
ne signifie pas que toutes les autres agencements qui président aux territoires ont
disparu, cela signifie seulement que l’agencement chronologique qui produit les
écumes et qui est produit par les traces des plates-formes numériques ne peut
être ignoré. Peut-il être gouverné ? C’est une autre question assez analogue à celle
posée par la spéculation financière en général et étendue au buzz qui entraine le
monde dans sa vibration permanente.

Territoire à Territoire à « Territoire » à agencement


agencement topographique agencement topologique chronologique
Territoires équipés Territoires attracteurs Milieu associé
(modèle transport) (modèle média) (modèle environnemental)
Déploiement des quasi sujets
Territoires à pouvoir central Territoires à distribution
(ex: rumeurs, issues)
Extensions
Territoires à frontières Hub des accès
épidémiques
Territoires à centralité Réseaux de capteurs de
Comparateurs d’autorités
hiérarchique vibrations

Territoires espaces Territoires clusters « Territoires » temps

Territoires administrations Sphères d’influence Plates-formes de collecte

Territoires gouvernement Mouvements d’opinion Zones d’alerte

Territoires à récit fondateur Territoires du storytelling Forums polyphoniques


130 Traces numériques et territoires

RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 1991] Anderson, B., 1991, Imagined Communities: Reflections on the Origin and Spread of
Nationalism. Revised, London and New York : Verso.
[Boullier, 1987] Boullier, D., « Espace hertzien et espace public », Espaces et Sociétés, 50.
[Boullier, 1999] Boullier, D., 1999, L’urbanité numérique. Essai sur la troisième ville en 2100, Paris :
L’Harmattan.
[Boullier, 2008] Boullier, D., 2008, « Web CSTI : le Web est un autre monde ! », Revue de l’OCIM,
Mai.
[Boullier, 2009] Boullier, D., 2009, « Les industries de l’attention : fidélisation, alerte ou immersion
», Réseaux, 154.
[Boullier, 2010] Boullier, D., 2010, La ville-événement. Foules et publics urbains, Paris : PUF.
[Boullier, 2011] Boullier, D., 2011, « Habitèle virtuelle », Revue Urbanisme, 376, Janvier-février.
[Boullier, 2013] Boullier, D., 2013, « Plates-formes de réseaux sociaux et répertoires d’action
collective » in Najar, S. (eds.), Les réseaux sociaux sur internet à l’heure des transitions
démocratiques, Paris : Editions Karthala.
[Boullier, 2014a] Boullier, D., 2014, « Habitele: mobile technologies reshaping urban life », URBE,
6(1), 13-16.
[Boullier, 2014b] Boullier, D., 2014, « Politiques des villes intelligentes », in Actes du colloque Ville
intelligente, ville démocratique? , Berger-Levrault, Chaire MADP Sciences Po.
[Boullier, 2015a] Boullier, D., 2015a, « Pour des sciences sociales de troisième génération (SS3G) :
des traces numériques aux réplique »s, in PM Menger (eds.), Big Data, entreprises et
sciences sociales, Paris : Open Editions Press (Collège de France).
Boullier, 2015b] Boullier, D., 2015b, « Vie et mort des sciences sociales avec le Big Data », Socio,
4, 19-37.
Boullier et al., 2008] Boullier D., Le Bayon, S. et Philip, F., 2008, « Formats techniques, formats
communautaires, formats d’engagement : le cas d’une communauté diasporique
», Colloque Web participatif, Québec.
[Boullier et Ghitalla, 2004] Boullier, D. et Ghitalla, F., 2004, « Le Web ou l’utopie d’un espace
documentaire », I3, Information, Interaction, Intelligence, 4(1), 173-189.
[Boullier et Lohard, 2012] Boullier, D. et Lohard, A., 2012, Opinion mining et sentiment analysis.
Méthodes et outils, Paris : Open Editions Press.
[Bruno et Didier, 2013] Bruno, I. et Didier, E., 2013, Benchmarking. L’Etat sous pression statistique,
Paris : La Découverte.
[Chamayou, 2013] Chamayou, G., 2013, Théorie du drone, Paris : La Fabrique Editions.
[Colson, 2001] Colson, D., 2001, Petit lexique philosophique de l’anarchisme. De Proudhon à Deleuze, Le
livre de Poche.
[Degenne et Forsé, 1994] Degenne, A. et Forsé, M., 1994, Les réseaux sociaux. Une approche structurale
en sociologie, Paris : Armand Colin.
L’écume numérique des territoires 131

[Deleuze et al., 1975] Deleuze, G. et Guattari, F. Kafka. Pour une littérature mineure, Paris : Editions
de Minuit, 1975.
[Desrosières, 1993] Desrosières, A., 1993, La politique des grands nombres. Histoire de la raison statistique,
Paris : La Découverte.
[Donzelot, 2003] Donzelot, J., 2003, Faire société. La politique de la ville aux Etats-Unis et en France,
Paris : Le Seuil.
[Eisenstein, 1991] Eisenstein, E. L., 1991, La révolution de l’imprimé dans l’Europe des premiers temps
modernes, Paris : La Découverte.
[Flichy, 2001] Flichy, P.,2001, L’imaginaire d’internet, Paris : La Découverte.
[Florida, 2012] Florida, R., 2012, The Rise of the Creative Class, Revisited, New York : Basic Books.
[Fouetillou, 2008] Fouetillou, G., 2008, « Le web et le traité constitutionnel européen : Ecologie
d’une localité thématique compétitive », Réseaux, 147, 229-257.
[Guillaume, 1999] Guillaume, M., 1999 L’empire des réseaux, Paris : Editions Descartes.
[Katz et Lazarsfeld, 1955] Katz, E. et Lazarsfeld, P., 1955, Personal Influence : the part played by the
people in the flow of mass communication, Glencoe : Free Press.
[Kleinberg, 2002] Kleinberg, J., 2002, « Bursty and Hierarchical Structure in Streams », in Proceedings
8th ACM SIGKDD Intl. Conf. on Knowledge Discovery and Data Mining.
[Kleinberg et al., 1998] Kleinberg, J., Gibson, D. et Raghavan, P., 1998, « Inferring Web
Communities From Link Topology », In Proceedings of the 9th ACM Conference
on Hypertext and Hypermedia (HYPER-98), 225-234.
[Latour, 2006] Latour, B. , Changer de société. Refaire de la sociologie, Paris : La Découverte, 2006.
[Le Béchec et Boullier, 2014] Le Béchec, M. et Boullier, D., « Communautés imaginées et signes
transposables sur un «web territorial» », Etudes de communication, 2014, 42, 113-125.
[Le Béchec, 2010] Le Béchec, M., 2010, Territoire et communication politique sur le « web régional breton
», Thèse de l’Université Européenne de Bretagne-Rennes 2.
[Lefebvre, 2001] Lefebvre, H., 2001, Espace et politique. T2. Le droit à la ville, Paris : Editions
Anthropos.
[Leskovec et al., 2009] Leskovec, J., Backstrom, L. et Kleinberg, J., 2009, « Meme-tracking and
the Dynamics of the News Cycle », in ACM SIGKDD International Conference on
Knowledge Discovery and Data Mining (KDD).
[Lessig, 1999] Lessig, L., 1999, Code and other laws in cyberspace, Basic Books.
[Lévy, 2002] Lévy, J., 2002, Jeux de cartes, nouvelle donne, Paris : DATAR.
[Levy, 2000] Levy, P., 2000, World philosophy : le marché, le cyberespace, la conscience, Paris : Odile Jacob.
[Lussault, 2007] Lussault, M., 2007, L’homme spatial. La construction sociale de l’espace humain, Paris :
Le Seuil.
[Marres, 2007] Marres, N., 2007 « The Issues Deserve More Credit: Pragmatist Contributions
to the Study of Public Involvement in Controversy », Social Studies of Science, 37,
759-78.
[Musso, 1998] Musso, P., 1998, Télécommunications et philosophie du réseau, Paris : PUF.
132 Traces numériques et territoires

[Musso, 2003] Musso, P., 2003, Critique des réseaux, Paris : PUF.
[Orlean,1999] Orlean, A., 1999, Le pouvoir de la finance, Paris : Edition Odile Jacob.
[Pariser, 2011] Pariser, E., 2011, The Filter Bubble: What the Internet Is Hiding from You, New York :
Penguin Press.
[Rifkin, 2000] Rifkin, J., 2000, L’âge de l’accès. La révolution de la nouvelle économie, Paris : La Découverte.
[Sloterdijk, 2000] Sloterdijk, P., 2000, Règles pour le parc humain, Paris : Mille et une nuits.
[Sloterdijk, 2002] Sloterdijk, P., 2002, Sphères I Bulles, Paris : Maren Sell éditeur.
[Sloterdijk, 2005] Sloterdijk, P., 2005, Sphères III Ecumes, Paris : Maren Sell éditeur.
[Tarde, 2001] Tarde, G., Les lois de l’imitation, Paris : Les empêcheurs de penser en rond.
[Thiesse, 1999] Thiesse, A. M., La création des identités nationales. Europe XVIIIe- XX siècle, Paris :
Le Seuil.
[Tisseron, 2002] Tisseron S., 2002, L’intimité surexposée, Paris : Hachette.
[Weber, 1995] Weber, M., 1995, Economie et société, Paris : Pocket.
[Zouabichvili, 2003] Zouabichvili, F. , 2003, Le vocabulaire de Deleuze, Paris : Ellipses.
Spatialités algorithmiques
Boris Beaude
« Un poète doit laisser des traces de son passage, non des preuves. Seules les traces
font rêver. »
René Char, La Parole en archipel, Gallimard, 1962.

Les traces numériques sont éminemment spatiales. Elles rendent compte de la


dimension spatiale de l’action, comme autant de témoignages de ce qui a lieu.
Plus que l’espace, ce sont d’ailleurs les spatialités qui intéressent les sciences
sociales, c’est-à-dire non seulement « les caractéristiques de la dimension spatiale
d’une réalité sociale », mais aussi « l’ensemble des actions spatiales réalisées par les
opérateurs d’une société » [Lussault, 2003]. Car, toujours, nous faisons avec l’espace
[Lussault et Stock, 2010].

En nous informant sur ce qui fut, les traces numériques nous informent aussi
sur ce qui est en puissance. La virtualité recouvre ici toute sa portée, celle du
monde en devenir, et non celle de l’artificialité ou de l’irréalité [Deleuze, 1968].
Les traces numériques nous informent sur ce qui a lieu, sur les pratiques spatiales
individuelles, sur la spatialité d’une société. Et, de plus en plus, quelle que soit
notre action spatiale, territoriale ou réticulaire, dans la rue ou sur Internet, nous
laissons des traces de notre passage.

En cela, la distinction entre espace réel et espace virtuel relève d’une aporie
préjudiciable, héritée d’une conception positionnelle et absolue de l’espace, en plus
d’être matérialiste. Elle confond ce qui situe et ce qui est situé. L’espace, depuis
Leibniz, n’est pas une chose, mais l’ordre des choses [Robinet et al., 1957 ; Lévy,
1994]. Internet, mais aussi l’ensemble des dispositifs de transmission numérique
contemporains, s’inscrivent ainsi dans une perspective historique de réagencement
continue de notre environnement, comme autant de dispositifs de canalisation
distribuée de l’énergie, permettant potentiellement l’interaction immatérielle à
l’échelle de la planète.

Selon cette perspective, qui appréhende l’espace comme n’étant rien d’autre que
l’agencement particulier du réel, la distance apparaît comme l’un des concepts
les plus fondamentaux pour appréhender les phénomènes sociaux [Lévy, 1994 ;
1999]. C’est effectivement la distance qui permet de penser le singulier, l’ordre des
choses, la relation et l’interaction. La distance, mais aussi les moyens de la réduire
ou de l’augmenter, se trouvent ainsi au cœur de l’action, qui est toujours localisée
134 Traces numériques et territoires

(absolue) et plus encore de l’interaction, qui est toujours située (relative), conçue
comme l’ensemble des relations établies entre les réalités qui la rendent effective.

C’est pourquoi les moyens de transport ou de transmission constituent de


puissants vecteurs de transformations sociales, à la fois comme projet, mais aussi
comme modalités pratiques de l’interaction sociale. L’évolution de ces moyens
réagence effectivement l’ordre potentiel des choses, dont l’actualisation change
non seulement l’espace, mais aussi la société, c’est-à-dire l’ensemble des réalités
sociales qui partagent activement un monde commun [Beaude, 2012].

Ainsi, après la synchronisation du monde, nous assistons à sa synchorisation, c’est-à-


dire à l’élaboration non seulement d’un temps, mais aussi d’un lieu en commun
pour l’humanité [Beaude, 2012 ; 2013]. La circulation et le contrôle de l’information
numérique sont à présent si rapides qu’il est possible d’être en contact, d’interagir,
de collaborer et de partager à l’échelle de l’humanité [Mitchell, 1996 ; Castells, 2001 ;
Benkler, 2006]. Les traces numériques s’inscrivent dans cette spatialité complexe, qui
associe des individus et des objets, à des vitesses tout à fait inédites, produisant un
environnement dont les virtualités sont profondément transformées.

VISUALISER LES SPATIALITÉS

La composante territoriale de ces traces est effectivement particulièrement décisive


pour renouveler la connaissance que nous avons des espaces tels qu’ils sont habités
[Gonzalez-Bailon, 2013]. L’enjeu principal des traces numériques est un enjeu de
visibilité. L’individualisation des traces permet en effet de désagréger la spatialité
pour en saisir les composantes individuelles, mais aussi leur temporalité et leur
déploiement.

La spatialité peut ainsi être saisie dans toute sa puissance, comme agrégation
d’actes élémentaires aux intentionnalités multiples. La précision et la quantité
des traces numériques constituent en effet une opportunité stimulante de saisir
l’espace comme un agencement dynamique de réalités sociales, octroyant une
visibilité inédite des pratiques spatiales selon des perspectives novatrices.

Les traces numériques complètent en cela les données plus conventionnelles,


issues des recensements ou d’enquêtes spécifiques, sélectives et ponctuelles1. Car si

1 L’exemple de Fragile Success, projet de visualisation développé par la Regional Plan Association,
présente la région métropolitaine de New York avec une précision remarquable, agrégeant de
très nombreuses données publiques, relatives à l’emploi, les transports, la performance des écoles
publiques ou la criminalité (http://fragile-success.rpa.org). Ce projet s’inscrit dans une perspective
de valorisation innovante de données conventionnelles, soulignant la qualité et l’importance de
telles données.
Spatialités algorithmiques 135

les traces numériques ne respectent pas de nombreuses exigences de la statistique


officielle, elles présentent en revanche un potentiel suffisamment important pour
que leur usage s’impose dans le marketing, dans la recherche scientifique, dans
l’urbanisme et plus généralement dans toutes les activités qui exigent de connaître
précisément un environnement2.

EXPLORER LES TRACES

Parmi les traces numériques exploitées, nombreuses sont celles qui ont trait
à l’espace urbain en particulier. Beaucoup ne sont que des démonstrations de
compétences, ne faisant pas l’objet de recherches approfondies, à l’exemple de
World Touristness map proposée en 2009 par Bluemoon Interactive, qui exploitait les
données de Panoramio. C’est aussi le cas de Vizualizing Facebook Friends, la célèbre
carte des 10 millions « d’amitiés » que Paul Bulter réalisa en 2010. Notons aussi
les New City Landscape Maps de Fabian Neuhaus, « tweetography » qui propose des
cartes de densité de tweets au sein de quelques villes, dont Londres, New York,
Munich et Paris.

D’autres projets relèvent plus de la recherche artistique, à l’image des travaux


d’Esther Plolak, dont Real Time Amsterdam (2002) et Elsatic Mapping (2009) furent
particulièrement novateurs. Notons aussi les surprenantes cartes de biomapping de
Christian Nold, qui propose depuis 2004 des représentations de la variation des
émotions dans le contexte urbain.

Le design, enfin, occupe une place non négligeable de ces productions visuelles, à
l’image d’Anil Bawa-Cavia, qui utilisa les données de Foursquare pour Archipelago
(2010), ou des prolifiques et stimulantes cartes d’Eric Fischer (Local et Tourist3,
2010 ; A Day of Muni, 2011 ; See Something or Say Something, 2011), qui utilisèrent
respectivement les données de Flickr, NextBus, et une association de Flickr et de
Twitter.

Enfin, d’autres productions furent plus commerciales, à l’image d’UrbanMobs


(2008), présenté par Orange et faberNovel, dont les représentations animées
exploitaient l’activité continue des téléphones cellulaires. Mais dans l’ensemble,
tous ces travaux relèvent principalement d’un exercice de style ayant trait à la

2 L’opposition entre big data et small data, mais aussi entre soft data et hard data illustre très bien
ce débat. Elle questionne la valeur relative des traces numériques dans un environnement déjà
largement pourvue d’informations spatiales.
3 Ce travail remarquable portait initialement sur Flickr (https://flic.kr/s/aHsjqXbTjG), avant
d’être adapté à Twitter à l’échelle du monde dans le cadre d’une collaboration avec Mapbox (https://
www.mapbox.com/labs/twitter-gnip/locals). Le concept fut emprunté à Tracing the Visitor’s eye
(2006) de Fabien Girardin, qui portait sur la localisation distincte des photos publiées sur Flickr par
les touristes et les habitants de Barcelone (http://www.girardin.org/fabien/tracing).
136 Traces numériques et territoires

visualisation esthétisante de données et non à la production de représentations


de l’espace s’inscrivant dans un processus de découverte scientifique, qui suppose
une caractérisation plus systématique de ce qui est donné à voir. Ces artistes,
infographistes ou designers, ont néanmoins largement stimulé l’exploitation des
traces numériques et souligné leur potentiel remarquable.

À LA RECHERCHE DES TRACES

A l’exception de quelques pionniers, la recherche académique a tardé à s’intéresser


à ce sujet. A présent, les traces numériques font l’objet d’une attention majeure,
qui ne fait que s’accentuer ces dernières années. Dès 2008, quelques travaux ont
particulièrement fait sensation, lorsqu’ils furent publiés dans Nature et Science, alors
qu’ils se limitaient pourtant à constater que les mobilités individuelles sont très
largement prévisibles. Portant sur de très nombreuses données (100 000 personnes
pendant six mois [González et al., 2008] et 50 000 individus pendant 3 mois [Song
et al., 2010]), ces recherches traitent les individus comme des atomes, produisant
des analyses certes convaincantes, mais dont les limites sont évidentes : le travail,
l’école et le logement sont des pratiques si structurantes, et si localisées, qu’il n’est
pas surprenant que notre localisation soit si prévisible.

Un ensemble de recherches plus vastes porte sur des analyses détaillées des
pratiques, ne s’intéressant pas tant à la prévision des mobilités qu’à leur inégale
répartition dans l’espace. Une large impulsion fut lancée en 2006, avec quelques
projets menés par des groupes de recherche structurés autour de Carlo Ratti et
Sandy Pentland, tous deux chercheurs au MIT [Eagle et Pentland, 2006 ; O’Neill
et al., 2006 ; Ratti et al., 2006]. Ces recherches, portant respectivement sur des
étudiants du MIT, des passants de la ville de Bath et des habitants de Milan, ont
initié un renouveau de la visualisation des mobilités urbaines.

Avec les années, les traces exploitées lors de telles recherches se sont émancipées de
la contrainte relative à l’utilisation de dispositifs dédiés, dont les limites et les biais
furent nombreux. Aussi, il apparaît que les chercheurs ayant publié sur le sujet ont
quasi systématiquement exploité le même type de traces. Jusqu’à 2011, avant que les
recherches ne se multiplient, les six sources les plus importantes furent les suivantes :

1. les données relatives aux téléphones cellulaires, de loin les plus nombreuses
[Reades et al., 2007 ; Shoval et Isaacson, 2007 ; Girardin et al., 2008 ; Girardin,
2009 ; Bayir et al., 2009 ; Eagle et Pentland, 2009 ; Reades et al., 2009 ; Vaccari
et al., 2009 ; Calabrese et al., 2010 ; Ahas et al., 2010 ; Olteanu et al., 2011].

2. les méta-données (dénominations de lieux, coordonnées géographiques


et temporelles) associées à des photos présentes sur des sites Internet tels
que Flickr [Rattenbury et al., 2007 ; Girardin et al., 2008 ; Girardin, 2009 ;
Spatialités algorithmiques 137

Crandall et al., 2009 ; Vaccari et al., 2009 ; Hollenstein et Purves, 2011 ;


Purves et Edwardes, 2011].

3. les données GPS (dispositifs embarqués, taxis, bus) [Ratti et al., 2006 ;
Froehlich et al., 2006 ; Shoval et Isaacson, 2007 ; Vaccari et al., 2009 ;
Neuhaus, 2010].

4. les données des capteurs Bluetooth détectant la présence de dispositifs munis


de cette fonctionnalité [Eagle et Pentland, 2006 ; Bayir et al., 2009 ; Eagle et
Pentland, 2009].

5. les données fournies par les opérateurs de vélos en libre service [Froehlich
et al., 2008 ; Borgnat et al., 2009] et Revealing Paris Through Velib’ Data, projet
expérimental de Fabien Giradin présenté en 2008.

6. les données présentes sur des réseaux sociaux à composante spatiale


[Phithakkitnukoon et Olivier, 2011].

Ces traces furent parfois complétées par d’autres informations

- des bases de données relatives à la présence de lieux spécifiques (commerces,


cafés…), afin de contextualiser les traces [Cortright, 2009 ; Reades et al., 2009] ;

- des enquêtes (souvent limitées) auprès des individus [Eagle et Pentland,


2006 ; Froehlich et al., 2006 ; Bayir et al., 2009 ; Ahas et al., 2010].

Dans l’ensemble, ces recherches présentent des travaux très innovants qui
contribuèrent significativement à une meilleure lisibilité de l’environnement urbain
et plus précisément de son inégale pratique par les individus. Elles proposent
des représentations originales et souvent inédites de l’espace urbain, le révélant
au travers de pratiques singulières (déplacements, prise de photos, partage ou
historique de lieux fréquentés…).

Ces dernières années, d’autres démarches peuvent être soulignées, tant elles
renouvellent les modalités pratiques de la connaissance et de la représentation de
l’espace. Dans le prolongement de la notion de Cellular Census proposée dès 2007 par
Jonathan Reades, Francesco Calabrese, Andres Sevtsuk et Carlo Ratti [Reades et al.,
2007], certaines initiatives proposent ouvertement de se substituer aux recensements,
jugés trop longs, peu représentatifs et trop coûteux, en exploitant systématiquement
et massivement les données relatives à la localisation des téléphones cellulaires
[Deville et al., 2014].

Partant de l’hypothèse selon laquelle les communications téléphoniques se font


d’autant plus rares que les interlocuteurs sont éloignés [Lambiotte et al., 2008 ;
138 Traces numériques et territoires

Krings et al., 2009], des chercheurs de l’Université catholique de Louvain, autour


de Vincent Blondel, et du MIT, autour de Carlo Ratti, ont par ailleurs suggéré
de reconsidérer les délimitations régionales sur la base des appels téléphoniques
[Blondel et al., 2010 ; Ratti et al., 2010].

A une échelle plus fine, des chercheurs se sont appuyés sur les réseaux socio-
spatiaux tels que Foursquare pour identifier des quartiers intra-urbains [Cranshaw
et al., 2012], et ont proposé d’éprouver le concept au sein de quelques villes nord-
américaines dans le cadre du projet Livehood. Plus récemment, des recherches ont
été menées à partir de bornes Bluetooth afin d’analyser précisément les parcours
de touristes dans le Musée du Louvre [Yoshimura et al., 2014].

PERSPECTIVES DES TRACES

Du fait de leur technicité avancée, ces recherches sont quasi exclusivement menées
hors des sciences sociales, ce qui limite grandement les moyens d’en qualifier les
données et plus généralement la pertinence, dès lors qu’elles rendent compte de
pratiques éminemment sociales. Or, ces recherches sont limitées par les nombreux
biais inhérents aux méthodes utilisées, ainsi que par l’inégale fiabilité des données
primaires.

Ces projets furent souvent réalisés dans le cadre d’événements, biennales, fêtes
de la musique, et n’ont pas été développées au-delà, accentuant la tendance de ces
initiatives à proposer un instantané de la ville qui en montre l’exceptionnel plutôt
que l’usuel (Amsterdam RealTime, Real Time Rome, UrbanMobs).

Des recherches s’inscrivant plus ouvertement dans les sciences sociales tendent
néanmoins à émerger, mais avec beaucoup de retard, et un accès aux données
souvent plus difficile. Des recherches innovantes sont parfois menées, à l’exemple
du projet Imagitour, qui exploite les données de Flickr, Panoramio, Facebook et
Tripadvisor, associant informatique et ethnologie, afin de mieux comprendre les
pratiques touristiques françaises, leurs spatialités et leurs temporalités. De telles
recherches restent néanmoins relativement rares.

Pourtant, les traces numériques se multiplient avec la mise à disposition de


données relatives aux transports par de nombreuses villes, dont l’exemple des
coordonnées GPS des taxis à New York compte parmi les plus spectaculaires4.
Plus exceptionnellement, des données relatives aux téléphones cellulaires sont
elles aussi valorisées, à l’image du projet D4D (Data for Development) en Côte
d’Ivoire puis au Sénégal.

4 Le projet HubCab du Senseable City Lab témoigne parfaitement de ce potentiel.


Spatialités algorithmiques 139

Cette prolifération des traces numériques se traduit aussi par des partenariats de plus
en plus nombreux entre des villes et des entreprises telles que Waze5 et Uber6, à l’image
des nombreuses initiatives de Boston. Enfin, les capteurs d’activités constituent
de plus en plus de traces des mobilités piétonnes, autorisant des visualisations
particulièrement fines7. Depuis peu, l’exploitation des traces numériques est
aussi envisagée pour hiérarchiser l’importance des voies de circulation, identifier
automatiquement leurs sens, mais aussi leurs limitations de vitesse8.

PANOPTIQUE, CATOPTIQUE, OLIGOPTIQUE, CONFIGURATIONS DE LA VISIBILITÉ

La pluralité des traces numériques produit ainsi de nouvelles représentations de


l’espace, qui informent non seulement sur l’espace, mais aussi sur les individus.
Elles renouvellent puissamment les conditions de la visibilité, en partant d’actes
isolés, ponctuels et individuels. Les vues synoptiques ainsi produites exigent un
processus de transformation, d’agrégation, d’anonymisation, inégalement efficace,
mais remarquablement signifiant. Cette dynamique se traduit par une forme
d’hypervisibilité et de traçabilité généralisée [Lussault, 2009 : 186-203], accentuée par la
synchorisation des traces numériques, alors que leur circulation, leur traitement et leur
représentation profitent pleinement de l’hyperspatialité contemporaine, c’est-à-dire de
la systématisation du principe de connexion entre réalités spatiales [Lussault, 2013].

Ce processus d’hypervisibilité autorise une omniveillance, dont les modalités pratiques


recouvrent les qualités respectives du panoptique, du catoptique et des oligoptiques. Le
panoptique, depuis la figure architecturale suggérée par la perspective utilitariste
de Jeremy Bentham à la fin du XVIIIe siècle, et plus encore depuis sa déclinaison
dans les années soixante-dix à l’ensemble des structures spatiales de contrôle
par Michel Foucault [1975], permet effectivement de reconsidérer la puissance
marginale des hétérotopies, comme la normalité des spatialités contemporaines.
Avant même la prolifération des traces numériques, dans Post-scriptum sur les sociétés
de contrôle, Gilles Deleuze souligna ce glissement vers un contrôle spatialement
distribué [Deleuze, 1990]. Aux prémices des espaces numériques, l’architecte
William Mitchell soulignait déjà la capacité du bracelet électronique à étendre
la prison à l’ensemble de l’espace [Mitchell, 1996 : 77], tout en y substituant la
puissance des traces.

5 Dès 2013, Google a racheté Waze 1,13 milliards de dollars et a investi dans Uber par l’intermédiaire
du fond de placement Google Venture.
6 Uber communique explicitement sur ce point (http://blog.uber.com/city-data).
7 Les nombreuses cartes proposées par Human Data témoignent parfaitement de ce potentiel
(http://cities.human.co).
8 Pour plus de détail, se référer à la collaboration entre OpenStreetMap et Mapbox (https://www.
mapbox.com/blog/mining-probe-data).
140 Traces numériques et territoires

Nous retrouvons ici la lecture surplombante de l’autorité, surveillante, qui veille


sur ses sujets pour mieux les contrôler [Graham, 2005]. Rares, néanmoins, sont
ceux qui jouissent réellement d’une position suffisamment centrale pour éprouver
la puissance du panoptique. L’hyperspatialité se traduit ainsi par une hypercentralité,
c’est-à-dire une concentration de la connexité et par continuité de la spatialité
numérique, au profit d’un nombre très limité d’acteurs [Beaude, 2012 ; 2014].
Google, Facebook et le gouvernement des Etats-Unis sont effectivement de très
loin les mieux placés pour observer le Monde contemporain, disposant d’une
quantité d’information tout à fait inédite, qu’aucun Etat et qu’aucune entreprise
n’aurait imaginé il y a à peine trente ans. Ce constat souligne à quel point
coexistent deux conceptions opposées et en partie convergentes de la surveillance
individuelle et légitime, l’une et l’autre étant néanmoins de plus en plus contestées.
En quelques années à peine, la surveillance s’est effectivement généralisée à tout
individu, toujours conjointement criminel et client potentiel, enjoignant à une
transparence que seuls les suspects devraient craindre9.

Cette perspective peut néanmoins être inversée, dès lors qu’Internet décentralise
autant qu’il centralise les points de vue sur le Monde. Internet, au moins
virtuellement, permet à chacun de voir le Monde avec une rare intensité.
La surveillance n’est effectivement plus exclusivement surplombante, mais
potentiellement en tout individu, telle une sousveillance, distribuant horizontalement
la veillance, déployant une appréciation collective et généralisée de ce qui convient.
Ainsi, tel un panoptique inversé, nous assistons à l’émergence d’un catoptique
[Ganascia, 2009], un dispositif de médiation qui redistribue si puissamment les
observations, qu’il place chacun en position de voir chaque autre. Les plates-
formes telles que Yelp ou Tripadvisor, bien que limitées à des pratiques tout à fait
circonscrites, ont effectivement radicalement renouvelé les modalités pratiques de
la qualification de l’espace, redistribuant l’acte d’évaluation, de représentation et de
consultation. Le catoptique10 résume cette visibilité redoutable de chaque instant, de
chaque acte qui, surpris par quiconque, peut être instantanément exposé au Monde.

Aussi complexes que puissent être de tels dispositifs de visualisation des pratiques
individuelles et collectives, il convient de souligner à quel point leur puissance et
leur intensité n’a d’égal que leurs lacunes. De même que l’omniprésence des caméras
de surveillance initiée au Royaume-Uni pouvait donner l’illusion d’une complétude
[Thrift et French, 2002 ; Dodge et Kitchin, 2005 ; Graham, 2005 ; Klauser, 2010],
leurs images ne sont pourtant qu’une multitude de cadres, bornés et limités par leur
champ. Toujours, ces visions sont partielles, comme autant d’oligoptiques [Latour
et Hermant, 1998], comme autant « d’étroites fenêtres qui permettent de se relier,

9 Eric Schmidt, alors dirigeant de Google, résuma parfaitement cette logique lorsqu’il suggéra en
2009 à une journaliste de CNBC que si nous avons un fait à cacher, peut-être que nous n’aurions
tout simplement pas dû le réaliser.
10 Ce terme est emprunté à la catoptrique, discipline qui étudie la réflexion de la lumière.
Spatialités algorithmiques 141

par un certain nombre de conduits étroits, à quelques aspects seulement des êtres
(humains et non humains) dont l’ensemble compose la ville » [Latour, 2007].

Google ou la NSA s’évertuent à croiser les oligoptiques, mais leur association ne


constitue jamais un panoptique total. Aussi, la carte n’est jamais le territoire, et l’on
sait depuis Jorge Luis Borges que même à l’échelle 1:1, la carte serait insatisfaisante.
C’est ainsi que « l’utopie de la représentation du monde du personnage borgésien
s’éloigne » [Nova, 2009 : 150].

BIG BROTHER, BIG DATA

Malgré leur prolifération, l’illusion de réalité que de telles représentations du


Monde octroient à ceux qui les maîtrisent comporte effectivement le risque d’un
réductionnisme redoutable, qui réduirait le Monde à ses traces [Beaude, 2010 ;
Gordon et de Souza e Silva, 2011].

La critique acerbe de George Orwell à l’égard de la dérive totalitaire des dispositifs


de surveillance est datée. Elle peut néanmoins être reconsidérée à l’aune de ce
renouvellement de la surveillance [boyd et Crawford, 2012 : 664]. Le pouvoir de
propagande de Big Brother, parfaitement incarné par la figure du grand frère,
repose sur l’ambivalence du regard, comme attention et comme contrôle. Or, au-
delà de la veillance, il importe de rappeler que Big Brother s’assure conjointement
de l’appauvrissement du monde symbolique, pour mieux le contrôler.

Or, la généralisation des dispositifs de production, de collecte et de traitement des


traces numériques associe étroitement ces trois composantes (attention, contrôle
et appauvrissement). Elle s’inscrit dans des logiques de surveillance (NSA) et de
services (Google et Facebook), en partie consentis, tout en comportant un risque
significatif de réduction des pratiques individuelles à leurs simples traces.

Les traces numériques constituent sans aucun doute un potentiel inédit pour
les sciences qui s’intéressent à la dimension spatiale du social. Elles permettent
d’accéder à une connaissance des pratiques spatiales, plus individualisée, plus
continue et plus intense. Ainsi, la prolifération des traces numériques et la
généralisation de leur traitement automatique répondent plus précisément aux
motivations de l’empirisme, du pragmatisme, de l’utilitarisme et du positivisme.

HÉRITAGES

L’exploitation systématique et générale des faits, par opposition aux idées,


divisait déjà Platon et Aristote. Cette opposition traversa d’ailleurs l’ensemble
142 Traces numériques et territoires

de la philosophie, discutant inlassablement la pertinence de ce que Leibniz


appelait les vérités de raison et les vérités de fait. La prévalence des faits sur la
raison, la critique du rationalisme, la valorisation de l’expérience et la primauté
de l’empirisme émergea vraiment à la fin du XVIIe siècle et au début du XVIIIe
siècle en Irlande et en Angleterre, avec John Locke, puis George Berkeley. Dès la
fin du XVIIIe siècle, cette distinction fut néanmoins remise en cause, avec Kant,
soulignant plus précisément l’intrication des faits et de leurs interprétations, et
l’inefficience de leur distinction. Le constructivisme, et plus précisément le co-
constructivisme proposé par Edgar Morin à la fin du XXe siècle, clarifia cette
opposition, que Bruno Latour résume habilement par la distinction entre les
données et les obtenus [Latour, 1999 ; Carmes et Noyer, 2014], soulignant le
processus actif de co-construction des faits scientifiques.

C’est probablement ce pan de la philosophie et de l’épistémologie contemporaines


qui fait actuellement défaut au paradigme des big data et de la social physics11 proposée
par Alex Pentland [Pentland, 2014], l’un des chercheurs les plus prolifiques dans l’exploitation
des traces numériques. Le paradigme émergeant avec les big data articule ensemble une
pensée particulière (des faits, des réseaux, des individus…) et la mobilisation de
dispositifs techniques spécifiques (base de données, corrélations statistiques…).

Ce paradigme s’inscrit dans un tout autre héritage, qui trouve ses fondements dans
le saint-simonisme, qui valorisait déjà la puissance des réseaux [Musso, 1997], le
positivisme d’Auguste Comte et son aspiration à l’émergence d’une physique sociale
[Comte, 1995], la monadologie de Gabriel Tarde et son « épidémiologie » des idées
[Tarde, 2001], la cybernétique de Norbert Wiener, plus particulièrement l’enjeu
de sa transposition à la société comme modalité idéale de gouvernance [Wiener,
1950], et le « village global » de McLuhan, en particulier l’hypothèse de la régulation
des pratiques avec l’avènement d’un réseau mondial de capteurs [McLuhan, 1969].

Pourtant, dans le dernier ouvrage d’Alex Pentland, Social Physics, mais aussi dans la
majeure partie des travaux portant sur le potentiel des big data [Mayer-Schonberger et
Cukier, 2013], les références à cet héritage sont inexistantes. Pierre Bourdieu, Antony
Giddens, Michel Foucault ou Jacques Derrida, penseurs du social parmi les plus
reconnus au XXe siècle, sont aussi absents de tels édifices théoriques. Alex Pentland
semble construire son projet scientifique en réaction à Adam Smith et à Karl Marx,
auquel il se réfère abondamment, réduisant les sciences sociales à la faiblesse des

11 Afin de ne pas créer de confusion entre la physique sociale de la fin du XIXe et celle du début
du XXIe siècle, l’expression anglophone sera maintenue pour la proposition d’Alex Pentland. « Social
physics is a quantitative social science that describes reliable, mathematical connections between
information and idea flow on the one hand and people’s behavior on the other hand ». « Social
physics helps us understand how ideas flow from person to person through the mechanism of social
learning and how this flow of ideas ends up shaping the norms, productivity, and creative outputs
of our companies, cities, and societies » [Pentland, 2014 : 4].
Spatialités algorithmiques 143

structures qui réduiraient et déshumaniseraient les individus, ce que la sociologie


contemporaine a pourtant déjà abondamment critiqué ces dernières décennies.

Cette omission peut s’expliquer par le fonctionnement disciplinaire de la pratique


scientifique, mais la transposition de la physique à la société mériterait peut-être
plus d’attention. Ce paradigme naissant a en effet non seulement l’ambition de
permettre aux sciences sociales d’accéder à l’efficience des autres sciences, mais
aussi de renouveler profondément la politique [Pentland, 2014 : 176-192]. Plus
subtilement, et non sans une certaine incohérence, cette disposition favorable aux
traces numériques apparaît aussi dans les textes récents de Bruno Latour [Latour,
2010 : 151-183 ; Latour et al., 2012], à l’intersection d’une approche relationnelle
et computationnelle du social, puisant aussi aux prémices de la sociologie, et plus
précisément de la monadologie de Gabriel Tarde.

La rupture suggérée suppose que la quantité tend vers l’exhaustivité, et que l’accès
à de telles données renouvelle profondément les sciences sociales [Lazer et al.,
2009 ; Song et al., 2010 ; Pentland, 2014], permettant de « matérialiser » le social, de
l’observer enfin [Venturini et Latour, 2010]. L’exhaustivité constituerait en quelque
sorte une étape ultime, qui remettrait en cause deux principes fondamentaux de
la science : la représentativité et la reproductibilité (n=all=) [Mayer-Schonberger
et Cukier, 2013].

Ce qui est communément appelé big data constitue en cela une opportunité pour
les sciences sociales qui encourage à repenser les conditions empiriques de la
recherche [Kitchin, 2013 ; Ruppert, 2013 ; Graham et Shelton, 2013 ; Romele et
Severo, 2014]. Cette approche permettrait de désagréger le social en évitant les
catégories réductrices telles que les classes, tout en reliant les individus à l’ensemble
des réalités qui les constituent [Pentland, 2014 ; Latour et al., 2012].

PRÉCAUTIONS

Il convient néanmoins d’être prudent à l’égard d’un tel ensemble de faisceaux


convergents, tant l’histoire des sciences et en particulier de la statistique fut déjà
riche de telles aspirations [Barnes, 2013]. Les approches quantitative, physique
et informatique du monde social ont effectivement été largement éprouvées
et critiquées, à l’image de la première loi de la géographie proposée par Waldo
Tobler, selon laquelle tout est relié à tout, mais les choses proches sont plus reliées
que les choses distantes12 [Tobler, 1970].

12 Alex Pentland arrive à la même conclusion après avoir étudié la localisation des transactions de
cartes de crédit de la moitié de la population active des Etats-Unis [Pentland, 2014 : 160].
144 Traces numériques et territoires

Après la provocation de Chris Anderson, lorsqu’il annonçait la fin des théories


avec l’avènement des big data [Anderson, 2008], les critiques furent d’ailleurs vives
à l’égard d’une telle hypothèse [boyd et Crawford, 2012 ; Graham et Shelton,
2013]. Aussi, le potentiel des big data doit être d’autant plus discuté que l’une de ses
figures les plus emblématiques, Google Flu Trends, se révèle être déjà inopérant
à prédire la grippe13 [Butler, 2013 ; Lazer et al., 2014], alors qu’il fut régulièrement
invoqué comme exemple de la puissance du traitement massif de données sans a
priori [Ginsberg et al., 2009 ; Mayer-Schonberger et Cukier, 2013]. L’exemple de
Google Flu Trends n’est pourtant pas anodin, car lors de sa première version, il
était particulièrement conforme aux exigences des big data : quantité considérable
de traces numériques territoriales14 passives associées à des corrélations massives,
sans hypothèses et sans a priori15. En 2014, alors que l’algorithme ne fonctionnait
plus depuis 2009, Pentland y fait pourtant encore référence comme une réussite
qui ne ferait qu’effleurer le potentiel de ces données [Pentland, 2014].

Force est de constater que malgré leurs limites, ce type de recherches abonde
dans les revues scientifiques les plus prestigieuses (Nature et Science en particulier).
Le plus surprenant est certainement que l’échec de Google Flu Trends était
pourtant largement prévisible. Les causes énoncées pour expliquer les erreurs
récurrentes de ce projet, qui ne s’appuie que sur des corrélations, ont d’ailleurs
été décriées par des chercheurs en sciences sociales avant même que les écarts
ne deviennent manifestes et injustifiables. Ces dernières années, de nombreux
chercheurs ont effectivement dénoncé la mythologie sous-jacente à de telles
approches, n’hésitant pas à rappeler les fondements de la démarche scientifique,
et des journalistes s’autorisent légitimement à rappeler quelques principes
élémentaires de la statistique [Harford, 2014]. La critique la plus aboutie de cette
dérive est probablement celle de danah boyd et Kate Crawford [2011 ; 2012].
Sans exception, les précautions qu’elles suggèrent s’appliquent parfaitement au cas
plus particulier des traces numériques territoriales. De l’évolution de la pratique
scientifique aux problématiques de vie privée ou d’accessibilité des données, en
passant par les illusions de représentativité ou d’objectivité, danah boyd et Kate
Crawford inscrivent les big data dans une filiation dont les exigences ne sauraient
être si aisément remises en cause.

13 Le modèle ne fut pas efficace dès 2009 et, malgré ses ajustements, il ne se révèle pas plus
performant que de simples modèles s’appuyant sur une projection des données du CDC (Centers
for Desease Control and Prevention) [Lazer, 2014]. Lors de la saison 2011/2012, l’erreur était de
plus de 50 %. Lors de la saison 2012/2013, l’erreur fut supérieure à 100 %.
14 Bien que GFT ne soit généralement pas perçu comme territorial, il s’agit bien de traces
numériques territoriales. GFT crée des analogies entre les recherches et leurs localisations, sans
lesquelles l’épidémiologie ne serait pas envisageable.
15 Nous pouvons déjà émettre l’hypothèse selon laquelle GFT progressera avec l’introduction
d’hypothèses et d’a priori plus explicites.
Spatialités algorithmiques 145

La propension des big data à changer la science est effectivement remarquable,


mais en des termes différents de ceux suggérés par Chris Anderson, David Lazer
ou Alex Pentland. En s’inscrivant plutôt dans une sociologie des sciences qui
interroge la relation entre les faits et les énoncées scientifiques, par la médiation
des instruments et des chercheurs, ce changement ne signifie pas l’émergence
d’un paradigme ultime et l’accès définitif à l’objectivité du monde, mais plus
simplement l’évolution des constructions subjectives, renouvelées par l’émergence
de nouvelles données et de nouveaux outils pour les traiter.

Ce constat explique probablement pourquoi nous retrouvons avec les big data
des engouements très semblables à ceux qui se manifestèrent avec l’émergence
de la statistique, de l’informatique et des systèmes d’information géographique.
A chacun de ces moments, l’amélioration des modalités pratiques de l’expérience
empirique du monde se traduisit par l’illusion d’une lisibilité ultime, dont la société
serait changée, mais aussi considérablement améliorée.

CONJONCTIONS DE CORRÉLATIONS

L’objectivité supposée des traces numériques doit ainsi être questionnée, tant la
confusion entre la quantification et l’objectivation est étonnamment récurrente.
L’activité des chercheurs exige une réflexivité à l’égard de la quantification qui
se traduit par une interprétation et non par une simple « lecture » de faits qui
parleraient d’eux-mêmes. Cette critique du sens commun16 souligne que le
vraisemblable n’est pas plus vrai que l’invraisemblable.

La corrélation n’est aucunement une relation, si ce n’est statistique, et moins


encore une cause. S’il est de plus en plus simple de distinguer statistiquement
une cause d’une conséquence [Mooij et al., 2014], il est en revanche toujours
impossible d’avoir l’assurance qu’une corrélation soit une relation effective entre
deux phénomènes. En bénéficiant d’une individualisation importante des données,
les traces numériques donnent l’illusion de se soustraire non seulement à l’erreur
écologique (biais d’agrégation), mais aussi à la faiblesse des approches corrélatives.
Le réductionnisme à l’œuvre dans l’exploitation hâtive des traces numériques ne
se résume effectivement pas à la réduction des faits sociaux, mais aussi à celle de
leurs relations supposées. Lorsque l’exploitation de ces données ne se limite pas à
des approches descriptives, elles s’appuient très largement sur la corrélation entre
indicateurs, avec l’assurance que la quantité des données assure des corrélations
plus significatives. Si cette considération est vraie d’un point de vue statistique, la
portée de sa valeur scientifique est relativement faible. En sus du constat éprouvé

16 Le physicien Duncan Watts, devenu sociologue, souligne bien cet enjeu particulier du sens
commun en sciences sociales, et la difficulté de s’y soustraire [Watts, 2011].
146 Traces numériques et territoires

selon lequel les corrélations ne permettent pas d’établir des relations effectives
entre des phénomènes, il importe de considérer que plus le nombre de variables
est important, plus les corrélations fallacieuses sont nombreuses [Ioannidis, 2005].

Dès le XVIIIe siècle, Hume a pourtant parfaitement souligné cette difficulté,


lorsqu’il insista sur le fait que nous n’avons jamais l’assurance que des conjonctions
puissent être des causes. Les traces numériques territoriales n’échappent pas à cette
exigence. C’est pourquoi la prolifération des données spatiales exige des analyses
et des interprétations particulièrement délicates et requiert des précautions trop
souvent négligées.

REPRÉSENTATIVITÉS REPRÉSENTATIVES

Aussi, au-delà de la quantification, les big data interrogent la quantité, suggérant


que la qualité émergerait de la quantité lorsque celle-ci tendrait vers l’exhaustivité.
Or, ce n’est pas parce que nous accédons à des milliards de données représentant
des terabytes d’informations numériques que nous disposons de données plus
représentatives. Aussi grandes que puissent être ces données, n n’est jamais la
globalité.

Les biais inhérents à la constitution des traces numériques sont effectivement tout
à fait remarquables. L’exemple de Twitter est incontestablement le plus édifiant.
Il constitue en effet l’une des sources les plus utilisées, bien qu’il ne soit que très
marginalement utilisé par la population. Les données relatives à la géolocalisation
des téléphones cellulaires sont certes plus représentatives statistiquement, mais elles
n’en demeurent pas moins d’une grande pauvreté sémantique.

Les analyses exploitant de telles sources n’auraient de sens que si elles étaient
circonscrites aux réalités considérées, ce qui est rarement le cas17. Une approche
plus rigoureuse exigerait d’exclure toutes problématiques que ces traces ne
représenteraient que partiellement, ce qui en réduirait considérablement l’intérêt
et la portée, au-delà d’une meilleure connaissance de la mobilité des personnes
considérées.

Surtout, l’idée même de représentativité statistique est discutable. En insistant trop


souvent sur la délicate représentativité d’une population par un échantillon, on ne
s’interroge pas assez sur ce que représentent les données. Avant de représenter une
population, les données représentent-elles bien les individus qui la constituent ?

17 L’exemple de l’application Street Bump (http://www.streetbump.org) qui permet d’identifier les


dégradations de la chaussée à Boston témoigne parfaitement de cela. Les problèmes relatés étaient
essentiellement circonscrits aux quartiers rassemblant des jeunes relativement aisés, qui se révèlent
être aussi les usagers de cette application [Harford, 2014].
Spatialités algorithmiques 147

Sur Internet, et particulièrement sur Twitter, Flickr, Facebook ou Foursquare, la


mise en scène est tellement travaillée, que les coulisses peuvent constituer l’essentiel
de pratiques pourtant invisibles [Goffman, 1973]. Ainsi, une différence observée
selon les genres témoignerait-elle d’une mise en scène différente ou de pratiques
territoriales différentes [Cousin et al., 2014 ; Beecham et Wood, 2013] ? Les niveaux
de privacité variant considérablement selon les personnes, leur âge ou leur genre
[Li et Chen, 2010], quel sens donner aux spatialités émergeant de telles traces ?

CONTEXTES HORS CONTEXTES

C’est pourquoi le contexte de production de ces données est particulièrement


important, bien qu’il soit la plupart du temps éludé lors de leur exploitation.
L’agrégation de données produites dans des conditions très hétérogènes se traduit
par une augmentation de leur quantité qui correspond conjointement à une réduction
de leur qualification et par continuité de leur qualité. La dissolution du contexte se
confond ainsi avec celle du sens, au risque d’un réductionnisme particulièrement
intense, qui ne se limite pas à la non représentation de l’ensemble des réalités
sociales, mais aussi de ce qui les constitue singulièrement et subjectivement [Rouvroy
et Berns, 2013]. La différence entre les plates-formes Flickr et Geograph illustre
parfaitement l’importance du contexte, l’une et l’autre présentant deux distributions
spatiale et sociale tout à fait distinctes, qui correspondent à deux pratiques de
publication très différentes [Purves et Edwardes, 2011].

La valorisation des traces numériques accessibles comme source innovante


encourage de surcroît l’orientation des recherches quelles que soient leurs limites.
Leur quantité, trop souvent, est effectivement valorisée indépendamment de leur
qualité et de leur pertinence. Cela pose des problèmes évidents en urbanisme, par
exemple, alors que les temporalités considérées ne correspondent généralement
pas à celles des traces numériques disponibles [Batty, 2013]. Cette réduction du
social à ce qui est quantifiable est particulièrement sensible lorsqu’elle s’applique
à des problématiques spatiales complexes telles que la criminalité [Beaude, 2009].
Si nous dépendions d’une telle démarche, nous serions tels des ivrognes qui
cherchent inlassablement leur clé à la lumière d’un lampadaire. Cette tentation
quantitative est d’autant plus sensible qu’elle traverse l’ensemble des sociétés
occidentales, alors que les chiffres représentent de moins en moins la réalité
sociale et la façonnent de plus en plus18 [Desrosières, 2008].

18 La recherche ne fait d’ailleurs pas exception à cela. Alors qu’elle est de plus en plus réduite à ses
traces, les citations, les chercheurs devraient être particulièrement sensibles à la réduction dont de
telles approches sont porteuses.
148 Traces numériques et territoires

NEW DEAL ON DATA

Aussi, la quantité qui émerge de l’accumulation des traces résulte ultimement de


l’association de spatialités singulières de millions d’individus, dont l’exposition et
le traitement sont rarement consentis. C’est pourquoi il conviendrait de considérer
plus systématiquement les problèmes éthiques relatifs à la traçabilité généralisée
des pratiques individuelles. Car tels enjeux éthiques correspondants ne peuvent
certainement pas être évités au nom d’un empirisme érigé en absolu.

Les big data et la social physics supposent en effet une assignation violente à la
transparence, parfaitement incarnée par Google et Facebook, qui exigent l’accès
au plus grand nombre de traces possible, sans lesquelles l’individualisation
contextuelle ne serait pas possible. Or, le traitement automatisé de l’ensemble des
données publiques d’un individu n’est pas nécessairement justifiable lorsqu’elles
ont été élaborées dans un contexte de visibilité spécifique, soulignant la différence
fondamentale entre être en public et être public [boyd et Marwick, 2011].

L’accès relativement opaque à des données privées sous couvert d’anonymisation,


alors même que la robustesse de ces méthodes est largement critiquée, mériterait
aussi d’être considéré avec beaucoup d’attention [Blumberg et Eckersley, 2009 ;
de Montjoye et al., 2013 ; 2015]. Ce problème est particulièrement délicat si l’on
considère conjointement la multiplication des failles informatiques, l’augmentation
des vols massifs de données, la généralisation de l’interconnexion de services
différents et la fusion courante des bases de données lors d’acquisition. La
concentration incontrôlée des traces expose ainsi à des atteintes inédites à la vie
privée, hors de tout consentement et de toute négociation. Cela suppose une re-
négociation « collective, conflictuelle et itérative » de la privacy [Casilli, 2013] et une
réappropriation individuelle qui consisterait à faire trace, afin de limiter les effets
de décontextualisation [Merzeau, 2013].

Cette stratégie inéluctable de contrôle engagé par les individus se traduit par
une mise en scène croissante des traces numériques, qui limite plus encore les
présupposés de représentativité, tout en soulignant la consubstantialité des
données et de leur contexte de production.

La proposition d’un New Deal on Data [Pentland, 2014 : 177-188] qui permettrait
un contrôle beaucoup plus fin des données personnelles n’est en cela pas tout
à fait satisfaisante. Elle répond à la demande légitime des individus de choisir
plus précisément ce qu’ils souhaitent partager, mais elle accroît conjointement la
disjonction entre ce qui est montré et ce qui ne l’est pas, mais aussi entre ceux qui
montrent et ceux qui ne montrent pas.
Spatialités algorithmiques 149

Un tel changement exigerait aussi de repenser le modèle économique d’Internet,


dont l’activité des principaux acteurs (Facebook, Google, Twitter, Netflix,
Spotify…) repose très largement sur l’analyse des informations privées des
utilisateurs. Un contrôle accru des données engage à se demander ce que serait
une data-driven society qui reposerait sur les informations sélectives que les individus
souhaiteraient partager, tout en éludant les autres, aussi importantes soient-elles ?
Quels modèles peuvent émerger d’une telle mise en scène de la vie des individus,
en plus d’en être une réduction ?

LE POUVOIR DE L’OPACITÉ

L’opacité croissante des processus de collecte, de concentration et de traitement


des traces numériques suscite un dernier enjeu particulièrement sensible. Alors
que les traces numériques constituent une opportunité stimulante de renouveler la
science, mais aussi la politique, les modalités contemporaines de leur production
sont elles aussi parfaitement contradictoires avec les exigences de la science, mais
aussi de la politique. Au-delà de la mise en scène des traces par les individus, les
coulisses ne se résument pas aux pratiques invisibles en l’absence de traces. Elles
recouvrent aussi l’ensemble des pratiques de collecte et de traitement des données,
dont le contrôle et la visibilité sont particulièrement opaques.

Or, la science repose sur l’organisation de la réfutation des énoncés scientifiques,


ce qui exige de pouvoir accéder aux données utilisées lors d’une expérience ou
de pouvoir la reproduire. Pourtant, de plus en plus de recherches portent sur des
traces numériques qui s’appuient sur des données privées, qui ne peuvent pas
être communiquées à l’ensemble des chercheurs (coordonnées des téléphones
cellulaires, usage des cartes bancaires, publications privées sur Facebook…).
Cette « capitalisation de la connaissance » [Thrift, 2005] pose des problèmes
majeurs à l’exercice de la pratique scientifique. En plus de la sous-exploitation
des données inhérente à cette situation, les résultats de telles recherches, malgré
leur importance, ne peuvent pas être validés convenablement.

De surcroît, cette opacité concerne non seulement les données, mais aussi les
algorithmes utilisés pour les exploiter, déployant subrepticement une double
opacité particulièrement préjudiciable à l’exercice de la science. Cette double
opacité est d’autant plus regrettable qu’elle se transpose avec la même intensité
à la politique, lorsque les traces numériques sont exploitées pour informer des
stratégies relatives à l’organisation des transports, de la lutte contre la criminalité
et plus généralement des villes dans leur ensemble.

Avec Derrida, danah boyd et Kate Crawford nous rappellent que la démocratisation
tient essentiellement en un principe : la participation et l’accès aux archives, à leur
150 Traces numériques et territoires

constitution et à leur interprétation [boyd et Crawford, 2012 : 674]. Sans cela, la


science, comme la politique, devient une boîte noire dont nous dépendrions sans
en comprendre le processus [Pasquale, 2015], éliminant la possibilité même de
critique et plus encore de projet. En faisant de l’individu une boîte noire, nous
faisons inéluctablement de la société une boîte noire. Certains s’en réjouissent, y
trouvant l’occasion d’en finir avec l’artifice des sociétés [Latour, 2006], d’autres
y trouvent l’occasion de s’affranchir de l’inefficience supposée d’institutions
politiques devenues obsolètes [Turner, 2006]. Néanmoins, que serait une politique
sans société et sans institutions chargées de représenter les individus, non pas
pour en réduire l’existence, mais pour transformer les présentes aspirations
individuelles en coexistence à venir ?

L’EFFACEMENT DU SUJET

Au-delà de l’opacité des processus, l’enjeu que recouvre le paradigme commun


aux big data et à la social physics est paradoxalement celui de l’effacement du sujet,
du glissement subtil de l’individu à l’individu statistique et, plus subtilement, de la
dissolution du sujet dans le réseau [Rouvroy et Berns, 2013]. Alex Pentland, comme
Bruno Latour, souligne l’importance du réseau, des relations et des flux pour
comprendre la dynamique qui organise la coexistence. Ils désagrègent la société,
trop fictionnelle, pour se concentrer sur le social, c’est-à-dire l’ensemble des relations
qui constituent des associations plus ou moins stables. Les analogies organicistes
et éthologiques sont ainsi récurrentes. Les références aux fourmis, mais aussi aux
abeilles, sont d’ailleurs régulièrement mobilisées pour mieux souligner la puissance
et la généralité du propos. L’individu n’est plus qu’une fiction, la distinction entre les
humains et les non-humains un artefact, et les catégories, comme les structures, des
constructions pré-scientifiques qui appauvriraient le réel en réduisant les individus
à des groupes fictifs, dont l’archétype serait la classe sociale.

On peut se demander en quoi la réduction d’un individu à ses traces numériques,


aussi réticulaires soient-elles, serait moins préjudiciable que de le réduire à son
métier, son âge, son sexe, son lieu de résidence et la multitude d’autres réductions
du monde social ? L’effacement du sujet pose en cela une question politique
majeure. Qu’est-ce qu’une société composée d’individus dont on ne considère
pas spécifiquement les existences autrement que par des flux et des relations qui
les relient sans cesse à des collectifs innombrables ? Que signifie la coexistence
de réalités pourvues d’intentions (projections dans un avenir collectif) et de
réflexivité (construction des intentions), si la capacité des êtres humains à ne pas
se conformer aux attentes que nous en avons et à transformer leurs intentions
selon ces mêmes attentes était comparable à celles dont les coquilles Saint-Jacques
seraient pourvues [Callon, 1986] ? En quoi dire que les humains sont comparables
à des atomes, à des fourmis [Latour, 2010 : 155, 160] ou à des abeilles [Pentland,
Spatialités algorithmiques 151

2014 : 97-98, 190, 209] permettrait de mieux comprendre le monde social, au-delà
de sa seule dimension biophysique ?

Faudrait-il en conclure que l’humain n’est pas suffisamment singulier pour


mériter des édifices théoriques plus sophistiqués que le modèle de gravité, la
thermodynamique, la stigmergie ou la cybernétique ? Devrions-nous accepter
l’avènement d’une gouvernementalité algorithmique qui « évite les sujets humains
réflexifs [et] se nourrit de données infra-individuelles insignifiantes en elles-mêmes,
pour façonner des modèles de comportements ou profils supra-individuels sans
jamais en appeler au sujet, sans jamais l’appeler à rendre compte par lui-même de
ce qu’il est ni de ce qu’il pourrait devenir » [Rouvroy et Berns, 2013 : 173-174] ?
Dans un monde d’acteurs-réseaux qui serait régi par la social physics, il n’y aurait
pas de place pour des sujets. Dans une data-driven society, ce serait les données qui
assureraient la conduite de nos actes.

La politique suppose précisément un monde qui ne se résume pas à son ordre


actuel, et moins encore à son ordre passé. Alex Pentland parle d’ailleurs de
breadcrumbs, et non de footprints. Des miettes de pain, tel le fil d’Ariane du Petit
Poucet, des marques plus que des traces, qui permettent certes de connaître le
chemin parcouru, mais avec l’intention unique de le parcourir dans l’autre sens.
Voici la limite des traces d’un chemin parcouru. Nous voyons comment cela
permet de connaître le passé, de revenir éventuellement sur nos pas et, au mieux,
de reproduire l’existant. Il est plus difficile de percevoir en quoi cela nous indique
le chemin à venir. La politique exige certes de mieux connaître les réalités qui
l’organisent, mais elle exige aussi de rendre commensurables les traces que nous
laissons de nos actes passées et les intentions de nos actes à venir.

CHANGEMENTS DANS LES MOUVEMENTS

L’approche des big data promue par Chris Anderson, Victor Mayer-Schonberger ou
Alex Pentland semble non seulement confondre le mouvement et le changement,
mais aussi le potentiel de la description partielle de l’ordre existant avec l’actualisation
de l’ordre à venir. En s’appuyant sur des corrélations, aussi nombreuses soient-
elles, de telles approches permettent de renouveler puissamment la lisibilité du
présent, mais elles n’en demeurent pas moins insuffisantes pour déduire de cet
ordre celui qui vient. Cette projection n’a de sens que dans un monde stable,
dépourvu de réflexivité et expurgé de tout changement [Harford, 2014 ; Carr,
2014]. Il s’agit d’un monde sans réelle innovation. C’est pourquoi la référence
de Bruno Latour à Gabriel Tarde pour justifier son engouement pour les traces
numériques est surprenante. Car en 1890, aux prémices de la sociologie, Gabriel
Tarde soulignait déjà les limites de la statistique dans Les lois de l’imitation :
152 Traces numériques et territoires

« À mesure que la statistique porte sur de plus grands nombres, on est quelquefois
enclin à penser que, bien plus tard, si la marée montante de la population continue à
accroître et les grands Etats à grandir, un moment viendra où tout, dans les phénomènes
sociaux, sera réductible en formules mathématiques. D’où l’on induit abusivement que
le statisticien pourra un jour prédire l’état social futur aussi sûrement que l’astronome
la prochaine éclipse de Vénus. En sorte que la statistique serait destinée à plonger
toujours plus avant dans l’avenir comme l’archéologie dans le passé. Mais nous savons
par tout ce qui précède que la statistique est circonscrite dans le champ de l’imitation
et que celui de l’invention lui est interdit » [Tarde, 2001 : 196].
Cette opposition entre l’imitation et l’invention est au cœur de la pensée de Gabriel
Tarde, qui considère que l’une et l’autre constituent les actes sociaux élémentaires,
dont la dynamique serait animée par la croyance et le désir [Tarde, 2001 : 203]. Gabriel
Tarde émet alors l’hypothèse selon laquelle les « similitudes sociales » s’expliquent
par l’importance de l’imitation, conçue comme « force sociale » dominante.

Alex Pentland procède selon le même raisonnement lorsqu’il construit la physique


sociale autour de deux logiques élémentaires : les logiques d’engagement, qui
relèvent du proche et du connu, et les logiques d’exploration, qui relèvent du
lointain et de l’inconnu. Pour expliquer la régularité de l’ordre social, Alexis
Pentland souligne que l’engagement constituerait l’essentiel des pratiques sociales,
ce qui expliquerait la prévisibilité considérable de nos actes19 [Pentland, 2014 :
239]. En revanche, bien qu’il conçoive que la social physics ne soit pas appropriée
à l’appréhension des actes innovants, Alex Pentland semble considérer que la
maîtrise des régularités suffit à organiser une société.

Ainsi, l’échec de Google Flu Trends, qui repose précisément sur cette incapacité à
vraiment saisir le changement dans le mouvement, est sensiblement le même que
celui des marchés financiers, dont les analyses s’appuyant sur le passé fonctionnent
tant qu’il n’y a pas de changement. Leur conformité au passé laisse supposer leur
conformité à venir, dans l’illusion la plus totale, aussi entretenue et dévastatrice
soit-elle. C’est pourquoi la réflexivité et plus précisément la capacité des individus
à transformer significativement leur comportement ne doivent pas être négligées.
Sans cette précaution, l’usage systématique des traces numériques se résumera
à la description d’invariants relativement banals, mais aussi à maintenir l’ordre
social existant [Carr, 2014], en négligeant la composante la plus essentielle de
l’humanité : l’invention. Comme le soulignait déjà Gabriel Tarde, l’imitation est
certes la force sociale dominante, mais l’innovation, à la force des désirs, est celle
qui motive le changement.

19 Alex Pentland justifie la régularité des logiques d’engagement en les associant à la pensée rapide,
telle que proposée par Daniel Kahneman [Kahneman, 2012]. La pensée rapide, constituée par les
habitudes, procéderait par associations automatiques et inconscientes. Elle s’opposerait à la pensée
lente qui procéderait quant à elle par raisonnements conscients, qui permettraient l’innovation
[Pentland, 2014 : 235].
Spatialités algorithmiques 153

Dès 1999, Lawrence Lessig a souligné l’importance du code et plus précisément


des algorithmes dans la gouvernance des pratiques [Lessig, 1999]. Aussi, Martin
Dodge et Rob Kitchin ont parfaitement décrit en quoi l’intrication du code et de
l’espace permet de repenser la perspective ontogénétique du changement proposé
par Gilbert Simondon [Dodge et Kitchin, 2005 ; Kitchin et Dodge, 2011]. Les traces
numériques s’inscrivent effectivement dans une spatialité algorithmique complexe,
qui relève d’une transduction spatiale particulièrement puissante. Cette transduction se
caractérise par un processus continu de renouvellement de l’espace par l’actualisation
de spatialités à venir qui mobilisent les traces de spatialités passées.

La spatialité algorithmique suppose ainsi de considérer précisément les codes qui


rendent possibles la production et la circulation des représentations de l’espace.
De la codification des traces aux traitements qui les associent pour leur donner des
sens particuliers, il est urgent de rendre visibles les processus de production de la
visibilité. Car les codes sont porteurs de valeurs [Lessig, 1999 ; Cardon, 2013], et
ceux qui en ont la maîtrise, et plus encore le contrôle, ont le pouvoir d’organiser
les spatialités algorithmiques contemporaines.

L’AVENIR À INVENTER

Il est « facile de prévoir le passé » ironisait Steven Salzberg en 2014 en réaction


à l’échec récurrent de Google Flu Trends, rappelant l’abondance des modèles
qui reposent sur des analyses statistiques qui, sans la moindre dimension
explicative, sans hypothèses véritables, parviennent toujours à se conformer au
passé [Salzberg, 2014]. Pourtant, l’enjeu de la politique n’est-il pas précisément de
définir l’avenir qui convient plutôt que de le prévoir ? La prédiction algorithmique
de l’avenir sur la base des actes passés ne serait-elle pas la négation même de la
politique, à savoir le choix d’un avenir parmi des options non déterminées ? La
politique n’est-elle pas essentiellement l’organisation de la coexistence, au-delà de
son simple constat ? La politique, dans les démocraties modernes, ne consiste-t-
elle pas à organiser, ensemble, le monde que l’on souhaite ?

Les logiques de marché elles-mêmes répondent bien à cela, alors qu’Apple est
devenu la plus importante capitalisation mondiale en réfutant la pertinence des
études de marché, qui projettent l’avenir à partir du présent, sans projet véritable20.
Steve Jobs aimait rappeler la célèbre phrase d’Henri Ford : « Si j’avais demandé
à mes clients ce qu’ils voulaient, ils auraient répondu “un cheval plus rapide”, et
pas une voiture ». C’est bien là la limite des algorithmes qui reposent sur les traces

20 Cela ne signifie aucunement qu’Apple ne sorte pas de produits qui ne rencontrent pas de marché,
mais que ses échecs ne sont pas significativement plus importants que chez d’autres constructeurs
qui organisent leur avenir autour d’une idée présente du futur.
154 Traces numériques et territoires

numériques : être incapable de prévoir l’avenir que nous leur confions, car dans le
meilleur des cas, ils ne connaissent que notre passé recomposé ! Le futur est plein
de propositions inattendues, qui répondent à une demande qui n’existe pas encore.

Les traces constituent en cela une opportunité de mieux connaître le monde, et


les algorithmes un moyen de mieux en saisir la richesse, à la seule condition d’en
comprendre la portée et les limites. Nous devons sans aucun doute saisir cette
opportunité de renouveler les conditions pratiques de l’empirie et de multiplier
les oligoptiques. Il convient à présent de mobiliser activement le numérique en
sciences sociales [Rogers, 2013], d’en saisir la pluralité des approches [Plantin
et Monnoyer-Smith, 2014], d’associer les traces numériques aux données
conventionnelles [Lazer et al., 2014] et d’embrasser pleinement cette complexité
plutôt que d’exclure le potentiel dont les traces numériques sont porteuses
[Ruppert, 2013 ; Gorman, 2013 ; Romele et Severo, 2014].

Une telle démarche a comme préalable de rappeler que ces traces n’ont pas vocation
à dicter notre conduite. Elles ne dispensent certainement pas d’interprétations,
d’analyses, et moins encore de projets ! Encore faut-il le rappeler, les spatialités
algorithmiques à venir sont largement à inventer et non à attendre !

RÉFÉRENCES BIBLIOGRAPHIQUES
[Ahas et al., 2010] Ahas, R., Aasa, A., Silm, S. et Tiru, M., 2010, « Daily rhythms of suburban
commuters’ movements in the Tallinn metropolitan area: Case study with mobile
positioning data », Transportation Research Part C: Emerging Technologies, 18(1), 45-54.
[Anderson, 2008] Anderson, C., 2008, « The end of theory », Wired magazine, 16(7), 16-17.
[Barnes, 2013] Barnes, T. J., 2013, « Big data, little history », Dialogues in Human Geography, 3(3),
297-302.
[Batty, 2013] Batty, M., 2013, « Big data, smart cities and city planning », Dialogues in Human
Geography, 3(3), 274-279.
[Bayir et al., 2009] Bayir, M.A., Demirbas, M. et Eagle, N., 2009, « Discovering spatiotemporal
mobility profiles of cellphone users », World of Wireless, Mobile and Multimedia
Networks & Workshops, IEEE, 1-9.
[Beaude, 2009] Beaude, B., 2009, « Crime Mapping, ou le réductionnisme bien intentionné »,
EspacesTemps.net, Objets, 04/05/2009, http://www.espacestemps.net/articles/
crime-mapping-ou-le-reductionnisme-bien-intentionne.
[Beaude, 2010] Beaude, B., 2010, « Espace de la carte, espace de la ville. Des analogies à la
coexistence », In Zreik, K. (éd.), Nouvelles cartographies, nouvelles villes. HyperUrbain2,
Paris : Europia Productions, 15-39.
[Beaude, 2012] Beaude, B., 2012, Internet. Changer l’espace, changer la société, Limoges : FYP.
[Beaude, 2013] Beaude, B., 2013, « Synchorisation », In Lussault, M. et Lévy, J. (éd.), Dictionnaire
de la géographie et de l’espace des sociétés, Paris : Belin, 972.
Spatialités algorithmiques 155

[Beaude, 2014] Beaude, B., 2014, Les fins d’Internet, Limoges : FYP.
[Beecham et Wood, 2013] Beecham, R. et Wood, J., 2013, « Exploring gendered cycling behaviours
within a large-scale behavioural data-set », Transportation Planning and Technology,
37(1), 83-97.
[Benkler, 2006] Benkler, Y., 2006, The Wealth of Networks: How Social Production Transforms
Markets And Freedom, London : Yale University Press.
[Blondel et al., 2010] Blondel, V., Krings, G. et Thomas, I., 2010, « Regions and bordersof mobile
telephony in Belgiumand in the Brussels metropolitan zone ». Brussels Studies,
42(4), 1-12.
[Blumberg et Eckersley, 2009] Blumberg, A. J. et Eckersley, P., 2009, 3 août, On Locational Privacy,
and How to Avoid Losing it Forever, https://www.eff.org/fr/wp/locational-privacy.
[Borgnat et al., 2009] Borgnat, P., Fleury, E., Robardet, C. et Scherrer, A., 2009, « Spatial analysis
of dynamic movements of Vélo’v, Lyon’s shared bicycle program », European
Conference on Complex Systems 2009, Warwick, United Kingdom.
[boyd et Crawford, 2012] boyd, d. et Crawford, K., 2012, « Critical questions for big data »,
Information, Communication & Society, 15(5), 662-679.
[boyd et Crawford, 2011] boyd, d. et Crawford, K., 2011, « Six Provocations for Big data », SSRN,
http://ssrn.com/abstract=1926431.
[boyd et Marwick, 2011] boyd, d. et Marwick, A. E., 2011, « Social Privacy in Networked
Publics: Teens’ Attitudes, Practices, and Strategies », SSRN http://ssrn.com/
abstract=1925128.
[Butler, 2013] Butler, D., 2013, « When Google got flu wrong », Nature, 494(7436), 155.
[Calabrese et al., 2010] Calabrese, F., Pereira, F. C., Di Lorenzo, G., Liu, L. et Ratti, C., 2010, « The
geography of taste: analyzing cell-phone mobility and social events », In Floréen,
P., Krüger, A. et Spasojevic, M. (éd.), Pervasive Computing: 8th International Conference,
Springer : Berlin-Heidelberg, pp 22-37.
[Callon, 1986] Callon, M., 1986, « Eléments pour une sociologie de la traduction », L’Année
sociologique, 36, 169-208.
[Cardon, 2013] Cardon, D., 2013, « Dans l’esprit du PageRank », Réseaux, 177(1), 63-33.
[Carmes et Noyer, 2014] Carmes, M. et Noyer, J.-M., 2014, « L’irrésistible montée de
l’algorithmique », Les Cahiers du numérique, 10(4), 63-102.
[Carr, 2014] Carr, N., 2014, « The Limits of Social Engineering », MIT Technology Review, http://
www.technologyreview.com/review/526561/the-limits-of-social-engineering.
[Casilli, 2013] Casilli, A. A., 2013, 30 juillet, « Contre l’hypothèse de la “fin de la vie privée”. La
négociation de la privacy dans les médias sociaux », Revue française des sciences de
l’information et de la communication, 3, http://rfsic.revues.org/630.
[Castells, 2001] Castells, M., 2001, The Internet galaxy: reflections on the Internet, business, and society,
Oxford : Oxford University Press.
[Comte, 1995] Comte, A., 1995 (1842), Discours sur l’esprit positif, Paris : Librairie philosophique
J. Vrin.
[Cortright, 2009] Cortright, J., 2009, « Walking the Walk: How Walkability Raises Home Values
in U.S. Cities », CEOs for Cities.
156 Traces numériques et territoires

[Cousin et al., 2014] Cousin, S., Chareyron, G., Da-Rugna, J. et Jacquot, S., 2014, 29 août,
« Étudier TripAdvisor. Ou comment Trip-patouiller les cartes de nos vacances »,
EspacesTemps.net, http://www.espacestemps.net/articles/etudier-tripadvisor-ou-
comment-trip-patouiller-les-cartes-de-nos-vacances.
[Crandall et al., 2009] Crandall, D. J., Backstrom, L., Huttenlocher, D. et Kleinberg, J., 2009,
« Mapping the world’s photos ». WWW’09: Proceedings of the 18th international
conference on World wide web, 761-770.
[Cranshaw et al., 2012] Cranshaw, J., Schwartz, R., Hong, J. I. et Sadeh, N. M., 2012, « The
Livehoods Project: Utilizing Social Media to Understand the Dynamics of a
City », ICWSM.
[de Montjoye et al., 2015] de Montjoye, Y. A., Radaelli, L., Singh, V. K. et Pentland, A. S., 2015,
« Unique in the shopping mall: On the reidentifiability of credit card metadata »,
Science, 347(6221), 536-539.
[de Montjoye et al., 2013] de Montjoye, Y. A., Hidalgo, C. A., Verleysen, M. et Blondel, V. D.,
2013, « Unique in the Crowd: The privacy bounds of human mobility », Scientific
Reports, 3.
[Deleuze, 1968] Deleuze, G., 1968, Différence et répétition, Paris : Presses universitaires de France.
[Deleuze, 1990] Deleuze, G., 1990, Pourparlers, Paris : Editions de Minuit.
[Desrosières, 2008] Desrosières, A., 2008, Gouverner par les nombres, Paris : Presses des mines.
[Deville et al., 2014] Deville, P., Linard, C., Martin, S., Gilbert, M., Stevens, F. R., Gaughan, A. E.
et Tatem, A. J., 2014, « Dynamic population mapping using mobile phone data »,
Proceedings of the National Academy of Sciences, 111(45), 15888-15893.
[Dodge et Kitchin, 2005] Dodge, M. et Kitchin, R., 2005, « Code and the Transduction of Space »,
Annals of the Association of American Geographers, 95(1), 162-180.
[Eagle et Pentland, 2006] Eagle, N. et Pentland, A.S., 2006, « Reality mining: sensing complex
social systems », Personal and Ubiquitous Computing, 10(4), 255-268.
[Eagle et Pentland, 2009] Eagle, N. et Pentland, A.S., 2009, « Eigenbehaviors: identifying structure
in routine », Behavioral Ecology and Sociobiology, 63(7), 1057-1066.
[Foucault, 1975] Foucault, M., 1975, Surveiller et punir, Paris : Gallimard.
[Froehlich et al., 2006] Froehlich, J., Chen, M. Y., Smith, I. E. et Potter, F., 2006, « Voting with Your
Feet: An Investigative Study of the Relationship Between Place Visit Behavior
and Preference », Lecture Notes in Computer Science, UbiComp’06, 4206, 333-
350.
[Froehlich et al., 2008] Froehlich, J., Neumann, J. et Oliver, N., 2008, « Measuring the Pulse of the
City through Shared Bicycle Programs », Proceedings of UrbanSense08 - International
Workshop on Urban, Community, and Social Applications of Networked Sensing Systems,
Raleigh, North Carolina, USA, 16-20.
[Ganascia, 2009] Ganascia, J.-G., 2009, Voir et pouvoir : qui nous surveille ?, Paris : Le Pommier.
[Ginsberg et al., 2009] Ginsberg, J., Mohebbi, Matthew H., Patel, R. S., Brammer, L., Smolinski,
M. S. et Brilliant, L., 2009, « Detecting influenza epidemics using search engine
query data », Nature, 457(7232), 1012-4.
Spatialités algorithmiques 157

[Girardin, 2009] Girardin, F., 2009, « Aspects of implicit and explicit human interactions with
ubiquitous geographic information », Phd Thesis, Barcelona : Universitat Pompeu
Fabra, Departament de Tecnologies de la Informació i les Comunicacions.
[Girardin et al., 2008] Girardin, F., Calabrese, F., Fiore, F. D., Ratti, C. et Blat, J., 2008, « Digital
Footprinting: Uncovering Tourists with User-Generated Content », IEEE
Pervasive Computing, 7(4), 36-43.
[Goffman, 1973] Goffman, E., 1973, La mise en scène de la vie quotidienne, Paris : Editions de Minuit.
[Gonzalez-Bailon, 2013] Gonzalez-Bailon, S., 2013, « Big data and the fabric of human
geography », Dialogues in Human Geography, 3(3), 292-296.
[González et al., 2008] González, M. C., Hidalgo, C. A. et Barabási, A.-L., 2008, « Understanding
individual human mobility patterns », Nature, 453(7196), 779-782.
[Gordon et de Souza e Silva, 2011] Gordon, E. et de Souza e Silva, A., 2011, Net Locality,
Hoboken, NJ : John Wiley and Sons.
[Gorman, 2013] Gorman, S. P., 2013, « The danger of a big data episteme and the need to evolve
geographic information systems », Dialogues in Human Geography, 3(3), 285-291.
[Graham et Shelton, 2013] Graham, M. et Shelton, T., 2013, « Geography and the future of big
data, big data and the future of geography », Dialogues in Human Geography, 3(3),
255-261.
[Graham, 2005] Graham, S., 2005, « Software-sorted geographies », Progress in Human Geography,
29(5), 562-580.
[Harford, 2014] Harford, T., 2014, « Big data: are we making a big mistake? », Financial Times,
28/03/2014, http://www.ft.com/cms/s/2/21a6e7d8-b479-11e3-a09a-
00144feabdc0.html.
[Hollenstein et Purves, 2011] Hollenstein, L. et Purves, R., 2011, « Exploring place through user-
generated content: Using Flickr tags to describe city cores », Journal of Spatial
Information Science, 0(1), 21-48.
[Ioannidis, 2005] Ioannidis, J. P. A, 2005, « Why Most Published Research Findings Are False »,
PLoS Medicine, 2(8), e124.
[Kahneman, 2012] Kahneman, D., 2012, Thinking, Fast and Slow, New York : Penguin.
[Kitchin, 2013] Kitchin, R., 2013, « Big data and human geography: Opportunities, challenges
and risks », Dialogues in Human Geography, 3(3), 262-267.
[Kitchin et Dodge, 2011] Kitchin, R. et Dodge, M., 2011, Code/Space: Software and Everyday Life,
Cambridge, MA : MIT Press.
[Klauser, 2010] Klauser, F., 2010, « Splintering spheres of security: Peter Sloterdijk and the
contemporary fortress city », Environment and Planning D: Society and Space, 28(2),
326-340.
[Krings et al., 2009] Krings, G., Calabrese, F., Ratti, C. et Blondel, V. D., 2009, « Urban gravity:
a model for inter-city telecommunication flows », Journal of Statistical Mechanics:
Theory and Experiment, 2009, 07.
[Lambiotte et al., 2008] Lambiotte, R., Blondel, V. D., de Kerchove, C., Huens, E., Prieur, C.,
Smoreda, Z. et Van Dooren, P., 2008, « Geographical dispersal of mobile
158 Traces numériques et territoires

communication networks », Physica A: Statistical Mechanics and its Applications,


387(21), 5317-5325.
[Latour, 1999] Latour, B., 1999, Pandora’s Hope, Cambridge, MA : Harvard University Press.
[Latour, 2006] Latour, B., 2006, Changer de société, refaire de la sociologie, Paris : La Découverte.
[Latour, 2007] Latour, B., 2007, « Paris, ville invisible : le plasma », In Macel, C. et Guillaume, V.
(éd.), Airs de Paris, 30 ans du Centre Pompidou, Paris : ADGP, 260-263.
[Latour, 2010] Latour, B., 2010, Cogitamus : six lettres sur les humanités scientifiques, Paris : La
Découverte.
[Latour et Hermant, 1998] Latour, B. et Hermant, E., 1998, Paris ville invisible, Paris : La Découverte.
[Latour et al., 2012] Latour, B., Jensen, P., Venturini, T., Grauwin, S. et Boullier, D., 2012, « The
whole is always smaller than its parts. A digital test of Gabriel Tardes’ monads »,
The British journal of Sociology, 63(4), 590-615.
[Lazer et al., 2009] Lazer, D., Pentland, A.S., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D.,
Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G.,
Macy, M., Roy, D. et Van Alstyne, M., 2009, « Computational social science »,
Science, 323(5915), 721-3.
[Lazer et al., 2014] Lazer, D. M., Kennedy, R., King, G. et Vespignani, A., 2014, « Big data. The
parable of Google Flu: Traps in big data analysis », Science, 343(6176), 1203-1205.
[Lessig, 1999] Lessig, L., 1999, Code and other laws of cyberspace, New York : Basic Books.
[Lévy, 1994] Lévy, J., 1994, L’espace légitime, Paris : Presses de Sciences Po.
[Lévy, 1999] Lévy, J., 1999, Le tournant géographique, Paris : Belin.
[Li et Chen, 2010] Li, N. et Chen, G., 2010, « Sharing location in online social networks », Network,
IEEE, 24(5), 20-25.
[Lussault, 2003] Lussault, M., 2003, « Spatialité », In Lussault, M. et Lévy, J. (éd.), Dictionnaire de la
géographie et de l’espace des sociétés, Paris : Belin, pp 866-868.
[Lussault, 2009] Lussault, M., 2009, De la lutte des classes à la lutte des places, Paris : Grasset.
[Lussault, 2013] Lussault, M., 2013, « Hyperspatialité », In Lussault, M. et Lévy, J. (éd.), Dictionnaire
de la géographie et de l’espace des sociétés, Paris : Belin, 521-522.
[Lussault et Stock, 2010] Lussault, M. et Stock, M., 2010, « Doing with space: towards a pragmatics
of space », Social Geography, 5(1), 11-19.
[Mayer-Schonberger et Cukier, 2013] Mayer-Schonberger, V. et Cukier, K., 2013, Big data : A
Revolution That Will Transform How We Live Work and Think, Boston : Houghton
Mifflin Harcourt.
[McLuhan, 1969] McLuhan, M., 1969, « An Interview with Marshall McLuhan », Playboy Magazine,
mars 1969.
[Merzeau, 2013] Merzeau, L., 2013, « L’intelligence des traces », Intellectica, 1(59), 115-135.
[Mitchell, 1996] Mitchell, W. J., 1996, City of bits: space, place, and the infobahn, Cambridge, MA :
MIT Press.
[Mooij et al., 2014] Mooij, J. M., Peters, J., Janzing, D., Zscheischler, J., et Schölkopf, B., 2014,
« Distinguishing cause from effect using observational data: methods and
benchmarks », arXiv preprint arXiv:1412.3773.
Spatialités algorithmiques 159

[Musso, 1997] Musso, P., 1997, Télécommunications et philosophie des réseaux : la postérité
paradoxale de Saint-Simon. La politique éclatée, Paris : Presses universitaires de
France.
[Neuhaus, 2010] Neuhaus, F., 2010, « UrbanDiary - A Tracking Project Capturing the beat and
rhythm of the city: Using GPS devices to visualise individual and collective
routines within Central London », The Journal of Space Syntax, 1(2), 315-336.
[Nova, 2009] Nova, N., 2009, Les médias géolocalisés : comprendre les nouveaux espaces
numériques, Limoges : FYP.
[Olteanu et al., 2011] Olteanu, A.-M., Couronné, T. et Fen-Chong, J., 2011, « Modélisation des
trajectoires spatio-temporelles issues des traces numériques de téléphones
mobiles », SAGEO’11 - International Conference on Spatial Analysis and GEOmatics,
Paris.
[O’Neill et al., 2006] O’Neill, E., Kostakos, V., Kindberg, T., Penn, A., Fraser, D. S. et Jones,
T., 2006, « Instrumenting the City: Developing Methods for Observing and
Understanding the Digital Cityscape », In Dourish, P. et Friday, A. (éd.), Ubicomp
2006, LNCS, 4206, 315-332.
[Pasquale, 2015] Pasquale, F., 2015, The Black Box Society: The Secret Algorithms That Control Money
and Information, Cambridge, MA : Harvard University Press.
[Pentland, 2014] Pentland, A.S., 2014, Social Physics: How Good Ideas Spread. The Lessons
from a New Science, New York : Penguin.
[Phithakkitnukoon et Olivier, 2011] Phithakkitnukoon, S. et Olivier, P., 2011, « Sensing Urban
Social Geography Using Online Social Networking Data », The Social Mobile Web.
[Plantin et Monnoyer-Smith, 2014] Plantin, J.-C. et Monnoyer-Smith, L., 2014, « Ouvrir la boîte
à outils de la recherche numérique. Trois cas de redistribution de méthodes »,
tic&société, 7(2), http://ticetsociete.revues.org/1527.
[Purves et al., 2011] Purves, R. S., Edwardes, A. J. et Wood, J., 2011, « Describing place through
user generated content », First Monday, 16(9).
[Rattenbury et al., 2007] Rattenbury, T., Good, N. et Naaman, M., 2007, « Towards automatic
extraction of event and place semantics from flickr tags », Proceedings of the 30th
annual international ACM SIGIR conference on Research and development in information
retrieval, 103-110.
[Ratti et al., 2006] Ratti, C., Williams, S., Frenchman, D. et Pulselli, R. M., 2006, « Mobile
Landscapes: using location data from cell phones for urban analysis », Environment
and Planning B: Planning and Design, 33(5), 727-748.
[Ratti et al., 2010] Ratti, C., Sobolevsky, S., Calabrese, F., Andris, C., Reades, J., Martino, M. et
Strogatz, S. H., 2010, « Redrawing the Map of Great Britain from a Network of
Human Interactions », In Sporns, O. (éd.), PLoS ONE, 5(12), e14248.
[Reades et al., 2007] Reades, J., Calabrese, F., Sevtsuk, A. et Ratti, C., 2007, « Cellular Census:
Explorations in Urban Data Collection », IEEE Pervasive Computing, 6(3), 30-38.
[Reades et al. 2009] Reades, J., Calabrese, F. et Ratti, C., 2009, « Eigenplaces: analysing cities using
the space-time structure of the mobile phone network », Environment and Planning
B: Planning and Design, 36, 824-836.
[Robinet et al., 1957] Robinet, A., Leibniz, G. W. et Clarke, S., 1957, Correspondance Leibniz-Clarke,
Paris : Presses universitaires de France.
160 Traces numériques et territoires

[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Romele et Severo, 2014] Romele, A. et Severo, M., 2014, « Une approche philosophique de la ville
numérique : méthodes numériques et géolocalisation », In Carmes, M. et Noyer,
J.-M. (éd.), Devenirs urbains, Paris : Presses des Mines, 205-226.
[Rouvroy et Berns, 2013] Rouvroy, A. et Berns, T., 2013, « Gouvernementalité algorithmique et
perspectives d’émancipation », Réseaux, 177(1), 163-196.
[Ruppert, 2013] Ruppert, E., 2013, « Rethinking empirical social sciences », Dialogues in Human
Geography, 3(3), 268-273.
[Salzberg, 2014] Salzberg, S., 2014, « Why Google Flu Is A Failure », Forbes, 23/03/2014, http://
www.forbes.com/sites/stevensalzberg/2014/03/23/why-google-flu-is-a-failure.
[Shoval et Isaacson, 2007] Shoval, N. et Isaacson, M., 2007, « Tracking tourists in the digital age »,
Annals of Tourism Research, 34(1), 141-159.
[Song et al., 2010] Song, C., Qu, Z., Blumm, N. et Barabási, A. L., 2010, « Limits of Predictability
in Human Mobility », Science, 327(5968), 1018-1021.
[Tarde, 2001] Tarde, G., 2001, Les lois de l’imitation, Paris : Les empêcheurs de penser en rond [1re
éd. 1890].
[Thrift, 2005] Thrift, N., 2005, Knowing Capitalism, Thousand Oaks, CA : Sage.
[Thrift et French, 2002] Thrift, N. et French, S., 2002, « The automatic production of space »,
Transactions of the Institute of British Geographers, 27(3), 309-335.
[Tobler, 1970] Tobler, W. R., 1970, « A Computer Movie Simulating Urban Growth in the Detroit
Region », Economic Geography, 46, 234-240.
[Turner, 2006] Turner, F., 2006, From Counterculture to Cyberculture. Chicago : University of Chicago
Press.
[Vaccari et al., 2009] Vaccari, A., Calabrese, F., Liu, B. et Ratti, C., 2009, « Towards the SocioScope:
an information system for the study of social dynamics through digital traces »,
ACM GIS’09 - Proceedings of the 17th ACM SIGSPATIAL International Conference
on Advances in Geographic Information Systems, New York, 52-61.
[Venturini et Latour, 2010] Venturini, T. et Latour, B., 2010, « Le tissu social : traces numériques
et méthodes quali-quantitatives », In Chardronnet, E. (éd.), Actes Futur en Seine
2009, Paris : Cap Digital, 89-106.
[Watts, 2011] Watts, D. J., 2011, Everything Is Obvious: *Once You Know the Answer, New York :
Crown Business.
[Wiener, 1950] Wiener, N., 1950, The human use of human beings: cybernetics and society, Cambridge,
MA : Da Capo Press.
[Yoshimura et al., 2014] Yoshimura, Y., Sobolevsky, S., Ratti, C., Girardin, F., Carrascal, J. P., Blat,
J. et Sinatra, R., 2014, « An analysis of visitors’ behavior in The Louvre Museum:
a study using Bluetooth data », Environment and Planning B: Planning and Design,
41(6), 1113-1131.
L’hyperville
Éléments pour un design territorial contributif et digital

Franck Cormerais
« Dans le cas de la cité grecque, ce nouvel élément est le commun (koïnon) ; dans
celui de la cité de Rome, c’est la chose publique (res publica) ; dans celui de la nation
européenne, c’est le public dans ses différentes déclinaisons : intérêt public, opinion
publique, espace public. Autrement dit, tout progrès en généralité suppose une
nouvelle association humaine, cadre d’une opération humaine inédite. »
Manent Pierre, La métamorphose de la Cité, Flammarion, 2012.

Trois moments ponctuent un chemin qui mène à la compréhension de l’hyperville


comprise comme manifestation nouvelle de l’urbain dans l’histoire [Mumford,
1972 ; Ascher, 2009]. D’abord l’hyperville sera abordée comme une alternative à la
ville générique [Koolhass, 2011] et comme résultant d’un mouvement irréversible
d’une production toujours plus importante des données informatiques. Ensuite
une démarche pharmacologique sera exposée. Enfin l’organisation, en lien avec
l’hyperville, d’un design territorial dans un système local, sera questionnée. Le
caractère abstrait de notre développement n’entend pas opposer l’action, c’est-
à-dire l’orientation d’une politique de la donnée, à une réflexion approfondie
sur les conditions urbaines d’existence [Mongin, 2005 ; 2013]. Face à l’apparition
des nouveaux arts de faire et de dire et à une redistribution des formes de
l’avoir et de l’être, l’hyperville comprise comme une ville-trace concrétise une
alternative possible à la gouvernementalité algorithmique [Rouvroy, 2013]. En
effet, l’avènement d’une traçabilité générale renouvelle les cadres urbains, où
la redistribution des qualités et quantités implique l’établissement d’ordres de
grandeur réactualisés par de nouvelles métriques qui seront précisées.

L’HYPERVILLE ET LA RENCONTRE DU TERRITOIRE ET DES DONNÉES

Nous ne situons pas l’hyperville dans le cadre d’une « errance hypertextuelle »


[Cardoz, 1997 ; Marcano, 2007] mais plutôt dans celui de l’aménagement et
la transformation des échelles spatiales et temporelles qui s’opèrent sous la
contrainte du monde digital. L’urban data devient le milieu de concrétisation de
l’hyperville. La redéfinition des dimensions en même temps qu’elle participe à
la formation de nouveaux territoires (politiques, sociaux, psychiques) relance la
question de l’objet local [Sfez, 1977 ; Bourdin, 2000], où l’hypergrand des réseaux
ramène paradoxalement le petit [Escarpit, 1981]. C’est donc bien la question de
162 Traces numériques et territoires

l’établissement de nouvelles proximités qui se pose à travers l’augmentation de la


production des données digitales.

L’hyperville et la formation d’un système local des données


L’hyperville se conçoit à travers la mise en œuvre d’un système local où la relation
aux données, c’est-à-dire aux traces-signes, opère une reconfiguration dans la
redistribution spatiale et temporelle. Les effets dimensionnels de cette dynamique
s’approchent autour de trois procédures génériques (cf. Tableau 1).

TROIS PROCÉDURES DE L’HYPERVILLE


Habitat (H1) résidence, architecture, urbanisme
Habitude (H2) manière de faire, mode d’existence
Habitacle (H3) interfaçage de H1 et H2
Tableau 1 : Les procédures génériques de l’hyperville

Ces procédures permettent d’aborder les modes d’existence dans le milieu digital
qu’organise l’hyperville. Le paradigme des traces, compris comme l’association du
signe (signum) et de la donnée (data) autorise une nouvelle conception des politiques
de la ville et des territoires. L’hyperville se comprend comme une organisation
étendue des traces dans le déploiement de la relation entre un système local en
relation avec trois H : l’Habitat, l’Habitude, l’Habitacle. Le concept d’habitude
renvoie à l’invention du quotidien et non à la reproduction des actes [Ravaison,
1997]. L’habitude se situe entre les niveaux d’une organisation de l’habitant ; elle
opère une transformation des conditions concrètes de l’existence sous l’effet de
modifications de l’habitacle compris comme agencement du milieu de la vie. La
rencontre entre l’hyperville et les données annonce la formation de nouveaux
territoires (politiques, sociaux, psychiques) compris comme établissement de
relations spécifiques entre le système local et les modes d’existence abordés dans
les trois procédures génériques.

L’approche par les signes-traces dans l’hyperville revisite les rôles du visible/
invisible, du vu/ressenti, de la raison/émotion dans l’interprétation humaine.
L’enjeu des données dans la phase actuelle de désajustement et de crise [Sanken,
2009] appelle une reconfiguration. Les données et les systèmes de rétention
tertiaire [Stiegler, 2012] de conservation des traces renouvellent la mémoire et des
formes de la vie. A l’individu atomisé s’oppose une individuation dont la poursuite
se réalise dans une métropolisation qui complète celle des individus [Bourdin,
2000] par une individuation psychique et collective. L’hyperville vient préciser
le concept de « métapole » [Ascher, 1995] et le concept de « cité connexioniste »
[Boltanski et Chiapello, 1999].
L’hyperville 163

La construction des politiques publiques locales des données suppose des choix,
autour de la formation d’un habitacle, qui prennent un sens dans l’opposition de
l’hyperville à la smart city, où il s’agit dans cette dernière d’afficher des performances
en multipliant les indicateurs au service d’une efficacité s’illustrant dans un marketing
territorial. Calcul des durées d’attente, du taux de fidélité, des temps de séjour et de
shopping, du taux de conversion (piétons/visiteurs/clients) demeurent des sources
d’une approche de ville marchandisable, non d’une cité contributive.

Les données de l’hyperville et l’espace public digital


L’espace public contemporain est un concept clé de la communication et du
renouvellement des médiations [Miège, 2010]. Ainsi l’avènement d’un espace
public digital s’avère être le support qui annonce les transformations suscitées par
l’hyperville. Les distinctions sur un plan empirique entre les divers types de donnée
permettent de mieux problématiser la mutation de l’espace public car les données
sont un des éléments déterminant de l’établissement d’une culture digitale urbaine
[Christakis et Fowler, 2009]. De nouvelles données, en lien avec l’informatique et
les télécommunications, complètent les statistiques des institutions traditionnelles.
Issues principalement du Web 2.0, ces données apparaissent comme une source
d’informations relatives aux phénomènes sociaux se déroulant dans l’hyperville.
Décrivons les grands types de données (cf. Tableau 2).
TYPE DE DONNÉES CARACTÉRISTIQUES UTILISATION
Hard data Données observées Sondage
Soft data Données estimées Habitude
Big data Données importantes, ou Prévision
mégadonnées
Self data Données personnelles Identité numérique
Open data Données ouvertes Diffusion d’intérêt public
Tableau 2 : Typologie des données circulant dans l’hyperville

Les données ne sont pas données mais issues d’un processus de construction,
selon des nomenclatures qui établissent des catégories et des regroupements. La
typologie présentée dans le Tableau 2 apporte des précisions relatives à l’hyperville,
plus exactement sur le statut complexe de l’information, qui dans sa multiplicité
doit être compris également comme un « bien commun » [Ostrom, 2010]. La
donnée informatique ne serait donc être abordée en termes uniques de captation
et d’exploitation mais aussi de transmission et de transfert. L’espace public digital
possède une fonction de reliance sur un territoire qui implique un modèle du
« faire société » ; il ouvre avec l’hyperville une perspective communicationnelle
post-habermatienne avec l’apparition d’un espace public qui diffère aussi bien
de « l’espace public bourgeois » [Habermas, 1988] que de « l’espace public
oppositionnel » [Neg, 2007]. Pour aborder la spécificité de l’espace public de
164 Traces numériques et territoires

l’hyperville dans une approche étendue des données, il convient de superposer


plusieurs strates à l’exploitation des données (cf. Tableau 3).
LES ÉCONOMIES RELATIVES AUX AMBIVALENCE DE L’EXPLOITATION
DONNÉES DES DONNÉES
économie de la mémoire (conservation des Travail gratuit versus appropriation abusive
données)
économie psychique (individuation) Investissement du désir versus économie de
l’attention
économie matérielle (automatisation des création collective et partage du temps
productions) versus prolétarisation des producteurs de
connaissance
Tableau 3 : Economie politique des données

L’hyperville à travers des choix des « équipements de pouvoir » [Fourquet et


Murard, 1976] se comprend comme l’agencement de différentes dimensions d’une
économie qui mêlent les logiciels, l’existentiel et le matériel. La rencontre d’une
économie de la mémoire [Cormerais, 2015], d’une économie psychique et d’une
économie matérielle opère un nouage du processus économique original. Après
l’économie de l’information [Petit, 1998], une économie de la connaissance [Foray,
2009] et une économie de l’attention [Citton, 2014], c’est bien une économie
politique de la donnée reposant sur la mémoire qui rend possible des circuits
allant à l’encontre du webmarketing et du neuromarketing. Avec l’hyperville, il
s’agit de concevoir une économie qui souligne l’ambivalence des données en se
situant dans le cadre d’une alternative à la mécroissance [Stiegler, 2009]. Pour saisir
les enjeux de la donnée, il convient de préciser comment s’opèrent les processus
psychosociaux autour d’une approche élargie des données, où des mécanismes
importants se réalisent autour d’une sédimentation des données qui préparent
des mutations. Ce mouvement est à relier aux techniques d’externalisation liées à
l’extraction, au contrôle et au filtrage de l’information.

L’hyperville et les deux orientations de l’externalisation des données


La circulation des données dans l’hyperville s’envisage autour d’un modèle
complexe de traitement par couche, croisement et transfert. Les couches opèrent
une superposition des sédimentations de l’économie des données exposée dans
le précédent tableau ; le croisement établit des corrélations entre les strates ; enfin,
le transfert autorise des migrations des processus d’appropriation. Insistons
particulièrement sur l’opération de transfert qui produit un processus général
d’externalisation [Dagognet, 2006] interrogeant les lieux et au premier chef
la ville. Le transfert produit des changements qui reposent sur des variations
matérielles et idéelles des données. L’extériorité reconfigure l’intériorité psychique
et les réseaux de la socialisation. Une pensée du transfert s’avère nécessaire pour
situer les technologies informationnelles par rapport aux formes anciennes du
L’hyperville 165

transfert (rôle du tiers, du référent). L’opération de transfert peut se réaliser dans


deux directions opposées :

Dans la première, la relation entre le processus métapsychologique d’individuation


psychique et le processus historique collectif, lié l’avènement du digital, organise
la disparition d’une sublimation nécessaire à la création et son remplacement par
une culture des fans [Booth, 2010]. La question du désir et de son investissement
est laissée insatisfaite par les conditions même de son renouvellement
technologique. L’investissement psychique est récupéré par une pulsion d’une
sublimation décroissante ou répressive, où la donnée devient un moyen d’asservir
le narcissisme à la jouissance des objets [Dufour, 2012]. On parle d’une fonction
« d’asservissement machinique des sémiotiques a-signifiantes » [Guattari, 1992].

Dans la seconde direction les data et les processus de transfert sont mobilisés pour
envisager leur rôle constituant dans un nouveau moment de la subjectivation,
qui traduit un rééquilibrage de la relation dissymétrique entre la figure du
consommateur (C1) et celle du citoyen (C2). Cette réduction peut produire des
« territoires apprenants » [Veltz, 1994] enrichis par une création collective qui
organise une synthèse entre l’individualisation, la socialisation et la différentiation.
Ces trois tendances forment les clés des agencements de l’hyperville qui éclairent
les relations entre l’Habitat, l’Habitude et l’Habitacle (cf. Tableau 1).

Le choix d’une direction plutôt que l’autre repose sur la nature des décisions
misent en applications dans la sphère publique et la sphère privée. Ces décisions
engagent deux conceptions de la ville.

LES ENJEUX PHARMACOLOGIQUES DE L’HYPERVILLE

Dans l’hyperville les conditions d’un rééquilibrage entre la figure du consommateur


(C1) et celle du citoyen (C2) passe par une approche pharmacologique des
données qui offrent à la fois des opportunités thérapeutiques et des dangers. La
pharmacologie repose sur les soins apportés à la mise en œuvre des conditions
d’existence sur les territoires, elle vise au développement de la figure du
contributeur, véritable antidote à la culture des fans. Dans cette partie l’économie
et la politique des données seront analysées à partir d’un renforcement d’une base
informationnelle qui autorise des choix individuels et collectifs avertis et judicieux.
Cette démarche s’inscrit dans une logique de la contribution dans l’hyperville afin
de reconfigurer l’Habitacle qui fait tenir ensemble les collectifs.
166 Traces numériques et territoires

La base informationnelle de l’hyperville

L’économiste indien prix Nobel Amartya Sen définit la notion de base


informationnelle comme l’ensemble des informations devant être pris en compte
lors de l’évaluation d’une situation sociale et économique [Sen, 2010]. La qualité
de cette base permet d’apprécier les choix des acteurs dans la perspective d’une
plus grande justice. Dans l’hyperville, la base informationnelle traduit une tension
majeure pouvant exister entre les types différents de données. Cette tension
inscrit l’orientation que peuvent prendre les politiques publiques dans les choix
d’équipement de pouvoir pour développer un espace public digital contributif.
Précisions les éléments majeurs de la base informationnelle dans l’espace public
digital du point de vue des données mobilisées et de ses opérations (cf. Tableau 4).

TYPE DE DONNÉE MODE DE LA DONNÉE OPÉRATION DE LA DONNÉE


Hard data Donnée statistique Sondage
Big data Croisement des données Prévision
Self data Données personnelles Profilage
Open data Données libres Réutilisation

Tableau 4 : Eléments de la base informationnelle de l’espace public digital

La base informationnelle de l’espace public digital nécessite, pour la compréhension


de ses enjeux, l’introduction d’une décision [Sfez, 1992] en lien avec la mise en
œuvre des politiques publiques de l’hyperville. Pour approcher les décisions qui sont
intrinsèquement politiques, nous allons exposer deux approches contradictoires
des données. Nous pourrons alors mieux comparer deux orientations relatives
aux choix sociotechniques qui déterminent aux équipements de pouvoir. Deux
scenarii traduisent des tendances contradictoires. La première est positive, ou
souhaitable, dans une perspective de la contribution. La seconde est négative, ou
néfaste, sur le plan de l’extension et des pratiques qu’elle génère et des externalités
négatives qui l’accompagnent (cf. Tableau 5).

DOMAINES DE DÉCISIONS PRATIQUES PRATIQUES DIGITALES


L’HYPERVILLE DIGITALES POSITIVES NÉGATIVES
Politique Participation Transparence/délibération Sondage/consultation
Social Intégration Réseaux sociaux Segmentation
Artistique Création Partage du sensible Gamification
Industriel Coopération Fab Lab/open innovation Extension des droits de propriété
Opinion Expression Médias citoyens Extorsion du consentement
Economique Contribution Nouvelle chaîne de la valeur Modèle double face du gratuit

Tableau 5 : Approche comparative des données dans l’hyperville

Cette approche comparative des pratiques pouvant être engagées dans l’espace
public digital souligne l’influence qu’elles exercent sur des différents plans de
l’existence des acteurs. Les différences entre les deux options posent la question
L’hyperville 167

de la construction d’un « monde commun » avec les données. Notre démarche


pharmacologique inscrit une opportunité pour élaborer une individuation mais
aussi, à l’inverse, s’éloigne d’une « citoyenneté de verre » se situant entre surveillance
et exhibition [Sofsky, 2011]. Cette façon élargie d’envisager la « condition digitale »
se répercute sur les conditions de la vie urbaine, où la transversalité des données
impulse une redéfinition des décisions et un nouveau champ d’application : les
territoires. D’où l’importance d’une réinvention des politiques publiques, en
relation avec une redistribution des partages légitimes entre public et privé.

Dans les domaines de l’hyperville la mise en œuvre d’une dynamique oriente des
choix qui recomposent des pratiques sociales. Le croisement entre les différentes
dimensions de l’existence produit des rapprochements et des accords qui
s’opposent à une vitesse que nul ne maîtrise aujourd’hui [Rosa, 2010], tant l’ordre
juridique peine à suivre l’évolution technologique. Face à la dissémination d’une
« métropole des individus » [Bourdin, 2009] apparaissent de nouvelles opportunités
d’association qu’il convient de perfectionner et de renforcer. La réussite du passage
d’un monde commun à définir vers des biens communs informationnels s’avère
décisif. Il semble nécessaire, mais pas suffisant, de poser pour cela que le statut
de l’information se situe entre le commun et la propriété (Aigrain). L’hyperville
peut-elle problématiser l’actuelle période de transition dans la perspective d’une
cause commune par une affirmation du « commun » ? [Dardo et Laval, 2014] La
critique de l’appropriation privée de la chaîne de la valeur demeure dans une
posture de dénonciation. Pour étendre la nécessité de la base informationnelle, il
faut trouver une justification qui démontre les limites d’une situation négative où
les GAFA (Google, Apple, Facebook, Amazon) organisent les principaux circuits
mondiaux de la communication.

L’hyperville et le cadrage de l’action des politiques publiques


Avec le mouvement de décentralisation, l’enjeu de la base informationnelle
s’avère important pour aborder la phase actuelle de transition où la crise,
comme désajustement des systèmes (économique, social, technique), appelle une
reconfiguration des métropoles autour d’une relation perturbée entre le centre
et la périphérie. L’aménagement des territoires et la transformation des échelles
spatiales s’opèrent sous la contrainte du monde digital [Carmes et Noyer, 2014].
La redéfinition des dimensions, en même temps qu’elle participe à la formation
de nouveaux territoires (politiques, sociaux, psychiques), annonce un retour de
l’objet local [Cormerais et Musso, 2014].

Afin de mieux saisir la dynamique suscitée autour des données dans les décisions
politiques de l’hyperville, nous proposons d’avancer dans le cadre d’une
pharmacologie positive. Sans apparaître comme un guide, cette approche souhaite
relier les domaines et les décisions à des sphères associées dans l’espace public
digital, ceci afin de mieux définir des régimes possibles d’action (cf. Tableau 6).
168 Traces numériques et territoires

La pluralité des régimes, en complétant une démarche sociologique [Thévenot,


2006], ouvre des perspectives pour relier une démarche néo-institutionnelle et une
orientation pragmatique pouvant inspirer les politiques publiques.

DOMAINES DÉCISIONS SPHÈRE MOBILISÉE RÉGIME


D’ACTION
Politique Participation Institutionnelle Décider
Social Intégration Intergénérationnelle Transmettre
Artistique Création Artistique/religieuse Œuvrer
Industriel Coopération Entreprenariat/association Fabriquer
Opinion Expression Post-médiatique Cultiver
Economique Contribution Echange/don Partager
Tableau 6 : Analytique des politiques publiques de l’hyperville

Ce tableau précise les sphères engagées dans la mise en œuvre de l’habitacle de


l’hyperville, où la création d’un monde commun établit une relation entre les
décisions et des régimes d’action pris en compte pour analyser une situation.
Nous sommes en présence des invariants de l’hyperville dont la variation de la
composition traduit un principe d’organisation dans un milieu de concrétisation
qui transforme, à partir d’une création collective, les relations des deux procédures
génériques que sont l’habitat et l’habitude.

L’hyperville devient ainsi le creuset d’une « digitalisation », que justifie la formation


de nouveaux possibles, où le devenir des données forme le compromis d’un
nouveau cadre d’existence. Pour faire éclore ces possibles, un design territorial se
comprend comme la recherche de déploiement d’une logique de la contribution,
qui fut évoquée lors des 2es Assises nationales de la médiation numérique à Bordeaux en
octobre 2014, où jouent pleinement l’expérimentation et l’innovation sociale autour
des données.

Eléments de valorisation de la hyperville contributive


L’amélioration de base informationnelle dans une logique de la contribution
implique un design des politiques publiques reposant sur un nouveau cycle de
valorisation. Ce cycle dans l’hyperville repose sur un système local contributif
(SLC) où l’efficacité de l’investissement se comprend à partir : a) d’une montée
en « qualification » des acteurs ; b) d’un effet multiplicateur des contributions
positives sur le territoire. La contribution n’est pas seulement une ressource mais
un élément clé de la valeur dans une perspective où il faut distinguer trois éléments
importants dans le calcul d’un ordre de grandeur lié aux données (cf. Tableau 7).
L’hyperville 169

LES TROIS COMPOSANTES DE LA VALEUR DES DONNÉES DANS UN TERRITOIRE


La probabilité de la donnée Valeur d’originalité Innovation des usages
La pertinence de la donnée Valeur situationnelle Mobilisation du milieu
Les effets de la donnée Valeur d’enjeu Externalité positive
Tableau 7 : La valeur des données dans l’espace public digital de l’hyperville

La création dans l’hyperville, sa valeur néguentropique, s’affirme dans la


composition obtenue par l’agrégation des données distribuées dans les territoires.
La valeur globale reposant sur la prise en compte d’un différentiel entre les
externalités positives et négatives. Le local n’est pas seulement un écosystème
(métaphore naturaliste), mais aussi un lieu de réglementation politique qui
équilibre les relations entre la société civile et les formes institutionnelles, entre
le citoyen et le consommateur. Face à une perméabilité des échelles territoriales,
il s’agit de construire un système local contributif reposant sur une mise en
œuvre de ressources différentielles. Un tel projet repose sur un processus de
valorisation qui inscrit le local dans les différentes échelles du dimensionnement
mondial contemporain. Cette valorisation, en assurant la singularité du local,
repose sur un degré de probabilité (valeur d’originalité), un degré de pertinence
(valeur situationnelle), un effet (valeur d’enjeu). Cette triple approche de la valeur
[Escarpit, 1981] appelle un autre mode de calcul de l’attractivité territoriale
que celui produit par le marketing. A ce titre, le mouvement d’externalisation
des données annonce une recomposition souhaitable d’une politique publique
attentive au processus de valorisation des données (cf. Tableau 8).
DISTRIBUTION VALEUR D’ORIGINALITÉ VALEUR DE VALEUR D’ENJEU
DES DONNÉES ET TECHNOLOGIES SITUATION ET VARIABLES DE LA
MOBILISÉES MODALITÉS MESURE
Mobilité Portabilité Liaison Intermodalité
Territorialité SIG Commutation Coordination des
rythmes
Apprentissage Effet de réseaux Partage des données Intelligence collective
Polycentricité Interopérabilité Mobilisation des Données agrégées
milieux
Individuation Usabilité Capacités, attachement Multi-appartenance
Créativité API Conception Invention et
innovation

Tableau 8 : Tableau de la valorisation de l’habitacle de l’hyperville

Ce tableau illustre la mise en œuvre d’un système local contributif dans l’hyperville qui
implique un modèle de développement soutenable, où les dimensions micro, macro
et méso se complètent. Ce modèle se conçoit autour d’une fonction de contribution
spatialisée et de l’élaboration de nouveaux indicateurs [Beraud et Cormerais, 2013].
Afin d’aborder ces indicateurs, il importait de préciser préalablement les variables
de la valorisation pour réaliser un ordre de grandeur synthétique.
170 Traces numériques et territoires

HYPERVILLE ET CONDITIONS POLITIQUES DE L’EXISTENCE

Les politiques publiques se conçoivent autour des équipements collectifs qui


participent directement à l’organisation d’un design des territoires. Cette notion
prend un relief singulier avec les données. Pas d’essentialisme de la métropolisation
dans un modèle figé de la ville intelligente, mais une reprise dans l’hyperville
de la priorité de l’existence et de ses désordres pour aborder un renouveau des
équipements et des actions.

Design du territoire et des existences


Le renouveau des politiques de la ville, à travers un design territorial de l’hyperville,
modifie les existences et se comprend comme une relation dynamique entre une
individuation des acteurs, une objectivation des données et une réorganisation
des collectifs (cf. Tableau 9).

MÉTHODE FINALITÉS MOYENS


Individuation Politique des capacitations Fin des grands partages individualisme/
de tous holisme, naturalisme/artificialisme
Objectivation Politique du choix Sédimentation des traces digitales reliées au
technologique des données mémorisable par le traitement des données
(extraction, contrôle, filtrage, etc.)
Réorganisation Politique néo- Amélioration des transferts (du tiers, de la
institutionnelle des normes délégation, du référent) par la transparence
de communication de certaines données
Tableau 9 : Eléments méthodologiques du design des existences dans l’hyperville

Pour construire un modèle local contributif, clé du succès de l’opération civique


et contributive de la politique publique de l’hyperville, il convient d’associer à
l’organisation des transferts de pouvoir (compétence, allocation, subsidiarité),
des technologies de transfert (informatique et télécommunication). Les réseaux
numériques deviennent ainsi les supports d’une individuation collective située,
qui s’associe aux autres supports pour concrétiser un assemblage d’espaces
hétérogènes et promouvoir un nécessaire récit politique [Sfez, 2002], alternative
au fatalisme de la crise économique. La base informationnelle, comme systèmes
de rétention [Stiegler, 2009], pose alors la question de la mémoire, des traces et
de ses enjeux. Les distinctions entre hard data, soft data, big data, self data, open data
reformulent la question de la séparation entre l’espace privé et l’espace public. La
partition des spatialités et des temporalités de l’hyperville ouvre une problématique
relative à une réorganisation basée sur une objectivation par les données, avec
lesquelles il s’agit de s’écarter d’un individualisme méthodologique pour aborder
une individuation qui ne réduit pas la société à une somme d’individus séparés.
L’hyperville se situe ainsi dans une continuité de la réflexion critique sur la « ville
ordinateur » [Fourquet et Murard, 1976].
L’hyperville 171

L’hyperville et le renforcement du processus d’individuation

Le design des territoires de l’hyperville retrouve la mise en valeur des existences


dans un environnement contradictoire, où la formation d’une nouvelle approche
de la valeur informationnelle se manifeste par l’objectivité de la production des
traces digitales. Que recouvre précisément l’apparition de la notion des données
personnelles et plus généralement l’identité numérique ? Revenons à une description
des fonctions anthropologiques pour regarder comment l’individuation psychique
et collective se construit avec les données. Nous approcherons mieux alors les
« techniques de soi » [Foucault, 1994]. Nous entendons par là un couplage entre
les plis des relations individu collectif avec les technologies de l’information.
L’organisation de soi est comprise comme une rencontre avec des technologies
(cf. Tableau 10).

CONTENU
e-Consommation Responsable et/ou biologique Organisation des circuits
courts
e-Finance Emprunt locaux, crédit social Finance responsable et
solidaire
e-Communication Neutralité du net Média citoyen, espace public
numérique
e-Mobilité Géolocalisation des itinéraires, multi- Diminution des coûts et des
modalité, information trafic en temps temps de transport
réel
e-Santé Bilans médicaux, mesures personnelles, Prévention
prescriptions
e-Formation Certification, itinéraire professionnel Formation continue
e-Culture Activités associatives, sportives, Créa-Lab, e-Bibliothèque ;
culturelles musée virtuel
Tableau 10 : Technologies informationnelles et construction de soi

L’hyperville, comme opération réunification, se comprend comme une


valorisation, par le design territorial, d’une territorialité spécifique. L’attractivité
d’un territoire est approchée traditionnellement par sa capacité à attirer des
facteurs de production (capital, travail). Cette démarche recherche un avantage
concurrentiel, dont résulte la compétitivité. Le système local contributif repose
lui sur de nouveaux critères pour faire valoir sa différence. L’hyperville fait ainsi
émerger, entre le « je » et le « nous », une configuration chaque fois nouvelle en
fonction d’un territoire précis, déplaçant les débats sur la « modernisation » pilotée
par un centralisme technocratique. La contribution apporte un éclairage neuf
sur les processus démocratiques et ses logiques d’action. Le contributeur est
une figure contemporaine qui s’impose entre le producteur et le consommateur
pour échapper aussi bien à une conception de l’individu par excès (le libéralisme)
qu’à un individu par défaut (Etat-providence), abordé seulement en termes de
protection [Castel, 2009]. La logique de la contribution revient ainsi sur le grand
172 Traces numériques et territoires

partage du citoyen et du consommateur client, qui structurait le compromis


fordiste et la société de la consommation.

L’hyperville comme lieu d’inscription de la fonction de contribution


La fonction de contribution fait apparaître une approche originale de la relation
entre l’économique et le politique dans l’hyperville et laisse entrevoir l’importance
des données dans le système local contributif de l’hyperville. Cette fonction
ressort à la fois d’une dimension microéconomique, en tant que modalité d’action
des acteurs, et d’une dimension macroéconomique, en tant que principe de
politique économique. Cette fonction est irréductible à l’automaticité apparente
des processus d’ajustement des quantités et des prix sur les marchés ; elle s’inscrit
dans des activités, circuits courts ou circuits longs, propres à la formation d’une
valorisation, dont rend compte l’approche située de la base informationnelle. La
présence de la fonction de contribution s’observe dans tous les milieux divers,
même si la densité des relations privilégie le milieu urbain et notamment les grandes
métropoles. Ainsi, elle apparaît dans des activités liées notamment aux effets
multiplicateurs des contributions, qui reposent sur la qualité des infrastructures
et les services urbains en réseau.

Les externalités positives constituent la somme des effets indirects de la fonction


de contribution, à l’occasion de la réalisation d’investissements conjoints, publics
et privés. Les externalités peuvent être de nature diverse, mais leur influence,
conjuguée aux effets d’entraînement, contribue à accélérer le développement des
territoires et, partant, à favoriser la création de valeur. La fonction de contribution
s’articule aux politiques publiques territorialisées, à l’exemple de la contribution
fiscale. Mais les relations entre la fonction de contribution et l’intervention publique
localisée peuvent prendre aussi d’autres formes très variées. En témoignent des
domaines qui peuvent s’ouvrir à l’investissement, en autorisant l’émergence de
la figure du contributeur comme médiateur, expert, facilitateur : la création et
l’accompagnement d’activités nouvelles, la gestion de la recherche-innovation
d’origine publique ou mixte, la gestion d’infrastructures aptes à favoriser la mise
en réseau des actions de développement, les associations d’intérêts autour des
communautés d’éducation et de formation, etc.

L’hyperville articule un ordre de grandeur à la fonction de contribution, elle


donne un sens en constituant des éléments de la définition collective d’un monde
commun. Ses indicateurs entrent dans la définition des biens, des buts à atteindre,
des normes à respecter. Cette approche autorise une meilleure identification des
fondements analytiques d’une comptabilité territoriale qui reste encore en chantier.
L’hyperville 173

CONCLUSION - L’HYPERVILLE ET LES DONNÉES

L’hyperville en développant un système local contributif, en respectant une


dynamique spécifique à chaque territoire, défend l’importance de la légitimité
dans l’éclatement contemporain de la sphère politique avec l’avènement du
« post-national » [Habermas, 2013]. Entre intégration régionale et logique
supranationale, entre démocratie et économie, l’hyperville peut-elle participer à
refonder une cohérence territoriale dans un monde global ? La question demeure
ouverte et dépend des décisions politiques. Un système localisé contributif,
compris comme une zone d’intervention, repose sur l’importance et la qualité
d’une base informationnelle qui peut être sans cesse alimentée par des données
nouvelles. L’hyperville comme milieu local métastable se trouve toujours soumis
à des mouvements de délocalisation, de relocalisation ; elle forme le nexus d’un
agencement social, mental et technologique. L’hyperville témoigne d’une première
modernité qui s’achève et d’une seconde modernité à venir.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Ascher, 1995] Ascher, F., 1995, Métapolis ou l’avenir des villes, Paris : Odile Jacob.
[Ascher, 2009] Ascher, F., 2009, L’âge des métapoles, La Tour d’Aigues : Editions de l’Aube.
[Beraud et Cormerais, 2011] Beraud, P. et Cormerais, F., 2011, « Economie de la contribution et
innovation sociétale », Revue Innovations, 34(1), 163-183.
[Beraud et Cormerais, 2013] Beraud, P. et Cormerais, F., 2013, « Le bien-être comme création
collective », In Florin, A. et Préau, M. (éd.), Le Bien-être, Paris : L’Harmattan, 83-97.
[Boltanski et Chiapello, 1999] Boltanski, L. et Chiapello, E., 1999, Le nouvel esprit du capitalisme,
Paris : Gallimard.
[Booth, 2010] Booth, P., 2010, Digital Fandom, New Media Studies, Berne : Peter Lang.
[Bourdin, 2000] Bourdin, A., 2000, La question locale, Paris : Presses universitaires de France.
[Bourdin, 2009] Bourdin, A., 2009, La métropole des individus, La Tour d’Aigues : Editions de l’Aube.
[Carmes et Noyer, 2014] Carmes, M. et Noyer, J.-M. (éd.), 2014, Devenirs urbains, Paris : Presses
des Mines.
[Castel, 2009] Castel, R., 2009, La montée des incertitudes : travail, protections, statut de l’individu,
Paris : Le Seuil.
[Christakis et Fowler, 2009] Christakis, N. et Fowler, J., 2009, Connected. The amazing power of social
networks and the shape our lives, London : Harper press.
[Citton, 2014] Citton, Y. (éd.), 2014, L’économie de l’attention, nouvel horizon du capitalisme, Paris : La
Découverte.
[Corboz, 1997] Corboz, A., 1997, « La Suisse comme hyperville », conférence prononcée dans
le cadre du cycle « Suburbanisme et paysage », organisé par la Société française
des architectes, http://www.jointmaster.ch/jma/ch/dech/file.cfm/document/
La_Suisse_comme_hyperville.pdf?contentid=1040.
174 Traces numériques et territoires

[Cormerais, 2007] Cormerais, F., 2007, « Innovation, valeur de la production et économie de la


contribution », In Stiegler, B. (éd.), 2008, Le Design de nos existences, Paris : Editions
des Mille et une nuits, pp 305-336.
[Cormerais, 2015] Cormerais, F., 2015, « De la critique de l’économie politique du signe à
l’économie politique de la trace numérique, Exploitation des données et
technologie politique », In Galinon-Mélénec, B. (éd.), L’homme-trace. Tome 3 [à
paraître].
[Cormerais et Musso, 2014] Cormerais, F. et Musso, P., 2014, La société éclatée, Le retour de l’objet
local, La Tour-d’Aigues : Editions de l’Aube.
[Dagognet, 2006] Dagognet, F., 2006, Philosophie du Transfert, Paris : Encre Marine.
[Dufour, 2012] Dufour, D.-R., 2012, La cité perverse, libéralisme et pornographie, Paris : Folio.
[Escarpit, 1981] Escarpit, R., 1981, Théorie de l’information et pratique politique, Paris : Le Seuil.
[Foray, 2009] Foray, D., 2009, L’économie de la connaissance, Paris : La Découverte.
[Foucault, 1994] Foucault, M., 1994, Dits et écrits, Tome 4, Paris : Gallimard.
[Fourquet et Murard, 1976] Fourquet, F. et Murard, L., 1976, Les Équipements du pouvoir : villes,
territoires et équipements collectifs, Paris : UGE.
[Guattari, 1992] Guattari, F., 1992, Chaosmose, Paris : Galilée.
[Habermas, 1988] Habermas, J., 1988, L’Espace public, Paris : Payot.
[Habermas, 2013] Habermas, J., 2013, Après l’Etat-nation, une nouvelle constellation du politique,
Paris : Hachette.
[Koolhaas, 2011] Koolhaas, R., 2011, Junkspace, Paris : Payot.
[Marcano, 2007] Marcano, M. B., 2007, « La perception de l’hyperville : du nomadisme contextuel
vers l’errance hypertextuelle », Sociétés, 97(3), 67-79.
[Miège, 2010] Miège, B., 2010, L’espace public contemporain. Approche Info – Communicationnelle,
Grenoble : Presses universitaire de Grenoble.
[Mongin, 2007] Mongin, O., 2007, La condition urbaine, la ville à l’heure de la mondialisation,
Paris : Le Seuil.
[Mongin, 2013] Mongin, O., 2013, La Ville des flux : l’envers et l’endroit de la mondialisation
urbaine, Paris : Fayard.
[Mumford, 1972] Mumford, L., 1972, La cité à travers l’histoire, Paris : Le Seuil.
[Neg, 2007] Neg, O., 2007, L’espace public oppositionnel, Paris : Payot.
[Ostrom, 2010] Ostrom, E., 2010, La gouvernance des biens communs : pour une nouvelle
approche des ressources naturelles, Bruxelles : De Boeck [trad. 1re éd. 1990].
[Petit, 1998] Petit, P., 1998, L’économie de l’information, les enseignements des théories
économiques, Paris : La Découverte.
[Ravaison, 1997] Ravaison, F., 1997, De l’habitude, Paris : Payot [1re éd. 1838].
[Rosa, 2010] Rosa, H., 2010, Accélération. Une critique sociale du temps, Paris : La Découverte.
L’hyperville 175

[Rouvroy et Berns, 2013] Rouvroy, A. et Berns, T., 2013, « Gouvernementalité algorithmique


et perspectives d’émancipation. Le disparate comme condition
d’individuation par la relation ? », Réseaux, 177(1), 163-196.
[Sassen, 2009] Sassen, S., 2009, La globalisation : une sociologie, Paris : Gallimard.
[Sen, 2010] Sen, A., 2010, L’idée de justice, Paris : Flammarion.
[Sfez, 1977] Sfez, L., 1977, L’objet local, Paris : UGE.
[Sfez, 1992] Sfez, L., 1992, Critique de la décision, Paris : Presses de Sciences Po [4e éd.].
[Sfez, 2002] Sfez, L., 2002, Technique et idéologie, Paris : Le Seuil.
[Sofsky, 2011] Sofsky, W., 2011, Le citoyen de verre, entre surveillance et exhibition, Paris :
L’Herne.
[Stiegler, 2009] Stiegler, B., 2009, Pour une nouvelle critique de l’économie politique, Paris : Galilée.
[Stiegler, 2012] Stiegler, B., 2012, États de choc : bêtise et savoir au XXIe siècle, Paris : Flammarion.
[Thévenot, 2006] Thévenot, L., 2006, L’action au pluriel. Sociologie des régimes d’engagement, Paris : La
Découverte.
[Veltz, 1994] Veltz, P., 1994, Des territoires pour apprendre et innover, La Tour-d’Aigues : Editions de
l’Aube.
Désirs de data
Le trans et post humanisme comme horizons du plissement numérique du monde

Maryse Carmes, Jean-Max Noyer

« Qui n’aurait pas encore remarqué que la maison de l’Etre disparaît sous les
échafaudages ? Et personne ne sait à quoi elle ressemblera après la rénovation,
d’autant moins qu’on ne touche pas seulement ici à la superstructure, mais aussi
aux fondations. La caractéristique la plus frappante de la situation mondiale actuelle,
dans le domaine de l’histoire de l’esprit et de la technique, est justement le fait que
la culture technologique produit un nouvel état d’agrégat du langage et du texte qui
n’a pratiquement plus rien de commun avec ses interprétations traditionnelles par la
religion, la métaphysique et l’humanisme. »
Peter Sloterdijk, La domestication de l’être – Pour un éclaircissement de la clairière, Editions
Mille et une nuits, 2000.
« L’homme est une invention dont l’archéologie de notre pensée montre aisément la
date récente. Et peut-être la fin prochaine. Si ces dispositions venaient à disparaître
comme elles sont apparues, si par quelque événement dont nous pouvons tout au
plus pressentir la possibilité, mais dont nous ne connaissons pour l’instant encore ni
la forme ni la promesse, elles basculaient, comme le fit au tournant du XVIIIe siècle
le sol de la pensée classique, alors on peut bien parier que l’homme s’effacerait,
comme à la limite de la mer un visage de sable. »
Michel Foucault, Les mots et les choses, Gallimard, 1966.

AU MILIEU DU TISSAGE DES DONNÉES

L’axiomatique immanente du capitalisme a trouvé dans l’alliance des sémiotique


a-signifiantes, du numérique, des data, du Marché, une relance extrêmement
puissante. Le système global est entré en crise écrit A. Joxe [2012] et le capitalisme
mondial intégré (Guattari) « informatisé cherche à l’emporter par la spéculation, en
usant de la violence et du dol – tromperie volontaire sur la nature des contrats – visant
ainsi à dégrader tous les autres types de souveraineté, d’autonomie ou d’économie.
Parler encore d’empire est simplement une façon de dire que ce système de pouvoir
mondial est comme les empires d’hier à la fois guerrier et financier ».
178 Traces numériques et territoires

Dans l’Internet de « tout »

Nous sommes à présent dans le plissement numérique du monde et le tissage


continu qui ne cesse de croître entre les liens, les données, se complique du tissage
numérique des êtres et des choses, des êtres et des objets et des territoires qu’ils
fabriquent. Nous sommes à présent dans la phase de l’Internet des objets, des
hybrides ce que l’on peut nommer l’Internet de « tout » (Internet of everything), pour le
dire encore autrement la création d’un vaste système relationnel, d’un vaste système
de connexion entre les personnes, des processus, des données et des choses. Ce
système est fondé sur la production d’interfaces et de capteurs, sur la capacité des
écritures numériques en réseaux à laisser des traces sémantiques, comportementales,
géolocalisées, énergétiques etc., des traces sémiotiques de plus en plus nombreuses,
de plus en plus variées. Il produit une quantité toujours plus vaste de data.

Ce système est aussi un puissant système hétéro-organisateur, doté d’un nombre


croissant de boucles récursives partout distribuées, sur un nombre croissant
d’applications, de logiciels, d’algorithmes. Société data centrique et matière
algorithmique couplées de manière structurale (Pierre Levy).

L’ensemble des collectifs et des institutions qui vont avec sont affectés. Et si,
aujourd’hui, plus de la moitié de la population mondiale a accès à l’Internet, aux
alentours de 2025, les deux tiers seront connectés. De même, plus de 14 milliards
de périphériques sont à présents connectés à l’Internet et en 2030 ce nombre
pourrait atteindre 50 milliards. Quant aux applications, qui expriment l’incarnation
du vaste spectre des désirs, elles croissent pour l’instant de manière exponentielle.

L’irrésistible ascension des algorithmes et l’explosion quantitative-qualitative de la


production de données sont relativement violentes. Cette irruption s’exprime aussi
dans le champ d’immanence doxique à travers les débats publics et plus ou moins
complexes sur les effets des algorithmes utilisés par les grands acteurs de l’industrie
logicielle dans les secteurs de la recherche d’information, du marketing, des
gouvernances politiques associées à la gestion des populations et des territoires…
L’automatisation (pour tout ou partie) des procédures de production des données, de
leur exploitation, hante les imaginaires de l’action politique, en même temps qu’elle
permet de concevoir des dispositifs de striage des collectifs humains-non-humains
puissants. Nous savons donc aujourd’hui combien sont nouées formes de pouvoir
et « raison statistique », combien la fabrication de la valeur, de l’économie-monde,
des collectifs, des processus de subjectivation, etc., de nos modes d’existences se
réalise par la mathématisation des relations, les régimes d’interfaces, la prolifération
des applications qui les accompagnent. Dans ce cadre, le data mining se présente
comme une narration impériale, comme grand récit des sociétés performatives,
associée à la sainte et obsédante trinité « performation-prédiction-préemption » qui
caractérise les sociétés de veille et l’hégémonie marketing.
Désirs de data 179

Déjà en 1990, Gilles Deleuze écrivait dans un texte célèbre « dans les sociétés
de contrôle, au contraire, l’essentiel n’est plus une signature ni un nombre, mais
un chiffre : le chiffre est un mot de passe, tandis que les sociétés disciplinaires
sont réglées par des mots d’ordre (aussi bien du point de vue de l’intégration
que de la résistance). Le langage numérique du contrôle est fait de chiffres, qui
marquent l’accès à l’information, ou le rejet. On ne se trouve plus devant le couple
masse-individu. Les individus sont devenus des “dividuels”, et les masses, des
échantillons, des données, des marchés ou des “banques” » [Deleuze, 1990].

Cette narratique impériale (et la matière numérique – data – et algorithmique dont


elle se nourrit et qu’elle produit dans le même temps) s’actualise sous des formes
très diverses, traverse des milieux différents (plus ou moins autonomes) dont
les capacités de variation, de transformation se trouvent non seulement mises
à l’épreuve mais aussi potentiellement relancées. En effet, avec la complexité
des sémiotiques, des narrations et des langues, avec la richesse des écologies
cognitives et les risques associés de chaos, la question de la réflexivité et de la
simplexité vient au premier plan avec plus d’insistance encore que par le passé.
Cette question des interfaces (et des applications proliférantes) peut être pensée
comme fondement d’une sorte de « noo-nomadologie » faisant entrer dans une
mise en visibilité des points de vue et de leurs mouvements. Noo-nomadologie
encore des interstices et renouvellement de la notion de « zone frontière » à partir
de la dispersion-dissémination et miniaturisations des interfaces de traduction,
connexion, exploitation, etc. Les frontières productives étant celles qui aménagent
les passages et les traductions qui offrent la liberté analogique des interstices.
Les data sont donc les éléments de taille et de complexité variables qui sont à la
fois la fin et le moyen de l’activité infatiguable des cérébralités, des intelligences
collectives hybrides [Noyer, 2015].

Sémiotiques et statistiques
Nous connaissons à présent la force des liens entre la « révolution électronique »,
la gestion informatisée des « marchés » et les politiques algorithmiques qui vont
avec, et nous prenons la mesure des tensions qui se déploient entre processus de
robotisation1, devenirs entrepreuneuriaux monopolistiques et inégalités [Krugman,
2012 ; Linn et Longman, 2010], au cœur de la nouvelle révolution industrielle
promise par Chris Anderson ou mise en scène par la vision prospective, aseptisée

1 Y compris robotisation de la guerre : A. Joxe par exemple attire l’attention sur ce processus
comme forme nouvelle du devenir biotechnique militaire, processus dédié à s’abstraire, d’un certain
point de vue, de la prégnance des sols et à affronter à moindre frais et pour son propre avantage, les
asymétries anthropologiques, en particulier les différences dans le travail de la pulsion de la mort, de
sa conjuration comme de sa célébration. Bien que ce ne soit pas là la visée de cet article, la question
des devenirs polémologiques du monde est toujours présente, têtue et les pacifications promises,
(à la fois théâtres d’ombres chinoises et promesses de modes conjurant les violences), porteuses
d’inquiétantes étrangetés. On ne saurait les évacuer. Voir aussi Joxe [2012].
180 Traces numériques et territoires

et très politique de Jeremy Rifkin. Révolution industrielle fondée sur l’alliance entre
« Imprimantes 3D, découpeuses laser, logiciels et matériels open source » [Anderson,
2012] et de l’avènement de la flexibilité mondialisée. Nous percevons aussi
certains des mécanismes économiques et financiers qui perturbent les processus
d’innovation bien plus que les phénomènes de robotisation en cours. Enfin, nous
constatons simultanément (et une partie croissante des populations en éprouve les
effets) que la monétarisation numérique – et son cortège phénoménal – de data
ne cesse de venir remplir le gouffre de l’immanence y introduisant, comme dit
Schmitt, une « déformation, une convulsion, une explosion, bref un mouvement
de violence extrême » [Deleuze et Guattari, 1972]. Nous savons combien sont
fortement nouées formes de pouvoir et « raison statistique », sociologies et
statistiques assumant une sorte de fonction fabulatrice extraordinaire.

Ce qui caractérise le mode de production contemporain, ce sont donc au moins


deux choses qui ont à voir avec l’éternelle question de l’écriture. Tout d’abord,
nous l’avons déjà dit, l’irrésistible ascension des sémiotiques a-signifiantes [Guattari,
1989] et la manière dont, rentrant en rapport avec les signifiantes, elles ouvrent de
nouveaux virtuels (aux actualisations indéfinies) et la dominance de l’algorithmique
et du logiciel. On peut dire rapidement aujourd’hui que l’économie est l’algorithme,
le logiciel. Pour reprendre la formule de Gérard Berry [2008], cette domination (que
ce soit au cœur des sciences, des réseaux, des territoires, des modes de gouvernances,
de la robotique, au cœur des modes de recherche, de filtrage de données, mais encore
des morphogenèses et de la production de subjectivité) ne cesse de s’accroître.

Mathématiques, data mining sont immanents au processus de production et sont


attelés à extraire de la valeur et à faire émerger de nouvelles herméneutiques
en vue d’une performation/prédiction assurant une position stratégique en
particulier, donc, dans la production de subjectivité, dans les régimes de désir. La
mathématique (associée à l’algorithmique) est à présent embarquée d’une certaine
manière dans l’Histoire.

La danse et le flux des data viennent chercher leurs rythmes et leur modes
d’infiltration, propagation « dans » les interfaces dotées d’applications et alimentant
les multiples boucles récursives ouvrant vers l’action, la pensée. Cela n’est pas sans
accentuer les transformations du Politique.

En effet le déploiement d’un vaste ensemble de systèmes relationnels et de


cartographies dédiées résonne avec une évolution plus ou moins accentuée
du « Politique » comme expérimentation généralisée et comme domination
problématique des moyens et de la performativité des procédures sur les Fins éthiques
et politiques. Les grandes crises écologiques (sociale, mentale, environnementale)
qui sont à la traversée de transformations anthropotechniques, économiques,
cognitives, organisationnelles, militaires, etc., pour partie majeure sous les conditions
du numérique et les devenirs scientifiques et techniques associés, accentuant ces
Désirs de data 181

tendances et processus. Devenirs biopolitiques et psychopolitiques, prenant alors


des formes nouvelles, inédites. On comprend toute l’importance des efforts qui
tendent à développer une sémiopolitique des interfaces [Carmes, 2013 ; Noyer
et Carmes, 2011 ; Lazzarato, 2006] capable d’indiquer les rapports de production
nouveaux, les formes nouvelles d’asservissement (au sens machinique de ce terme)
et d’assujettissement, de leur hybridation, qui se mettent en place par et au cœur
des dispositifs informationnels communicationnels numériques, des dispositifs de
création, stockage et exploitation des data, sans parler des formes existentielles, des
temporalités et des trouées dans la texture étouffante des sociétés de veille.

Le devenir numérique
Ces noces-là sont sans fin et nourries aux flux et stocks immenses des traces
(big data) que laissent toutes nos pratiques et actions, du click le plus furtif, aux
trajectoires les plus sophistiquées où se déposent et se laissent déchiffrer les
histoires et cartographies entrelacées de nos lectures et visions, de nos rythmes et
de nos attentions, de nos prédilections pour telle ou telle substance d’expression,
etc., de nos compulsions et de nos hésitations, de nos tremblements et addictions
consuméristes, mais aussi de nos silences « par défaut », de nos absences, au sein
du labyrinthe à N dimensions de l’Internet.

Elles nous mènent encore aux architectures plus ou moins stables de ce que
nous associons et/ou de cela, de tout cela qui s’associe à nous en des graphes
tantôt grossiers, tantôt subtils, aux formes infiniment variées. Incarnations du
rêve scientifique de Gabriel Tarde [1895] et de Bruno Latour [Latour et al., 2012].

Ce mouvement qui complique nos peaux et nos géologies, nos subjectitvités,


nos manières d’être dans le jeu des pulsions et des passions, des mécanismes
producteurs de violence et de nos arts de faire la guerre (les plus archaïques et les
plus futuristes) est au coeur de nos « machines désirantes ».

Cette explosion en cours de l’Internet conduit donc vers un nouveau dialogue


entre les populations d’éléments humains et non-humains.

Les data sont fabriquées et circulent entre les applications, les capteurs, les banques
de données, applications et capteurs qui sont en quelque sorte les points de croix
proliférant et plus ou moins complexes, qui font la Texture du système relationnel à
N dimensions du monde. Cette texture se trame à partir d’une ichnologie toujours
plus extensive et intrusive. Le spectre de la traçabilité et des data associées, hantant
les nouveaux modes de travail, les nouveaux modes d’existence et les nouveaux
modes de gouvernementalité. Quels que soient les niveaux d’échelle, des intranets
aux processus de globalisation, les passages en cours de la forme de l’Etat nation
vers l’Etat marché (dans le cadre de la tentative d’établissement, à marche forcée,
d’un marché mondial), des formes classiques de la souveraineté vers des nouvelles
182 Traces numériques et territoires

formes décentralisées (ou la privatisation même des fonctions régaliennes va bon


train y compris la privatisation des machines de guerre), ces passages, donc, font de
la question logicielle une question politico-stratégique majeure.

INCARNATIONS, HETEROGENESES

Du point de vue qui nous intéresse, le « numérique » fait donc émerger à


l’évidence une nouvelle manière de « rematérialiser du social en rendant visible
les interactions » (les traduction des traces en data) pour reprendre la formule de
Bruno Latour. De même, dans la foulée, se développent des physiques sociales
qui, comme l’écrit Sandy Pentland [Pentland, 2014], décrivent « de manière
mathématique l’efficacité des connexions entre l’information et le flot d’idées
d’un côté et le comportement des gens de l’autre »2. On sait que pour Pentland
les big data associées à une algorithmique puissante doivent pouvoir permettre de
développer « une théorie causale de la structure locale ». Beaucoup d’objections
et de critiques ont été et sont faites à cette conception dont on pourrait montrer
les liens avec certaines branches du transhumanisme3.

Data cities et devenirs urbains


Accompagnant le vaste processus d’urbanisation de la planète, ce mouvement de
numérisation des villes (smart cities), des zones agricoles, d’une manière générale
des sols, mais aussi de l’atmosphère et des milieux marins, etc., engendre des
quantités massives de données numériques (qui doublent tous les deux ans).

2 Voir aussi Pentland [2012] : « I believe that the power of Big data is that it is information about
people’s behavior instead of information about their beliefs. It’s about the behavior of customers,
employees, and prospects for your new business. It’s not about the things you post on Facebook,
and it’s not about your searches on Google, which is what most people think about, and it’s not data
from internal company processes and RFIDs. This sort of Big data comes from things like location
data off of your cell phone or credit card, it’s the little data breadcrumbs that you leave behind you
as you move around in the world ».
3 Pour indiquer rapidement quelques critiques marquantes, avant de reprendre autrement les
interrogations portées par notre article sur ce point (voir dans ce même article la Partie III « Eléments
pour “un programme minima” en SHS numériques ? Contrôles et résistances : maintenir le mouvement
de la créativité »), l’article de Nicolas Carr dans la MIT Technology Review (« The Limits of Social
Engineering, Tapping into big data, researchers and planners are building mathematical models of
personal and civic behavior. (… ) But the models may hide rather than reveal the deepest sources
of social ill ») soulève un certain nombre de points importants. Il note en particulier que l’idée de
Pentland d’une « data-driven society » pose un certain nombre de problèmes. Il voit dans cette option
stratégique l’encouragement à préserver le statu quo sur la base de rapports de force anthropologique
et politique établis, sans possibilité de favoriser des alternatives et ce en contraignant les changements
et les devenirs au sein de sorte de chréodes stratégiques et politiques évolutives, ne laissant aux acteurs
désirant introduire des changements qu’un simple calcul de maximisation des devenirs à l’intérieur de
modèles stables. Tel est au passage un des dangers majeurs des « sociétés performatives », d’une vision
« constructale » des sociétés à l’œuvre encore une fois dans l’idéologie transhumaniste.
Désirs de data 183

Les nouvelles écologies urbaines (des « smart cities » aux villes sécuritaires) se
développent rapidement et posent de nombreux problèmes qui font varier les
socles anthropotechniques et politiques de nos sociétés, organisations et collectifs
de pensée, ainsi que les processus de subjectivation.

L’intensification de ce mouvement, la montée des territoires hybrides et l’extension


des « devenirs indoors » [Sloterdijk, 2006] au cœur même de ce qui s’exprime, s’érigent
par exemple en Arabie du côté de Dubaï, où (pour reprendre les termes de Mike
Davis) fusionnent Albert Speer et Walt Disney, jusqu’à ces lignes de fuites étranges
que nous chevauchons entre « anarchie des choix et Disney-fication » (William
Gibson), tout cela transforme de plus en plus profondément les « milieux » de nos
vies, nos habitats et repose sur la fabrication de data et leur exploitation. Cela affecte
nos comportements, nos perceptions et nos régimes de désir.

En d’autres zones du globe, à travers par exemple les cas présentés dans son numéro
spécial consacré aux « smart cities », Scientific American nous montre un ensemble de
facettes de la ville intelligente : réduction de ses impacts écologiques et optimisation
énergétique ; gestion intelligente des déplacements et des flux dans la ville ; création de
services renouvelant les relations des habitants à leur ville, mais aussi transformation
des relations sociales ; déploiement de capteurs nourrissant un ensemble de bases de
données indissociables d’un pilotage efficient de l’action publique…
« Truly smart cities will emerge as inhabitants and their many electronic devices are
recruited as realtimesensors of daily life. Networking the ubiquitous sensors and
linkingthem to government databases can enhance a city’s inventiveness, efficiency
and services »4. Les data y sont populations majeures.

Les manières dont ce mouvement d’urbanisation est traversé, porté par le


plissement numérique, s’expriment, s’incarnent à travers un certain nombre de
notions. Les notions, qui suivent, sont l’expression de politiques enchevêtrées et
d’actions et de gouvernances hybrides.

Il y a tout d’abord celle de cyber-cities qui met l’accent sur la question de la


gouvernance et du contrôle des territoires et des milieux en particulier en
s’appuyant sur la capture de données et la mise en place d’infrastructures
spécifiques. Cette notion porte aussi sur les questions de cybercriminalité et elle
met en jeu les problèmes de traçabilité, d’indentification, pouvant aller jusqu’au
contrôle militaire sur les villes. Pour ne citer que lui, Stephen Graham, dans son
article « When Life Itself is War: On the Urbanization of Military and Security
Doctrine », fait de manière claire le lien entre technologies de contrôle militarisées
et vie urbaine numérisée.

4 Voir Scientific American, septembre 2011, et, plus particulièrement, dans le même numéro, « The
efficient city » de Mark Fischetti.
184 Traces numériques et territoires

La notion de digital Cities, quant à elle, insiste davantage sur les modes de
représentation de la ville et leur caractère plus ou moins immersif (simulation :
avatars, second life cities, Sim city). Elle met l’accent sur les interfaces et les
nouveaux modes de connexion dans des milieux urbains ou des territoires
hybrides pour partie ou massivement numériques.

La troisième notion d’intelligent cities exprime la transformation des intelligences


de la ville : c’est-à-dire les principes d’intelligibilité de la ville et les conditions
collectives (plus ou moins) de la production des intelligences sous les conditions
des réseaux et des infrastructures, des protocoles et des agencements de citoyens.
Bref tout ce qui complique le caractère distribué des intelligences, de la cognition
distribuée pour la gouvernance (polycentrique ou pas) des villes, le crowdsourcing,
les dispositifs délibératifs et collaboratifs bottom-up, etc.

Enfin, la notion de smart cities, qui est la plus en vogue et peut-être la plus
importante, vise sous des formes variées la gestion « optimisée » et écologique
des villes, des flux énergétiques, des populations, de l’information, de la mobilité,
etc. Il y a, dans l’approche des smart cities adossée à la question de la transition
énergétique et de la maîtrise anthropotechnique et politique de nos milieux associés
urbains, une visée « constructale » problématique5. C’est en effet dans la gestion
urbaine que s’exprime, de la manière la plus avancée, l’extension généralisée de la
numérisation des sols et des bâtiments, des flux énergétiques, des mouvements
de populations. C’est donc là encore que se manifeste de la manière la plus forte
le lien politique entre big data/open data/algorithmique. Ce lien, nous ne cessons de
le vérifier, est central et problématique. Mais force est aussi de constater que le
rabattement idéologique est constant qui tente de dire les bonnes formes de ce
lien. « Villes ouvertes, villes intelligentes » ne sont souvent que des slogans ou dans
les cas les plus positifs, expressions des utopies présentes. Il n’empêche que ce
vaste champ de transformation est en expérimentation généralisée.

Ceci dit, cela ne cesse d’étre répété et attendu, les villes ne seront vraiment
intelligentes que lorsque leurs habitants, leurs interfaces et applications enfin
couplés, seront des capteurs infatiguables et « en temps réel » des activités de la
vie quotidienne. Pour cela il faut mettre en réseau les capteurs partout distribués
et omniprésents et les relier aux bases de données des divers dispositifs de
gouvernance, pour améliorer l’inventivité des villes, des mondes urbains leur
efficacité et les services. Et, accompagnant l’écologisation des territoires, « l’open

5 Trouver la forme idéale d’un système afin qu’il offre un rendement optimal, tel est le but de la
théorie constructale dont il est relativement aisé de percevoir qu’appliquée aux sociétés humaines
elle se présente plutôt comme idéologie de la maîtrise absolue, comme moment d’éradication de la
créativité comme processus et altération… Voir sur la théorie constructale et ses applications dans
le monde des ingénieurs : André Béjan, professeur d’ingénierie spécialiste de thermodynamique.
Désirs de data 185

data power »6, qui se veut nouvel horizon de la politique de la ville, participe de cette
création quasi sans limites de données et des dispositifs de traitements adéquats
convoquants open source, énergies alternatives, etc.
« The vast amount of data that is emerging is the starting point for making efficient
infrastructure programmable so that people can optimize a city’s daily processes.
Extracting information about real-time road conditions, for exemple, can reduce
traffic and improve air quality. (…) The potential for developing more of this kind
of efficient infrastructure is vast –and a good fraction can be unleashed through
smart systems. It is thus no surprise that many large corporations, such as IBM,
Cisco Systems, Siemens, Accenture, Ferrovial and ABB, are setting theirs sights on
the urban space » [Ratti et Townsend, 2011]

Peut-être serait-il temps de s’inquiéter au-delà du songe des smart-cities optimisant


notre présence au monde au plan énergétique, climatique, au plan de notre
mobilité, au plan de notre cérébralité en expansion et sous la plage démocratique
« nettoyée » des différenciations en cours, des devenirs en puissance inégaux des
réseaux locaux plus ou moins fermés/ouverts, plus ou moins arborescents, plus
ou moins acentrés, et fondés sur des procédures de négociations et des modes de
traductions plus ou moins arbitraires ; peut-être serait-il temps de s’inquiéter des
inégalités fondées par une algorithmie insomniaque et auto-légitimante.

Pour suivre de près Jean-François Lyotard, les big data participe pleinement de « la
légitimation par la puissance. [… ] cette dernière s’autolégitimant comme semble le
faire un système réglé sur l’optimisation de ses performances. Or c’est précisément
ce contrôle sur le contexte que dit fournir » l’alliance algorithmie/big data-open
data. On peut dire que la performativité d’une politique s’accroît à proportion des
informations dont elle dispose concernant son milieu associé. « Ainsi l’accroissement
de la puissance et son autolégitimation passent à présent par la production, la mise
en mémoire, l’accessibilité et l’opérationnalité » des data [Lyotard, 1979].

Tout cela allant en galère, à la grâce d’une hétéro-organisation divinement


numérique. Peut-être serait-il temps de s’inquiéter plus profondément, répétons
le, de cette alliance, répétons-le, nouée entre capture insomniaque des traces
numériques dans les villes, des traces comportementales, socio-sémantiques
spatio-temporelles et le désir de prédiction comme impératif catégorique, ainsi
que du paradigme scientifique de Jim Gray/Chris Anderson qui lui est associé
comme horizon d’un avenir radieux de la pensée… à moins que ce ne soit celui
des Hauteurs Béantes [Zinoviev, 1976 ; 1978].

6 http://datascienceseries.com/blog/download-open-data-power-smart-cities.
186 Traces numériques et territoires

Narrations pour rendre les données désirables : l’open data (OD)

L’open data du secteur public constitue un cas emblématique pout l’étude du rôle
des narrations et des mots d’ordre qui participent pour partie de la fabrication du
désir de données. D’un point de vue très général, l’open data promeut l’idée d’un
libre accès (et développe des dispositifs pour cela) à un certain nombre de données
publiques afin d’en permettre une utilisation et une exploitation sans restrictions
de droits d’auteur, de brevets ou d’autres mécanismes de contrôle. Il s’agit là d’une
définition très simple. Le développement du Web a favorisé, dès sa création, la
mise à disposition « libre » de documents hétérogènes. C’est même l’idée fondatrice
de ceux qui ont créé le réseau Internet sur la base d’un modèle spécifique de
l’activité scientifique comme mode de production, circulation « libre » des savoirs,
optimal en terme d’innovation et de créativité. On peut contester le côté irénique
et simplificateur de ce modèle, mais c’est sur cette idée générale que le projet
s’est développé. De plus, ce que l’on appelle le « Web des données » peut être vu
comme un ensemble de processus qui convergent vers un objectif commun :
la dissémination dans l’espace public et privé des données et la « réutilisation
intelligente des données indépendamment de leur contexte numérique d’origine »
[Noyer et Carmes, 2012].

Or, la tension se fait toujours plus vive entre, pour durcir la présentation, les
tenants d’une philosophie ouverte des ressources (le Web comme espace lisse)
et les tenants d’une approche propriétaire (le Web comme espace strié). Cette
manière de présenter les choses est toutefois très imparfaite, offre trop de
« facilités » conduisant à être chahuté « entre Charybe du marché pour tous de la
propriété intellectuelle et Scylla des bantoustans du communisme primitif selon
l’évangile de la nouvelle accumulation » [Moulier-Boutang, 2010].

L’ouverture des mémoires numérisées, des bases de données du domaine public,


le développement de nouvelles mémoires dans un nombre toujours croissant de
secteurs de ce domaine public, doivent cohabiter avec la production de nouveaux
types de mémoires dans le cadre de la société civile et cela ne rend pas forcément
aisée la compréhension des problèmes posés par ce mouvement qui se présente
comme une célébration de la transparence comme vertu démocratique. Cela
rend d’autant plus difficile les démarches « d’évaluation » qui tentent d’émerger en
France sur fond d’injonctions et d’obligations réglementaires7. Comment en effet
vérifier, par des voies de problématisation et méthodologiques faibles, l’atteinte
des objectifs suivants ? Développer la transparence et la démocratie ; Rendre plus
lisible l’action de la collectivité et de ses élus ; Donner du sens et faire émerger de

7 La loi du 17 juillet 1978 imposait déjà la mise à disposition des données et reconnaissait le droit
d’accès à l’information publique en France. En 2014, la commission des Finances de l’Assemblée
Nationale a décidé que les réformes en matière d’open data (accès et réutilisation des données
publiques) devront passer par un débat parlementaire.
Désirs de data 187

nouveaux savoirs ; Enrichir la connaissance du territoire ; Favoriser la réutilisation


des données par le monde de la recherche, de l’éducation, du journalisme ;
Encourager le développement de services innovants ; Développer la capacitation
citoyenne. Vaste programme qui implique plus que le comptage du nombre de
jeux de données « libérées », d’applications développées, de téléchargements ou
d’appels d’API. La plupart des indicateurs que se donnent les administrations à ce
jour ne décrivent que « l’activité » du dispositif open data et non pas les processus
transformationnels qui pourraient être liés. Après l’investissement de la transparence
(perspective dominée par l’ingénierie de diffusion) et le constat que ce seul mot
d’ordre ne suffisait pas à convaincre des services et gestionnaires de données encore
sceptiques sur les bien-fondés de la démarche, force est de constater que rendre
l’open data désirable oblige à d’autres actions et postures. Nombre de chefs de projets
le reconnaissent eux-mêmes : en France, les initiatives n’ont pas été marquées par
l’expression explicite d’un désir (des élus, des DGS ou des habitants), mais par un
principe d’expérimentation habillé d’un récit rationnel (une rationalité politique et
gestionnaire).

À notre sens, l’enjeu réside en une véritable rupture de l’économie politique des
territoires. Dans le cadre de l’affaiblissement relatif des systèmes de gouvernance
centralisée et la montée de nouveaux systèmes décentralisés ou a-centrés, la question
peut être formulée de manière grossière en ces termes : comment transformer
l’action publique par l’open data (en tous cas certaines de ses formes) et faire
advenir un « milieu pour l’action » autre que celui dominé par un constructivisme
planificateur ? Enfin, cela implique de repenser les démarches d’évaluation, de
se défaire des indicateurs d’activité hérités, et de faire preuve de réflexivité pour
pouvoir en inventer d’autres en explorant d’autres méthodes… En effet, comment
comprendre ce que l’OD fait (ou peut faire) aux territoires, au citoyen, à la relation
qu’il entretient avec les premiers, à la manière de concevoir cette relation, en
l’absence de véritables enquêtes sociotechniques, anthropologiques et politiques,
de suivi du « cycle de vie » des données, de moyens de compréhension des pratiques
hétérogènes, des réseaux longs, des agencements complexes ici impliqués.

Le marketing : des data dans la marmite des passions


Nul mieux que P. Sloterdijk n’a exprimé la position clé du marketing dans la
recherche de la métastabilité consumériste. Dans le chapitre 37, du Palais de cristal
intitulé « Mutations dans l’espace de gâterie », il insiste fortement sur le fait que :
« les choses ne passent pas sans transformation du monde de l’appartenance à celui
des options est un fait qui se reflète dans d’innombrables réflexes nerveux.
Si acheter, vendre, louer et donner en location, prendre ou accorder un crédit sont
des opérations qui concernent tous les aspects de la vie dans la Grande Installation,
il est obligatoire que l’accessibilité des choses produise, par transfert d’argent, un
188 Traces numériques et territoires

sentiment du monde qui en soit le pendant. Dans un premier temps, on connaît


une immense augmentation du nombre d’objets à notre portée – en dernier lieu, la
coïncidence entre l’espace intérieur du monde et l’espace du pouvoir d’achat devient
vraisemblable, avec des conséquences pour le statut de l’outil qui nous entoure
quotidiennement. » [Sloterdijk, 2006].
Sloterdijk de poursuivre : « on comprend à présent pourquoi les modes de vie qui
affaiblissent les appartenances et renforcent les options, dans les sphères du confort
occidental et occidentalisé, mènent à une réforme psychopolitique de la clientèle ».

Cette réforme, il convient de le noter au passage, prend des formes radicales


lorsqu’elle s’incarne dans la prétention du neuromarketing à naturaliser le
« cerveau-consumériste ». Cette prétention nous met en effet en demeure de faire
face ou plus précisément de porter la charge et le poids de la question formulée
par C. Malabou : « que faire pour que la conscience du cerveau ne coïncide pas
purement et simplement avec l’esprit du capitalisme ? » [Malabou, 2004].

Bernard Stiegler de son côté, mène une critique très radicale du marketing. Le
but (pour le marketing) est, selon lui « de prendre le pouvoir sur le psychisme de
l’individu afin de l’amener à un comportement pulsionnel. Cette captation est
évidemment destructrice. On canalise le désir vers des moyens industriels et pour
ce faire, on est obligé de court-circuiter l’énergie libidinale et tout son dispositif,
parce que l’énergie libidinale est produite dans un deuxième rang, ce n’est pas
une énergie primaire, les énergies primaires ce sont les pulsions. » [Stiegler, 2012].

C’est donc à partir de ces transformations que le marketing, le data mining et la


géolocalisation ont très rapidement passé une alliance stratégique. La traçabilité
généralisée qui les accompagne ne cessant d’alimenter la prolifération des
traces socio-sémantiques et comportementales. De plus l’avènement récent de
la précision dans l’univers de la géolocalisation offre de nouvelles possibilités
d’enrichissement et d’interprétation des traces. La différenciation des interfaces et
des applications qu’elles portent assurant les couplages structurels entre les modes
d’existences enchâssés dans les territoires. Les smartphones et autres interfaces
nomades assurant les transitions et les connexions de l’intérieur du monde comme
agencement de vastes systèmes relationnels.

L’ensemble de ces évolutions pousse à l’exploitation de ces agencements, à leur


évaluation. C’est la raison pour laquelle un grand nombre de projets sont à la
recherche de certification de la qualité des traces (des énoncés et des jugements
émis par les consommateurs) et ce afin d’offrir des services de conseil au
choix des consommateurs tant au plan des produits que des magasins et des
services au quotidien (localisation de magasin, évaluation des magasins et des
services dans un contexte de voisinage, etc.). Ces projets prennent en compte
l’irrésistible ascension de la géolocalisation (et la révolution de la précision qui est
Désirs de data 189

à l’horizon 2014) et visent aussi à alimenter progressivement des bases de données


permettant, grâce à une algorithmique adaptée et puissante, de développer une
« géo-socio-sémantique » à travers la mise en évidence d’agencements (collectifs
et ou singuliers) de qualité dans le contexte d’une politique marketing avancée
et pouvant s’inscrire dans une vision renouvelée et complexe d’une relation aux
territoires. Il est permis de voir dans ce genre d’efforts une expérimentation
grandeur nature, pouvant déboucher sur d’autres modèles de gouvernance
territoriale, modèles hybrides avec des modes de gouvernance décentralisés
et polycentriques, c’est-à-dire conçus en fonction des échelles et des systèmes
de relations entre les actants qui les habitent. Ces agencements associés à des
indicateurs sociodémographiques et économiques, voire à des données concernant
d’autres types de flux informationnels, pourraient donc fournir, à terme, des
modes d’intelligibilité et d’organisation relativement complexes des territoires, y
compris dans la dimension des subjectivités qui les constituent, et relancer, par
exemple, la question de « l’adresse » dans le contexte des territoires enchevêtrés à
partir de la territorialisation numérique. Ils pourraient aussi proposer des modes
de striage sophistiqués pour des régimes de désir pris dans les dynamiques de
la trinité évoquée précédemment « description-performation-prédiction », des
modèles pour une gouvernance semblable à celle proposée dans la nouvelle de
P.K. Dick, Minority Report [Dick, 1956 ; Berns, 2011]8.

Nous sommes là face à un processus de production et d’organisation sémiotique


sans précédent, processus en vue de la production d’addiction(s) pour la
métastabilité des collectifs consuméristes, ces collectifs devant (avec d’autres) faire
tenir l’ordre politique et religieux du monde marchand, en assurer la création
continuée, dans une sorte de finalité sans fin…

Dans ce cadre, l’agencement prédictif (et son désir) est un dispositif essentiel
et immanent au processus de métastabilité des collectifs hybrides et occupe
une place centrale au point de se vouloir « arché », maintenant son emprise sur
l’autofabrication d’humains-posthumains et de ses milieux associés.

En tant que nexus, l’individu consumériste est tissé des relations-objets qui le
traversent, des relations-objets qui convergent vers lui et/ou partent de lui, des
transactions qu’il noue. Il est donc l’expression d’une sorte d’onto-éthologie qui
est inscrite dans la strate numérique. Les interfaces, on l’a déjà indiqué, sont
donc essentielles, la question des technologies relationnelles et des applications,
décisive. Ce sont elles qui assurent les échanges entre les territoires, traduisent et
redistribuent les flux informationnels numériques, les éléments socio-sémantiques
de quelque nature que ce soit. Ce sont elles qui assurent la possibilité d’univers
existentiels plus ou moins riches et l’émergence de nouveaux modes d’existence.

8 Voir également le concept de Préemption dans le domaine stratégique [Harcourt, 2010].


190 Traces numériques et territoires

En ce sens on peut dire qu’elles sont des « embrayeurs existentiels » et le marketing


fraye sa voie de manière de plus en plus obsessionnelle pour s’assurer une position
dominante dans leur production. Des nouveaux régimes de désir sont en train
de se négocier là et la question de savoir s’il y a, ou plutôt quelles places sont
possibles pour d’autres types de régimes, est dès à présent posée, dès lors que le
marketing tend vers une position hégémonique.

Mieux connaître les consommateurs, mieux assimiler les renseignements


quant à leurs identités, comportements, goûts, achats antérieurs, etc., est donc
l’objectif central. Les algorithmes permettant d’extraire des connaissances
selon des approches bottom-up de plus en plus évoluées, de faire des graphes,
des cartographies des réseaux d’associations en quoi consiste l’onto-éthologie du
client, la nature de la relation-client, de croiser les données et les informations
disponibles plus ou moins rapidement et proposer des annonces et énoncés
pertinents, de façon à façonner et à performer désirs et subjectivités. C’est dans
ce contexte que « les sagesses des foules » [Origgi 2008 ; Surowiecki, 2004], les
intelligences collectives d’usage, les complexions passionnelles des clients et les
formes de commerce avec les objets sont devenues cibles de toutes les attentions.
Le Web représente en effet un réseau gigantesque de systèmes de hiérarchisation
et d’évaluation des informations, où l’énoncé des jugements et la réputation jouent
un rôle fondamental. Il s’agit là bien évidemment d’une source inépuisable pour
le marketing (mais pas seulement) et cela pose un certain nombre de problèmes.

La strate Internet, ses réseaux et ses interfaces de recherche, tout cela rend en
effet de plus en plus visibles l’émergence de connaissances collectives, l’émergence
d’agencements d’énoncés exprimant des jugements et leur transformation dans le
temps sous l’influence de facteurs multiples et selon leurs trajectoires à travers des
mondes culturels, économiques plus ou moins hétérogènes, selon les réseaux et
dispositifs à travers lesquels ils s’expriment et circulent, et circulant se transforment.
C’est là on le sait une des raisons qui ont très vite conduit à développer des analyses
linguistiques et statistiques permettant d’extraire de façon plus ou moins fine des
dynamiques sémantiques, des régimes sémiotiques à partir de grandes quantités
d’énoncés, de textes, de documents y compris les sons et les images.

Cette histoire est relativement bien connue et elle va de la lexicométrie aux études
infométriques, aux études dites de « data mining », « opinion mining » et « sentiment
analysis » fort prisées dans le secteur de l’e-réputation, dans le secteur de la mise
en visibilité des réseaux d’influence, de leur modalité, bref tout ce qui relève d’une
approche des narrations et des conflits qu’elles portent. Les approches et les
sources sont multiples, qui sont utilisées pour obtenir de telles connaissances : la
notation, par exemple, de produits, d’entreprises, d’organisations et de services par
des internautes ; l’évaluation de l’expertise des internautes ; la recommandation,
Désirs de data 191

la collaboration entre internautes, le crowdsourcing, qui met des humains au service


de systèmes informatiques, etc. [Abiteboul, 2012].

D’une manière générale on trouve des « opinions », des « informations » sur le


Web, sur les réseaux sociaux, les diverses formes de micro-blogging, les sites d’avis
de consommateurs, etc. Mais encore sur les sites de presse par exemple (qui
sont historiquement tournés vers les faits mais se « socialisent depuis le Web
2.0 »), les sites institutionnels et commerciaux, les portails et les sites d’études
communautaires de partage de contenus…

Pour s’en tenir aux réseaux sociaux numériques dits « relationnels » (tels que
Facebook), il convient de noter qu’ils ne constituent qu’une part de ce vaste
mouvement de transformation du « champ d’immanence de la doxa ». Au-delà de
ces réseaux de masse où se déploient, s’agrègent et convergent les communautés
à travers les narrations et transactions dont elles sont précisément l’expression et
l’exprimé, on assiste aussi à une différenciation progressive de l’espace d’expression
et à un devenir minoritaire complexe des réseaux numériques. Ce point est d’une
grande importance. De nombreux types de réseaux sociaux, rivaux, sont déjà en
place ou en train de se développer qui répondent par des approches émergentes
et ad hoc, à des besoins d’agrégation spécifiques associés à une exigence de
confidentialité non seulement plus grande dans le temps court, mais pérenne. L’on
assiste ainsi à des phénomènes de convergence et de renforcement de certains
types communautaires, renforcement se faisant sur le partage de pratiques, de
modes narratifs, de niveaux de savoirs, d’attracteurs « memetiques » spécifiques.

Mais, ce qui importe, c’est de saisir et de penser ici l’articulation et plus profondément
le couplage structurel, c’est-à-dire les rapports de codétermination des milieux
(numériques et non-numériques). Et les processus de reterritorialisation (ce qui
veut dire en fait, « complication » des territoires et des pratiques) que le marketing
promeut à travers le mouvement de géolocalisation en particulier sont de plus en
plus forts. Cela a des conséquences substantielles sur les économies politiques,
sur les économies libidinales, sur la « complexion passionnelle des individus », de
leurs affects, à la traversée du commerce des objets et des services.

Le marketing cherche donc à intervenir avec de plus en plus de force sur les
agencements moléculaires et molaires qui fondent la relation-client.

Pour cela, il ne cesse d’améliorer considérablement la description de ses écologies


(de la relation-client) pour en accroître le contrôle, ce que sont censées fournir
les « big data » numériques. Comme l’écrivait déjà J.F. Lyotard en 1979 : « la
performativité d’un énoncé, qu’il soit dénotatif ou prescriptif, s’accroît à proportion
des informations dont on dispose concernant son référent. Ainsi l’accroissement
de la puissance et son autolégitimation, passe à présent par la production, la mise
en mémoire, l’accessibilité et l’opérationnalité des informations » [Lyotard, 1979].
192 Traces numériques et territoires

De ce point de vue le data mining est devenu un nouveau « grand récit », qui tend à
structurer et à façonner le monde et en particulier les régimes de désirs, les régimes
pulsionnels nécessaires au maintien du consumérisme. A travers lui, le marketing
ne cesse de développer des techniques de profiling en vue d’alimenter la fameuse
trinité « description-prédiction-performation », jusqu’à rêver de « préempter » les
figures du désir et les devenirs des subjectivités.

Plus que jamais, la tentation de produire un contrôle continu de la réalité


consumériste et économique entre en résonnance (et sert très certainement de
terrain-dispositif expérimental politique) avec les diverses formes de psycho-
pouvoir, les stratégies du neuro-pouvoir ou encore, de manière plus radicale, ce
que certains stratèges militaires américains (dans un autre cadre) ont nommé dès
1994 la « neocortical war » [Szafranski, 1994].

Marketing et immunopolitique
C’est la raison pour laquelle le marketing se rend compte qu’il doit d’une certaine
manière creuser encore et encore l’examen des pratiques et des transactions qui se
déploient à partir des réseaux sociaux, et où : « la tendance historique aux formes de
vie individualistes dévoile sa signification immunologique : aujourd’hui […] ce sont
les individus qui en tant que vecteurs de compétences immunitaires, se séparent
de leurs corps de groupe […] et veulent massivement détacher leur bonheur et
leur malheur de l’être-en-forme de la commune politique. Nous vivons aujourd’hui
la mutation, vraisemblablement irréversible, de collectifs de sécurité politique en
groupes dotés de designs immunitaires individualistes… » [Slotedijk, 2006].

Les réseaux sociaux offrent en effet un milieu d’expérimentation extraordinaire


où se joue la bataille entre les collectifs et les commons et la montée en puissance,
avec les agrégats « de l’axiome de l’ordre immunitaire (qui) s’étend comme une
tâche d’huile dans les populations composées d’individus autocentrés, à la manière
d’une nouvelle évidence vitale : le fait qu’au bout du compte personne ne fera
à leur place ce qu’elles n’accomplissent pas pour elles-mêmes. Les nouvelles
techniques d’immunité […] les stratégies existentielles recommandées à des
“sociétés” d’individus pour lesquelles la longue marche vers la flexibilisation,
l’affaiblissement des “relations à l’objet” et la licence générale accordée à des
relations infidèles ou réversibles entre les êtres humains ont mené au “but” […]
justement prophétisé par Spengler : cet état où il est devenu impossible de décider
si l’individu est habile ou décadent… » [Slotedijk, 2006].

Et le marketing de se poser en référent, en tiers de confiance, en dispositif,


proposant de s’orienter au milieu des pulsions et des addictions en surexposant
les logiques d’usages et leur critériologies, en surexposant le champ d’immanence
Désirs de data 193

doxique et ses processus d’évaluation, ces processus imitatifs et viraux, ses


sagesses et/ou ses bêtises comme repères.

Comme le dit François Bourdoncle, « à chaque fois, c’est la logique d’usage qui
prévaut, et la même information (par exemple, un commentaire sur un blog) peut
être structurée de plusieurs manières différentes en fonction de l’usage que l’on
souhaite en faire. Et ce n’est donc clairement pas le rédacteur de l’information qui
peut avoir connaissance de tous les usages qui vont être faits de ce qu’il rédige »
[Bourdoncle, 2010].

Cela s’inscrit dans ce mouvement général décrit par P. Sloterdijk où :


« […] une forme plus légère de la subjectivité (le “soi usager”) commence à remplacer
la forme plus lourde des temps modernes (le “soi cultivé”) ».
« L’usager c’est l’agent qui n’a plus besoin de devenir un sujet formé selon les règles de
la culture parce qu’il peut s’acquitter du poids consistant à recueillir des expériences.
(La vague de décharge issue des nouveaux médias écrit Sloterdijk, se dresse contre la
pondération de l’homme cultivé). Le mot “s’acquitter” désigne ici l’effet de décharge
que les contenus homogènes, les informations, assurent à leur utilisateur dès qu’on
ne doit pas l’acquérir par une formation consommatrice de temps mais qu’on peut
l’appeler par des techniques adéquates ».

La surabondance à l’intérieur du Palais de cristal multiplie les facilités d’accès à tout


ce qui existe sous forme de marchandises.

Le travail du marketing est de prétendre (dans le contexte de l’autoconstitution


ontologique du client à partir de son commerce des objets et des services, de sa
position dans l’espace-temps numérique à N dimensions, géolocalisé, et à partir de
ses énoncés prescriptifs validés) de ces usages et des énoncés qui les accompagnent,
en fournir la cartographie valuée, en offrir une réflexivité partielle afin de relancer
sans cesse le désir consumériste et la fameuse confiance, narcotique puissant s’il
en est, de la pacification rêvée par certaines forces.

Pour les concepteurs de tels dispositifs, deux logiques s’opposent donc :


« (…) une logique normative, ou “top-down”, promue par les partisans du Web
sémantique, logique qui garantit l’interopérabilité et la facilité d’analyse, mais qui
représente également un coût de mise en œuvre important ; et un logique émergente,
ou « bottom-up », promue par les industriels (dont Google et Exalead) et les praticiens du
Web, et qui garantit un champ d’application universel (toute l’information, structurée
ou non ; tous les usages, prévus ou non) au détriment de la facilité de mise en œuvre »
[Bourdoncle, 2010].
194 Traces numériques et territoires

Graphes et temporalités

Qui peut extraire et exploiter les graphes correspondants à partir des traces
numériques (singulières et/ou collectives) sémantiques, comportementales,
géolocalisées, occupe une position de supériorité au sein des économies politiques,
libidinales, stratégiques, au sein du marketing. Extraction de valeurs et théorie des
graphes sont ici très étroitement liées.

Qui peut exploiter les régimes temporels et les parcours (les navigations plus ou
moins complexes, les procrastinations que le « clickstream » étudie) accompagnant
la décision d’achat ou de suspension de l’achat, acquiert une position dominante
dans la prédiction consumériste et dans la performation des pulsions.

Au cœur de cela se trouve l’économie de l’attention comme enjeu.


« La reproduction de nos sociétés d’abondance est en train de se recentrer autour
d’une nouvelle rareté : alors que, jusqu’ici, c’étaient les ressources matérielles qui
faisaient l’objet de la rareté étudiée par des économistes avides de nous “donner”
davantage de biens à consommer, c’est aujourd’hui le temps d’attention qui constitue
l’objet d’appropriation central, autour duquel font rage les principaux conflits
traversant nos économies (culturelles) saturées de données » [Citton, 2012].

Le développement de la géolocalisation et la reterritorialisation des données


numériques sémantiques et comportementales, données que l’on voulait nous
faire croire pouvoir être pensées hors des territoires enchevêtrés du monde (les
fameuses identités numériques suspendues dans le vide) compliquent la nature
des agencements consuméristes. Et dans le plissement numérique du monde et
à travers les interfaces et les va-et-vient qui assurent le tissage des territoires, la
géolocalisation entre en résonance, en imbrication étroite, avec les géographies
relationnelles, la géographie des trajets et des navigations, des parcours et des
errances, dans la strate Internet. Ce que l’on a appelé le « clickstream marketing » et
qui vise à faire ces cartographies est à présent couplé à des cartographies autres et
ces couplages rendent possible de nouvelles herméneutiques comme nous l’avons
vu. L’attribution d’une position géographique de plus en plus précise à un individu
ou à plusieurs, à un ou des objets impliqués dans des transactions ou relations,
affectent de manière considérable les conceptions du marketing.

Il suffit de dire pour l’instant que cet évolution se déploie selon quatre
dimensions qui articulent géolocalisation/orientation-désorientation/ navigation/
temporalités. La première reterritorialise, la seconde exprime les comportements
dans l’espace relationnel, topologique du Web, la troisième renvoie aux types de
cheminements dans l’espace numérique non-linéaire, hypertextuel plus ou moins
chaotique, et la quatrième aux rythmes d’exploration, aux rapports de vitesse et de
lenteur entre exploration et moment de la décision… C’est ainsi que se développent
Désirs de data 195

de plus en plus des ontologies géospatiales et sémantiques et ce développement


répond à la nécessité de modéliser, d’analyser et visualiser de l’information
multimodale, la seule à offrir des approches intégrées qui englobent dimensions
spatiales, temporelles et thématiques, ainsi que catégories informationnelles,
cognitives, sémantiques. De même de plus en plus d’études abordent les processus
décisionnels des consommateurs et leur comportement d’achat en ligne. Il s’agit
d’examiner comment les différents processus décisionnels utilisés en ligne par les
consommateurs influent sur la complexité de leur comportement d’achat. Tout
cela dans le but, comme nous l’avons déjà souligné, de fabriquer des modèles
prédictifs de plus en plus performants.

Data personnelles : la propriété comme processus ouvert et instable


La fixation têtue sur la question dite des données personnelles paraît dans un
premier temps fortement justifiée. Elle est même, pour certains, postulat majeur,
indépassable de ce qui reste de la réflexion politique et démocratique en milieu
numérique et performatif. Pourtant elle n’est pas assurée de sa pertinence
démocratique. En tous cas, si elle oblige à distinguer « données personnelles »,
« sphère de l’intime » et « régime de visibilité et d’invisibilité », si elle conduit à
redéfinir la labilité ou pas des zones de secret ainsi que le statut et la place des
objets cryptiques, qui en détient les clés de production et de dissémination, elle
doit être approchée de manière très pragmatique, différenciée et négociée de
manière ouverte. Du point de vue industriel cela est même une urgence. Comme
le dit François Bourdoncle [2014]
« cette loi est une loi d’exception qui date de 1978, à une époque où il n’y avait en
France que quelques dizaines de mainframes […], et, de temps en temps, une base
de données. A l’heure du “big data”, on ne peut plus continuer à fonctionner avec
ce système d’autorisations préalables à la collecte de données auprès de la CNIL
[Commission nationale de l’informatique et des libertés]. C’est préjudiciable à l’innovation et
à l’ensemble de l’écosystème du “big data” en France.
C’est pourquoi il faut une loi adaptée avec une logique de validation de la finalité
d’un processus industriel. Par exemple : une assurance a-t-elle le droit d’intégrer dans
ses calculs de prime les écarts de vitesse de son client enregistrés grâce aux capteurs
posés dans son véhicule ? »

Mais il conviendrait d’être encore plus pragmatique. C’est-à-dire de ne pas


refermer l’innovation et l’adaptation et en particulier de ne pas réduire l’innovation
anthropologique et politique. L’exemple choisi par François Bourdoncle est à cet
égard intéressant, puisqu’il porte sur les calculs des assurances, le concept de
prédiction(s) comportementale(s) et sa légitimation doxique dont il est supposé
qu’elle va de soi car doxique. Les mauvais conducteurs en acte doivent payer. On
pressent là les limites de ce genre de principe, appliqué de manière systématique.
196 Traces numériques et territoires

On peut donc supposer que « pragmatique » signifie « négociation » des logiques


de validation des processus pas seulement industriels.

Cela implique donc qu’il faille pouvoir mettre, d’un point de vue plus ambitieux,
sur le plateau du jeu de Go démocratique, les « processus d’individuation
juridiques et collectifs » aux termes toujours provisoires desquels, telle ou telle
data, tel ou tel ou tel ensemble de data occupent tel ou tel statut dans le processus
fabrication-circulation-transformation de savoirs et de valeurs. La où les data,
dans leur devenir propriétaire, étant sans cesse soumises à l’immense processus
anaphorique en quoi consiste l’artificialisation du monde, processus on ne peut
plus différencié et où les acteurs sont (d’un point de vue anthropologique et
politique) hétérogènes, profondément inégaux. Dans les sociétés performatives
la question de savoir si « les données personnelles sont une anomalie » a toute sa
force et on doit lui faire face. Il y a plusieurs moyens, plusieurs types de forces et
plusieurs types de résistances pour affronter cette question.

Parmi ces moyens, un consiste à imaginer des dispositifs de redistribution de la


production de savoirs et de connaissances et de favoriser l’appropriation étendue
des technologies de data mining : d’une manière générale, il s’agit de travailler à
une diffusion des technologies intellectuelles, à leur adoption en vue d’usages
sociocognitifs distribués et créatifs à partir de collectifs variés et hétérogènes, selon
des échelles variables elles-aussi, et ce afin que les pratiques de « data-management »,
c’est-à-dire les pratiques d’extraction de savoirs et de connaissances, se déploient
« bottom-up » au milieu des processus de création, d’adaptation et d’innovation
sociale, environnementale, etc. Cela signifiant encore que ces collectifs (de
tailles très variables) restent au plus près de la définition sociale et politique,
des processus de fabrication des empiries numériques, de ce qu’impliquent ces
processus de capture, ces modes narratifs à savoir leur extension, leur puissance
ainsi que les labyrinthes anthropologiques et politiques qu’ils ouvrent. C’est
dans ce contexte que l’on doit considérer avec une certaine attention les modes
d’obfuscation comme stratégies de résistance à la surveillance-sousveillance
généralisée [Nissenbaum, 2011 ; Guillaud, 2012]9.

Ce que nous suggérons, c’est de réfléchir et d’agir afin sinon d’enlever (ce serait
illusoire) le data mining et l’algorithmie des mains des grandes machines molaires,
scientifico-politiques (impériales ou post-impériales), des grandes machines de
capture du marketing, de la santé… au moins d’œuvrer à la multiplication et
dissémination des petites machines d’extraction des savoirs, des petites machines
de navigation et de connexion, des petites machines d’écriture-lecture. En tous
cas de produire les conditions rendant possible l’existence de contre-pouvoirs
technopolitiques de types moléculaires.

9 Sur la notion de sousveillance, voir Mann, Nolan et Wellman [2003] et Quessada [2010].
Désirs de data 197

Et/ou de faire en sorte que les grandes machines puissent s’adapter à des petits
dispositifs et s’ouvrent donc à la re-négociation de leur place et statut technopolitique,
jusqu’à aller, pourquoi pas, à produire les conditions de leur propre démantèlement ?
Ce pourrait être là une ligne stratégique pour « l’open data » sous sa forme
publique : promouvoir sous des formes économiques spécifiques la dissémination
d’applications ou d’éléments d’applications devant être exploités, combinés par les
individus ou groupes d’individus variables. Pour cela donc, concevoir des formations
plus consistantes au devenir algorithmique des sociétés. Il s’agirait de mettre en place
des processus d’utilisation les plus extensifs de dispositifs permettant de lutter contre
la concentration des moyens de production et d’extraction des savoirs, de lutter
contre le bridage des écologies cognitives, bridage qui s’effectue et se perpétue entre
autres par la non dissémination des micro-outils de data mining, de cartographies, etc.
Pour enfoncer encore le clou, ce qui doit être visé c’est ce qui fait face, contourne,
enveloppe le maintien des dispositifs qui favorisent la spécialisation du savoir,
les monopoles professionnels qui vont avec, les asymétries dans la réutilisation
des données. Et quand bien même nous arriverions à faire proliférer les boucles
récursives productrices de réflexivité pour maintenir ouverte la possibilité de contre-
pouvoirs… il conviendrait d’aller plus loin encore. Pour suivre les voies proposées
en 1972 dans l’Anti-Œdipe, ce n’est pas seulement par la dissémination de noo-
machines relativement simples et petites que doit se faire la résistance créatrice mais
au nom de l’innovation machinique elle-même au cœur de ce que certains nomment
la noopolitik (J. Arquilla-D. Ronfeldt), la noopolitique (B. Stiegler) ou la « neocortical war »
(US-Army). La question politique, stratégique, (l’interrogation démocratique pour
les puissances et acteurs immergées dans ce vaste processus), est de comprendre
en profondeur – quelle est la nature de la relation existante entre la dissémination-
dispersion des nouvelles technologies intellectuelles et la genèse au sein des formation
sociales de nouveaux rapports de puissance et de pouvoir fondés à la traversée du
plissement numérique, de dispositifs de « savoir-pouvoir » émergents associés ? Enfin
de comprendre la relation entre cette différenciation et dissémination et une capacité
d’expansion économique, stratégique, liée aux capacités renouvelées et transformées
des intelligences collectives ? Rapidement, il serait par exemple utile de mettre en
place des nouveaux « habitats sociocognitifs » pour les controverses inhérentes à tous
les devenirs portés par les collectifs, de fabriquer des conditions permettant d’être
de manière ouverte « au milieu » des narrations politiques, économiques, juridiques,
scientifiques, religieuses, sous les conditions des réseaux numériques, les réseaux
n’étant pas porteurs en eux-mêmes de libération.

Force est même de constater que d’une certaine manière, ils mettent en place de
nouvelles formes de contrôle et de rigidité qui opèrent à un niveau « anonyme,
non-humain, a-signifiant, matériel ». De plus et parce qu’il n’y a pas d’opposition
binaire entre réseaux centralisés et réseaux décentralisés, il faut comprendre
comment les réseaux fonctionnent aussi bien comme « rogue swarm » que comme
« mainframe grid » et mesurer les contraintes qui en découlent d’un point de vue
démocratique et des systèmes ouverts. Comme l’on a affaire le plus souvent à des
198 Traces numériques et territoires

hybrides plus ou moins complexes (a-centrés/centrés avec des normes partout


distribuées, des interfaces favorisant plus ou moins les boucles de récursivité
nécessaires) les difficultés sont nombreuses. La question des interfaces et des
applications logicielles qu’elles offrent, ainsi que la possibilité d’accéder (ne serait-
ce que de manière partielle) aux réserves de données et de produire de nouvelles
données et savoirs, est au coeur de la définition des agencements démocratiques
à venir.

LES HORIZONS TRANS ET POST HUMANISTES ?

Des data « all the way down » ?

Dans ces conditions comment les noces du hasard avec les devenirs, seront-elles
encore possibles ? Quelle est la force de cette immense béance qui ne cesse de
s’agrandir et de se remplir de data tout en créant les conditions de son propre
effondrement ?

Cela engage une nouvelle anthropologie et l’apprentissage de nouvelles langues,


de nouveaux pragmatiques et de nouveaux sensualismes. Dans le cadre de
l’Anthropocène et de la montée en puissance des dimensions artificialistes de plus
en plus marquées, des devenirs de nos milieux associés, ce plissement numérique
(jusqu’aux interfaces immersives) va occuper les économies politiques à venir, ainsi
que les formes de gouvernances tiraillées entre formes de contrôle centralisées
et formes de plus en plus polycentriques qui vont les accompagner. De manière
paisible ou conflictuelle.

La production des data constitue de nouvelles empiries, taillables et corvéables,


une nouvelle matière plastique à partir de laquelle il est possible d’extraire des
savoirs. Cette artificialisation du monde en cours produit un creusement intensif,
un plissement géologique fractal sophistiqué et complexe. Les data sont la matière
subtile qui nous permet d’assurer un nouvel élan à la créativité, de relancer le
mouvement de la vie comme finalité sans fin. Telle est la croyance.

Utopie concrète déjà fort avancée, cette hybridation du monde porte des
« différends » de types nouveaux, des hétérogenèses culturelles et sociales en
tension, des polémologies sociocognitives en voie de radicalisation et nos désirs
se trouvent sous des chaosmoses particulièrement fortes. Et cette addiction à
leur production-exploitation-consommation est en appui sur les procédures de
légitimation par la puissance, sur les volontés de puissance (des plus archaïques
au plus futuristes), sur la croyance à pouvoir relayer le cosmos comme immense
machine à produire des dieux.
Désirs de data 199

Autofabrication enchantée de l’humain avec son milieu. Transcendance renouvelée.


Religion appauvrie au foyer d’une explosion de l’intelligence. Singularité invoquée
depuis les années 60. Singularité biotechnique comme puissance augmentée.
Nous voulons entrer, nous sommes entrés, dans la quête et la jouissance de notre
autofondation, sorte de parthénogenèse narcotique.

Cela parle à présent barbare et créatif, primitif et stratège sur les agora de la doxa
et dans les imaginaires technoscientifiques qui portent le plissement numérique
du monde. Et les masses grouillantes de data constituent le socle qui permet de
relancer la quête pour la création de Valeur, la voie royale pour faire face à la crise
énergétique-écologique, le chemin glorieux pour une physique sociale « réellement
technoscientifique » (?) adossée à une science du marketing de plus en plus en plus
puissante. Nous savons comment le monde devint numérique et nous savons
comment l’ensemble des sciences et des arts est traversé par ses empiries et ses
algorithmes, nous savons comment nous le réfléchissons et le modélisons, le
simulons jusqu’à rêver un vaste système immersif en expansion généralisée et
en abîme, contrôlable ! « Comme l’enfant en vient à surmonter dans la duperie
du miroir l’horreur de son corps morcelé, les modèles réfléchissent selon l’idéal
prématuré du texte unifiant le désordre instantané de la production des savoirs.
Le modèle appartient à la métathéorie sécurisante d’une conjoncture » [Lacan,
1949 ; Badiou, 1968]10.

Toutes les peaux numériques que nous ajoutons redéfinissent notre milieu, ce que
nous activons et créons comme connexions, les manières dont nous continuons
à faire l’expérience de nous-mêmes en activant en particulier de nouveaux états
internes (en particulier cérébraux, perceptifs), de nouveaux états corporels.

Cela sert donc à relancer, d’un certain point de vue, la créativité. Tel est ce que
l’Anthropocène porte avec lui. Qu’est ce que cela veut dire ? Cela veut dire
principalement que l’être immersif que nous sommes doit à présent assurer la
perpétuation (la création continuée du monde) de son milieu associé, c’est-à-dire
de ce sans quoi nous n’existerions plus, mais aussi de la possibilité d’un dehors
(ou pour le moins de son imaginaire : exoplanètes s’offrant à nous dans les temps
incertains du futur).

Ce couplage système-environnement nous pouvons le prendre en charge de


diverses façons. Des technologies et des sciences souhaitent assurer la tâche qui
vient. Cette tâche est complexe, délicate. Elle navigue à vue entre deux bornes,
deux croyances. La première est de croire que seule une rationalité insomniaque et

10 Et les data d’apparaître alors comme « liquide amniotique » ou corps sans organes ou encore
matière grise soumise à la sélection de J. P. Changeux : les applications pouvant être vues comme
comme synapses ou ensembles synaptiques.( ?)
200 Traces numériques et territoires

une science toute de maîtrise héritée de l’ère précédente suffira ; l’autre de croire
que les choses iront dans le même temps selon les forces bienveillantes des dieux,
adossées elles-mêmes à une auto-organisation enchantée. Ces deux croyances se
répondant.

La question qui se pose est donc de savoir à la fois comment « nous fabriquer
un habitat » qui « assure » la vie et ses modes d’existence sous les conditions de
la finitude radicale et de la contingence radicale des choses, dans le contexte des
grandes crises écologiques (environnementale, climatologique, mentale, cognitive
et psychique, démographique et énergétique). Comment « nous fabriquer » un
habitat qui assure, encore et toujours, que nos devenirs auront un avenir, que les
processus d’altération-création ne cesseront pas de venir au devant de nous et que
du dehors et du chaos ne cesseront pas d’alimenter le mouvement de la création.
Il faut donc inventer des nouveaux modes d’existence et cette invention ne peut
prendre le risque de s’épuiser à terme ou de s’effondrer sous le poids d’un principe
de précaution omniprésent, omniscient. C’est, nous le verrons, la position qu’adopte
par exemple le « post humanisme spéculatif » et qui s’exprime de manière simple,
militante, exaltée dans la doxa et la pulsion du Manifeste des mutants11.

Manifeste des mutants et principe d’imprécaution


« Pas d’idées, pas de projets, pas d’horizon. En terme évolutif, cela signifie : pas
de mutation ni de variation, donc plus de sélection ni d’évolution. Le principe est
simple : ce qui se reproduit sans se modifier ne peut s’adapter et finit par disparaître.
La diversité, c’est la vie ; l’uniformité, c’est la mort. Vous avez envie de finir
votre existence dans la peau d’un fossile vivant en train de regarder bouche bée
un astéroïde cogner la planète bleue ? Pas nous ! Nous sommes différents. Nous
sommes les premiers mutants. Nous aimons vivre. Évoluer encore et toujours,
plus vite et plus loin. Nous voulons devenir l’origine du futur. Changer la vie, au
sens propre et non plus au sens figuré : créer des espèces nouvelles, adopter les
clones humains, sélectionner nos gamètes, sculpter le corps et l’esprit, apprivoiser
nos germes, dévorer des festins transgéniques, faire don de nos cellules-souches,
voir les infrarouges, écouter les ultrasons, sentir les phéromones, cultiver nos gènes,
remplacer nos neurones, faire l’amour dans l’espace, débattre avec des robots, tester
des états cérébraux modifiés, faire des projets avec notre cerveau reptilien, pratiquer
des clonages diversifiants vers l’infini, ajouter de nouveaux sens, vivre vingt ans ou
deux siècles, habiter la Lune, terraformer Mars, tutoyer les galaxies. »

Des espèces vivantes disparaissent, de nouvelles apparaissent.


Si nous sortons donc d’une conception du vivant trop anthropocentrique et
organique, si nous acceptons que les techniques et les « systèmes d’écritures », les

11 http://www.lesmutants.com/manifeste.htm.
Désirs de data 201

machines, à tous les niveaux d’échelles, expriment la poursuite (et sa transformation)


du vivant, la continuation du vivant par des moyens non-organiques, alors force
est de constater que des populations nouvelles, ayant leur système de reproduction
en dehors d’elles-mêmes, viennent peupler notre milieu associé.

Ces populations qui viennent à l’existence et prolifèrent relativement rapidement,


sont l’expression et l’exprimé de nouveaux couplages structurels, hommes-
machines, cerveaux-technologies et sont plus ou moins complexes. Elles sont
immanentes au processus de l’évolution et au mouvement de la créativité.

Elles affectent notre socle anthropologique ainsi que le « Virtuel » qui nous
enveloppe et nous précède. Ces populations ont pour noms, data, Algorithmes,
PucesRfid, QR codes, Interfaces, Robots, Nano-bio Machines, OGM… Elles
semblent, avec de plus en plus de force, affecter et les agencements fondamentaux
de nos écologies et les dispositions de nos savoirs. L’avertissement de Foucault
n’en résonne que plus fortement.

Aujourd’hui donc des anthropologies nouvelles sont là. Leur actualisation


s’accélère. Les processus « NBIC » 12 sont à l’œuvre. Une bifurcation
anthropologique et politique est en cours. Cette bifurcation est parfois présentée
comme une discontinuité (singularité) [Kurzweil, 2005]13.

L’alchimie des data


Le « transhumanisme » (et ses compagnons, « post humanisme », « post humanisme
spéculatifé »… ) est un courant de pensée qui tente de fournir un horizon
anthropologique et politique, économique, associé à une compréhension de
la convergence de grandes lignées technologiques et scientifiques – numérique,
post-génomique, nanotechnologie, robotique, intelligences artificielles, réseaux,
neuroscience – et à la manière dont elles s’incarnent pour partie majeure dans ce
que nous appelons les plissements numériques du monde… Il exprime, comme une
certaine science fiction et speculative fiction avant lui, que nous sommes à la traversée
des devenirs hybrides du vivant, que les narrations complexes sur la physique du
monde ou encore l’évolution biotechnique du vivant ouvrent chaque jour davantage
le Virtuel qui ne cesse de venir à notre rencontre et qu’enfin le développement atteint
par les intelligences collectives (grâce aux mémoires et technologies intellectives en
réseau et couplées à nos cerveaux) permet d’envisager un saut qualitatif du côté des
puissances de l’esprit et donc de la transformation anthropologique.

12 http://fr.wikipedia.org/wiki/Nanotechnologies,_biotechnologies,_informatique_et_sciences_
cognitives.
13 http://fr.wikipedia.org/wiki/Singularité_technologique. Les critiques de cette notion sont
nombreuses et fortes. Et le caractère relativement convenu des thèses de Science Fiction qu’’elle
véhicule est somme toute décevant.
202 Traces numériques et territoires

Ils (les transhumanistes) considèrent la nature humaine « comme un processus


en cours que nous pouvons apprendre à remodeler de manière à ce qu’il nous
convienne. L’humanité actuelle ne doit pas être le point final de l’évolution. Les
transhumanistes espérent qu’en utilisant de manière responsable la science, la
technologie et d’autres moyens rationnels, nous finirons par arriver à devenir
posthumain, c’est-à-dire des êtres dotés de capacités supérieures à celles dont
nous disposons à l’heure actuelle ».

Pour résumer grossièrement certains points majeurs du discours transhumaniste,


on peut dire que les transhumanistes considèrent que nos cerveaux humains
limitent notre capacité à découvrir des vérités philosophiques et scientifiques.
« Il est possible que l’échec de la recherche philosophique pour parvenir à
des réponses solides, [… ] à la plupart des grandes questions philosophiques
traditionnelles pourrait être dû au fait que nous ne sommes pas assez intelligents
pour faire face à ce genre d’interrogations » [Bostrom, 2005]. Ils notent aussi
qu’il sera très certainement possible d’améliorer nos défenses immunitaires grâce
aux vaccinations et l’on peut imaginer d’autres moyens pour nous protéger de
la maladie ou nous aider à façonner notre corps selon nos désirs (par exemple
en nous permettant de contrôler le taux métabolique de notre corps). Tout cela
pourrait accroître la qualité de nos vies.
« Une option plus radicale “de mise à niveau” est possible si l’on regarde l’esprit
d’un point de vue computationnel. On peut envisager alors de télécharger un esprit
humain vers un ordinateur, en reproduisant les processus de calcul détaillés qui
ont lieu dans un cerveau humain spécifique. Être “un téléchargement” aurait de
nombreux avantages potentiels, tels que la capacité de faire des copies de sauvegarde
de soi-même (un impact favorable sur l’espérance de vie) et la capacité de transmettre
des informations à la vitesse de la lumière. Ces “téléchargements” pourraient vivre
soit dans la réalité virtuelle soit directement dans la réalité physique en contrôlant un
robot médiateur ou substitut (proxy robot) ».

On sait l’usage enchanté que Kurzweil a fait de cette prédiction. On en sait la


critique radicale. Ce n’est pas le propos ici de la mener.

Du côté des modalités sensorielles, facultés spéciales et « sensibilités ».


« Les modalités sensorielles humaines actuelles ne sont pas les seules possibles, et
elles ne sont certainement pas aussi développées qu’elles pourraient l’être. Certains
animaux ont des sonars, exploitent l’orientation magnétique, ou ont des capteurs
pour l’électricité et les vibrations ; beaucoup ont un sens de l’odorat plus développé,
la vue plus performante, etc. De plus la gamme des modalités sensorielles possibles
ne se limite pas à celle que nous trouvons dans le règne animal. Il n’y a pas d’obstacle
fondamental à ajouter une capacité à voir le rayonnement infrarouge ou à percevoir les
signaux de radio et peut-être à ajouter une sorte de sens télépathique en augmentant
les capacités de nos cerveaux avec des émetteurs de radio convenablement couplés ».
Désirs de data 203

Ce ne sont là que quelques exemples des narrations et prophéties transhumanistes.


Ces narrations servent de fond utopique et de réserve énergétique pour une
entreprise comme Google qui, sur plusieurs des points abordés ici rapidement,
engage une puissance analytique considérable associée au déluge de data (en
particulier dans les domaines stratégiques de la santé, des neurosciences)1.
De ce point de vue, l’établissement de l’Anthropocène conduit d’un côté à
l’obsolescence de l’humain mais par le haut. Transfiguration magnifiée au point
de s’émanciper du monde, etc. Post-humain, homme augmenté, allégement
la durée de la vie… D’un autre côté aussi, il peut conduire à une singularité
catastrophique (presque dystopique ou disphorique dans ses prédictions). D’un
côté encore, celle du BreakThrough Institute, utopie concrète enracinée dans la
BIG science, la fracturation hydraulique, l’extension et le perfectionnement des
centrales nucléaires, les grands travaux hydrologiques, les OGM, la géo-ingénierie
molaire et monumentale servant de base à des approches moléculaires, etc., et,
de l’autre, des intelligences collectives en appui sur des dispositifs « illichiens » et
des technologies homéopathiques portant l’invention et l’innovation au cœur de
la production des formes et des subjectivités, des régimes de Désir. On sait que
Deleuze et Guattari étaient intensément optimistes sur les possibilités mutantes
ouvertes par des modes de pensée et de création assistée par ordinateur, les
potentiels portés par les capacités computationnelles en particulier pour tout ce
qui concerne l’ouverture de nouveaux univers, l’actualisation de modes perceptifs
subtils, de modes d’existence nouveaux, de nouveaux affects2.

Séjourner dans les variations qui affectent le couplage structurel « Cortex-Silex »


(B. Stiegler) nous semble préférable, en tous cas être une voie à considérer avec
attention, à celle de l’élaboration « d’un langage de traitement qui serait commun
au cerveau et à l’ordinateur ». Les nouveaux couplages entre ordinateurs et
cerveaux élargissant les possibilités pour la pensée et ce de manière relativement
imprévisibles. Ces couplages émergents participant au développement d’une
nouvelle machine abstraite.

Dans cette perspective le « post humanisme spéculatif » prend les devants. Que
dit en effet le Manifeste du post-humanisme spéculatif3 ?

1 a) Google Brain : http://en.wikipedia.org/wiki/Google_Brain.


b) Voir Regalado, A., 2014, « Google Wants to Store Your Genome. For $25 a year, Google
will keep a copy of any genome in the cloud », MIT Technology review, 06/11/2014, http://www.
technologyreview.com/news/532266/google-wants-to-store-your-genome/.
c) Voir Hernadez, D., 2014, « Microsoft Challenges Google’s Artificial Brain With ‘Project Adam’ »,
Wired, 14/07/ 2014.
2 Joseph Weissman, Acceleration, Becoming, Control, Deleuze, Machine, Nietzsche, Subjectivity, Technoscience
and Expressionism, 2014, https://fractalontology.wordpress.com/2014/07/16/technoscience-and-
expressionism/#more-2570.
3 http://hplusmagazine.com/2013/02/06/manifesto-of-speculative-posthumanism.
204 Traces numériques et territoires

« Au cours de la dernière décennie, la possibilité d’innovations dans des domaines,


tels que l’intelligence artificielle ou la biotechnologie contribuant à l’émergence d’une
forme de vie “post-humaine”, est devenue un point central du débat public et une
préoccupation forte du domaine des arts. Ces regards pluridisciplinaires reposent
sur les développements dans les technologies dites “NBIC” – nanotechnologies,
biotechnologies, technologies de l’information et science cognitive. La revendication
transhumaniste que la nature humaine doit être améliorée technologiquement est
également fondée sur l’agencement NBIC fournissant les moyens nécessaires à
son incarnation. D’un point philosophique, la discussion autour du “post-humain”
a été dominée par des préoccupations concernant l’éthique de l’amélioration ou
par les questions métaphysiques de l’incarnation et de l’esprit. Les transhumanistes
s’appuient sur les conceptions hérités des Lumières, de la nature humaine comme
“procès en cours” et en développement faisant valoir ses avantages moraux et sa
légitimité politique. De même, les critiques “bio conservatrices” du transhumanisme
continuent à utiliser les cadres traditionnels tels ceux de la théologie chrétienne
et de l’aristotélisme arguant que de tels développements peuvent violer l’intégrité
biologique des espèces ou porter atteinte aux conditions constitutives des biens
fournis par une nature peu docile. »
Le post humanisme spéculatif ne nie pas l’importance de ces débats,
« mais il affirme qu’ils sont de portée trop régionale ou limitée pour faire face au
potentiel de nouveauté ontologique portée par les technologies NBIC. S’il est
possible que notre activité technique finisse par engendrer des formes non-humaines
de vie, nous devons faire face à cette possibilité que nos descendants technologiques
seront tellement étrangers qu’ils seront hors de portée des cadres éthiques standards
utilisés par la majorité des transhumanistes et bioconservateurs. »

Il apparaît (de ce point de vue) nécessaire de se défaire de l’horizon transhumaniste,


surcodé par les vieilles lunes de la science fiction (et « anti-utopies négatives ») et
qui continue à tracer sa voie dans le sillon des économies politiques actuelles,
économies qui posent elles-mêmes la question de la création continuée de la Valeur
comme devant être dans la continuation des marchés capitalistes et des rapports de
production associés. Et cela même si d’autres économies politiques sont toutefois
en train d’émerger entre anthropologie politique héritée et anthropologie politique
nouvelle ouvrant vers des modes d’organisations a-centrés et polycentriques,
renouvelant la question des « commons » et des intelligences collectives, leurs modes
de légitimation et de différenciation. Les narrations de cet horizon transhumaniste
se déploient toutefois dans le cadre des principes des sociétés performatives et
sur les fondations vertigineuses du couple prédiction-consensus. Ainsi, fondé
en raison sur des procédés autolégitimants extrêmement puissants et énormes
producteurs-consommateurs de data, le devenir transhumaniste engendre ses
modèles concrets sans aucune limite apparente autre que la puissance de ses
algorithmes et de la « simulation spéculative » qui lui sert de cortège. Posant son
voile « NBIC » sur les peaux de la terre, des êtres et des cérébralités, il rêve, nous
Désirs de data 205

l’avons déjà exprimé, d’un creusement intensif du monde comme dispositif


immersif primordial enfin retrouvé, dispositif à l’infini des data comme matière
plastique remodelant la maîtrise de monde. Devenir de la conversion topologique
cerveau-monde ayant en vue aussi le contrôle de l’épigenèse. Ce courant de pensée
se présente donc comme une narration eschatologique dont les éléments sont
des professions de foi dans l’avenir radieux de la technologie afin de créer et
de maîtriser l’artificialisation du monde. Cette artificialisation est complexe. Soit
elle conduit à la nécessaire redéfinition de l’humain et de son milieu associé,
son dépassement (sous la forme d’une humanité augmentée, voire d’une post-
humanité), soit elle repose sur la recherche de nouveaux modes d’existence
radicalement différents, sur une innovation machinique (au sens de Deleuze-
Guattari) non fondée exclusivement sur un avenir radieux de la complication
technique et biotechnique. Mais elle peut aussi nous amener là où nous ne désirons
pas aller. Oui, l’humain pourrait devenir vraiment obsolète mais alors quelque
chose de pire pourrait lui succéder. Pour paraphraser Simon Lyes à propos de
la grande mystification… maoiste, peut-être est-il temps de regarder autrement
« les habits neufs du numérique » ? Et ce d’autant que les conditions et devenirs
actuels sont perçus selon des échelles de temps incompatibles et que les processus
d’actualisation des devenirs écologiques (les types de crises écologiques), dans
leurs asymétries mêmes, brouillent la compréhension des enjeux et la valeur des
prises que l’on peut avoir sur eux, ou que l’on annonce pouvoir avoir sur eux.
Et les Désirs de data dans les désirs humains, trop humains, s’enliseraient pour
renaître dans les Désirs de contrôle, de maîtrise, de dominer, mais encore désirs
de nouvelles servitudes. Pour suivre ici M. G. Dantec
« le post humain c’est le moment paradoxal où le capital se concentre au point de
produire un non-monde, formé de non-hommes sans souveraineté autre que la
leur et où concentré en eux sous la forme de la prothèse fétichiste néomatricielle,
il les déconcentre dans leur totalité, les transformant en vulgaires périphériques
d’eux-mêmes. Il apparaît bien comme un sophisme auto-réflexif, dérisoire clonage
réticulaire de la technologie à travers l’homme, au moment où celui-ci entreprend de
se répliquer comme une brebis de laboratoire. » [Dantec, 2001].

D’autres possibles pour les économies traversant la data-écologie ?

Bifurcation anthropologique au singulier ou bifurcations ouvertes et incertaines,


vers des modes d’existence « autres » ? Les habits neufs du monde au-delà des récits
qui sont en train de rentrer en conflit, en tensions très fortes, les interrogations
oscillent entre savoir comment conjuguer la montée d’une artificialisation
différenciée, « Big Science and Big Technology » science et technologie molaire et « Small
science-Technology », science moléculaire, science et technologies des instabilités et
des processus. Au milieu de ces oscillations, le désir de viser la coexistence de
frontières productrices d’articulations et de traductions ouvrant vers un monde
206 Traces numériques et territoires

métastable, capable de réguler, voire de bloquer, les montées aux extrêmes de la


violence, des pulsions de mort, fraye difficilement sa voie. Nous le répétons encore,
l’immense béance qui s’ouvre à travers le désir et son incarnation (NBIC) d’une
autofabrication de l’homme et de son environnement… ne cesse de s’agrandir et
en son sein les noces du hasard avec les devenirs ne cessent donc d’être entravées
sous les motifs des politiques les plus archaïques… transhumanistes [Dantec,
2011] !
Mais « le métahumain se prépare ailleurs, en secret dans une conspiration bien plus
invisible, car bien plus opérative. Il se prépare dans le processus narratique qui annexe
le futur non pas le plus “probable” mais le plus singulier, le plus dévorateur, le plus
imcompossible avec les autres » [Dantec, 2011]. Et encore : « ce post-humain Cyborg
doit donc être envisagé non pas comme “la promesse” réalisée de l’anthropogenèse
via la technologie devenue opérative, hélas ! mais comme la contre-part tragique à
l’émergence du futur. Tragi-comique serait d’ailleurs une expression plus appropriée,
car dans bien des cas nous verrons se répéter les vieilles figures usées de l’humanisme
rationnel dans un cadre pseudo-expérimental et pseudo-critique »…

C’est là raison pour laquelle le cri de Dantec doit être ici répété. Il est en écho avec
celui de Zinoviev [1976 ; 1978].
« Ce petit post-homme aux prothèses matricielles re-présentant sans cesse en
progression réticulaire sa propre non-existence devenue partie connectée d’une
“intelligence collective” auquel aucun léniniste n’aurait pu rêver, nous conduit –
si j’ose dire – dans l’ère de la kolkhozisation de l’homme. Son intimité est par sa
propre “volonté” partagée avec le Moloch démocratique formé de tous ses “frères”
qui en tous points l’imitent. En retour les biopolitiques répressives/permissives
sont reconfigurées en lui en tant qu’agent totalement libre de choisir ses propres
codifications morales dans la zone que l’hypermarchandise lui accorde. Mieux
encore, un “surplus de jouissance” au sens lacanien du terme, lui est constamment
accordé en échange de la perte définitive de territoires entiers de souveraineté-
liberté. » [Dantec, 2001].

L’horizon « trans et post-humaniste » est donc en partie (en partie seulement)


comme symptôme des désirs et incertitudes des innovations « machiniques » et
démocratiques. Les data sont prises dans les hésitations de la nouvelle machine
abstraite et une politique toujours antique du contrôle continu ne cesse de rater
cette question de « l’innovation machinique ».

Il est à noter que, de manière ironique, c’est au moment même où ce(s) courant(s)
de pensée exprime(nt) leur volonté de rupture et leur revendication de penser
autrement le devenir biotechnicopolitique, de rejeter tout ce qui entraverait le libre
exercice des facultés, qu’il(s) referme(nt) en partie la créativité quant aux modes
d’existence, et dénonce(nt) par avance tout ce qui ne rentrerait pas dans le cadre
d’intensification de la maîtrise du nouveau monde à venir, à partir des modèles
Désirs de data 207

économiques et politiques déjà là. Il(s) s’inquiète(nt) de la puissance de l’Altérité et


des devenirs, de la contingence radicale des choses, des mouvements de création-
altération et cherchent la « Maîtrise » dans l’accumulation forcenée des données
et de leurs traitements exploratoires insomniaque. Monde nouveau mais toujours
déjà là tout en n’étant pas encore là, modèle concret et spéculatif. Promesse
toujours enchassée dans les sols et les tourbières d’imaginaires en fin de compte
anciens. Utopie concrète, inquiète de la saturation de ses modèles économiques et
se laissant aller au vertige. Un peu comme jadis le communisme, déjà présent mais
toujours à venir et indépassable ! Avec en prime, l’autolégitimation qui sied aux
sociétés performatives, autofondatrices mais hantées par leur propre prédiction
(comme point aveugle ?).

Le transhumanisme fabrique un horizon de la singularité et une explosion de


l’intelligence mais laisse de côté la question politique de la co-intelligence et des
désirs. Pour suivre ici Peter Sloterdijk, « développer des techniques signifiera à
l’avenir : lire dans les partitions des intelligences incarnées, et aider leurs propres
pièces à connaître de nouvelles mises en scène » [Sloterdijk, 2000].
« Les grandes circonstances de l’homéotechnique sont des cas critiques de la co-
intelligence. On y dévoile le fait que le sujet de l’ère bivalente, l’ancien maître, est
devenu un fantôme ». Et si « les biotechniques et les nootechniques entraînent par
elles-mêmes un sujet affiné, coopératif, jouant avec lui-même, qui se donne par la
relation avec des textes complexes et des contextes surcomplexes. [… ] Dans le
monde connecté, condensé par l’inter-intelligence, les seigneurs et les violeurs n’ont
pratiquement plus de chances de succès à long terme ; alors que les coopérateurs, ceux
qui encouragent, ceux qui enrichissent, trouvent des connexions plus nombreuses
et plus adéquates ».
Mais « ce qui plaide contre une telle vision éclaircie des choses, c’est le fait, déjà
mentionné, que l’héritage de la bivalence et de la paranoïa stratégico-polémologique
continuera aussi longtemps à projeter son ombre » ; « lorsque les capitaux et les
empires s’emparent de l’information, le cours du monde se transforme de plus en
plus en une sorte de jugement divin porté par des intelligences antagonistes sur
elles-mêmes » [Slotedijk, 2000].

Quelles intelligences prendront le dessus ? Quels régimes de désir seront portés


par ces intelligences ? Quelles polémologies nouvelles y seront attachées ?

RÉFÉRENCES BIBLIOGRAPHIQUES
[Abiteboul, 2012] Abiteboul, S., « Sciences des données : de la logique du premier ordre à la Toile »,
Leçon inaugurale au Collège de France, 08/03/2012, http://www.college-de-
france.fr/site/serge-abiteboul/inaugural-lecture-2012-03-08-18h00.htm.
[Anderson, 2012] Anderson, C., 2012, Makers : la nouvelle révolution industrielle, Paris : Pearson.
208 Traces numériques et territoires

[Badiou, 1968] Badiou, A., 1968, Le concept de Modèle, Paris : Maspero.


[Berry, 2008] Berry, G., 2008, Pourquoi et comment le monde devient numérique, Paris : Fayard.
[Berns, 2011] Berns, T., 2011, « L’efficacité comme norme », Dissensus, Revue de Philosophie Politique
de l’ULg, 4, 150-163.
[Bourdoncle, 2010] Bourdoncle, F., 2010, « L’intelligence collective d’Usage », In Juanals, B.
et Noyer, J.-M. (éd.), Technologies de l’information et intelligences collectives, Cachan :
Hermès-Lavoisier.
[Bostrom, 2005] Bostrom, N., 2005, « Transhumanist Values », http://www.nickbostrom.com/
ethics/values.html.
[Bostrom, 2001] Bostrom, N., 2001, « The Future of Human Evolution », http://www.
nickbostrom.com/fut/evolution.html.
[Carmes, 2013] Carmes, M., 2013, « Territorialisations socio-numérqiues et sémio-politiques
organisationnelles », In Carmes, M. et Noyer, J.-M. (éd.), Les débats du numérique,
Paris : Presses des Mines, pp 99-136.
[Citton, 2012] Citton, Y., 2012, « Traiter des données : entre économie de l’attention et mycélium
de la signification », Multitudes, 49(2), 143-149.
[Dantec, 2001] Dantec, M. G., 2001, Le théâtre des opérations 200-2001. Laboratoire de
catastrophe générale, Paris : Gallimard.
[Deleuze et Guattari, 1972] Deleuze, G. et Guattari, F., 1972, Anti-Oedipe, Paris : Editions de
Minuit.
[Deleuze, 1990] Deleuze, G., 1990, « Post-scriptum sur les sociétés de contrôle », L’autre journal,
1, mai 1990, https://sites.google.com/site/deleuzemedia/textes/post-scriptum-
sur-les-societes-de-controle.
[Dick, 1956] Dick, P. K., 1956, The Minority Report.
[Guattari, 1989] Guattari, F., 1989, Cartographies Schizoanalytiques, Paris : Galilée.
[Guattari, 2011] Guattari, F., 2011, Lignes de fuite, Pour un autre monde de possibles, La Tour d’Aigues :
Editions de l’Aube.
[Guillaud, 2012] Guillaud, H., 2012, « La vie privée en contexte ou la vertu de la réciprocité », Le
Monde, 04/05/2012.
[Harcourt, 2010] Harcourt, B. E., 2010, Against Prediction. Profiling, Policing, and Punishing in an
Actuarial Age, Chicago : University of Chicago Press.
[Joxe, 2012] Joxe, A., 2012, Les guerres de l’Empire global, spéculations financières, guerres
robotiques, résistance démocratique, Paris : La Découverte.
[Krugman, 2012] Krugman, P., 2012, « Technology or Monopoly Power? », The New York Times,
http://krugman.blogs.nytimes.com/2012/12/09/technology-or-monopoly-
power/?_r=0.
[Kurzweil, 2005] Kurzweil, R., 2005, The Singularity is Near: When Humans Transcend Biology, New
York : Penguin.
Désirs de data 209

[Lacan, 1949] Lacan, J., 1949, « Le stade du miroir comme formateur de la fonction du Je telle
qu’elle nous est révélée dans l’expérience psychanalytique », repris in Ecrits I,
1999, Paris : Le Seuil, pp 92-99
[Latour et al., 2012] Latour, B., Jensen, P., Venturini, T., Grauwin, S. et Boullier, D., 2012, « The
Whole is Always Smaller Than Its Parts. How Digital Navigation May Modify
Social Theory », British Journal of Sociology, 63(4), 590-615.
[Lazzarato, 2006] Lazzarato, M., 2006, « Le pluralisme sémiotique et le nouveau gouvernement
des signes. Hommage à Félix Guattari », Transversal, 107, http://eipcp.net/
transversal/0107/lazzarato/fr.
[Lynn et Longman, 2010] Lynn, B. C. et Longman, Ph., 2010, « Who Broke America’s Jobs
Machine? Why creeping consolidation is crushing American livelihoods »,
Washington Monthly, http://www.washingtonmonthly.com/features/2010/1003.
lynn-longman.html.
[Lyotard, 1979] Lyotard, J.-F., 1979, La condition postmoderne, Paris : Editions de Minuit.
[Malabou, 2004] Malabou, C., 2004, Que faire de notre cerveau ?, Paris : Bayard.
[McKinsey Global Institute, 2013] McKinsey Global Institute, 2013, Open data: Unlocking
innovation and performance with liquid information, http://datascienceseries.com/blog/
download-open-data-power-smart-cities.
[Mann et al., 2003] Mann, S., Nolan, J. et Wellman, B., 2003, « Sousveillance: Inventing and Using
Wearable Computing Devices for Data Collection in Surveillance Environments »,
In Surveillance & Society, 1(3), 331-355.
[Moulier-Boutang, 2010] Moulier-Boutang, Y., 2010, « Droits de propriété intellectuelle, terra
nullius et capitalisme cognitif », Multitudes, 41(2), 66-72.
[Nissenbaum, 2011] Nissenbaum, H., 2011, « A Contextual Approach to Privacy Online »,
Dædalus, the Journal of the American Academy of Arts & Sciences, 140(4), 32-48.
[Noyer et Carmes, 2011] Noyer, J.-M. et Carmes, M., 2011, « Les interfaces machiniques comme
problème sémio-politique », In Broudoux E. et Chartron G. (éd.), Enjeux politiques
du document numérique, Paris : ADBS, pp 193-216.
[Noyer et Carmes, 2012] Noyer, J.-M. et Carmes, M., 2012, « Le mouvement “Open Data” dans
la grande transformation des intelligences collectives et face à la question des
écritures, du web sémantique et des ontologies », ISKO, http://www.grico.fr/wp-
content/uploads/2012/10/ISKOMaghreb2012_P9_NoyerCarmes-Copy.pdf.
[Noyer, 2014] Noyer, J.-M., 2014, « Encyclopédisme en éclats : réflexions sur la sortie des
“essences” », Cosmopolis. Revue de cosmopolitique, 3-4, 49-77.
[Origgi, 2008] Origgi, G., 2008, « La Sagesse en réseaux : la passion d’évaluer », La vie des idéee.fr,
http://www.laviedesidees.fr/Sagesse-en-reseaux-la-passion-d.html.
[Pentland, 2014] Pentland, A.S., 2014, Social Physics : How Good Ideas Spread, The lessons
from a New Science, New York : Penguin.
[Pentland, 2012] Pentland, A.S., 2012, « Reinventing society in the wake of Big data », http://edge.
org/conversation/reinventing-society-in-the-wake-of-big-data.
[Quessada, 2010] Quessada, D., 2010, « De la sousveillance, La surveillance globale: un nouveau
mode de gouvernementalité », Multitudes, 40, 54-59.
210 Traces numériques et territoires

[Ratti et Townsend, 2011] Ratti, C. et Townsend, A., 2011, « The social Nexus », Scientific American,
305, 42-48.
[Stiegler, 2012] Stiegler, B., 2012, « Le marketing détruit tous le outils du savoir », La bête dans la
jungle, http://labetedanslajungle.fr/le-marketing-detruit-tous-les-outils-du-savoir-
entretien-avec-bernard-stiegler.
[Sloterdijk, 2000] Sloterdijk, P., 2000, La domesticaton de l’être, Paris : Editions des Mille et une nuits.
[Sloterdijk, 2006] Sloterdijk, P., 2006, Le palais de cristal, à l’intérieur du capitalsime planétaire, Paris :
Maren Sell Editeurs.
[Surowiecki, 2004] Surowiecki, J., 2004, The Wisdom of Crowds: Why the Many Are Smarter
Than the Few and How Collective Wisdom Shapes Business, Economies,
Societies and Nations, New York : Doubleday.
[Tarde, 1895] Tarde, G., 1895, Les lois de l’imitation, http://classiques.uqac.ca/classiques/tarde_
gabriel/lois_imitation/lois_imitation_tdm.html [1re éd. 1890].
[Weissman, 2014] Weissman, J., 2014, « Acceleration, Becoming, Control, Deleuze, Machine,
Nietzsche, Subjectivity, Virtual. Technoscience and Expressionism »,
https://fractalontology.wordpress.com/2014/07/16/technoscience-and-
expressionism/#more-2570.
[Zinoviev, 1976] Zinoviev, A., 1976, Les Hauteurs béantes, Lausanne : L’Age d’Homme.
[Zinoviev, 1978] Zinoviev, A., 1978, L’Avenir radieux, Lausanne : L’Age d’Homme.
Partie 3
Les pratiques de la trace numérique
De la trace à la carte et de la carte à la trace
Pour une approche critique des nouvelles sources de fabrique cartographique

Matthieu Noucher

DÉCRYPTER LES MISES EN CARTE : LES ACQUIS DE LA CARTOGRAPHIE CRITIQUE

Les innovations technologiques et sociales réalisées depuis la Renaissance


(relevés topographiques, instruments de mesure, projections cartographiques,
imprimerie) renforcées ces dernières années par l’introduction des techniques
géomatiques (imagerie satellite, système d’information géographique, système
de positionnement GPS…) conduisent à considérer la cartographie comme un
ensemble de pratiques en progression constante. Elle ne serait alors que le produit
d’une géographie formelle, une objectivation de l’espace, de ses limites et de
ses propriétés [Hirt, 2008]. Par l’application de modèles scientifiques normalisés,
elle viserait à produire des représentations toujours plus précises de la réalité et
donc, un savoir considéré comme « neutre ». Dans cette perspective, la carte se
doit d’être une image « objective » du terrain et le cartographe peut se prévaloir
d’une indépendance vis-à-vis de son commanditaire. Ainsi, les atlas d’aujourd’hui
paraissent bien souvent surchargés et on ne trouve plus de terra incognita, comme
si désormais l’ensemble de la planète disposait d’une couverture cartographique
exhaustive et que l’enjeu était aujourd’hui dans la nécessité de faire le tri à travers
le « déluge de données » (infobésité) qui nous inondent tous les jours.

Cette vision de la cartographie est bien entendu très caricaturale et les postulats
positivistes de la carte comme représentation neutre et toujours précise du
territoire ont été largement remis en cause depuis la fin des années 70. En prenant
de la distance à l’égard des approches fonctionnalistes et en privilégiant leur
portée cognitive les sciences sociales ont permis de repenser les cartes comme
des formes de savoir socialement construit, subjectif et idéologique [Lascoumes,
2007]. Cette « rupture épistémologique » au sein de la discipline cartographique
[Crampton, 2001] a été portée par les tenants de la « cartographie critique »
dont le texte de Brian Harley de 1989 « Deconstructing the map » constitue l’un des
fondements. La déconstruction de la carte y apparaît comme nécessaire pour
identifier les jeux de pouvoir, omniprésents selon Harley. Ce dernier nous invite
alors à analyser le discours cartographique en s’inspirant de Foucault et Derrida
car les cartes peuvent être perçues et décryptées comme des textes culturels. Avec
la cartographie critique, Brian Harley a offert un « élargissement de l’horizon » [Gould
et Bailly, 1995] qui permet aujourd’hui de poser des questions sur les cartes qui
n’étaient pas considérées auparavant comme importantes.
214 Traces numériques et territoires

Deux principaux courants de recherche traversent la cartographie critique. Le


premier établit que les cartes ne constituent pas des relevés passifs d’objets
géographiques mais sont au contraire chargées de valeurs et influencées par de
multiples facteurs (classe sociale, genre, religion, ethnicité, etc.). L’intentionnalité
sociale de la carte et son caractère fondamentalement rhétorique est alors mis en
évidence : « Les étapes pour faire une carte – sélection, omission, simplification, classification,
la création de hiérarchies et la “symbolisation” – sont toutes intrinsèquement rhétoriques »
[Harley, 1989]. Le second courant, notamment à la suite des travaux de Denis
Wood [1992], relève l’impact des représentations cartographiques sur la pensée
des acteurs qui les utilisent, du fait de la performativité de ce média [Craib, 2000].
Non seulement les cartes ne sont pas neutres mais elles agissent sur le changement
social en véhiculant des catégories particulières d’analyse du monde. Ces deux
approches de la cartographie critique permettent donc de coupler l’analyse fine
de la carte et de son contexte de mobilisation pour essayer de comprendre quand,
pourquoi et par qui une carte est tout d’un coup mise sur le devant de la scène.

La « cartographie critique » a ainsi établi certains constats qui rendent compte


efficacement du rôle politique et sociétal de l’usage de la carte depuis le XVIIe
[Harley, 1988, 1989 ; Crampton, 2001]. Les historiens ont fourni une contribution
conséquente à ce champ de recherche en démontrant le lien intrinsèque entre le
pouvoir de l’État et la maîtrise des outils cartographiques, grâce auxquels citoyens et
ressources deviennent « lisibles » à ses yeux [Scott, 1998]. Ce même courant a replacé
la carte dans le contexte plus large de la pratique cartographique des institutions en
charge de celle-ci et du rôle assigné par l’Etat à la cartographie dans ses stratégies
d’affirmation territoriale et de contrôle des ressources naturelles. Les approches
institutionnelles des usages politiques de la cartographie ont par exemple porté sur
l’analyse de l’élaboration historique des cadastres en lien avec la construction de
l’Etat Moderne [Wood 1992 ; Kain et Baigent, 1992 ; Garavaglia et Gautreau, 2012],
sur le lien intrinsèque entre projets impériaux et institutions cartographiques [Craib,
2000] ou sur le rôle de la cartographie aux côtés des systèmes symboliques utilisés
par l’Etat pour maintenir sa légitimité [Anderson, 1983].

LA CARTOGRAPHIE CRITIQUE

Les acquis de la cartographie critique peinent aujourd’hui à saisir le contexte lié


aux nouveaux modes de production et de diffusion de l’information géographique.
En effet, le travail des agences nationales de cartographie – qui était le principal
pourvoyeur des objets de recherche de la cartographie critique – est transformé
et tend à se complexifier en interagissant avec de nouveaux acteurs et de
nouvelles pratiques. En une décennie le paysage de l’information géographique
a considérablement évolué. Ainsi, le 27 avril 2006, la version française de Google
Maps était mise en ligne. Depuis, on assiste sur le Web à une démultiplication des
mises en cartes de phénomènes en tout genre.
De la trace à la carte et de la carte à la trace 215

Au moins quatre évolutions majeures sont ainsi venues rebattre les cartes.
Premièrement, l’irruption de nouveaux acteurs au-delà de la sphère géomaticienne
et étatique provoque de multiples recompositions. Les multinationales de l’Internet
ont toutes, qu’il s’agisse de Google, Microsoft, Facebook ou Apple, placé les
services de cartographie et de géolocalisation et le « crowdsourcing4 » au cœur de leur
stratégie. Le modèle de la cartographie officielle est également concurrencé par les
systèmes comme OpenStreetMap, fondés sur la contribution des utilisateurs et la
mouvance du libre [Noucher et Gautreau, 2013]. Deuxièmement, la popularisation
voire l’instrumentalisation de la figuration et du référencement cartographiques
conduit à la multiplication des mises en carte et à l’émergence de référentiels
géographiques relevant de logiques différentes des productions institutionnelles
classiques [Feyt et Noucher, 2014]. Troisièmement, l’accroissement des données
produites se double d’un accroissement des capacités d’accès effectif aux données,
notamment par la diffusion de plates-formes de partage sur Internet [Gautreau
et al., 2013]. Enfin, l’intégration de la géolocalisation dans un nombre sans cesse
croissant d’objets du quotidien avec la démultiplication des capteurs conduit à une
augmentation exponentielle d’empreintes numériques individuelles qui alimentent
la personnalisation algorithmique des cartes, i.e. la contextualisation des contenus
en fonction des profils des utilisateurs [Noucher, 2014].

Ces évolutions conjuguées modifient les modalités de mises en cartes du monde et


rendent partiellement insuffisantes les propositions méthodologiques et théoriques
initiales de la cartographie critique pour les décrypter. La déconstruction de ces
cartes passe désormais par la capacité à retracer les traitements multiples qui
aboutissent à leur création en identifiant notamment la circulation des différentes
sources de données. Une entrée par les traces numériques peut alors offrir quelques
pistes d’analyse. Notion polysémique, aujourd’hui peu utilisée en géographie sa
signification ne semble pas stabilisée. Aussi nous proposons de définir les « traces
numériques », dans le contexte de la cartographie numérique, comme un ensemble
d’information, spatialisée ou non, laissée volontairement ou non par un individu
sur Internet et qui peut faire l’objet d’un traitement cartographique. Les traces
numériques apparaissent donc comme de potentielles sources pour la cartographie.

4 Néologisme proposé en 2006 par Jeff Howe et Mark Robinson, rédacteurs en chef au magazine
Wired dans un article intitulé « The rise of crowdsourcing » (la montée du crowdsourcing). Jeff Howe
y explique que les sauts technologiques et la démocratisation des outils informatiques ont réduit
les écarts entre professionnels et amateurs, ce qui permet à des entreprises comme Google ou des
structures publiques comme Wikipedia de profiter du talent/travail des internautes. Une traduction
française a été proposée : « externalisation ouverte » [Lebraty, 2009].
216 Traces numériques et territoires

DE LA TRACE À LA CARTE

Pour tenter d’approcher les contours de ces nouvelles sources de fabrique


cartographique, nous proposons une typologie. Loin d’être un cadre unificateur
et robuste, cette matrice à double entrée n’a d’autre ambition que de fournir un
guide de lecture à travers la profusion des traces numériques, issues de registres
divers, qui peuvent potentiellement alimenter l’observation des territoires.

Le premier axe vise à distinguer les contributions volontaires des contributions


involontaires. Michael Goodchild a proposé dès 2007 la notion de « Volunteered
Geographic Information » (VGI) pour évoquer l’externalisation croissante de la
production de contenus géographiques auprès de citoyens bénévoles devenus des
capteurs de leur environnement (par exemple, avec le développement de plate-
forme de publication et d’échange de photographies géoréférencées) ou de leur
propre vie (par exemple, avec le développement des outils de « mesure de soi »).
Plus récemment, plusieurs auteurs [Fisher, 2012 ; Caquard, 2014] ont détourné
cette notion pour mettre en évidence le développement de dispositifs de capture
involontaire de données géographiques à travers la notion de « inVoluntereed
Geographic Information » (iVGI) à l’image de l’exploitation des traces numériques
laissées par l’emprunt de vélos en libre-service. Notre premier axe d’analyse (Figure
1) opère donc une distinction sur le niveau d’engagement de la source des données.

Figure 1 : Premier axe d’analyse, contribution volontaire versus contribution involontaire

Le deuxième axe d’analyse permet de distinguer les cartographies individu-


centrées des cartographies issues de l’agrégation de contributions individuelles.
Par cartographie individu-centrée nous entendons l’ensemble des dispositifs
dont l’objectif est d’aboutir à une cartographie personnelle à partir des traces
De la trace à la carte et de la carte à la trace 217

individuelles recueillies. C’est le cas, par exemple, des sites qui permettent le dépôt
de traces GPS pour cartographier – sans les agréger – les parcours de contributeurs
divers (randonnées pédestres, circuits de VTT, performances artistiques avec GPS,
etc.). A l’inverse, certaines contributions individuelles ne sont pas directement
représentées sous la forme de carte mais agrégées (par des opérateurs algébriques
qui peuvent être variés). Ainsi, l’application Noise Tube qui permet d’enregistrer
(via le micro du smarthphone), de géoréférencer (via le GPS intégré) et de qualifier
(via la saisie de tags dans des formulaires préformatés) des volumes sonores
propose des cartes qui ne sont pas l’expression des relevés personnels mais une
synthèse des apports individuels mis en commun. Notre deuxième axe d’analyse
(Figure 2) permet donc de distinguer le niveau de combinaison sous-jacent aux
analyses produites sur la base des données collectées.

Figure 2 : Deuxième axe d’analyse, cartographie individu-centrée versus cartographie par agrégation de
données individuelles

Le croisement de ces deux axes d’analyse nous permet donc d’identifier quatre
situations qui « donnent à voir » la variété des fabriques cartographiques qui
s’appuient aujourd’hui sur les traces quelles soient issues d’observations et de
pratiques de citoyens-capteurs (cas n° 1), produites par des capteurs GPS (cas n° 2),
en provenance de cyber-traces (cas n° 3) ou encore extrapolées à partir d’empreintes
numériques (cas n° 4).
218 Traces numériques et territoires

TRACES VOLONTAIRES TRACES INVOLONTAIRES


Cas n° 1 : RunKeeper Cas n° 3 : Google Maps
http://runkeeper.com http://www.google.fr/maps

Outil permettant, à partir d’un Service gratuit de cartographie en ligne


smartphone, de récolter des données sur proposée par la société Google qui
soi pour mesurer ses activités physiques permet, à partir de l’échelle d’un pays, de
quotidiennes. zoomer jusqu’à l’échelle d’une rue.

+ 22 milllions d’inscrits + 200 pays cartographiés


+ 1,5 milliards de km « trackés » + 50 pays couverts par Street View
Cartographie + 50 % des activités liées au jooging + 1 milliards d’utilisateurs mensuels
individu-centrée Source : RunKeeper, 2013 Source : Google LatLong

A partir de capteurs d’activités, le citoyen- Depuis mi-2013, Google Maps intègre la


capteur se « met en chiffres » et produit personnalisation algorithmique. Les cartes
ainsi volontairement des tableaux de sont ainsi personnalisées en fonction des
bord et cartes personnelles qui illustrent cyber-traces qui permettent de profiler
ses pratiques spatiales. Cette application l’utilisateur (historique des recherches,
s’inscrit dans la mouvance du « quantified localisation de l’adresse IP, contenu de
self » ou mesure de soi. la messagerie Gmail et du réseau social
Google+, etc.).
Cas n° 2 : Faune Aquitaine Cas n° 4 : Ville vivante
http://www.faune-aquitaine.org/ http://www.villevivante.ch

Portail collaboratif permettant la saisie Plate-forme de visualisation des données


d’observation sur la biodiversité régionale des téléphones portable pour analyser les
géré par la LPO Aquitaine. flux de population connectée au quotidien
à Genève.
+ 2,25 millions d’observations recensées
Cartographie + 1 000 enregistrements par jour + 15 millions de connexions exploitables
par agregation + 1 800 contributeurs actifs au réseau Swisscom par jour à Genève
de données Source : Liger et al., 2013 + 2 millions d’appels par jour à Genève
individuelles Source : Ville de Genève
Les atlas de faune sont produits par la LPO
à partir des observations déposées par les Les empreintes numériques laissées par
naturalistes amateur. Les observations sont les téléphones portables sont géolocalisées
saisies à partir d’un formulaire en ligne grâce au GPS intégré aux smartphones, à
ou d’une application smartphone (traces partir des connexions à des réseaux wifi ou
GPS). Une chaîne de traitement permet par triangulation des antennes relais. Elles
leur agrégation et leur cartographie par sont rendues anonymes et agrégées pour
maille. créer des cartes de flux animés.

RÉINTERROGER L’INTENTIONNALITÉ CARTOGRAPHIQUE

Malgré la diversité des dispositifs techniques mis en évidence par la typologie


précédente, un invariant inédit apparait dès lors qu’il s’agit d’analyser la place
des traces numériques dans la production cartographique : l’intentionnalité
cartographique est toujours déconnectée de la source qui fournit les traces
De la trace à la carte et de la carte à la trace 219

numériques. Que ces dernières donnent lieu à une production cartographique


individu-centrée ou qu’elles soient le fruit d’une agrégation de données individuelles,
les actions qui ont conduit au dépôt de traces numériques ne sont jamais engagées
avec comme but premier d’être « mises en carte ». Les cartes produites à partir de
traces involontaires dérivent de cyber-traces (cas de Google Maps) ou d’empreintes
numériques (cas de la Ville Vivante) qui n’ont aucun fondement cartographique.
De même, les traces volontaires ne s’inscrivent pas dans un contexte de production
cartographique explicite : les applications de mesure de soi comme Run Keeper
servent à produire des statistiques d’activités physiques personnelles et les
relevés de faune permettent aux naturalistes amateurs de peupler leurs carnets
d’observation dématérialisés. La production cartographique est donc, dans tous
les cas, à l’initiative d’une tierce personne (ou organisation). Par conséquent, la
question de l’intentionnalité cartographique semble devoir être reposée. Selon
la cartographie critique, la carte relève nécessairement d’une intentionnalité et,
à ce titre, elle exprime toujours une sélection délibérée de données et d’options
graphiques visant un objectif particulier. L’intention, comme ce vers quoi tend
toute action créatrice, est ainsi à la base de la conception cartographique. Mais
dès lors que s’opère une déconnexion entre la source des données (celui qui
laisse volontairement ou non les traces) et l’auteur de la carte (celui qui met en
carte les traces), il devient plus délicat d’identifier l’intention et l’intérêt, d’origine
économique, politique, idéologique, voire même scientifique, qui vont orienter le
dépôt des informations puis leur présentation cartographique. Celui qui produit
la donnée n’a pas nécessairement la volonté que celle-ci soit formalisée par une
carte. L’analyse des sources cartographiques ne suffit donc plus à remonter le fil
de l’intentionnalité cartographique.

La logique cartographique conventionnelle a longtemps privilégié la carte comme


instrument de « mise en visibilité » de son territoire par un Etat qui maîtrisait toutes
les étapes de la conception cartographique. Désormais, les nouvelles formes de
fabrique cartographique changent ce qui est rendu « visible » et la façon dont cette
« mise en visibilité » s’opère. La cartographie numérique, par la prise en compte
des traces numériques individuelles qui se démultiplient, participe au déplacement
de la frontière entre le visible et l’invisible, et ainsi au conditionnement du partage
entre ce qui devient ou non une vue partagée. Ainsi, alors que les productions
cartographiques conventionnelles relèvent d’une intentionnalité institutionnelle
où la carte sert à l’Etat à rendre visible son territoire, les nouvelles productions
cartographiques issues des traces numériques semblent désormais pouvoir
relever d’une intentionnalité commerciale où la carte sert avant tout à rendre
visible un espace personnel en mettant en exergue son potentiel commercial.
Mais elles peuvent aussi relever d’une intentionnalité citoyenne où la carte sert
avant tout à partager un savoir considéré comme un bien commun ou encore
d’une intentionnalité plus égocentrique où la carte sert à mettre en scène ses
activités personnelles. La démultiplication des sources, la malléabilité des données,
220 Traces numériques et territoires

l’expansion des usages et la dispersion des acteurs potentiellement impliqués dans


les différentes étapes de la mise en carte rendent toute tentative de décryptage de
l’intentionnalité cartographique particulièrement périlleuse.

Dès lors, il devient nécessaire de prolonger la cartographie critique pour envisager


une contextualisation de la fabrique cartographique qui permette de tisser les
liens multiples entre les auteurs de la carte, leurs sources, les différentes étapes
de ramification des données, la carte elle-même et le territoire auquel elle réfère.
Ce prolongement des travaux d’Harvey et Wood – qui jusque là étaient très
centrés sur l’objet carte – implique de prendre en considération la temporalité
« interne » de la réalisation de l’objet cartographique [Besse, 2006]. Cela implique
de distinguer et d’analyser précisément les multiples « braconnages » [de Certeau,
1980] des données mobilisées dans l’élaboration de la carte. Il devient alors
nécessaire d’élargir le concept de carte lui-même dans la mesure où la malléabilité
des données numériques rend leur statut mouvant ; or, ce sont bien les différents
états, objectifs, usages et enjeux de ces « cartes en train de se faire » qu’il
convient aujourd’hui d’analyser. L’élargissement du champ d’investigation de la
cartographie critique (de la carte à la fabrique cartographique) passe donc aussi
par le décryptage des traces numériques.w

Dépassant l’illusoire évidence de la « trace », plusieurs chercheurs issus de disciplines


différentes (anthropologie, sociologie, géographie, sciences de l’information et de
la communication, etc.) ont récemment fait émerger l’absolue nécessité de mettre
en rapport le contexte de production de la trace, celui de sa réception et de son
interprétation [Galinon-Mélénec, 2011]. Dans le même ouvrage, Steck [Steck,
2011] distingue alors la trace-flux – qui serait mouvement sur le territoire – de la
trace-marque – qui serait cristallisation du mouvement sur la carte. Proposer cette
différenciation entre la trace-flux et la trace-marque ne vise pas à les opposer mais
plutôt à rendre visible les processus de fabrique cartographique qui conditionnent
leur mise en relation. Il s’agit alors de disséquer le passage de l’une à l’autre. Ainsi,
analyser la façon dont les traces sont produites et mobilisées comme nouvelle
source de la cartographie revient à travailler le processus de mise en carte (map
making) plus que l’objet carte (map).

« FAIRE TRACE » À TRAVERS LES « ESPACES DE CARTE »

Les perspectives de recherche en cartographie critique sont liées aujourd’hui aux


mutations technologiques et aux changements d’usages observés depuis moins
de 10 ans et qui accompagnent l’évolution de la cartographie. L’un des enjeux
majeurs est d’interroger les processus actuels de mise en carte pour illustrer la
complexification du paysage cartographique et engager ainsi une réflexion sur la
De la trace à la carte et de la carte à la trace 221

gouvernance informationnelle des territoires. L’émergence des traces numériques


participe de cette complexification et des recompositions en cours.

L’information géographique volontaire ou involontaire, individuelle ou collective


pose des questions éthiques, politiques, méthodologiques dès lors qu’il s’agit de la
mobiliser pour l’observation territoriale. La technicité et l’opacité de ces données
rendent nécessaires le développement d’approches critiques des nouveaux
registres de fabrique cartographique. Comprendre la fabrique cartographique c’est
remonter dans la généalogie des données, de la carte à la trace.

Un renouvellement partiel des cadres méthodologiques de la cartographie


critique doit donc permettre d’approfondir la description des nouvelles manières
de faire des cartes, des étapes de leur fabrication et des rapports de pouvoir
qui accompagnent cette fabrication aussi bien dans la conception que dans les
usages. Il s’avère en effet nécessaire de dépasser les approches traditionnelles de
la cartographie critique, souvent plus attachées à l’objet carte lui-même qu’aux
processus dans lesquels celle-ci est impliquée. Prendre au sérieux les traces
numériques comme nouvelles sources de production cartographique revient à
considérer les traces numériques comme des construits communicationnels dont
la genèse doit être interrogée. Plus que la trace ou que la carte c’est le « faire
trace » [Jeanneret, 2011] et les « espaces de cartes » [del Casino et Hanna, 2006]
générés par les myriades d’interconnexions d’empreintes numériques qui doivent
être étudiées comme des processus simultanés d’écrire et de lecture des territoires.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 1983] Anderson, B., 1983, Imagined Communities: Reflections on the Origin and
Spread of Nationalism, London and New York : Verso.
[Besse, 2006] Besse, J.-M., 2006, « Cartographie et pensée visuelle: réflexions sur la
schématisation graphique », exposé présenté lors de la journée d’étude « La
carte, outil de l’expertise aux XVIIIe et XIXe siècle ».
[Caquard, 2013] Caquard, S., 2013, « Collective cartographies in the social media era », Progress
in Human Geography, 38(1), 141-150.
[Craib, 2000] Craib, R., 2000, « Cartography And Power In The Conquest And Creation Of
New Spain », Latin American Research Review, 35(1), 7-36.
[Crampton, 2001] Crampton, J., 2001, « Maps as social constructions: power, communication
and visualization », Progress in Human Geography, 25(2), 235-252.
[de Certeau, 1990] de Certeau, M., 1990, L’Invention du quotidien, 1. Arts de faire, Paris : Gallimard
[1re éd. 1980].
[del Casino et Hanna, 2006] del Casino, V. J. et Hanna, S. P., 2006, « Beyond The “Binaries”:
A Methodological Intervention for Interrogating Maps as Representational
Practices », ACME : An International E-Journal for Critical Geographies, 4(1), 34-56.
222 Traces numériques et territoires

[Feyt et Noucher, 2014] Feyt, G. et Noucher, M., 2014, « La gouvernance informationnelle,


outil et enjeu stratégiques des recompositions territoriales : vers l’émergence de
nouveaux référentiels géographiques ? », In Proceedings du 2e colloque international
du CIST, pp 191-196.
[Fischer, 2012] Fischer, F., 2012, « VGI as big data: A new but delicate geo-graphic data-
source », GeoInformatics, april/may, 46-47.
[Galinon-Mélénec, 2011] Galinon-Mélénec, B., 2011, L’Homme trace. Perspectives anthropologiques
des traces contemporaines, Paris : CNRS Editions.
[Garavaglia et Gautreau, 2012] Garavaglia, J. C. et Gautreau, P. (éd.), 2012, Mensurar la tierra,
controlar el territorio. América Latina, siglos XVIII-XIX, Rosario : Protohistoria
Ediciones.
[Gautreau et al., 2013] Gautreau, P., Severo, M., Giraud, T. et Noucher, M., 2013, « Formes
et fonctions de la “donnée” dans les Webs environnementaux sud-américains
(Argentine, Bolivie, Brésil) », NETCOM, Network and communication studies, 27(1-
2), 22-59.
[Goodchild, 2007] Goodchild, M., 2007, « Citizens as sensors: Web 2.0 and the volunteering
of geographic information », GeoFocus, 7, 1-10.
[Gould et Bailly, 1995] Gould, P. et Bailly, A., 1995, « Brian Harley et l’élargissement de l’histoire
de la cartographie », In Gould, P. et Bailly, A. (éd.), Le pouvoir des cartes. Brian
Harley et la cartographie, Paris : Editions Anthropos, pp 1-10.
[Harley, 1988] Harley, B., 1988, « Maps, knowledge and power », In Cosgrove, D. et Daniels, S.
(éd.), The Iconography of Landscape, Cambridge : University of Cambridge Press,
pp 277-312.
[Harley, 1989] Harley, B., 1989, « Deconstructing the map », Cartographica, 26, 1-20.
[Hirt, 2008] Hirt, I., 2008, « Redistribuer les cartes : approche postcoloniale d’un processus de
cartographie participative en territoire Mapuche (Chili) », thèse de doctorat en
géographie humaine, Genève : Université de Genève.
[Jeanneret, 2011] Jeanneret, Y., 2011, « Complexité de la notion de trace. De la traque au tracé »,
In Galinon-Mélénec, B. (éd.), L’Homme trace. Perspectives anthropologiques des traces
contemporaines, Paris : CNRS Editions.
[Kain et Baigent, 1992] Kain, R. J. P. et Baigent, E., 1992, The Cadastral Map in the Service of the
State. A History of Property Mapping, Chicago : Chicago University Press.
[Lascoumes, 2007] Lascoumes, P., 2007, « Gouverner par les cartes », Genèses, 68, 2-3.
[Lebraty 2009] Lebraty, J.-F., 2009, « Externalisation ouverte et pérennité », Revue française de
gestion, 192(2), 151-165.
[Liger et al., 2013] Liger, J., Couzy, L. et Filippi-Codaccioni, O., 2013, « Faune-Aquitaine : portail
collaboratif sur la biodiversité régionale », Netcom : network & communication
studies, 27(1/2), 224-231.
[Noucher et Gautreau, 2013] Noucher, M. et Gautreau, P., 2013, « Le libre-accès rebat-il les
cartes ? De nouvelles perspectives pour les données géographiques », Les Cahiers
du Numérique, 9(1), 57-83.
De la trace à la carte et de la carte à la trace 223

[Noucher, 2014] Noucher, M., 2014, « Du capital spatial au capital social des cartes participatives.
Pour un droit à la décontextualisation cartographique », EspacesTemps.net, http://
www.espacestemps.net/articles/pour-un-droit-a-le-de-contextualisation-
cartographique.
[Scott, 1998] Scott, J., 1998, Seeing Like a State: How Certain Schemes to Improve the Human
Condition Have Failed, New Haven, CO : Yale University Press.
[Steck, 2011] Steck, B., 2011, « Flux et territoires : de la trace à la marque, une question de
distance », In Galinon-Melenec, B. (éd.), L’Homme trace. Perspectives anthropologiques
des traces contemporaines, Paris : CNRS Editions, pp 249-270.
[Wood, 1992] Wood, D., 1992, The power of maps, New York : Guilford Press.
Dimensions spatiales de l’actualité internationale
La représentation des individus dans le New York Times

Laurent Beauguitte, Marta Severo

INTRODUCTION

Les actualités produites par les médias sont de plus en plus utilisées dans la
recherche universitaire comme des données permettant l’étude de phénomènes
sociaux divers. Leur étude permet ainsi de détecter et de modéliser des
phénomènes aussi variés que les mouvements sociaux, les « images-pays » (la façon
dont un espace donné est représenté et les thématiques qui lui sont associées)
ou les catastrophes naturelles. Ces dernières décennies, plusieurs chercheurs ont
également travaillé sur la définition et l’identification des événements médiatiques
[Dayan et Katz, 1992 ; McCombs et Shaw, 1972]. La prise en compte de la
dimension spatiale concernant la fabrication de l’actualité internationale a été au
cœur de plusieurs travaux théoriques et empiriques majeurs [Galtung et Ruge,
1965 ; Koopmaas et Vliegenthart, 2011], la question essentielle concernant la
recherche des mécanismes permettant d’expliquer le niveau d’attention médiatique
à des événements donnés. La transformation d’un fait en actualité, c’est-à-dire le
passage d’une situation se déroulant dans le monde à sa mention dans un ou
plusieurs médias d’information, dépend de facteurs liés tant à la distance qu’aux
conditions de production et de consommation de l’actualité, et ceci est encore
plus net pour l’actualité internationale [AFP, 2010].

L’un des principaux verrous à lever pour systématiser de telles recherches


concerne l’accès aux données, les bases de données médiatiques existantes
étant souvent privées et d’accès onéreux (DowJones Factiva). Outre leur coût
financier, l’utilisation de ces bases pose plusieurs problèmes méthodologiques
importants. Ces dernières années, grâce au développement rapide du Web 2.0,
la consommation d’information en ligne a changé radicalement et les principaux
médias d’information ont mis en place des dispositifs visant à attirer et fidéliser
le lecteur internaute (flux RSS notamment) en fournissant une information
gratuite et actualisée en temps réel. Notre hypothèse est que l’étude des actualités
contenues dans les flux RSS des journaux en ligne permet simultanément d’étudier
la dimension spatiale de l’événement médiatique tout en levant les problèmes
méthodologiques liés à l’utilisation des bases de données privées.

Cet article est organisé en deux parties. La première partie détaille les problèmes
soulevés par les bases de données médiatiques traditionnelles et les avantages
potentiels de l’utilisation des flux RSS, hypothèse actuellement testée dans le cadre
226 Traces numériques et territoires

du projet ANR Corpus Géomédia (2013-2016). Au sein de ce projet associant


géographes, spécialistes des médias et informaticiens, nous avons construit une
base de données stockant les flux RSS concernant l’actualité internationale d’une
centaine de quotidiens d’information à travers le monde1. Deux types de recherche
sont actuellement menés : l’analyse de la structure géographique de l’actualité
internationale et la recherche d’événements médiatiques internationaux – seul le
premier aspect sera développé ici. Nous présentons brièvement la méthodologie
utilisée pour bâtir ce corpus ainsi que ses principales caractéristiques.

Dans la deuxième partie de cet article, un cas d’étude nous sert à valider l’intérêt
d’utiliser dans des études spatiales les flux RSS émis par les sites d’informations.
Centrée sur la place et l’espace – les espaces – des individus, notre étude montre
qu’une analyse qualitative et quantitative de ces flux permet de saisir en partie les
logiques sous-jacentes relatives à la production et à la diffusion de l’information. Les
logiques de personnalisation de l’information destinées à favoriser l’identification
du lectorat sont mises en évidence à travers le cas de l’actualité internationale du
New York Times. Cette analyse s’intéresse en particulier à deux types d’individus
identifiables dans les flux RSS : les stars mondiales et les anonymes.

ENJEUX DU PROJET ANR CORPUS GÉOMÉDIA

Les bases de données médiatiques commerciales

Sans prétendre à l’exhaustivité, il est nécessaire de rappeler en premier lieu que les
études médiatiques ont une longue histoire et que de nombreuses pistes de recherche
ont été explorées ces dernières décennies. La recherche sur la valeur d’actualité d’un
fait – news value – [Galtung et Ruge, 1965], les travaux relatifs à la mise à l’agenda –
agenda setting – [McCombs et Shaw, 1972] ou encore les recherches sur l’événement
médiatique [Dayan et Katz, 1992] ont ainsi de manière complémentaire permis
d’éclairer les logiques médiatiques relatives à l’actualité internationale. Des travaux
empiriques se sont notamment intéressés aux mouvements sociaux [Herkenrath
et Knoll, 2011 ; Giraud et Severo, 2013], aux catastrophes naturelles [Koopmaas
et Vliegenthart, 2011] ou à l’image d’un espace donné [Robinet, 2013 ; Chaudhary,
2001], montrant une attention médiatique sensible à la localisation des différents
producteurs et diffuseurs d’information [Brooker-Gross, 1983]. Interroger les
interactions entre les aspects spatiaux, temporels et thématiques des faits devenus
événements médiatiques apparaît comme l’une des pistes prometteuses ouvertes
par des travaux récents [Koopmaas et Vliegenthart, 2011].

1 Nous considérons des journaux en français, anglais, espagnol et portugais.


Dimensions spatiales de l’actualité internationale 227

Ces études sont généralement basées sur l’analyse des médias traditionnels tels
que la presse et la télévision2. Comme on le sait [Earl et al., 2004], l’utilisation de
la presse pour l’étude de différents objets de recherche (par exemple le territoire)
peut soulever des critiques relatives à la collecte des données, à leur sélection et à
la description du contenu des articles [McCarthy et McPhail, 1996]. Cependant,
en accord avec Earl et al. [2004], nous estimons que les données de la presse,
en dépit de leurs limites, peuvent permettre d’étudier certains aspects que les
chercheurs ne pourraient guère approcher avec d’autres méthodes. Il est possible
de distinguer deux grands types d’études : des études de nature qualitative qui
ciblent le traitement réalisé par un média précis sur un événement donné ; des
études de nature quantitative qui cherchent à repérer des structures récurrentes
en prenant un corpus large dans le temps et/ou l’espace [Wu, 2000]. Chacune des
ces approches présente ses avantages et ses inconvénients.

Les études qualitatives approfondies supposent généralement l’examen manuel


d’un corpus médiatique donné (le plus souvent, un ensemble d’articles de presse).
Ces analyses sont longues et coûteuses à mettre en place et sont donc généralement
appliquées à des corpus d’ampleur limitée dans le temps et l’espace (un État,
un événement et une période limitée). De plus, le recours au codage manuel,
méthode la plus courante dans ce type d’études, implique nécessairement une
part de subjectivité de la part du chercheur : déterminer par exemple si tel ou tel
article donne une image positive ou négative d’un espace donné peut être délicat
dans la mesure où il est rare qu’un article ne souligne que des aspects positifs ou
négatifs. Inversement, les analyses quantitatives portant sur un large échantillon
et cherchant à prendre en compte une plus grande étendue chronologique et
géographique s’appuient le plus souvent sur des données obtenues via les bases de
données commerciales telles que Dow Jones Factiva, LexisNexis ou Europresse.

L’utilisation de ces bases de données est non seulement coûteuse, mais elle soulève
aussi plusieurs problèmes méthodologiques et techniques. L’extraction des
données est généralement limitée (le plus souvent, impossibilité d’extraire plus de
100 items simultanément), que ce soit pour des raisons commerciales ou de droits
d’auteur, et la création de bases de données conséquentes est donc chronophage.
Au niveau méthodologique, ces bases de données sont peu transparentes en
ce qui concerne la variabilité de leur contenu ; des titres apparaissent, d’autres
disparaissent et la stabilité du corpus constitué n’est que trop rarement assurée.
Si elles permettent en théorie d’étudier de manière longitudinale de vastes corpus,
cette possibilité est plus apparente que réelle. Enfin, le problème du partage des
données est essentiel : il n’est pas possible avec ce type de fournisseurs de données
de s’inscrire dans des démarches d’open data et de recherche reproductible. Toutes
ces limites nous ont conduit à explorer une piste alternative, celle des flux RSS.

2 Nous nous limitons ici aux études portant sur la presse écrite.
228 Traces numériques et territoires

Les flux RSS comme piste alternative ?

Nous proposons d’utiliser un autre type de données qui semble plus adapté à
des études de l’actualité internationale. Nous testons l’intérêt d’utiliser les flux
RSS fournis par les quotidiens d’information. Les fils RSS sont des fichiers
XML régulièrement mis à jour sur un site Internet et donnant une information
synthétique sur la mise en ligne d’un nouveau contenu ou l’actualisation d’un
contenu déjà présent. Un flux RSS est constitué de plusieurs items, chacun étant
construit selon certains standards techniques (RSS 1.0, RSS 2.0 et Atom) et
comprenant une série de champs obligatoires (date, titre, description, hyperlien).
En ce qui concerne les quotidiens d’information, chaque item correspond à un
article et contient un titre, qui coïncide généralement avec le titre de l’article, une
description, qui correspond soit à un résumé du contenu soit aux premières lignes
de l’article, et un lien vers l’article en question. La description est généralement très
courte et ne dépasse pas deux ou trois lignes. De façon plus rare, des métadonnées
autres peuvent être présentes (mots-clés, nom de l’auteur de l’article par exemple).

Les flux RSS présentent trois avantages majeurs : ils sont librement accessibles
et peuvent donc être archivés et documentés ; leur structure est d’une grande
homogénéité, ce qui les rend comparables et facilitent donc la constitution de
grands corpus ; ils sont produits en temps réel et permettent des analyses fines de
la diffusion d’une information dans l’espace médiatique international. Pourtant, les
flux RSS restent simultanément peu étudiés dans leur dimension technique et très
sous exploités dans leur dimension thématique [Thewall et Prabowo, 2007]. Les
rares études produites à ce jour s’intéressent quasi exclusivement aux dimensions
techniques du flux RSS [Hmedeh et al., 2011] et concernent notamment l’utilisation
de différentes spécifications [Hammond et al., 2004 ; Hammersley 2005]. Une
recherche intensive nous a permis de repérer une poignée d’exceptions, ainsi des
études portant sur l’utilisation des flux RSS dans le domaine de l’éducation [Duffy
et Bruns, 2006] et de l’édition scientifique [Hammond et al., 2004]. Plus récemment,
la valeur informationnelle des flux RSS a été étudiée, Marty et al. [2009, 2010, 2012]
se sont notamment intéressés à la pluralité de l’information disponible en ligne en
analysant le contenu de plusieurs centaines de flux RSS. Si les études sur la presse
en ligne font preuve d’un dynamisme général [Dagiral et Parasie, 2012], les flux RSS
comme dispositif informationnel original ont à ce jour peu mobilisé les chercheurs.

Si la littérature sur le sujet reste réduite, nous pouvons cependant noter que plusieurs
chercheurs ont récemment basé tout ou partie de leurs protocoles de recherche sur
des flux RSS, sans d’ailleurs questionner ou justifier leurs choix méthodologiques.
En France, l’Agence nationale de la recherche (ANR) a financé plusieurs projets
dans ce sens : l’Observatoire Trans-média (http://www.otmedia.fr) dont l’ambition est
de détecter les événements médiatiques dans l’ensemble de la sphère médiatique
(Web, presse, radio et télévision) ; le projet ChronoLines (http://chronolines.fr) dont
l’objectif est de modéliser des « chronologies basés sur l’événement » en analysant
Dimensions spatiales de l’actualité internationale 229

l’actualité ; et le projet Webfluence (http://webfluence.csregistry.org) qui étudie et


modélise les flux d’information en différenciant les flux produits par les médias
reconnus (médias traditionnels et pure-players du web) et ceux produits par des
communautés de la blogosphère française. De son côté, l’Union européenne a
financé les projets Glocal Project (http://www.glocal-project.eu) qui vise à identifier
et à modéliser les événements locaux et globaux à partir de différentes bases de
données médiatiques, et la plate-forme EMM NewsBrief (http://emm.newsbrief.
eu) qui collecte en temps réel et en 43 langues de multiples sources afin d’identifier
les événements médiatiques les plus couverts (top stories).

Un dernier point mérite d’être rappelé. En 2013, Google Reader, le plus gros
agrégateur de flux RSS, a fermé et certains acteurs des médias et de l’Internet ont
alors annoncé la mort du RSS. Ces derniers restent pourtant produits et diffusés.
Même si des moyens alternatifs d’accès à l’information se développent, notamment
via les pages Facebook des différents médias ou des plates-formes dédiées à la
diffusion de contenu vers les smartphones et assimilés, ce format reste encore
largement utilisé aujourd’hui par de nombreux quotidiens d’information. Il apparaît
donc utile de continuer à explorer les possibilités offertes par ce dispositif technique.

Le projet Géomédia : méthodes et axes de recherche


Dans le cadre du projet ANR Géomédia Corpus, nous construisons une base de
données stockant les flux RSS associés à des articles publiés dans une centaine
de journaux dans différentes parties du monde afin d’en extraire plusieurs types
d’informations (pour la description détaillée du corpus, voir Beauguitte et Pecout
[2014]). Le contenu d’information d’un flux RSS (titre et résumé de quelques
lignes) est évidemment plus limité que celui d’un article de presse et les tags
thématiques ou géographiques ne sont qu’exceptionnellement fournis par les
journaux. Il faut donc, en aval de la collecte des flux RSS, mettre en place des
procédures de codage du contenu et vérifier si l’ensemble constitué par le titre
et le résumé conduit à des codages géographiques et thématiques conformes à
ceux qu’aurait produit une analyse intégrale du contenu de l’article. Pour ce faire,
nous menons des études de cas pour tester la validité des RSS comme source
d’information pour des études territoriales internationales.

Les objectifs majeurs du projet Corpus Géomédia sont d’une part d’identifier
les flux d’information entre Etats (quels sont les lieux d’intérêt en fonction de
la localisation du média émetteur ? Quels sont les lieux souvent associés ?) et
d’autre part de définir la catégorie d’événement international (peut-on notamment
distinguer au sein de notre corpus entre des événements internationaux,
régionaux ou globaux ?). En raison de la taille du corpus collecté, des procédures
automatiques sont nécessaires pour caractériser les items récoltés.
230 Traces numériques et territoires

Une première étape fut d’identifier les éléments de localisation susceptibles


d’être repérés dans les items. Avec une faible marge d’erreur (5 à 10 % selon les
journaux), identifier les noms d’Etats était possible. A l’inverse, excepté pour des
leaders politiques mondialement connus (Obama, le pape ou Poutine par exemple),
identifier de manière automatique des personnes n’était pas envisageable. Notre
corpus étant constitué d’une centaine de flux issus de 40 pays différents et publiés
en quatre langues (français, anglais, espagnol et portugais), chaque journal a un
niveau de précision variable dans sa façon de nommer les personnes. Créer un
dictionnaire des principaux leaders politiques mondiaux (ex- chef d’Etat et premier
ministre de l’ensemble des pays du globe) serait une tâche chronophage et d’utilité
relative dans la mesure où ce dictionnaire devrait être actualisé très fréquemment.
Identifier les Etats était plus aisé et thématiquement pertinent : cela permet d’étudier
les hiérarchies de lieux selon les journaux émetteurs. Le seul problème était de créer
un dictionnaire exhaustif tout en évitant les faux positifs, notre objectif étant d’avoir
une marge d’erreur inférieure à 5 %. La difficulté principale concerne les Etats-
Unis pour lesquels de très nombreux termes peuvent être utilisés, qu’il s’agisse de
personnes (Obama), d’institutions (FBI), d’Etats nord-américains (Californie), de
villes (Washington), voire de lieux précis (Broadway).

En ce qui concerne les événements, il est nécessaire que leur spectre lexical soit aussi
réduit que possible afin de pouvoir être identifié dans notre corpus. Ainsi, l’étude
de l’épidémie d’Ebola n’a pas soulevé de problèmes méthodologiques majeurs
dans la mesure où, quels que soient le journal et la langue, il n’y a pas d’ambiguïté
relative aux termes utilisés. De manière similaire, l’identification d’un nom propre
d’une personne comme Edward Snowden ou Dominique Strauss-Kahn [Grasland
et Severo, 2014] s’est démontrée très efficace. Inversement, extraire tous les items
relatifs au terrorisme par exemple serait beaucoup plus délicat donc la mesure où
les termes utilisés pour décrire le phénomène sont nombreux et polysémiques
(une attaque peut être cardiaque et toucher une personnalité ou désigner une
attaque terroriste) ; de plus, de nouveaux acteurs et de nouveaux termes émergent
régulièrement et de façon imprévisible (Charlie-Hebdo est par exemple devenu à
l’échelle mondiale synonyme d’attaque terroriste en janvier 2015).

Les traitements quantitatifs en cours à ce jour explorent trois pistes principales.


La première piste s’intéresse à la persistance temporelle d’événements donnés
tels que la pandémie Ebola, la guerre en Syrie [Giraud et al., 2013], les émeutes
de Ferguson ou du Wukan [Severo et al., 2012]. Nous cherchons à modéliser les
flux d’information dans une perspective temporelle et spatiale afin de répondre
aux questions suivantes : quand et comment un événement donné se diffuse-t-il
parmi les journaux à une échelle mondiale ? Est-il possible d’identifier des motifs
et des tendances de diffusion ? Quelles sont les barrières (culturelles, linguistiques,
politiques) à ces processus de diffusion ? Quand des phénomènes de saturation
médiatique apparaissent-ils ? La seconde piste concerne la hiérarchie des lieux
Dimensions spatiales de l’actualité internationale 231

selon les journaux et la période étudiés [Severo et al., 2014]. La hiérarchie des
lieux dans l’actualité internationale est un sujet de recherche ancien et nous
examinons si, malgré les changements majeurs de la production et de la diffusion
de l’information liés à l’essor de l’Internet, des règles proposés il y a près de 50
ans restent valides aujourd’hui – les premières études semblent montrer que c’est
le cas et qu’Internet ne change guère les configurations d’ensemble [Paterson,
2005]. Enfin, une troisième piste consiste à s’intéresser aux cooccurrences de lieux
dans les items RSS [Giraud et Severo, 2013]. Ce sujet de recherche, peu abordé à
ce jour, permet de mettre en évidence les hiérarchies et les structures politiques
globales [Beauguitte et Severo, 2014].

Nous cherchons par ailleurs à valider l’utilisation des flux RSS pour des approches
mixtes, mêlant méthodes quantitatives et qualitatives [Giraud et Severo, 2013], et
visant à interroger la dimension spatiale de l’actualité internationale. La deuxième
partie de cet article s’inscrit dans cette démarche mixte et s’intéresse à la place de
l’individu dans le flux RSS international du New York Times et aux espaces qui lui
sont associés.

L’INDIVIDU ET SES ESPACES DANS LES ACTUALITÉS INTERNATIONALES3


Hypothèses et méthodes
Pourquoi s’intéresser à l’individu dans l’actualité internationale ? Notre hypothèse
principale, fondée sur les conditions de production de l’information, est liée à
la nécessité pour les journalistes de personnaliser l’information en général et
l’information internationale en particulier [Gans, 1979]. Intéresser un lecteur
d’un pays x à ce qui se passe dans un pays y suppose de mettre en place des
stratégies permettant de rendre l’information compréhensible et attractive : jouer
sur l’identification est l’une des stratégies communément employées dans la sphère
médiatique [Ostgaard, 1965 ; Mercier, 2006].

Suivant des études antérieures, nous nous attendons à trouver trois grands types
d’individus : les stars mondiales, les élites et les gens ordinaires (« common people »,
voir Galtung et Ruge, 1965). Les caractéristiques attendues sont les suivantes :

- la star mondiale est toujours nommée, elle apparaît à plusieurs reprises dans
l’actualité et son action se déploie sur une large gamme d’échelles (du local
au global) ;

- la personne ordinaire n’apparaît qu’une fois et n’est pas nommée. Elle est
ancrée localement mais, pour justifier sa place dans l’information internationale,

3 Ce paragraphe constitue une reprise de Beauguitte et Severo [2014]


232 Traces numériques et territoires

son cas est considéré comme le symbole d’une situation plus vaste. Elle peut
également jouer le rôle de source ou de témoin d’une actualité ;

- les élites apparaissent à plusieurs reprises, sont généralement nommées,


leur action se déploie sur une gamme restreinte d’échelle (Etat ou relation
bilatérale entre Etats).

En raison de la faible épaisseur temporelle du corpus analysé pour cette première


approche exploratoire, seules les deux premières hypothèses ont été testées ici.

L’ensemble des 1 304 éléments du flux RSS de la rubrique internationale émis par
le New York Times entre le 1er janvier et le 31 mars 2013 a été codé par les deux
auteurs afin de répondre aux questions suivantes : y a-t-il présence d’un individu dans
l’item du flux ? L’individu est-il nommé ou anonyme ? Est-il possible de déterminer
l’échelle de l’actualité (locale, nationale, mondiale etc.) ? Ce dernier item a été le
plus délicat à coder : de rares flux sont a-spatiaux (« Oscar Pistorius, the double amputee
Olympic runner accused of murder, will be allowed to travel abroad under strict conditions »4, item
du 28 mars 2013), d’autres mêlent plusieurs espaces de référence (« The United States
government has petitioned the Irish High Court to extradite an Algerian man living in Ireland
on terrorism charges relating to a plot to kill a Swedish artist »5, item du 1er mars 2013 – cet
item n’est absolument pas représentatif dans la mesure où sa complexité spatiale est
très largement supérieure à l’immense majorité des items). Les catégories utilisées
sont les suivantes : 0 (pas d’espace explicite), local (infra-national, exemple une ville,
un Etat américain, etc.), national, inter-national (relation entre deux ou trois Etats),
régional (supra-national comme Europe, Asie, etc.), global.

L’étude du corpus montre une information internationale fortement individualisée :


plus de la moitié des articles implique au moins un individu (698 sur 1 304) et
ces individus sont le plus souvent des personnes clairement identifiées (75 % des
individus ont un nom).

Le tableau ci-dessous donne la répartition obtenue lorsque l’on croise identité/


anonymat et échelle.
0 local national international régional global total
Anonyme 3 42 57 52 4 13 171
Nommé 26 49 236 148 17 51 527
Total 29 91 293 200 21 64 698
Tableau 1 : Répartition des items par identité/anonymat et échelle

4 Oscar Pistorius, le coureur olympique double amputé accusé d’assassinat, sera autorisé à voyager
à l’étranger dans des conditions strictes.
5 Le gouvernement des Etats-Unis a demandé à la Haute Cour irlandaise d’extrader un Algérien
vivant en Irlande sur des accusations de terrorisme liées à un complot visant à tuer un artiste suédois.
Dimensions spatiales de l’actualité internationale 233

La forte domination des échelles nationales et internationales (entendue au sens


de relations entre deux ou trois Etats) doit être soulignée et ce, que les individus
soient anonymes ou non. Et, contrairement à notre hypothèse, l’individu anonyme
peut être l’objet d’une information locale, nationale ou globale. Le nombre élevé
d’anonymes au niveau global s’explique par nos choix de codage : tout observateur
lié aux Nations Unies et rapportant une situation locale a été considéré comme lié
à une actualité globale (« A United Nations investigator, whose report on the C.I.A.s use
of secret detentions and interrogation techniques is to be released, called on the United States to
publicly »6, item du 5 mars 2013).

Stars globales et anonymes : fréquence et espaces d’apparition


Si le lien entre individu et espace est moins flagrant qu’attendu, la fréquence des
apparitions conforte nos hypothèses et rejoint d’ailleurs les conclusions des études
relatives à la distribution des sujets d’actualités [Smyrnaios et al., 2010 ; Marty et
al., 2010] : une poignée d’individus est citée régulièrement, la grande majorité
apparaît une ou deux fois avant de disparaître de l’actualité. Si 334 noms différents
peuvent être identifiés dans les titres et les résumés des items, 249 apparaissent
une seule fois (nous sommes donc très proches des 80/20 des distributions de
Pareto où 20 % d’une population concentre 80 % d’une propriété donnée). A
l’autre extrémité, les personnalités du monde politique dominent très largement
(32 occurrences pour Obama et Chavez, suivis de Benoît XVI, François Ier,
Netanayhu, Bashar el Hassad, etc.). Sur les 20 personnes évoquées au moins 5
fois durant ces trois mois, seul l’athlète Oscar Pistorius est extérieur au monde
politique. La capacité à se maintenir comme sujet ou acteur de l’actualité est très
inégalement distribuée : les 9/10 des individus évoqués (anonymes ou non) le sont
deux fois maximum durant la période de trois mois considérée.

Lors de la période étudiée, la démission de Benoît XVI et l’élection du pape


François Ier donnent lieu à un grand nombre d’items RSS (19 liés à la démission du
premier et 20 liés à l’élection du second) et la multiplicité des échelles mobilisées
est impressionnante : les actualités varient du monde (the Catholic Church) au local
(St. Peters Square) en mobilisant toutes les échelles intermédiaires (le Vatican
comme Etat, l’Amérique latine comme région).

La figure ci-dessous (Figure 1) montre comment se distribuent les apparitions


papales dans les flux RSS en fonction des échelles mobilisées – les articles
a-spatiaux ne sont pas représentés ici. Dès son apparition dans l’actualité, le futur
François Ier est sujet ou acteur d’une actualité multiscalaire. La démission de son
prédécesseur est, elle, évoquée tantôt au niveau local, tantôt au niveau global.

6 Un enquêteur des Nations Unies, dont un rapport sur l’utilisation par la CIA de détentions
secrètes et de techniques d’interrogatoire doit être publié, a accusé les Etats-Unis publiquement.
234 Traces numériques et territoires

Figure 1 : Benoît XVI et François Ier dans le flux RSS international du NYT

A titre de comparaison, la figure 2 montre les échelles de référence des deux


personnes les plus présentes dans l’actualité internationale du New York Times de
janvier à mars 2013, Barak Obama et Hugo Chavez.

Figure 2 : Obama et Chavez dans le flux RSS international du NYT

Obama est durant la période considérée la seule personnalité qui apparaisse à une
telle fréquence et avec une telle pluralité d’échelles. Il faut signaler qu’il n’y a pas de
biais lié à la nationalité du journal : Barak Obama est la personnalité politique la plus
citée dans la grande majorité des journaux de notre corpus. Hugo Chavez est présent
selon des modalités différentes : son hospitalisation à Cuba crée une actualité inter-
nationale (Vénézuela, Cuba), les conséquences de son décès sont évoquées à toutes
les échelles possibles (réactions locales au décès, deuil national, hommage dans des
pays tiers, conséquences au niveau régional, etc.), et enfin sa succession devient un
problème national avant que son nom ne disparaisse de l’actualité.

Enfin, le cas Pistorius est intéressant car il permet de saisir en partie la temporalité
d’une actualité. Si du point de vue de l’échelle, l’actualité est toujours à une échelle
locale – explicite ou non (cf. supra) –, du point de vue temporel l’articulation est
plus complexe. Deux temps apparaissent : un premier temps, très resserré, où 5
items le citent (20 au 22 février) et qui correspond à l’apparition du fait divers dans
l’actualité ; un second temps, moins riche (2 items seulement), et plus lâche (un
Dimensions spatiales de l’actualité internationale 235

item le 8 mars et un le 28 mars) et correspondant à des rebondissements mineurs


de l’affaire. Prendre une période plus longue permettrait de mettre en évidence la
construction narrative en feuilleton des actualités liées aux faits divers, construction
expliquant que certains éléments (le lieu notamment) ne soit pas systématiquement
rappelé – le lieu est supposé connu par le lectorat « suivant » l’actualité.

Inversement, on peut prendre en considération seulement les articles qui


concernent des personnes ordinaires et appliquer la classification de Gans
[1979] des personnes anonymes pour étudier leur relation avec l’espace. On peut
distinguer notamment : les manifestants, les « émeutiers », les grévistes, mentionnés
dans 14 items ; les fonctionnaires tels les policiers, soldats, juges et bureaucrates
fédéraux, mentionnés dans 39 items ; les victimes, présentes dans 30 items ; les
contrevenants présumés et réels des lois (souvent dans des contexte de guerre), la
catégorie la plus représentée avec 46 items. Il y a également un groupe d’individus
qui apparaît difficilement catégorisable, comme les cardinaux liés à l’élection du
pape (nous avons dû créer une catégorie « autre » pour 15 items).

La relation la plus évidente qui émerge est entre l’échelle locale, d’un côté, et
activistes et victimes, de l’autre. Une actualité liée à une protestation ainsi qu’à
un fait violent qui touche une victime est souvent localisée de manière précise.
Une exception est liée au cas du garçon russe trouvé mort au Texas, ce qui rend
l’actualité internationale (« Adopted Boys Death in U.S. Stirs Outrage in Russia. The
authorities in Texas are careful about commenting on a 3-year-olds death, with investigations
continuing »7). Pour les autres catégories, il n’est pas toujours possible d’identifier
des connections aussi claires. Par exemple, les fonctionnaires peuvent être liés à
toutes les échelles et dans de contextes très différents. A noter qu’ils sont souvent
cités comme source de l’information (« … an official in Dar es Salaam said », « … a
top official with the World Health Organization said » ou « A judge said that… ») et, dans
ce cas précis, il faut prendre en compte le phénomène de l’anonymat des sources
(« said a military official who declined to be named ») [Lambert, 2001].

Un sujet d’études prometteur concernant les liens entre espaces et médias est le
fait de nommer ou non les personnes, notamment lorsque celles-ci appartiennent
à l’élite politique d’un Etat. Ainsi il semble, mais des études approfondies
seraient nécessaires pour confirmer ce fait, que si les responsables politiques
américains sont systématiquement nommés, ce n’est pas le cas que pour les chefs
d’Etat et les ministres étrangers de certaines nationalités (Chine et Royaume-
Uni notamment). Les responsables ministériels d’autres Etats ne sont nommés
qu’exceptionnellement. Dans notre échantillon, 21 articles concernent des
autorités étrangères non nommées (« The foreign ministers of Japan and the Philippines »,

7 La mort d’un garçon adopté aux Etats-Unis provoque un scandale en Russie. Les autorités du
Texas font preuve de prudence en commentant la mort d’un enfant de trois ans, tandis que les
enquêtes se poursuivent.
236 Traces numériques et territoires

« Greek Prime Minister »). Une étude comparative avec les flux émis par d’autres
journaux d’origine différente donnerait sans doute des résultats intéressants.

CONCLUSION

L’objectif de ce chapitre était double : souligner l’intérêt des flux RSS dans
les études médiatiques ; s’intéresser à la place de l’individu dans l’actualité
internationale. Un troisième objectif était de montrer l’intérêt d’une analyse
qualitative d’une information simultanément abondante et pauvre, les flux RSS,
dans des études territoriales.

Si le flux RSS est un dispositif largement utilisé par les médias d’information, peu
d’études ont à ce jour cherché à les exploiter thématiquement. Le corpus construit
au sein de l’ANR Géomédia et destiné à être rendu accessible à la communauté à
l’issue du projet (démarche d’open data) fournira une base documentée susceptible
d’alimenter des travaux de recherche liés à l’actualité internationale. Le flux RSS
est certes une donnée qualitativement pauvre (quelques lignes de texte seulement),
il permet pourtant de saisir diverses logiques relatives à la construction et à la
diffusion de l’actualité. La facilité de sa collecte pour des médias divers est un
atout pour l’étude comparative de médias de différentes origines.

L’analyse exploratoire menée ici montre que l’individu, anonyme ou non, est
mobilisé très fréquemment par les journalistes pour mettre en scène l’actualité
internationale. Une poignée d’individus est susceptible de revenir fréquemment
dans l’actualité et à des échelles variées tandis que la très grande majorité fait une
apparition rapide, souvent anonyme et généralement mono-scalaire. Dans le cas
de faits divers impliquant des célébrités, une construction feuilletonesque, en
épisodes, apparaît. La courte étude de cas présentée dans ce texte ne permet pas
de généraliser ces évidences à toute l’actualité internationale et des démarches
comparatives (types de journaux différents, nationalités de journaux variées) sur
une période plus longue apporteraient sans nul doute d’intéressants résultats.

RÉFÉRENCES BIBLIOGRAPHIQUES
Tous les liens indiqués étaient valides lors de l’écriture de ce chapitre (avril 2015).
[AFP, 2010] AFP, 2010, Abécédaire de l’AFP. Comment l’Agence informe sur le monde, Paris :
Victoire Editions.
[Beauguitte et Pecout, 2014] Beauguitte, L. et Pecout, H., 2014, « Courte présentation du corpus
Géomédia », Blog Corpus-Géomédia, http://geomedia.hypotheses.org/209.
[Beauguitte et Severo, 2014] Beauguitte, L. et Severo, M., 2014, « Les flux RSS pour les
études territoriales : une analyse de l’individu et ses espaces dans les actualités
Dimensions spatiales de l’actualité internationale 237

internationales du New York Times », In Proceedings du 2e colloque international du


CIST, pp 32-37.
[Brooker-Gross, 1983] Brooker-Gross, S.R., 1983, « Spatial Aspects of Newsworthiness »,
Geografiska Annaler, Series B, Human Geography, 65(1), 1-9.
[Chaudhary, 2001] Chaudhary, A.G., 2001, « A Comparative Content Analytical Study of Negative
News in Western and Third World Newspapers », Asian Journal of Communication,
11(1), 25-50.
[Dagiral et Parasie, 2012] Dagiral, E. et Parasie, S., 2012, « Presse en ligne : où en est la recherche ? »,
Réseaux, 2, 13-42.
[Duffy et Bruns, 2006] Duffy, P.D. et Bruns, A., 2006, « The use of blogs, wikis and RSS in
education: A conversation of possibilities », Proceeding Online Learning and Teaching
Conference 2006, pp 31-38.
[Earl et al., 2004] Earl, J., Martin, A., McCarthy, J. D. et Soule, S., 2004, « The Use of Newspaper
Data in the Study of Collective Action », Annual Review of Sociology, 30(1), 65-80.
[Galtung et Ruge, 1965] Galtung, J. et Ruge, M. H., 1965, « The Structure of Foreign News »,
Journal of Peace Research, 2(1), 64-91.
[Gans, 1979] Gans, H., 1979, Deciding what’s news: A study of CBS evening news, NBC nightly
news, Newsweek, and Time, New York : Pantheon Books.
[Gill, 2005] Gill, K., 2005, Blogging, RSS and the Information Landscape: A Look At Online News, In
WWW2005, http://faculty.washington.edu/kegill/pub/gill_www2005_rss.pdf.
[Giraud et Severo, 2013] Giraud, T. et Severo, M., 2013, « Le périple d’Edward Snowden. Analyse
quali-quantitative d’un événement médiatique international », Netcom. Réseaux,
communication et territoires, 27(3-4), 385-410.
[Grasland et Severo, 2014] Grasland, C. et Severo, M., 2014, « Qu’est-ce qu’un événement
mondial ? », In L’Atlas global, Paris : Les Arènes, pp 130-133.
[Herkenrath et Knol, 2011] Herkenrath, M. et Knol, A., 2011, « Protest Events in International
Press Coverage: An Empirical Critique of Cross-National Conflict Databases »,
International Journal of Comparative Sociology, 53(3), 163-80.
[Hmedeh et al., 2011] Hmedeh, Z., Travers, N. et Vouzoukidou, N., 2011, « Everything you would
like to know about RSS feeds and you afraid to ask », Base de Données Avancées
Morocco, http://hal.archives-ouvertes.fr/docs/00/73/72/43/PDF/art_2158.pdf.
[Lambert, 2001] Lambert, F., 2001, Figures de l’anonymat : médias et société, Paris : L’Harmattan.
[Marty et al., 2009] Marty, E., Rebillard, F. et Smyrnaios, N., 2009, « Online News between
Redundancy and Diversity: A Quantitative Study of French Speaking News
Websites », communication présentée au Colloque new media and communication,
Athènes.
[Marty et al., 2010] Marty, E., Rebillard, F., Smyrnaios, N. et Touboul, A., 2010, « Variété et
distribution des sujets d’actualité sur Internet. Une analyse quantitative de
l’information en ligne », Mots. Les langages du politique, 93, 107-126.
[Marty et al., 2012] Marty, E., Rebilllard, F., Pouchot, S. et Lafouge, T., 2012, « Diversité et
concentration de l’information sur le web », Réseaux, 176(6), 27.
238 Traces numériques et territoires

[McCarthy et McPhail, 1996] McCarthy, J. et McPhail, C., 1996, « Images of Protest: Dimensions
of Selection Bias in Media Coverage of Washington, 1982 and 1991 », American
sociological review, 61(3), 478-499, http://www.jstor.org/stable/10.2307/2096360.
[Mercier, 2006] Mercier, A., 2006, « Logiques journalistiques et lecture événementielle des faits
d’actualité », Hermès, 46, 23-35.
[Ostgaard, 1965] Ostgaard, E., 1965, « Factors Influencing the Flow of News », Journal of Peace
Research, 2(1), 39-63.
[Paterson, 2005] Paterson, C., 2005, « News Agency Dominance in International News on the
Internet », In Skinner, D., Compton, J.R. et Gasher, M. (dir.), Converging Media,
Diverging Politics: A Political Economy of News Media in the United States and Canada,
Lanham : Lexington Books, pp 145-64.
[Robinet, 2013] Robinet, F., 2013, « La fabrique médiatique des événements internationaux :
Afrique, un continent en marge (1994–2008) ? », Le Temps des médias, 20(1), 152-67.
[Severo et al., 2014] Severo, M., Douay, N., Giraud, T., Grasland, C., Nielsen, M., Pecout, H. et
Texier, M., 2014, Tools (2011-2014). Feasibility Study on Analytical Tools based on Big
Data, final report, ESPON project.
[Severo et al., 2012] Severo, M., Giraud, T. et Douay N., 2012, « The Wukan’s protests: just-in-time
identification of international media event », In Proceeding of Workshop Just-in-Time
Sociology, SocInfo international conference.
[Smyrnaios et al., 2010] Smyrnaios, N., Marty, E. et Rebillard, F., 2010, « Does the “Long Tail”
apply to online news? A quantitative analysis of French-speaking websites », New
Media and Society, 12(8), 1244-1261.
[Thelwall et Prabowo, 2007] Thelwall, M. et Prabowo, R., 2007, « Identifying and characterizing
public science-related fears from RSS feeds », Journal of the American Society for
Information Science and Technology, 58(3), 379-390.
[Wu, 2000] Wu, D.H., 2000, « Systemic Determinants of International News Coverage: A
Comparison of 38 Countries », Journal of Communication, 50(2), 110-30.
Reconfiguration des pratiques participatives
Le cas de « Carticipe »

Nicolas Douay, Maryvonne Prévot

INTRODUCTION

Contexte et objet de recherche


Community Land Use Game (CLUG), ALEA, APEX, Policy negociation,
Starpower, Super Builder, Easy Builder ou plus récemment les jeux SimCity ou
FarmVille n’ont cessé de gagner en importance, empruntant au Monopoly et aux
jeux de rôle. Ces jeux étaient et sont toujours considérés comme étant de nature
à comprendre « la boîte noire » de la production urbaine et mettent aujourd’hui
en scène un urbanisme placé sous l’influence des nouvelles technologies de
l’information et de la communication (NTIC). Au-delà du fantasme d’une
nouvelle rationalité numérique pour l’aménagement, les NTIC transforment
moins le contenu de l’urbanisme que les processus en décuplant les moyens de
communication [Wachter, 2011].

En matière d’urbanisme, le Web 2.0 permet d’envisager de nouvelles formes


de participation grâce à différentes innovations technologiques [Douay, 2011 ;
Bailleul, 2008 ; Bailleul et Gibon, 2013] : forums de discussion, applications sur
smart-phone, réseaux sociaux, sites collaboratifs sous la forme de wiki, etc. Le Web
collaboratif, open source ou encore 2.0, ferait de ce fait évoluer la nature des formes
d’engagement et de négociation dans la production urbaine par l’intermédiaire
d’un partage et d’une mise en commun d’informations et surtout d’une mise en
relation des citoyens sous des formes moins hiérarchiques et plus collaboratives.

La participation a ainsi pu être identifiée comme un pilier de la « culture


numérique » [Jenkins, 2006 ; Deuze, 2006 ; Monnoyer-Smith, 2011] ou, plus
exactement, comme la condition sine qua non de l’émergence d’une telle culture
[Badouard, 2014]. Croisant participation numérique aux projets d’aménagement et
cartographie, la nouvelle fabrique cartographique de la ville prend forme dans des
agences de type varié pour recueillir les avis, les idées et les réactions d’individus
à propos de projets d’aménagement ; des individus qui s’en saisissent à leur tour
pour contribuer à proposer un contenu localisé sur des thèmes variables et triviaux
[Joliveau, 2010]. Bien souvent, l’interface va prendre la forme d’une visualisation
[IAU îdF, 2013] ou, plus précisément, d’une carte participative [Palsky, 2013] qui
240 Traces numériques et territoires

nous rappelle que la carte est un instrument de pouvoir qui peut permettre le
dialogue entre des savoirs experts et des savoirs habitants. Elle peut ainsi devenir
une production citoyenne au service de l’appropriation et de la transformation
de l’espace. Dans cette perspective, la carte comme arène numérique de la
planification urbaine permettrait ainsi aux différents porteurs d’enjeux d’exprimer
et de confronter leurs intérêts divergents et, surtout, de dialoguer pour travailler
collectivement à une stratégie.

Dans le processus de construction du consensus, l’approche collaborative de la


planification fait le constat de départ que l’intelligence collective est par essence
dispersée et éclatée. Dès lors, ces arènes numériques rendraient possible une
mobilisation sociale élargie des acteurs qui peut engendrer un processus collectif
de mise en dialogue, voire de co-construction de la décision. De leur côté, del
Casino et Hanna [2006] proposent de considérer ces cartes, non comme des simples
représentations de lieux mais comme des « sujets mobiles et pleins de sens à travers
un ensemble de pratiques sociospatiales conflictuelles, complexes, intertextuelles et
reliées ». L’objet d’étude ne serait plus la carte mais la myriade d’interconnexions qui
font de la production et de la consommation « d’espaces de cartes » un processus
simultané d’écriture et de lecture [Joliveau, et al., 2013]. Par-delà l’objet carte lui-
même, que peut nous apprendre l’étude de son caractère fortement intertextuel
(blog, renvois à d’autres sites) qui démultiplie et diffracte son contenu ?

Problématique et hypothèses
Nous proposons d’étudier les nouvelles pratiques citoyennes de militantisme et de
participation à l’ère du numérique en nous appuyant principalement sur deux études
de cas : celle des pratiques participatives numériques émergentes de la plate-forme
Carticipe1 à Marseille et Strasbourg : « On dit Carticipe, on ne met pas d’article devant.
C’est une marque, un concept, on dit Carticipe sans article » (entretien fondateur)2.
L’intérêt de cette monographie sur Carticipe est à chercher dans l’analyse illustrée du
développement de dispositifs concrets qui viennent cadrer et encadrer les actions
et les représentations des acteurs sociaux, du côté des objets techniques, des outils
et des instruments et participent ainsi au débat public local.

Notre méthodologie repose sur une analyse des Carticipe de Marseille et Strasbourg
et des données qui y sont associées, notamment celles sur les idées et les
contributeurs, un questionnaire auprès des utilisateurs et une série d’entretiens
avec le créateur et un échantillon d’utilisateurs. Une attention aux débats publics
en aménagement à Marseille et Strasbourg s’appuie sur une revue de presse locale

1 http://strasbourg2028.carticipe.fr ou http://marseille.carticipe.fr ou encore http://www.


rue89strasbourg.com/index.php/2013/08/26/politique/strasbourg-2028-concertation-2-0.
2 Entretien du fondateur de la plate-forme avec Nicolas Douay et Alice Duval le 11 mars 2014.
Reconfiguration des pratiques participatives 241

et une attention particulière aux différents documents de planification et aux


projets urbains contemporains.

Une première série d’interrogations renvoie au dispositif sociotechnique de


la plate-forme numérique : comment les initiateurs de Carticipe ont-ils pensé la
« mise en technologie » du site [Badouard, 2014] ? Comment ont-ils configuré les
possibilités d’agir sur/via le site ? En leur appliquant quels formats ? Quels rôles
et quelles ressources attribuent-ils aux internautes utilisateurs et comment les
conduisent-ils, le cas échéant, à les faire interagir ?

Une seconde série porte sur le processus et les pratiques militantes : par-delà
l’artefact marketing et le processus de labellisation [Douay et Prévot, 2014] quel
degré et quelle forme d’engagement actif du grand public dans la lecture et
l’écriture de cartes y-a-t-il à l’œuvre dans ces expérimentations en ligne ?

Carticipe relève-t-il de ces forums hybrides, mêlant expertise savante et profane,


émanant d’acteurs réflexifs pour produire les fruits d’une démocratie « dialogiste »,
d’une démocratie technique [Callon et al., 2001] ? Les contributeurs de ces cartes
participatives incarneraient-ils ce « militantisme distancié », contemporain, fluide,
temporaire, ou encore « post-it » [Ion, 1997] ? L’informalité et l’« horizontalité » qui
les caractérisent sont fréquemment promues comme garantes d’une plus grande
« ouverture » et « accessibilité » aux citoyens « lambda ». Cependant ces experts-
usagers, ces acteurs-réseaux [Latour, 2005] ne pourraient-ils pas renvoyer aussi
à la figure d’un certain entre-soi ? Où situer la démarche déployée par Carticipe
dans la tension persistante entre la carte-support à la participation et la carte-
produit de la participation ? Carticipe est-elle un exemple de plus de cette tendance
repérée pour les Public participation geographic information systems (PPGIS), à savoir
des solutions en ligne orchestrées par des organisations locales (villes, collectivités
territoriales, bureaux d’études, etc.), visant dans un premier temps à le porter à
connaissance, puis, selon le niveau de participation recherchée, sollicitant la
remontée d’informations des citoyens, par le biais de dispositifs plus ou moins
complexes (forums, zonages à dires d’acteurs, cartographie argumentaire, etc.),
autrement dit une production de données sollicitées auprès du public et souvent
encadrée par des acteurs territoriaux institutionnels [Joliveau et al., 2013] ? Nous
nous interrogerons sur les mécanismes par lesquels Carticipe acquiert auprès des
institutionnels comme du public d’usagers une légitimité, mais aussi sur les parcours
militants, les répertoires d’action et les effets dans le débat public de ces nouveaux
usage(r)s de cette cartographie participative.

Enfin, une dernière série de questions concernera le sens et l’efficacité du dispositif


dans le débat public local : dans quelle mesure cette nouvelle fabrique cartographique
participe-t-elle à une (re)mise en ordre du monde et institue-t-elle – ou pas – un
nouvel ordre des choses ? Dans quelle mesure participe-t-elle du constat que,
prenant acte du caractère ingouvernable des sociétés urbaines contemporaines,
242 Traces numériques et territoires

l’action publique aurait perdu toute ambition substantielle pour orienter l’action et
serait réduite à un rôle procédural visant à créer les « bonnes » conditions du dialogue
entre des intérêts divergents et fragmentés ?

Par-delà l’affirmation du caractère dépolitisé et fonctionnaliste ou a-politisé de


ces dispositifs et de leurs enjeux, quels en seraient les enjeux politiques réels ? Se
dégagerait-il la construction d’une cohérence autour d’un modèle de ville (si oui
lequel ?), un idéal projeté, des catégorisations de « bons » ou de « mauvais » usage(r)
s ? Dans quelle mesure pourra-t-on y repérer des opérations de tri spatial et/ou
de tri social ? La dépolitisation du cadrage des enjeux urbains parvient-elle ou pas
à produire, in fine, consensus et consentement ?

LA CRÉATION DE CARTICIPE : PROJET MILITANT ET RÉALITÉS ÉCONOMIQUES

Carticipe : aboutissement professionnel d’un parcours militant


La création de Carticipe est un projet professionnel qui s’inscrit dans un passé
militant d’engagement civique. En effet, son créateur Éric Hamelin s’est engagé
politiquement à gauche, d’abord au Parti socialiste puis chez les Verts. Cet
engagement s’est mué en activité professionnelle lorsqu’il est devenu collaborateur
d’élus pendant un an à la Mairie de Paris : « [… ] j’ai arrêté d’être militant en 2003,
après cette expérience-là, j’ai arrêté les partis politiques, j’ai fait des recherches
d’emplois en tant que consultant, j’avais envie de mieux utiliser mes compétences
en sociologie plutôt que de conseiller les élus de l’extérieur, j’avais l’impression que
je pouvais être plus concret quoi, moins nombriliste, moins orienté électoralisme
pur, travailler plus sur la recherche de résultats politiques au sens de socialement
utiles. Pour la participation, ce n’est pas mon parcours militant qui m’inspire c’est
plus mon expérience de sociologue et d’urbaniste » (entretien fondateur).

Éric Hamelin se tourne alors vers l’activité de conseil en s’associant à Kamel


Bentahar, rencontré aux cours du soir du CNAM en 2002-2003. Formé à la
sociologie urbaine, Hamelin a clairement orienté le cabinet Repérage urbain3 autour
des questions de participation du public. Confronté aux réalités économiques
du marché de la participation, Repérage urbain alterne donc entre promotion de
nouvelles formes de démocratie et réalités économiques avec la volonté de faire
vivre le cabinet. Cette dimension marchande s’incarne dans la plate-forme Carticipe
qui est mise en avant dès la première page du site Web. Cela correspond à la
nécessité de créer un label et de faire de Carticipe un produit qui pourrait se vendre
auprès des différentes collectivités ou porteurs de projet. Depuis plusieurs années
en effet, la participation est devenue un marché dont la cartographie numérique
participative ne serait finalement qu’une « niche » plus récente sur laquelle les

3 http://www.reperageurbain.com.
Reconfiguration des pratiques participatives 243

fondateurs de Carticipe se sont positionnés. Par leur parcours professionnel


et militant, ils entrent dans la catégorie des professionnels de la participation
[Nonjon, 2005] qui savent mobiliser/reconvertir leurs réseaux et ressources
militants en une démarche professionnelle qui tiendrait néanmoins à distance,
dans les discours, la rhétorique militante traditionnellement associée à l’image du
militant : « loin d’être dupes du jeu des institutions et de leurs commanditaires, ces
professionnels sont conscients des contraintes mais aussi des ressources qu’ils
peuvent espérer tirer de ce double positionnement » écrit M. Nonjon [2005 : 95].
Croisant donc vertueusement ambition militante et réalités économiques du
marché de la participation, Carticipe y prend place depuis quelques temps par
l’intermédiaire d’un dispositif sociotechnique innovant.

Un dispositif sociotechnique ouvert mais balisé


Le site est construit sur un modèle ouvert qui propose un environnement 2D à
partir de l’interface Google Map. Le premier choix effectué est donc de spatialiser
le débat public dans un environnement en deux dimensions à partir d’un support
cartographique issu de Google. D’autres plates-formes, par contre vont proposer
d’évoluer dans un environnement 3D et de visualiser des évolutions du design
urbain à l’image de la plate-forme Bétaville [Douay, 2014].

 
Figure 1 : L’environnement technique des sites Web Carticipe. Source : http://carticipe.files.wordpress.
com/2014/05/compar-stbg-mars.jpg

Les propositions sont libres mais doivent s’inscrire dans une des catégories
proposées. Celles-ci sont volontairement assez générales et hiérarchisées avec
des sous-catégories. La catégorisation et le design vont rendre opérationnels un
format de participation [Baudouard, 2014] qui est orientée vers une dimension.
En même temps que ces applications ouvrent des possibles, elles cadrent aussi les
244 Traces numériques et territoires

conditions de leur réalisation en exerçant une contrainte normative sur les pratiques
des internautes : elles rendent donc possible la réalisation d’une action d’une certaine
façon, note à juste titre Romain Badouard. Il est donc demandé aux utilisateurs de
situer eux-mêmes leurs propositions dans ces différentes catégories :
- Mobilité et espaces publics ;
- Bâti, constructions ;
- Activité économique, commerce ;
- Sport, culture, services, publics ;
- Espaces verts, nature, environnement.

En développant des applications qui permettent d’échanger et de débattre, les


webdesigners de Carticipe (comme les autres) organisent les relations sociales et
cadrent la manière dont les internautes « font public » : « [… ] la structure du débat
qu’on propose, elle impose de faire des propositions. D’ailleurs, à Marseille, plus
que dans les autres villes, on voit des gens qui essayent d’utiliser le truc à l’envers,
en faisant une proposition négative, par exemple sur des projets immobiliers que
les gens trouvent mal situés… La structure telle qu’elle est faite n’est pas favorable
à ça, ça incite à être constructif plutôt qu’être opposant » (entretien fondateur).

Toutefois le lien n’est pas toujours évident et il arrive même que les participants jouent
de ces possibles ambiguïtés. Par exemple, à Marseille, dans la catégorie « Mobilités
et espace public », un participant évoque la question des ordures ménagères et fait
le lien avec les rapports avec les syndicats (ce qui est historiquement désigné à
Marseille comme étant de la cogestion entre la Mairie et le syndicat majoritaire FO)
et finalement le mode de gouvernance de la municipalité, voire le maire lui-même :
« en finir avec l’hégémonie Force Ouvrière (FO) sur la mairie. Audit des services
municipaux afin de fusionner un maximum d’entités pour faire des économies.
Arrêter d’acheter la paix sociale par le biais de subventions d’associations. Un
nouveau maire ambitieux et à temps plein » (florent.bernier.98). L’environnement
du site apparait donc comme un guide mais pas forcément comme une contrainte
technique forte au point d’empêcher les propositions de s’exprimer. Les choix
ergonomiques dessinent donc un environnement sociotechnique ouvert qui tente
de répondre aux critiques habituelles sur les dispositifs classiques de participation
tels que les conseils de quartier ou les enquêtes publiques.

Ensuite, le site est centré autour des différentes propositions qui vont occuper
l’avant-plan de la carte, le site invite donc à contribuer et surtout à prendre part
aux débats à travers les injonctions à « ajouter », « voter » et « commenter » qui
vont baliser la navigation et définir une procédure de participation. Au-delà de la
simple proposition d’une idée, il y a donc la possibilité de voter pour ou contre les
contributions des autres internautes. Dans ce cas nous ne savons pas qui a voté,
mais il faut être inscrit sur la plate-forme pour pouvoir participer au vote ce qui
Reconfiguration des pratiques participatives 245

limite les risques de manipulation. Il y a aussi la possibilité de commenter sans


limite de nombre de caractères les différentes propositions avec une apparition des
contributions dans un ordre chronologique. Il y a enfin la possibilité de signaler
un abus : « on a mélangé les fonctions d’un forum avec les fonctions d’une carte
participative en gros. Un forum qui, en plus, aurait la dimension d’un réseau social
aussi un peu, dans le sens du critère de popularité des réseaux sociaux, c’est-à-dire
la possibilité de voter pour ou contre » (entretien fondateur).

Les participants ont l’obligation de créer un profil mais ils peuvent utiliser un
pseudonyme, ils ont aussi la possibilité de se connecter par l’intermédiaire du réseau
social Facebook. Ils sont invités à déclarer leur commune et quartier de résidence
ainsi que l’âge, mais le site précise que ces informations sont réservées à l’équipe de
Carticipe et à la presse. Ces choix ergonomiques correspondent au désir des créateurs
du site qui ne voulaient pas brider d’éventuels participants qui auraient peur de sortir
de l’anonymat. L’identité des carticipants est donc à la fois déclarative, agissante
et calculée des internautes : « [… ] on a décidé de laisser en optionnel les fiches
signalétiques très sommaires qu’on a mises en place. On propose aux gens de mettre
leur quartier et leur âge, leur commune de résidence. [… ] On va certainement la
rendre obligatoire dans le cadre de prochaines consultations » (entretien fondateur).

Environ un tiers des participants font apparaître leur nom de famille. Certains
des participants sont impliqués, nous le verrons, dans la vie associative ou civique
de la cité, mais ces appartenances ne sont pas utilisées de manière explicite. La
contribution à Carticipe est donc plutôt envisagée comme un engagement individuel
par le recours à une identité numérique qui n’est pas forcément une identité publique.
Ainsi il est possible de voir la liste des différentes idées proposées par un participant
mais pas ses votes et enfin il n’est pas possible de créer un réseau de contact entre
les participants.

Les participants ont aussi la possibilité de se connecter par l’intermédiaire d’un


compte Facebook, celui-ci étant plus fréquemment lié à l’identité réelle de l’internaute.
Il s’agit là d’une évolution récente mais néanmoins importante du principal réseau
social qui permet d’accéder à des sites tiers sans avoir à créer un autre identifiant,
cela a aussi l’avantage pour le site tiers d’apparaître sur le réseau Facebook et de
rejoindre ainsi d’éventuels futurs utilisateurs : « [… ] parce qu’il faut d’abord se créer
un profil pour s’inscrire, mais on peut être relativement anonyme donc il y en a
qui pourraient s’amuser à canarder mais non. Ça c’est l’effet de la focalisation, la
structure de notre truc c’est que cela focalise sur le concret, le constructif. C’est le
pointage, parler d’un endroit, et la thématisation, parler d’un sujet et en plus préciser
son sujet en choisissant une couleur et un pictogramme » (entretien fondateur). Des
travaux anglo-saxons ont envisagé les applications récentes sur les sites comme des
formes d’engagement [Manovitch, 2011] : les boutons « J’aime » de Facebook ou
« +1 » de Google sont en effet des possibilités d’action.
246 Traces numériques et territoires

En résumé, la structure du site donnerait donc ici aisément à voir ce qui est
attendu des participants. Ces différents éléments ne doivent pas être isolés d’autres
types de ressources de type organisationnel comme les principes de modération
ou, dans le cas de Carticipe, les représentations graphiques présentes sur le site :
elles constituent également des formes de cadrage et d’incitation à l’action et à
l’échange qui traduisent une certaine conception de l’usager/participant (ce qu’il
est censé faire, dire, ne pas faire ou ne pas dire).

CONTRIBUTEURS : UN PUBLIC NOUVEAU MAIS PAS RÉELLEMENT DIFFÉRENT

Une augmentation quantitative du nombre de participants au débat public

La plate-forme a été testée une première fois à Laval (50 000 habitants) dans le cadre
de la concertation du Plan local d’urbanisme (PLU). Après six mois d’utilisation,
Carticipe4 avait recueilli 613 suggestions, 478 commentaires et plus de 4 000 votes
de la part de 359 inscrits sur la plate-forme, voire plus de 500 participants en
comptant les contributions directes lors des ateliers de quartier. Au-delà de cette
utilisation institutionnelle qui démontrait que les outils numériques permettent
de rejoindre plus de citoyens que les forums classiques de la participation, deux
utilisations citoyennes se sont développées en association avec des médias locaux
dans la perspective des élections municipales de mars 2014. Fin août 2013, Carticipe
Strasbourg 20285 est lancé avec le soutien du journal en ligne Rue89Strasbourg.
En janvier 2014, le site avait engendré plus 38 000 pages vues par plus de 10 700
visiteurs uniques et par ailleurs on notait plus de 620 suggestions, plus de 1 700
commentaires et plus de 11 000 votes, le tout avec plus de 780 contributeurs. Enfin,
Carticipe Marseille-Provence6 a été lancé mi-décembre 2013 avec le soutien du
journal en ligne Marsactu.fr. En janvier 2014, le site avait généré plus 7 500 pages
vues et recueilli plus de 300 suggestions, plus de 600 commentaires et plus de 4 500
votes, le tout avec plus de 320 contributeurs.

En ce qui concerne Strasbourg, 828 internautes sont devenus « carticipants » en se


créant un compte sur le site. Ce qui représente – en toute hypothèse – plus d’un
habitant sur 1 000 à l’échelle de toute l’aire urbaine de Strasbourg. A Marseille, avec
les mêmes armes limitées de communication, nous en sommes pour l’instant au
chiffre moindre de 443 carticipants. Il faut toutefois rappeler que le site à démarré
nettement plus tard : mi-décembre 2013, contre fin août 2013 à Strasbourg, soit à
peu près 5 mois d’ancienneté contre 8,5. En termes d’audience, les deux sites ont
touché un public beaucoup plus large que les seuls carticipants inscrits : près de
40 000 pages vues par plus de 12 000 personnes à Strasbourg en 8 mois et demi, et

4 http://laval2021.carticipe.fr.
5 http://strasbourg2028.carticipe.fr.
6 http://marseille.carticipe.fr.
plus de 24 000 pages vues par plus de 8 000 personnes en 5 mois à Marseille. Les
propositions déposées sur la carte ont donc intéressé en moyenne 15 « curieux »
pour 1 contributeur actif. Notons que les deux sites atteignent un public équivalent
en rythme mensuel : 4 700 pages par mois à Strasbourg, contre 4 800 à Marseille.
Ces chiffres sont donc à replacer dans le cadre d’une expérimentation limitée en
termes de moyens techniques et de supports médiatiques. Toutefois, au regard des
publics mobilisés dans les dispositifs classiques de la participation, ils apparaissent
assez importants (cf. Tableau de synthèse).

Pour autant, nous assisterions bien ici à ce qu’Alexandre Coutant et Thomas Stenger
évoquent sous le terme de « tripartition »7, autrement dit : « 1 % de contributeurs,
9 % de commentateurs pour 90 % de lecteurs »8. Cela ramène aussi au constat que
nous avons fait sur la participation à Carticipe, qui est essentiellement faite de votes,
puis de commentaires et enfin de création d’idées. Les deux auteurs rappellent aussi
que l’accessibilité aux sites en ligne repose sur les compétences à participer, qui
restent très inégales. De même, l’enquête Sociogeek9 (lancée par la Fondation Internet
Nouvelle Génération (Fing)) démontre qu’au-delà des compétences techniques,
la capacité à participer et à bâtir une autorité au sein d’espaces et de publics est
fortement liée au capital culturel. Cependant, nous pouvons émettre l’hypothèse
selon laquelle le numérique permet à des citoyens qui ne participent pas aux forums
classiques de la participation de trouver une façon plus simple de participer : « c’était
plus simple [… ] parce que c’était numérique, j’étais chez moi, je l’ai vu, j’ai cliqué
dessus et je pouvais me connecter à chaque fois et proposer mes idées, débattre ou
voter pour des idées » (entretien n° 2 avec un contributeur). Cela permet aussi de se
sentir plus légitime à le faire par ces médias ou du moins de dépasser une certaine
timidité : « j’ai jamais participé à un forum classique de participation mais c’est un
regret, c’est vraiment par manque de temps. [… ] En fait, j’ai pas de connaissance
scientifique en termes d’urbanisme, c’est juste une passion, je suis un amateur et je ne
me sens pas capable d’avoir toutes les connaissances nécessaires pour participer à ce
genre de choses ou rentrer dans un collectif avec des personnes qui s’y connaissent
vraiment qui ont fait des études dans le domaine [… ] » (entretien n° 1 avec un
contributeur). Dés lors, la participation à Carticipe est justifiée par son côté « ouvert
à tous » qui donnerait plus de poids à la participation citoyenne : « je pense que c’est
plus mis en valeur sur ce type de support, sur Carticipe. Parce que déjà c’est plus
facile, on peut le faire tranquillement chez soi en rentrant. C’est plus accessible. Et le
système de bulles qui grossissent au fur et à mesure que les votes augmentent. C’est
assez intéressant, cela permet de mettre en avant les projets qui fédèrent » (entretien
n° 1 avec un contributeur).

7 Site du Social Media Club http://socialmediaclub.fr/2013/05/web-participatif-entre-mythe-


et-realite (page consultée le 24 mai 2014).
8 Ibid.
9 Site de la Fondation Internet Nouvelle Génération (FIND) http://fing.org/?SocioGeek,202
(page consultée le 25 mai 2014).
248 Traces numériques et territoires

Le risque de l’entre-soi : une ouverture vers de nouveaux profils ?

Alors que les publics des dispositifs classiques de la participation sont souvent
caractérisés comme étant plutôt âgés, masculins, blancs et disposant d’un fort capital
socio-économiques, les plates-formes numériques, notamment les réseaux sociaux,
valoriseraient un modèle de citoyenneté active favorisant les jeunes [Coleman, 2008 ;
Bennett, 2008].

Carticipe semble correspondre à ce modèle avec un public plus jeune mais surtout plus
diversifié que celui que l’on trouve, par exemple, au sein des partis politiques : « […
] à Marseille, ce n’est pas que des propositions de catégories sociales déterminées
parce qu’on a des propositions sur les quartiers nord, on a des noms à consonance
maghrébine puisque ça constitue une bonne partie de la population marseillaise.
On intéresse les gens de différentes origines, cela ne veut pas dire que ce sont
les plus pauvres ou les plus incultes qui sont connectés. [… ] souvent on récolte
tous les bac+5 dans les quartiers HLM et c’est là aussi qu’on fait découvrir aux
services administratifs qu’il y a des bac+5 dans les quartiers HLM dont une partie
des administrants et des administrés ont peur ! » (entretien fondateur).

Le niveau de revenus moins élevé dans le nord de la ville n’empêche pas un niveau
de participation important. Toutefois, il convient de noter que la localisation des
projets correspond souvent à l’espace de proximité des participants mais pas
forcément comme nous pouvons le penser pour les projets de l’espace central.

La densité et le niveau de centralité ont un impact important sur le niveau de


concentration des propositions. Les propositions se concentrent donc dans
l’espace central de la ville soit les 7 premiers arrondissements. Il convient aussi
de noter qu’il s’agit de l’espace de projet Euroméditerranée, du Vieux-Port, du
secteur de la Canebière ou encore des quartiers en cours de gentrification comme
le Panier ou la Plaine.

Sur les neuf personnes de l’agglomération strasbourgeoises, cinq personnes ont


entre 25 et 36 ans (une part majoritaire de jeunes), deux personnes ont entre 36
et 50 ans, une personne a entre 51 et 65 ans et une personne a 66 ans et plus.
Des données internes du cabinet Repérage urbain confirment que les 2/3 des
utilisateurs ont moins de 35 ans.

Il semble aussi plus ouvert à la diversité ethnique. A cet égard, les débats récurrents
sur la représentation de la diversité ethnique des élus municipaux marseillais sont
assez révélateurs. Souvenons-nous du film Rêves de France à Marseille (2003) de Jean-
Louis Comolli et Michel Samson qui retraçait le parcours de différents candidats de
la diversité lors des élections municipales de 2001 dont une certaine Samia Ghali
qui se retrouvera au cœur des débats sur ces enjeux lors des primaires socialistes de
Reconfiguration des pratiques participatives 249

2014 pour ces mêmes élections. La participation en ligne permet donc l’ouverture
sur de nouveaux publics mais la décision reste l’apanage d’une petite minorité.

Il convient toutefois de s’interroger et de relativiser cette analyse d’une certaine


ouverture vers de nouveaux publics. Au-delà d’un effet lié à la dimension innovante
des outils numériques, à Marseille et à Strasbourg, les deux cartes participatives
se sont appuyées sur des nouveaux médias, Rue89 et Marsactu, dont le lectorat
correspond plutôt aux populations jeunes et éduquées. Ainsi, peut-être qu’une
Carticipe associée à La Provence ou aux Dernières nouvelles d’Alsace aurait rejoint un
public un peu différent.

 
Figure 2 : Niveau de participation et revenus. Source : http://carticipe.files.wordpress.com/2014/05/
1924917_10151938850092126_840937876_o.jpg, réalisation par Benjamin Hecht de Repérage
urbain

 
Figure 3 : Impact de la densité sur le niveau de participation. Source : http://carticipe.files.wordpress.com
/2014/05/10269916_10151938850047126_1317254630_o.jpg, réalisation par Benjamin Hecht
de Repérage urbain
250 Traces numériques et territoires

La question du niveau de connexion et, finalement, de la « fracture numérique » est


aussi discriminante dans le niveau de participation. Les personnes ayant répondu à
un questionnaire sur l’utilisation de Carticipe Strasbourg sont toutes très connectées
sur les réseaux sociaux : neuf personnes sont inscrites sur Facebook, quatre sur
Twitter, quatre autres sur Instagram, quatre encore sur Linkedin, une personne sur
Viadeo, une personne sur ResearchGate et une personne sur Academia. Ils peuvent
correspondre au profil de ces « hyper-connectés » : « je ne saurais même pas chiffrer
le temps passé connecté. [… ] La première chose que je fais quand je me lève, c’est
d’allumer mon ordinateur et la dernière quand je me couche, c’est de l’éteindre »
(entretien n° 2 avec un contributeur). À leurs yeux : « pour soutenir les pratiques de
consultations citoyennes. Cette initiative est innovante » ; « l’échange et le partage
d’idées peut être à l’origine de projets concrets pour améliorer la ville et notre cadre
de vie » [Duval, 2014 : 28].

Sur les neuf personnes de l’agglomération strasbourgeoises, cinq femmes ont


répondu contre quatre hommes. La plupart appartiennent à la catégorie Cadre et
Profession Intellectuelle (six personnes sur neuf), même si on trouve également
des étudiants (deux personnes sur neuf, dont une précisant être doctorante), une
personne de la catégorie Artisan, Commerçant et Chef d’entreprise et une personne
retraitée. La majorité des personnes ayant répondu ont des pratiques militantes :
six sont membres d’une association, quatre sont membres d’un parti politique et
une personne est membre d’un conseil de quartier [op. cit. : 27]. Toutes justifient
leur « carticipation » par le fait de se sentir concernés par la vie locale et la volonté
de s’y investir [op. cit. : 28]. La majorité d’entre eux ont donc déjà participé à des
concertations publiques concernant l’aménagement. A la question « Avez-vous déjà
participé à des concertations publiques ? », quatre personnes ont répondu « Parfois »,
trois personnes ont répondu « Jamais », une personne a répondu « Souvent » et une
personne a répondu « Très souvent » [op. cit. : 28]. Si six d’entre eux seulement ont
soumis une proposition d’aménagement, toutes par contre ont voté, via le site,
pour ou contre des propositions déjà existantes. C’est une des limites pointées
de l’exercice : « le site Carticipe ne semble toucher qu’une population quasiment
identique à celle que l’on retrouve lors des concertations publiques. Autrement
dit, une population dite « d’initiés » à l’aménagement du territoire, qui connait
un minimum le fonctionnement et les termes à employer. C’est également une
population qui, souvent, présente un capital économique et culturel assez élevé
et qui est issu de catégorie-socioprofessionnelles (CSP) élevées, telles que la CSP
« Cadres et professions intellectuelles » [op. cit. : 31]. Sur Internet, donc, comme dans
la plupart des lieux de concertation pour l’aménagement des territoires, c’est, bien
souvent, les plus élevés socio-économiquement et culturellement parlant qui mènent
le débat, qui postent les idées et participent à la définition du bien commun.

Dans ce sens, les nouvelles technologies semblent souvent venir en complément


d’autres pratiques militantes déjà existantes. La participation 2.0 donnerait ainsi
des ressources supplémentaires à des publics déjà en capacité de s’exprimer
Reconfiguration des pratiques participatives 251

dans les forums off-line. L’apport du numérique se situerait donc plutôt dans la
capacité à élargir un peu les publics impliqués dans le débat public. En ce sens, la
participation via Carticipe constituerait donc en quelque sorte une des réponses à la
contre démocratie ou la politique à l’âge de la défiance qu’évoque P. Rosanvallon10
en offrant de nouveaux médias pour faire participer de nouveaux publics sans
forcément ouvrir vers une plus grande diversité de situations socio-économiques.
Cela est particulièrement observable dans le cas de Marseille où la vie politique
locale est marquée par de nombreuses affaires touchant les différents partis ce qui
peut tenir à l’écart des milieux militants des citoyens qui souhaiteraient s’engager
mais ne se reconnaissent pas dans les structures partisanes : « oui il y a 4 ou 5 ans,
je voulais m’inscrire dans un parti politique, tout ça… mais c’était une vague idée.
[… ] Il y a eu l’affaire Guérini, je me suis dit nan mais c’est bon. Puis après je me
suis rendu compte de la moisissure qu’il y avait en politique en général et cela m’a
découragé, mais je ne regrette pas. [… ] Mais j’ai toujours été intéressé par les
questions publiques. Depuis que je suis tout petit je dessine des plans de villes.
C’est quelque chose… je suis né avec ! » (entretien n° 1 avec un contributeur). Plus
fondamentalement peut-être, la création de ce site par d’anciens militants, associée
au profil militant ici esquissé de ceux qui s’y investissent doit nous interroger sur
le rôle des NTIC dans la disparition des structures sociales intermédiaires (partis,
syndicats) traditionnellement disposées entre l’individu et la collectivité, au sens
générique. Dès 1975, Joël de Rosnay dans Le Macroscope avait établi une vision
prospective assez élaborée par laquelle il évaluait les effets sociaux et politiques de
ce que sont devenus entre temps les NTIC. Il y annonçait comment l’interactivité
affecterait les rapports sociaux et le fonctionnement démocratique de nos sociétés
occidentales en modifiant l’équilibre entre démocratie représentative et participation
citoyenne. A ceci près d’essentiel qu’il n’avait alors anticipé ni la miniaturisation,
ni le coût toujours plus bas du numérique. Ce sont pourtant précisément ces deux
derniers aspects qui ont été stimulés par une aspiration sociale toujours plus forte
à l’individualité, contribuant à créer un marché économique à part entière. Cette
« numérisation miniaturisée » à l’échelon individuel, en court-circuitant les structures
intermédiaires traditionnelles telles qu’elles étaient aussi inscrites dans un territoire
physique (cellule, fédération, section, etc.) a produit en retour une vacuité propice
à la prolifération de structures intermédiaires d’un genre renouvelé et démultiplié,
dont les réseaux sociaux et autres plates-formes numériques telles que Carticipe
sont les illustrations. Ce mouvement continu d’individualisation permet à chacun
d’adhérer à différentes structures sociales, communautaires ou « tribales » plus ou
moins éphémères, démultipliant ainsi ses identités au gré de ses disponibilités et
de ses choix.

10 https://www.uclouvain.be/cps/ucl/doc/etes/documents/2008.Rosanvallon.cdemo.pdf.
252 Traces numériques et territoires

CONTENU : LE DÉBAT PUBLIC QUI VISE LA CONSTRUCTION DE COMPROMIS

Diversité des thématiques et importance des transports


VILLES LAVAL STRASBOURG MARSEILLE
(temps de (en 7 mois de carte (en 8 mois et demi (en 5 mois et demi
présence des cartes disponible sur le net) environ) bassin de 760 000 environ) bassin de
disponibles sur le 50 000 habitants habitants pour la rive 850 000 habitants
site) française
Combien de 347 828 443
« Carticipants » ?
Combien de 11 982 40 000 pages vues par 24 000 pages vues par
« Cartispectateurs » ? 12 000 internautes 8 000 internautes
Quel niveau de 11 840 votes soit 6 660
« carticipation » ? une moyenne de
n° 1 le vote 18/« carticipants »
Quel niveau de 487 commentaires et 2 434 contributions 1 440 (dont 951
« carticipation » 588 idées/suggestions rédigées (dont 1 760 commentaires émis par
n° 2 la contribution déposées sur la carte commentaire émis par 188 118 internautes différents
« carticipants » et 674 idées et 463 idées émises sur la
déposées sur la carte par carte par 118 internautes
174 internautes différents) différents
Préoccupation n° 1 Revitalisation du Transports/mobilité (272 Transports/mobilité (244
commerce en centre- idées) idées)
ville
Préoccupation n° 2 Place du piéton dans Ex aequo : constructions Sports, culture, services
la ville et amélioration neuves et espaces publics publics (80 idées)
des transports en (139 idées)
commun
Préoccupation n° 3 Vélo Sports, culture, services, Espaces verts, nature,
commerces (115 idées) environnement (64 idées)
Préoccupation n° 4 Espaces verts ou Espaces publics ou verts Bâti/constructions
naturels /équipements ou naturels (96 idées) (51 idées)
de plein air
Préoccupation n° 5 Architecture et Actions citoyennes et Activités économiques,
patrimoine environnement (52 idées) commerce (24 idées)

Figure 4: Bilan des 3 Carticipe. Source : Eric Hamelin, 2014, Carticipe Strasbourg et Marseille :
petit bilan quantitatif comparé, http://carticipe.net/2014/05/23/carticipe-strabourg-et-marseille-
petit-bilan-quantitatif-compare
Reconfiguration des pratiques participatives 253

Résultat Total Total Total des % des % des


Nombre Nombre de
THÈME des votes votes votes pour votes votes
d’idées commentaires
scores pour contre & contre pour contre

Mobilité et
272 547 2 798 3 147 349 3 496 90 % 10 %
espaces publics

Bâti,
54 123 512 654 142 796 82 % 18 %
constructions

Activité
économique, 29 59 304 380 76 456 83 % 17 %
commerce

Sport, culture,
services, 84 174 834 1 002 168 1 170 86 % 14 %
publics

Espaces
verts, nature, 67 133 840 951 111 1 062 90 % 10 %
environnement

Total/Moyenne 506 1 036 5 288 6 134 846 6 980 88 % 12 %

Figure 5 : Bilan de Carticipe Marseille. Source : données au 14/08/2014

Au 14/08/2014, il y a un total 29 886 pages vues depuis le lancement et de


457 carticipants pour 506 idées déposées. Il y a environ 2 commentaires par idées,
88 % des votes sont favorables, la catégorie « Bâti et constructions » est celle qui
va recueillir le moins de votes positifs ce qui peut s’expliquer par la dimension
généralement plus conflictuelle des projets immobiliers

Au regard des données de mai 2014 (total de 463 idées), il y a 951 commentaires
produits par 118 internautes différents et 463 idées émises par 108 carticipants
différents. Comme ce ne sont pas toujours les mêmes qui déposent les idées et
font les commentaires, il y a au total 158 carticipants créatifs ayant déposé des
contributions écrites, idées ou commentaires. On peut donc constater le niveau
d’engagement suivant : 1 inscrit sur 2,8 contribue par écrit en rédigeant des avis, les
autres se contentant de voter.

L’observation plus fine des idées proposées montre une certaine concentration.
Ainsi, le principal participant, Hugo Lara, comptabilise à lui seul 28 propositions,
soit 6 % de l’ensemble. De même 10 % des contributeurs ont-ils proposé 44 %
des idées tandis que 35 % des participants n’en ont proposé qu’une seule.
254 Traces numériques et territoires

La plate-forme laisse la possibilité d’associer des images aux propositions, ainsi à


Marseille un carticipant a pu associer une visualisation d’une piétonisation de la rue
Paradis.

 
Figure 6 : Visualisation d’une proposition (rue de Paradis – Marseille).
Source : Tournadre Anthony / Carticipe – Marseille

Un bilan qualitatif des propositions du site marseillais permet d’observer une


certaine concordance entre le débat public en ligne et celui qui se déroule dans
l’espace physique. On retrouve aussi une grande correspondance avec les thèmes
de débat des élections municipales à l’exception des enjeux de sécurité publique
et de moralisation de la vie politique locale. Il y a donc une correspondance entre
les débats online et offline sur les questions de fond quant à l’aménagement et au
développement de l’espace.

Les questions de transports dominent les débats avec des propositions qui vont
se concentrer sur la nécessité d’améliorer la situation des transports publics. Les
propositions concernent le développement des réseaux de bus mais aussi de
métro, de tram ou encore de tram-train sans oublier l’échelle métropolitaine avec
les liaisons avec les villes d’Aix-en-Provence ou encore d’Aubagne.
Reconfiguration des pratiques participatives 255

Certains lieux vont concentrer l’attention des participants à l’image du périmètre


Euroméditerrannée ou de la Corniche Kennedy qui fait l’objet de nombreuses
attentions pour y repenser des usages de l’espace public alternatifs à la voiture
avec un tram, des pistes cyclables ou tout simplement plus d’espace piétons. Ces
propositions sur l’espace public se retrouvent aussi dans la plupart des espaces de
la ville.

La question des politiques culturelles est aussi débattue avec la suite à donner à
l’année 2013 pendant laquelle Marseille était capitale européenne de la culture. Les
propositions portent sur le renouveau de l’offre culturelle et artistique notamment
en matière de cinémas.

Marseille étant aussi candidate au titre de capitale européenne du sport pour


l’année 2017, cet enjeu de politiques publiques est aussi abordé, notamment avec
la question de la rénovation et du développement des piscines.

Plus généralement, les propositions font souvent référence au rang et au


rayonnement de Marseille comme métropole européenne et méditerranéenne, il
est donc souvent question d’image de marque et donc d’attractivité économique.

Une vision positive de la participation qui évacue les conflits


La participation est envisagée de manière positive, en évitant les conflits et les
dimensions polémiques. Le site invite d’ailleurs à proposer des idées ou à soutenir
des idées et non à voter contre : « Si quelqu’un venait poser une idée, on voit que
dans beaucoup de cas, il vérifie si ça existe déjà et, si ça existe, il va ajouter un
vote et/ou un commentaire pour compléter ou argumenter, parfois réorienter
légèrement le discours. Pour nous, on s’est dit c’est très bien, on va obliger les
gens à être super concrets pour éviter les engueulades générales surtout dans
un contexte électoral et électoraliste. Si on se fixe sur un point du territoire, un
quartier, c’est plus rare qu’il y ait des divergences ou, si il y en a, elles ne sont pas
politisées, elles sont sur des questions plus concrètes » (entretien fondateur).

Les carticipants s’inscrivent dans une vision positive de la participation en mettant


l’emphase sur la dimension contributive de l’engagement : « j’ai eu envie de
contribuer pour retrouver ma ville telle qu’elle a pu être dans le passé et proposer
des projets pour aller dans ce sens là et contribuer à l’embellir. ». Toutefois ces
contributions ne sont pas considérées comme un acte militant mais plutôt citoyen :
« je ne me considère pas comme un militant mais juste comme un Marseillais. Pour
moi Carticipe n’est pas une pratique militante. Je suis un citoyen qui réside dans
une ville que j’apprécie beaucoup et donc c’est normal que je veuille que mon
cadre de vie soit tiré vers le haut et qu’il s’améliore, aussi pour changer l’image de
Marseille » (entretien n° 2 avec un contributeur).
256 Traces numériques et territoires

Généralement les propositions correspondent bien à l’attitude positive attendue par


les concepteurs par exemple on avance l’idée de « ramener la Corniche à 2 voies et
créer une “vraie” piste cyclable séparée de la circulation automobile » (FBA) avec
85 votes. Toutefois, les contributions peuvent aussi se faire polémiques comme
nous l’avons vu sur la cogestion entre la mairie et le syndicat FO, Carticipe peut aussi
permettre d’afficher des oppositions à des projets comme la « suppression du projet
d’hôtel de luxe sur la plage des Catalans » (Bertrand) qui recueille 49 votes. Dans
ce sens, Carticipe pourrait fédérer l’expression de mouvements de type NIMBY11.

Finalement, la question de l’utilité de Carticipe et surtout de sa capacité


transformationnelle reste ouverte : « cela aurait été bien que cela soit fait par la
mairie ou avec la mairie pour qu’ils en tiennent compte et que cela fasse une
réflexion pour eux sur les aménagements possibles. Alors qu’il me semble que
c’était complétement détaché, bon après peut-être qu’ils ont regardé mais… »
(entretien n° 2 avec un contributeur).

CONCLUSION

À Strasbourg et Marseille, Carticipe reposent sur des médias locaux qui tentent
de peser sur le débat public local. Cela correspond à un engagement militant de
professionnels de la ville et des médias au service d’un urbanisme plus collaboratif
mais la question des effets de l’expérimentation reste entière : « à Strasbourg et à
Marseille on est dans une expérience plus médiatique. C’est médiatico-politique
mais ce n’est pas une commande de la mairie. [… ] C’est un truc qu’on a monté
en proposant un partenariat aux médias locaux en ligne pour se faire mousser
dans la campagne en montrant qu’on pouvait apporter des idées de l’extérieur.
C’est le côté de bas en haut, participatif, initiatives non politiques quoi » (entretien
fondateur). Pour dépasser le « marketing participatif » [Aldrin et Utard, 2008], il
faut interroger les dynamiques possibles d’institutionnalisation et de pérennisation
de la plate-forme. En effet, la participation publique renvoie aussi aux acteurs
institutionnels de l’aménagement. Les innovations numériques cohabitent donc
aux côtés des autres dispositifs plus classiques de la participation. En l’absence de
moyens et de supports politiques, le risque est de n’être qu’un gadget qui masque la
permanence des mécanismes classiques de décision. Les acteurs institutionnels de
la participation doivent donc réfléchir aux moyens alloués aux différents dispositifs
de la participation et à leurs articulations entre le numérique et le non-numérique.
L’enjeu étant de faire du numérique une ressource supplémentaire au service
de politiques publiques plus inclusives. En l’absence de telles démarches pour
institutionnaliser et articuler les instruments numériques dans le débat public local,
le risque est de voir se développer des plates-formes parallèles, voire concurrentes.

11 Not In My BackYard (pas dans mon arrière-cour).


Reconfiguration des pratiques participatives 257

À Strasbourg, depuis quelques mois, les réseaux sociaux sont le théâtre d’un débat
public local assez conflictuel quant à l’utilisation nocturne de l’espace public du
centre-ville. Ces conflits d’usage dégénèrent et conduisent à l’affrontement entre
différents groupes par l’intermédiaire de pages Facebook avec la dénonciation de
comportements individuels qui sont filmés et partagés sur le site de vidéos You
Tube12. Ce conflit illustre bien les ressources supplémentaires que le numérique
peut apporter aux groupes qu’ils soient institutionnalisés ou pas. Cela rappelle aussi
l’intérêt et la responsabilité politique des acteurs institutionnels afin de développer
un dispositif sociotechnique afin d’organiser et de modérer les échanges au sein
d’un forum qui permette une mise en débat et surtout une délibération capable
de préserver le vivre ensemble.

RÉFÉRENCES BIBLIOGRAPHIQUES
[Aldrin et Utard, 2008] Aldrin, Ph. et Utard, J.-M., 2008, The ambivalent politicization of European
Communication. Genesis of controversies and institutional frictions surrounding the 2006
White Paper, Strasbourg : Centre for European Political Sociology, http://
prisme.u-strasbg.fr/workingpapers/WPAldrinUtard.pdf.
[Bailleul, 2008] Bailleul, H., 2008, « Les nouvelles formes de la communication autour des projets
urbains : modalités, impacts, enjeux pour un débat participatif », Métropoles,
http://metropoles.revues.org/2202.
[Bailleul et Gibon, 2013] Bailleul, H. et Gibon, C., 2013, « Médiation urbaine numérique Quels
enseignements pour un urbanisme participatif ? », Place publique, 25, 39-44.
[Baudouard, 2014] Baudouard, R., 2014, « La mise en technologie des projets politiques. Une
approche “orientée design” de la participation en ligne », Participations, 8, 31-54.
[Blondiaux et Cardon, 2006] Blondiaux, L. et Cardon, D. (éd.), 2006, Dispositifs participatifs, Politix,
75(19).
[Callon et al., 2001] Callon, M., Lacousmes, P. et Barthe, Y., 2001, Agir dans un monde incertain. Essai
sur la démocratie technique, Paris : Le Seuil.
[Cardon, 2010] Cardon, D., 2010, La démocratie internet. Promesses et limites, Paris : Le Seuil.
[del Casino et Hanna, 2006] del Casino, V. J. et Hanna, S. P., 2006, « Beyond The “Binaries”:
A methodological Intervention for Interrogation Maps as Representational
Practices », ACME: An International E-Journal for Critical Geographies, 4(1), 34-56.
[Comolli et Samson, 2003] Comolli, J. L. et Samson, M., 2003, Rêves de France à Marseille, film
documentaire de 1h44.
[de Rosnay, 1975] de Rosnay, J., 1975, Le Macroscope, Paris : Le Seuil.
[Douay, 2011] Douay, N., 2011, « Urbanisme 2.0, de la contestation à la participation », TechniCités,
214, 46-49.

12 http://tempsreel.nouvelobs.com/vu-sur-le-web/20140813.OBS6248/a-strasbourg-facebook-
envenime-le-debat-sur-la-vie-nocturne.html.
http://www.rue89strasbourg.com/index.php/2014/08/12/societe/vie-nocturne-centre-ville-
internet-casse-tete.
[Douay, 2014] Douay, N., 2014, « Les usages du numérique dans le débat public », In Carmes, M.
et Noyer, J.-M. (dir.), Devenirs numériques, Paris : Presses des Mines, pp 227-244.
[Douay et Prévot, 2012] Douay, N. et Prévot, M., 2012, « Activismes urbains : engagement et
militantisme », L’Information géographique, 76(1), 74-88.
[Douay et Prévot, 2014] Douay, N. et Prévot, M., 2014, « Park(ing) Day : label international d’un
activisme urbain édulcoré », Environnement urbain, 8, 14-33.
[DuvalI, 2014] DuvalI, A., 2014, L’usage d’Internet dans les pratiques de la démocratie participative
en aménagement, l’exemple du site Internet Strasbourg 2028, mémoire de master 1
Aménagement et développement local, Université Paris-Diderot, Paris.
[IAU îdF, 2013] IAU îdF, 2013, « Cartes, plans, 3D : représenter, imaginer la métropole », Cahier
de l’IAU îdF, 166.
[Joliveau et al., 2013] Joliveau, T., Noucher, M. et Roche, S., 2013, « La cartographie 2.0, vers
une approche critique d’un nouveau régime cartographique », L’Information
géographique, 4, 29-46.
[Latour, 2005] Latour, B., 2005, Reassembling the Social: An Introduction to Actor-Network-Theory,
Oxford : Oxford University Press.
[Macintosh, 2007] Macintosh, A., 2007, « e-Participation: from e-enabling to e-empowerment »,
Communication au colloque E-democracy: new opportunities for enhancing civic
participation, Conseil de l’Europe, Strasbourg.
[Minnery et Searle, 2014] Minnery, J. et Searle, G., 2014, « Toying with the city? Using the
computer game SimCity4® in planning éducation », Planning Practice & Research,
29(1), 41-55.
[Nonjon, 2005] Nonjon, M., 2005, « Professionnels de la participation : savoir gérer son image
militante », Politix, 70, 89-112.
[Noucher, 2013] Noucher, M., 2013, « Introduction au dossier thématique “Cartographie
thématique” », L’Information géographique, 77(4), 6-9.
[Offerlé, 1996] Offerlé, M., 1996, Sociologie des groupes d’intérêt, Paris : Montchrestien.
[Palsky, 2011] Palsky, G., 2011, « Cartes participatives, cartes collaboratives, la cartographie
comme maieutique », Le Monde des Cartes, 205, 49-59.
[Palsky, 2013] Palsky, G., 2013, « Cartographie participative, cartographie indisciplinée »,
L’Information géographique, 4, 10-25.
[Proulx et al., 2014] Proulx, S., Garcia, J. L. et Heaton, L. (éd.), 2014, La contribution en ligne. Pratiques
participatives à l’ére du capitalisme informationnel, Québec : Presses de l’Université du
Québec.
[Rodota, 1999] Rodota, S., 1999, La démocratie électronique, Rennes : Apogée.
[Quaderni, 2012] Quaderni (revue), 2012, « Produire la démocratie. Ingénieries et ingénieurs de
l’offre publique de participation », 79(3).
[Wachter, 2011] Wachter, S., 2011, « La ville numérique : quels enjeux pour demain ? »,
Métropolitiques, 28/11/2011, http://www.metropolitiques.eu/La-ville-numerique-
quels-enjeux.html.
Remerciements
Cet ouvrage est le résultats des travaux de l’axe de recherche « médias et territoires »
du GIS Collège International de Sciences de Territoire (Paris) et notamment de
la journée d’étude Ville 2.0 : Soft data pour les politiques publiques de la ville, qui s’est
tenue à l’Université de Lille 3 en octobre 2014.

Nos remerciements vont d’abord aux institutions qui ont financé cet événement
et la publication de cet ouvrage : le CNRS (à travers le PEPS Décisions, Indicateur
et politiques publiques), le GIS Collège International de Sciences de Territoire et
la Maison européenne des sciences de l’homme et de la société de Lille.

Nous remercions Maryse Carmes et Jean-Max Noyer d'avoir accepté notre


ouvrage dans leur Collection Territoires Numériques et La Poste pour le soutien
à cette collection.

Nous aimerions également remercier tous les participants à la journée d’étude,


ainsi que tous ceux qui ont participé en 2015 à la série de rencontres organisée à
la MESHS de Lille qui portait le même titre que la journée d’étude.

Enfin, nous aimerions remercier Marion Gentilhomme, qui s’est chargée avec
grande méticulosité de la correction et de la mise en page du manuscrit. Sans son
aide, ce travail n’aurait jamais pu être achevé.
Les auteurs
Boris Beaude
Boris Beaude est docteur en géographie, chercheur au laboratoire Chôros, Ecole
polytechnique fédérale de Lausanne (EPFL). Après avoir enseigné les enjeux
politiques de l’espace pendant 8 ans à l’Institut d’études politiques de Paris, il a
rejoint l’EPFL, où il mène des recherches sur les enjeux sociétaux de la dimension
spatiale des pratiques numériques. Ses travaux portent essentiellement sur les
notions d’hypercentralité (concentration des pratiques au sein d’un nombre limité
d’espaces) et de synchorisation (le processus social par lequel l’interaction est
possible). Il est l’auteur d’Internet, changer l’espace, changer la société et de Les fins
d’Internet, publiés respectivement en 2012 et en 2014 aux Editions FYP.

Laurent Beauguitte
Laurent Beauguitte, docteur en géographie depuis 2011, est chargé de recherche
CNRS à l’UMR IDEES (Rouen) depuis octobre 2014. Spécialiste en analyse
spatiale et en analyse quantitative, il anime un blog scientifique consacré à
l’analyse de réseaux (http://groupefmr.hypotheses.org). Il s’est impliqué dans des
projets de recherche au niveau français (ANR Cartelec 2012-2013, ANR Corpus
Géomédia 2013-2016) et européen (FP7 EuroBroadMap 2009-2011). Ses thèmes
de recherche principaux concernent la géographie politique, l’analyse de réseaux,
l’analyse spatiale et textuelle. Toutes ses publications sont accessibles en ligne.

Dominique Boulier
Dominique Boulier est professeur des universités en sociologie à Sciences Po.
Docteur en sociologie de l’Ecole des hautes études en sciences sociales (EHESS,
1987), diplômé de linguistique (Rennes 2, 1991), HDR en sciences de l’information
et de la communication (Bordeaux 3, 1995). Il a été Professeur des Universités
à l’Université de Technologie de Compiègne (UTC) et directeur de l’unité de
recherches Costech (1997-2005). Il a également été créateur et directeur de l’unité
mixte de services du CNRS LUTIN User Lab à la Cité des Sciences et de l’Industrie
de la Villette (2004-2007). Il a été chef d'entreprise et adjoint au maire de Rennes.

Maryse Carmes
Maryse Carmes est maître de conférences en sciences de l’information et de
la communication, au CNAM Paris et membre du laboratoire Dicen-IDF, co-
fondatrice du Grico et co-responsable de la collection « Territoires numériques »
publiée aux Presses des Mines Paris-Tech. Ses travaux portent sur la construction
262 Traces numériques et territoires

et l’évolution des politiques publiques numériques ainsi que sur la transformation


des milieux organisationnels et des agencements socio-techniques du travail. Elle
étudie notamment dans ce cadre les débats qui parcourent la mise en œuvre
des stratégies numériques et de leurs interfaces, ainsi que les nouvelles pratiques
associées à l’exploitation des traces et des données.

Franck Cormerais
Franck Cormerais est professeur des universités au laboratoire MICA de
l’Université de Bordeaux Montaigne. Docteur en philosophie (Paris 1) et en
science de l’information et de la communication (Paris XIII), il est responsable
de l’axe prioritaire Humanités Digitales de l’université. Ses recherches portent
sur l’anthropologie des techniques et sur les pratiques des TIC. Son programme
comporte deux axes autour de l’innovation. Le premier relie les supports de
l’inscription numérique à l’établissement de nouvelles pratiques en ligne ; le second
s’intéresse à l’industrialisation contemporaine du langage, de la culture, et l’économie
de la connaissance. Il est membre de PEKEA, de la SFSIC et de l’AEIRI. Il a eu
des responsabilités scientifiques récentes dans divers projets : Musée virtuel de la
pensée (2014), Histocom20 (2013), Projet Valeurs, axe spécificité du territoire et
développement culturel (2011-2013). Dernier ouvrage en collaboration avec Pierre
Musso, La société éclatée, le retour de l’objet local, Editions de L’Aube, 2014.

Jos de Mul
Jos de Mul est professeur de philosophie de l’homme et de la culture à la Faculté
de philosophie, Université Erasmus de Rotterdam. Il a également enseigné à
l’Université du Michigan (Ann Arbor) et à l’Université Fudan (Shanghai). Sa
recherche sesitue à l’interface de l’anthropologie philosophique, de l’esthétique, de
la philosophie de la technologie et de l’histoire de la philosophie allemande du 19e
et 20e siècle. Ses publications en anglais comprennent : Romantic Desire in (Post)Modern
Art and Philosophy (State University of New York Press, 1999), The Tragedy of Finitude.
Dilthey’s Hermeneutics of Life (Yale University Press, 2004), Cyberspace Odyssey. Towards
a Virtual Ontology and Anthropology (Cambridge Scholars Publishing, 2010) et Destiny
Domesticated. The Rebirth of Tragedy out of the Spirit of Technology (State University of
New York Press, 2014). Son travail a été traduit dans plus d’une douzaine de langues.

Nicolas Douay
Nicolas Douay est maître de conférences en urbanisme à l’Université Paris-
Diderot (Paris 7) et chercheur au laboratoire Géographie-cités (équipe CRIA).
Après des études de doctorat en cotutelle entre l’Université de Montréal et
Aix-Marseille Université, il a séjourné au Centre d’études français sur la Chine
contemporaine (CEFC – Hong Kong) grâce à une bourse de post-doctorat
Les auteurs 263

Lavoisier. Ses recherches font une large place aux approches comparatives entre
l’Asie (Chine & Hong Kong), l’Europe (France) et l’Amérique du Nord (Canada)
et se focalisent sur le processus de métropolisation particulièrement pour ce qui
a trait aux politiques urbaines, aux processus de planification territoriale et aux
usages du numérique.

Carolin Gerlitz
Carolin Gerlitz est professeur adjoint de nouveaux médias et culture numérique à
l’Université d’Amsterdam et membre de Digital Methods Initiative. Sa recherche
explore les différentes intersections entre les médias numériques, les méthodes et la
sociologie économique, avec un intérêt particulier pour les économies du Web, les
études de plates-formes et logiciels, marques, valeur, topologie, numératie, médias
sociaux, méthodes numériques et la cartographie des enjeux en ligne. Elle a achevé
son doctorat sur « Marques et économies continues » en sociologie à l’Université de
Londres Goldsmiths. Elle a maintenant une bourse NWO Veni de quatre ans pour
le projet « Numbering Life. Measures and Metrics in Digital Media ».

Noortje Marres
Noortje Marres est maître de conférences en sociologie et directeur du Centre
pour l’étude de l’invention et du processus social à l’Université de Londres
Goldsmiths. Elle a étudié la sociologie et la philosophie de la science et de la
technologie à l’Université d’Amsterdam et, pendant son doctorat, a combiné la
téorbe de l’acteur-réseau et le pragmatisme américain pour étudier les problèmes
de la démocratie dans les sociétés technologiques. Elle a développé en outre ce
travail dans son livre Material Participation: Technology, the Environment and Everyday
Publics (Palgrave, 2012) et a également contribué à l’élaboration de la méthodologie
numérique, en particulier la cartographie des enjeux. A Goldsmiths, Noortje
organise le master en sociologie numérique, et elle est sur le point de finir un
ouvrage avec le même titre (Polity, à paraître).

Matthieu Noucher
Matthieu Noucher est chargé de recherche au CNRS au sein du laboratoire ADESS
(CNRS, Université Bordeaux Montaigne, Université de Bordeaux). Après une thèse
soutenue à l’Ecole polytechnique fédérale de Lausanne (EPFL) en 2009, dans
laquelle il a proposé une approche socio-cognitive et systémique de la coproduction
de données géographiques, il travaille désormais sur les nouveaux modes de fabrique
cartographique qui, depuis 2005 et l’émergence du géoweb, complexifient l’offre
en information géographique sur les territoires. Il analyse les mises en cartes
contemporaines sous l’angle des modalités de production et de diffusion des données
géographiques institutionnelles, des données géographiques bénévoles et de leur
264 Traces numériques et territoires

interaction à travers la cartographie participative. Ce faisant son objectif est de porter


un regard géographique sur la gouvernance informationnelle de l’environnement en
proposant un renouvellement théorique par/de la cartographie critique.

Jean-Max Noyer
Jean-Max Noyer est au laboratoire I3M, Université Sophia-Antipolis, et au
laboratoire Paragraphe, Université Paris 8. Il est co-fondateur du réseau de
recherche sur les devenirs numériques (GRICO), de la revue SOLARIS et
d’ARCHIVESIC (archives ouvertes en Sciences de l’information et de la
communication), co-directeur de la collection « Territoires numériques » aux
Presses des Mines Paris-Tech et « co-editor-in-chief » de la collection « Intellectual
Technologies », ISTE Science Publishing, Wiley, Londres. Ses activités portent
sur les transformations du procès de travail, les technologies intellectuelles
émergentes et les nouvelles formes organisationnelles. Ses recherches portent
aussi sur la production et la circulation médiatique des savoirs, les écritures dans
leurs dimensions pragmatiques et le mouvement « OPEN » en général. Il a dirigé
aux Editions Hermès-Lavoisier, Paris, Guerre numérique et Stratégie, 2002 et (avec B.
Juanals) Technologies de l’Information et Intelligences Collectives, 2010 et publié diverses
études sur les technologies de l’information.

Maryvonne Prévot
Historienne de formation, Maryvonne Prévot est actuellement maître de
conférences habilitée à diriger les recherches en aménagement et urbanisme à
l’Université de Lille. Membre du laboratoire Territoires, villes, environnement et
société (TVES EA 4477), elle est aussi depuis plusieurs années chercheure associée
à l’Ecole nationale supérieure d’architecture et de paysage de Lille (ENSAPL). Ses
recherches portent essentiellement sur la genèse politique et doctrinale des projets
urbains et des politiques d’aménagement aux différentes échelles territoriales, sur
les organismes d’études et d’aménagement parapublics et privés et, surtout, sur
les trajectoires militantes et professionnelles dans les champs de l’urbain, passées
mais aussi présentes, à l’ère du numérique.

Richard Rogers
Richard Rogers est professeur en « nouveaux médias et culture numérique »
et directeur du département d’études des médias à l’Université d’Amsterdam.
Il est directeur de la Fondation Govcom.org et de Digital Methods Initiative,
responsable pour l’Issue Crawler et d’autres outils d’analyse. Rogers est l’auteur
de Information Politics on the Web (MIT Press, 2004), couronné meilleur livre de
l’année par l’American Society of Information Science & Technology ainsi que
de Digital Methods (MIT Press, 2013), qui a reçu l’Outstanding Book Award par
Les auteurs 265

l’International Communication Association. Rogers est a été Ford Fellow trois


fois et a reçu des subventions de la Fondation Soros, l’Open Society Institute, la
Fondation MacArthur et la Fondation Gates.

Alberto Romele
Alberto Romele est chercheur en philosophie à l’Université de Porto, boursier de
la Fondation pour la science et la technologie (FCT). Il est actuellement chercheur
en visite au laboratoire COSTECH de l’Université de technologie de Compiègne.
Ses recherches portent sur l’herméneutique philosophique et ses applications dans
le domaine des nouvelles technologies de l’information et de la communication

Marta Severo
Marta Severo est maître de conférences à l’Université de Lille 3 (laboratoire
GERiiCO) en sciences de la communication et de l’information. Elle travaille sur
les thèmes de la communication du territoire et contribue au développement de
nouvelles méthodes numériques pour étudier les données Internet concernant le
territoire. Après un doctorat en gestion et technologies du patrimoine culturel à
l’Ecole des hautes études IMT Lucca (Italie), elle a été chercheuse post-doctorante
à Sciences Po Paris (2010) et au Politecnico de Milan (2009). Pendant deux ans,
elle a été ingénieur de recherche pour le GIS CIST à Paris, dont elle dirige depuis
2012 l’axe de recherche Médias et territoires.
Table des matières
IntroductIon ��������������������������������������������������������������������������������������������������� 7
Marta Severo, Alberto Romele

PartIe 1 - La trace, Les méthodes et Les données��������������11

au-deLà de La crItIque big data ������������������������������������������������������������������� 13


Richard Rogers
Les méthodes d’Interface ����������������������������������������������������������������������������� 33
Noortje Marres, Carolin Gerlitz
soft data ������������������������������������������������������������������������������������������������������ 61
Marta Severo, Alberto Romele
L’IdentIté comme base de données ���������������������������������������������������������������� 87
Jos de Mul

PartIe 2 - rencontre entre traces numérIques


et terrItoIres ������������������������������������������������������������������� 109

L’écume numérIque des terrItoIres �������������������������������������������������������������111


Dominique Boullier
sPatIaLItés aLgorIthmIques ������������������������������������������������������������������������� 133
Boris Beaude
L’hyPervILLe ����������������������������������������������������������������������������������������������� 161
Franck Cormerais
désIrs de data �������������������������������������������������������������������������������������������� 177
Maryse Carmes, Jean-Max Noyer
268 Traces numériques et territoires

PartIe 3 - Les PratIques de La trace numérIque ���������������211

de La trace à La carte et de La carte à La trace ������������������������������������ 213


Matthieu Noucher
dImensIons sPatIaLes de L’actuaLIté InternatIonaLe���������������������������������� 225
Laurent Beauguitte, Marta Severo
reconfIguratIon des PratIques PartIcIPatIves �������������������������������������������� 239
Nicolas Douay, Maryvonne Prévot
remercIements �������������������������������������������������������������������������������������������� 259

Les auteurs ������������������������������������������������������������������������������������������������� 261

Vous aimerez peut-être aussi