Académique Documents
Professionnel Documents
Culture Documents
Devenirs urbains
Maryse Carmes, Jean-Max Noyer
d’informations sur les phénomènes sociaux qui ont lieu dans un territoire. Par rapport au
terme big data, parler de soft data permet de souligner que les données numériques peuvent
être bien utiles pour les politiques publiques même si elles n’ont pas le volume, la vitesse
et la variété des grandes bases de données. Par rapport aux open data, un regard orienté soft
permet d’accueillir toutes les données qui ne sont pas libres de droit.
La première partie de l’ouvrage se termine avec le chapitre de Jos de Mul qui se concentre
sur le passage des données numériques à l’identité numérique. Dans une perspective
philosophique, de Mul s’interroge sur l’identité humaine à l’époque des grandes bases
de données informatisées. Si les traditions ont toujours joué un rôle important dans
la configuration de nos identités, c’est notre rapport aux traditions qui a changé. Dans
les sociétés prémodernes, les traditions allaient de soi ; dans les sociétés modernes, les
populations sont conscientes de la diversité historique et culturelle des traditions, et habiter
une tradition est question de choix existentiel. Enfin, dans les sociétés postmodernes, la
tradition est devenue plus une commodité qu’un choix existentiel. Selon l’auteur, les TIC,
et en particulier les bases de données informatisées, ont été à ce regard déterminantes.
D’un point de vue technique, les bases de données se trouvent derrière chaque site Web ;
d’un point de vue anthropologique, les bases de données deviennent de plus en plus des
métaphores conceptuelles qui structurent notre expérience du monde et de nous-mêmes.
Dans la deuxième partie, cet ouvrage se concentre sur des questions plus théoriques
soulevées par la rencontre des traces numériques et des territoires. D’abord, il est nécessaire
d’approfondir la notion de territoire pour en saisir ses nouvelles dimensions liées au
numérique. Dominique Boullier, dans son texte, propose « une description progressive de
huit propriétés des territoires les plus classiques pour discuter à chaque fois les nouvelles
dimensions qui peuvent être ouvertes ». Pour chacune des propriétés, il part d’un agencement
topographique pour définir un agencement topologique puis un agencement chronologique
généré par les traces des plates-formes numériques. L’auteur met l’accent sur le fait que ces
agencements et leurs combinaisons complexes doivent être pris en compte pour la gestion
et le gouvernement des territoires.
L’article de Boris Beaude aborde la question du rapport entre trace numérique et espace
et y répond dès la première ligne de son chapitre en affirmant que « les traces numériques
sont éminemment spatiales ». Dans son texte, l’auteur souligne le potentiel inédit des
traces pour les sciences qui s’intéressent à la dimension spatiale du social, tout en posant
également l’accent sur les nombreuses questions soulevées par leur emploi. Entre autres,
Beaude analyse la question de la visibilité, les enjeux des traces entendues comme big data,
l’opacité des processus et surtout le risque de réductionnisme et d’appauvrissement des
analyses qui risquent de réduire le Monde en général, et l’individu en particulier, à ses traces.
En conclusion, Boris Beaude, comme d’autres auteurs dans ce volume, pose l’accent sur
l’opportunité offerte par ce type de données mais en même temps sur la nécessité de prendre
en compte leurs limites.
Introduction 9
Franck Cormerais porte son regard sur un objet spatial spécifique, la ville, et propose la
notion d’hyperville – à ne pas confondre avec la smart city – comme une alternative possible
à la « gouvernementalité algorithmique ». L’hyperville serait un « système local où la relation
aux données, c’est-à-dire aux traces-signes, opère une reconfiguration dans la redistribution
spatiale et temporelle ». Néanmoins, un tel concept n’est pas naïvement optimiste. Il s’agit
plutôt d’une approche « pharmacologique » – poison et remède, selon le double signifié du
mot grecque pharmakon – des données, qui offrent à la fois des opportunités et des dangers.
Dans les différents domaines de l’hyperville – politique, sociale, artistique, industrielle,
d’opinion, économique – existent en effet de bonnes et de mauvaises pratiques digitales.
Dans le cas du social, par exemple, là où la décision publique concerne l’intégration, les
mêmes données peuvent fonctionner pour la création de réseaux sociaux ou pour leur
segmentation. La nature de l’hyperville, en somme, consiste en des données, traces-signes,
qui peuvent être utilisées de deux manières diamétralement opposées. Il en revient finalement
à nous de valoriser ses aspects les plus contributifs. Un renouveau politique de la ville peut
en effet modifier nos conditions politiques d’existence.
Si l’intervention précédente assume une posture quasiment neutre à l’égard des données
numériques, Carmes et Noyer proposent une vision décidemment plus critique par rapport
à ce qu’ils appellent le « plissement numérique du monde ». A son origine, l’omniprésence de
capteurs de données. Comme conséquence, des nouvelles (bio)politiques et économiques
du pouvoir. La ville représente à ce propos un cas paradigmatique : elle ne sera vraiment
smart que lorsque ses habitants, ses interfaces et applications seront domestiqués, i.e. seront
tous devenus des « capteurs infatigables […] des activités de la vie quotidienne ». Les auteurs
soulignent opportunément que la datafication du monde ne peut que passer par la création
et l’alimentation d’un désir de données. Discours et rhétoriques, utopies et idéologies, jouent
à ce propos un rôle fondamental. Carmes et Noyer s’appuient notamment sur les trans et
les post humanismes, qui tentent à leur avis de fournir un horizon – une justification ou des
conditions d’existence et efficacité, nous pourrions dire – anthropologique du plissement
numérique du monde.
Enfin, dans une troisième et dernière partie, cet ouvrage se confronte aux conséquences
de l’utilisation des traces numériques pour l’aménagement et la gestion des territoires.
Aujourd’hui, le décideur public doit intégrer les données traditionnelles avec les nouvelles
données générées, selon une approche bottom-up, par les acteurs du Web 2.0. On assiste ainsi
à l’avènement d’un nouvel impératif participatif dans l’élaboration et la mise en œuvre des
politiques territoriales.
par les traces numériques peut contribuer à mettre en avant la question de l’intentionnalité
cartographique et notamment du rapport entre source, trace et carte.
Le livre s’achève sur deux cas empiriques qui exemplifient l’usage des traces numériques
dans les domaines les études territoriales. Dans l’analyse de Laurent Beauguitte et Marta
Severo, les traces numériques deviennent sources d’information géographique. Les auteurs
proposent d’utiliser des traces médiatiques, en particulier les fils RSS des journaux quotidiens
pour étudier les rapports entre individus et échelles, à travers l’exemple du New York Times.
Cette recherche, réalisée dans le cadre du projet ANR Corpus Géomédia, met en évidence
les potentialités de ces nouvelles données pour l’analyse des territoires mais elle cherche
également à identifier les problèmes méthodologiques que leur usage soulève.
Enfin, Nicolas Douay et Maryvonne Prévot analysent l’impact des traces numériques sur
les politiques urbaines. Comme le soulignent les auteurs, aujourd’hui les outils numériques
ont contribué à la création des nouvelles dynamiques participatives de mobilisation sociale
et de co-construction de la décision dans le contexte de la ville. Le cas de la plate-forme
Carticipe à Strasbourg et à Marseille est analysé dans ce chapitre à travers des entretiens avec
différents acteurs qui ont contribué à son développement et usage. Si la nature positive de
ces expérimentations émerge clairement, la complexité de la cohabitation de ces innovations
numériques avec d’autres dispositifs plus classiques de la participation établis par les acteurs
institutionnels est également évidente.
Richard Rogers
INTRODUCTION : BIG DATA ET LE TOURNANT COMPUTATIONNEL
Le débat consiste en partie à estimer l’étroitesse des liens qui unissent le tournant
computationnel à l’influence croissante des big data, une notion qui, dans le « hype
cycle » du cabinet Gartner, a évolué du stade des « attentes exagérées » en juillet
2013 à celui du « gouffre des désillusions » un an plus tard [Gartner, 2014]. Cette
descente coïncidait avec le problème de surestimation dont fut victime le site
Google Flu Trends, un projet novateur de big data en recherche médicale et sociale
grâce auquel les recherches sur les symptômes de grippes ou associés effectuées
sur le moteur de recherche sont géolocalisées et utilisées pour mesurer l’activité
réelle de la grippe et sa localisation. Ce service avait surévalué l’importance de
la grippe (par un coefficient de deux) par rapport aux chiffres publiés par les
systèmes habituels de surveillance de l’Institut national de la Santé américain et
ses équivalents ; ceci avait amené les chercheurs à s’interroger sur les méthodes
de mesure pratiquées sur le Web et si celles-ci ne se limitaient pas à identifier
des effets médiatiques plutôt que des réalités sur le terrain [Lazer et al., 2014].
A l’annonce d’une nouvelle vague de grippe, constate-t-on plus d’activité sur
le moteur de recherche, sachant que la personne qui effectue les recherches est
14 Traces numériques et territoires
L’avènement des big data est censé avoir entraîné une rupture, notamment à
cause du remplacement de l’interprétation par la recherche de modèles [Savage
et Burrows, 2007 ; Watts, 2007 ; Lazer et al., 2009]. Cela signifie que dans une
démarche type de recherche, le prélèvement d’un échantillon (en sciences sociales)
ou l’identification d’une collection (en sciences humaines) serait remplacé par
une collecte de données par quadrillage systématique, dont la finalité n’est pas
simplement la constitution exhaustive d’un mais plutôt de plusieurs ensembles
de données, de grande taille et collectés selon plusieurs méthodes, notamment
la capture en temps réel. L’apprentissage automatique et l’analyse des réseaux
formeraient les points de départ de telles démarches analytiques. On pratiquerait en
effet l’analyse non pas par une lecture « de près » mais par une lecture « à distance »,
ou topologique, qui élèverait, en points de mire des résultats, la cooccurrence de
mots, les tendances du moment, les prescripteurs, ainsi que l’anomalie et le hors-
norme [Piper, 2013]. Franco Moretti, qui a théorisé la lecture à distance, a montré
que la lecture de près produit un canon qui a pour conséquence de limiter la
portée de ce qui est lu, et encourage, à l’inverse, à apprendre à ne pas lire [Moretti,
2005]. En utilisant ces techniques, il serait possible de soumettre à l’analyse une
plus grande production, et non plus seulement des œuvres canoniques.
des dispositifs de capture de données employés, ainsi que par la taille et la complexité
de ces données. L’application d’une méthode et d’un procédé, la combinaison de la
force brute de l’équipement à la finesse des paramètres choisis, sont ici capitales.
Les résultats des analyses produisent par ailleurs des modes de connaissance à
distance, à savoir des compétences particulières dans la compréhension de clusters
graphiques et autres complexités visuelles. On peut comparer ces nouvelles
connaissances chez les scientifiques à celles que possèdent des gestionnaires de
systèmes d’exploitation, comme les contrôleurs aériens ou les analystes d’images
satellites [Rochlin, 1997 ; Parks, 2005].
Lorsque l’on s’intéresse aux big data, certaines questions connexes peuvent se révéler
très importantes. En tout premier lieu, on ne peut ignorer le vaste débat sur la
pertinence ou non d’analyser les données personnelles à l’aide des big data, sachant
qu’on a peu de chance d’obtenir une autorisation d’utilisation des données et qu’il
est tout à fait délicat de se substituer à cette autorisation en s’appuyant sur les
conditions d’utilisation de l’entreprise. Si un cas d’éthique est jugé acceptable, il faut
alors mettre en place des stratégies qui, tout en n’exigeant pas d’autorisation, ne
soient pas préjudiciables. La solution de l’anonymat ne convient pas forcément ; cela
tient en partie à la situation à laquelle furent confrontés les chercheurs en données
d’AOL, lorsque des journalistes et des défenseurs du droit à la vie privée ont pu
identifier certains utilisateurs du moteur de recherche après que leurs recherches des
six derniers mois ont été rendues publiques [Sweeney, 2000 ; Hansell, 2006]. On peut
également citer la technique du cloaking ou de dissimulation, plus communément
appelée pseudonymisation, par laquelle des identifiants artificiels sont insérés à la
place des véritables noms. Une autre manière de répondre aux questions éthiques
qui émergent de l’analyse des big data personnelles est de les agréger et de les
dépersonnaliser : c’est le cas, par exemple, lorsque l’on recueille les listes des intérêts
postés sur leur page Facebook par les amis des candidats à la présidence américaine
(ou de n’importe quelle autre personnalité publique qui possède une page officielle)
dans le but de les observer et d’en déduire certains rapports de cause à effet, comme
par exemple l’influence des guerres entre cultures ou les préférences médiatiques
des amis selon leur orientation politique à gauche ou à droite.
16 Traces numériques et territoires
Aujourd’hui, les critiques des big data pointent une tendance à davantage se
fier à des flux et des signaux de données disponibles (par exemple les APIs
des réseaux sociaux) plutôt qu’à appliquer la méthode usuelle qui consiste à en
chercher de nouveaux mais qui demande davantage d’efforts [Vis, 2013]. Dans
les fondamentaux de la recherche, les données auraient-elles remplacé une vision
qui privilégiait les problèmes à résoudre ? Par exemple, quelqu’un qui voudrait
géolocaliser des poches de haine ou d’intolérance doit-il s’engager sur la piste
potentiellement prometteuse des tweets géotaggés, ou doit-il prendre en compte
des données nouvelles et les moyens de les recueillir ? Dans ce cas, c’est la
disponibilité immédiate des données qui déclenche le questionnement scientifique
et la recherche qui en découle, et non une question sociétale en soi.
Souvent, lorsque les big data sont impliquées, on se tourne vers les grandes
compagnies de médias et de communications pour récupérer des groupes de
données, données qui réorientent ensuite vers d’autres intérêts bien précis
(par exemple, l’utilisation des données mises à disposition par les compagnies
de téléphone mobile pour retracer les différents types de trajets empruntés
quotidiennement). Une autre manière de s’assurer un accès facile à des données
exploitables est de s’asseoir, littéralement, à l’un des postes de travail d’un
laboratoire d’une grande compagnie en tant qu’invité ou collaborateur chercheur.
On peut alors mener la recherche sur place mais il est impossible de quitter le
bâtiment avec les données, ou de les sauvegarder sur un serveur à distance.
Ainsi, les modalités d’accès aux big data deviennent elles-mêmes sujets d’études, y
compris pour celles qui bénéficient d’un accès public, comme les archives Web des
bibliothèques nationales et bientôt l’archive Twitter du Congrès américain. Sur un
mode comparable au laboratoire d’une grande compagnie, le chercheur doit souvent
se trouver au sein même de la bibliothèque pour pouvoir accéder aux données, qu’il
ne peut emprunter comme il le ferait avec des livres. La différence entre nouveaux
médias et médias traditionnels est ici flagrante et l’enjeu des débats sur les modes
de production de la connaissance à partir des big data et des techniques de lecture à
distance, apparaît ici pleinement [Schulz, 2011 ; Allison et al., 2011]. Non seulement
faut-il être, si l’on peut dire, proche des données pour pouvoir les lire à distance ; il
faut encore obtenir le droit de les approcher et d’y accéder physiquement.
Il faut encore ajouter à cela le temps passé à travailler sur les données, une mission
très longue, surtout lorsque l’on doit rester sur place, avec les données. Comme il a été
mentionné plus haut lorsqu’ont été évoqués les phénomènes de pseudonymisation et
de dépersonnalisation des données, avant même l’analyse des données, il faut parfois
entreprendre des démarches nouvelles en terme de prévention, des démarches
récemment apparues qui répondent aux actes de désanonymisation initiés par des
tiers (journalistes et défenseurs de la vie privée notamment). Il est important de
se préparer à la montée de ce que l’on appelle la science de la ré-identification,
Au-delà de la critique big data 17
Pour résumer, la critique des big data a des points d’ancrage épistémologiques,
esthétiques et éthiques, à commencer par une rupture conceptuelle en faveur de
la reconnaissance de modèles, un mode analytique de l’apprentissage automatique,
des préférences en termes de graphiques, cartes et arbres, et tout ce qui touche
à la manière de gérer les données de sujets humains. Les big data divisent aussi,
en créant des structures réputationnelles par l’intervention, à chaque étape de la
recherche, d’une perspicacité – ou cécité – computationnelle : collecter, accéder,
traiter, analyser, produire et présenter les données.
que Twitter, et dans quels cas (ou jusqu’où) est-il possible d’étudier grâce à Twitter
des phénomènes sociétaux « à l’état naturel » ? A l’occasion d’un concours organisé
en 2013 par le Centre américain pour le contrôle et la prévention des maladies (US
Centers for Disease Control, CDC), une série d’études avait été publiée qui avait montré
comment l’évolution de la grippe pouvait être suivie sur Internet non seulement
grâce au moteur de recherche de Google mais également par le type de pages
vues sur Wikipédia et de tweets géotaggés sur Twitter. On pourrait qualifier cette
méthode qui consiste à obtenir des résultats à partir de données disponibles en
ligne d’« inférence en ligne » : les résultats sont souvent accessibles sur des interfaces
type tableaux de bord, avec des cartes montrant les zones d’activité, comme l’a
fait par exemple le lauréat du concours du CDC, « Prédire la prochaine saison de
grippe, un site de prévision des maladies infectieuses (grippe) de l’Université de
Columbia » [CPID, 2015]. Si l’algorithme de prévision s’appuie sur la combinaison
de données de surveillance compilées par le CDC avec l’aide d’un Google Flu
Trends révisé (et réhabilité), l’authenticité des résultats n’en repose pas moins sur
les régimes de surveillance traditionnels tels que les admissions à l’hôpital, ce qui
leur donne davantage de crédibilité.
qui privilégie un site Web plutôt qu’un autre) ou l’EdgeRank mis en place par
Facebook (qui privilégie un ami plutôt qu’un autre selon votre affinité avec lui).
On peut donc placer les différentes approches en recherche numérique sur une
matrice binaire (ou, si l’on préfère, les disposer sur un graphique en éventail,
ou bien les faire défiler horizontalement à l’aide d’un curseur), où l’on verrait
apparaître quels types de documents sont davantage sollicités pour les données
(numérisés ou natifs) et quelles méthodes sont imitées ou natives (voir Tableau 1).
Enfin, en lieu de la numérisation des concepts comme cela a été évoqué plus haut,
existe un discours spécifique à l’usage du Web, que l’on entend aussi bien dans la
presse professionnelle que dans l’utilisation des logiciels critiques, un langage dont
on pourrait tirer une utilisation analytique : le spam, les creative commons, la wikification,
le versioning – ou gestion de version –, le malware – ou logiciel malveillant –, le
codage, la plate-forme, le profil, etc. Des études telles que celles de Lawrence Lessig
et Eben Moglen ont expressément souligné l’utilisation, dans le discours juridique
des nouveaux médias, des mots formés à partir du préfixe « re- », des termes tels
que le remix, le reuse – ou ré-utilisation, la redistribution, la révision et le recyclage –
redistribute, revise et recycle –, qui apparaissent comme autant de défis lancés par les
médias numériques aux lois et mœurs existantes. De façon similaire, l’étude des
natifs numériques, ou ses enjeux, qui est mise en avant dans la notion même de
méthodes numériques, propose de réorienter la méthodologie du médium et des
concepts qui lui sont associés, et de les appliquer à la recherche en sciences sociales
et politiques. Cette variante du tournant numérique invite en effet à étudier non
seulement ce qui est numérisé mais également le numérique natif, en se servant
des données et en suivant un raisonnement qui reprenne les méthodes du médium.
Comment faire pour réorienter, dans le cadre de la recherche en sciences politiques
et sociales, les techniques et notions numériques vers une utilisation en ligne ?
des données (« underreporting »), même en cas de pic d’activité [Richmond, 2011].
De la même manière, les résultats de recherche sur Google font preuve d’une
certaine volatilité dans le temps. Après d’importantes mises à jour de certains de
ses algorithmes par Google (Panda en 2011 par exemple), des sites internet ont
vu leur classement baisser, notamment ceux qui présentaient liens « spammy »,
fermes de spam ou répétiteurs de contenus (« content repeaters ») en nombre trop
important [Singhal et Cutts, 2011]. Il y a fort à parier que si l’on étudiait l’évolution
dans le temps des classements des résultats des moteurs de recherche, on verrait
à quel point des algorithmes instables produisent des positionnements fluctuants.
Tableau 1 : Cinq manières d’étudier les humanités numériques et les sciences sociales numériques
représentées selon les types de données et méthodes privilégiés
Ces dix dernières années, les méthodes et techniques déployées dans le cadre de la
recherche numérique (qui utilise à la fois des données numérisées et des données
en ligne), ont été énoncées selon une large gamme de descripteurs, notamment :
l’analytique, les indicateurs, les sciences -nomiques ou toutes méthodes connexes,
projetant ainsi tout un panel de nuances sur l’objet mesuré. En recherche numérique,
on associe naturellement l’utilisation de l’analytique à l’industrie de surveillance des
nouveaux médias, qui est de plus en plus impliquée dans la surveillance des réseaux
sociaux et l’écoute sociale, comptabilisant et transformant en indicateurs l’activité
des utilisateurs. On capture et on analyse les mentions, puis on en déduit une
signification afin d’obtenir « une vision opérationnelle », pour reprendre les termes
d’un fournisseur de logiciels [Adobe, 2014]. Dans la plupart des cas, la recherche de
la signification concerne l’impact et la mesure du sentiment. Un nom, un mot-clé,
une marque ou un autre terme s’est-il/elle propagé(e) ? S’est-il/elle diffusé(e) au-
delà d’un public captif (par exemple les followers d’un réseau social), trouvant ainsi
Au-delà de la critique big data 23
Les métriques (metrics) sont des normes de mesure ; leur nomenclature provient
des techniques de comptage utilisées notamment en bibliothèque et en sciences
de l’information, telles que la bibliométrie et la scientométrie. Ils s’intéressent
au facteur d’impact, à la pertinence et à l’influence, en d’autres termes non pas
uniquement à la force brute mais à la force relative et à son endurance. Sur les
réseaux sociaux et sur tout autre environnement numérique personnel quantifié
(par exemple les logiciels d’évaluation d’un programme fitness), les métriques
comptabilisent et communiquent l’intensité de l’activité – les « J’aime » sur
Facebook par exemple –, et ont été notamment critiquées pour leur incitation à
« “vouloir toujours plus”, poussant les gens à vouloir toujours plus de “J’aime”,
plus de commentaires, et plus d’amis » [Grosser, 2014].
Figure 1 : Rothko contre Mondrian. Produit par le logiciel ImagePlot et Cultural Analytics.
Comparaison des espaces de style. L’axe des abscisses montre la luminosité, l’axe des ordonnées la
saturation. Source : Software Studies Initiative, 2011
Figure 2 : Caractérisation d’image sur les premières images apparues sur Google Images lors d’une recherche sur
le terme [Gezi], selon « save the trees » (« sauver les arbres », en vert) ou « bring down the government » (« faire
chuter le gouvernement », en rouge), juin 2013. © Digital Methods Initiative, Amsterdam, 2013
Au-delà de la critique big data 25
Cette notion d’espace de style a été utilisée dans l’analyse des selfies, ces autoportraits
photographiés à l’aide d’un smartphone et postés ensuite sur Instagram par des
utilisateurs dans plusieurs villes. Le projet avait pour but d’analyser les propriétés
formelles des portraits, afin de les regrouper et d’en extraire certaines constantes
comme la pose (inclinaison de la tête), le sexe, l’âge et l’expression du visage, dans les
villes de Berlin, Moscou, Sao Paolo, Bangkok et New York ; parmi les conclusions,
on peut mentionner le fait qu’il y ait nettement plus de femmes que d’hommes qui
prennent des selfies, qu’à Sao Paulo on pose avec beaucoup de sérieux, avec un angle
d’inclinaison de la tête à environ 17 degrés. Certaines villes (Sao Paulo et New York)
affichent plus de bonne humeur que d’autres (Berlin et Moscou, où les auteurs de
selfies sont plus âgés). L’étude ne va pas jusqu’à mesurer la teinte et la saturation
pour en inférer des conclusions sur la culture de l’exposition en ligne chez les jeunes.
Figure 3 : Political Insights, Yahoo! Labs, montrant les recherches des sympathisants de gauche et de
droite ayant pour sujet Obama, 2011. Source : Borra et Weber, 2012
sur LinkedIn, Facebook, Flickr, etc. Le réseau écarte par ailleurs d’autres sites et ne
fait donc pas état des campagnes – Web – populaires influencées par les nouveaux
médias, comme celle de Howard Dean en 2004, qui avait permis aux utilisateurs de
créer leurs propres histoires lors des rencontres ; il s’efforce davantage de montrer
une approche centralisée, concentrée sur le message à délivrer [Rogers, 2005].
Figure 4 : Graphique produit par Issuecrawler sur les interconnections entre les différents sites Internet
consacrés à Obama, 2008. Source : Issuecrawler.net, © Govcom.org Foundation, 2008, mentionné
dans Krippendorff, 2012
On peut prendre comme exemple les contenus les plus référencés sur Twitter (dans
ce cas précis, ceux qui renvoient le plus à des pages Web) par les fonctionnaires
hollandais rattachés à des ministères. Il s’avère que ces fonctionnaires tendent
naturellement à suivre les actualités, les hommes ou femmes politiques, ainsi que
les observateurs des nouveaux médias et de la vie politique, plutôt que de simples
citoyens (voir Figure 5). De plus, le sujet le plus référencé est l’utilisation, par les
fonctionnaires, des nouveaux médias et les actions et campagnes innovantes sur le
Web, ce qui signifie que le contenu partagé est avant toute chose auto-référentiel
et centré sur les médias plutôt qu’un sujet d’actualité.
Figure 5 : Réseau élargi des follow-followers des fonctionnaires ministériels hollandais, mars 2013.
Données recueillies par TCAT, DMI Amsterdam, et représentation graphique avec Gephi. Source :
Baetens et al., 2013
Figure 6 : Présence des climato-sceptiques sur les principaux sites consacrés aux changements
climatiques selon http://google.com, juillet 2007. Source : analyse à distance par Google Scraper dit
Lippmannian Device (dispositif Lippmanian), © Digital Methods Initiative, Amsterdam, 2007
.CONCLUSION
On ne peut pas considérer les méthodes numériques, dans leur application générale
ou dans celle, plus spécifique, de réorientation de dispositifs, comme de simples
boîtes à outils ou comme le mode d’emploi d’une série de logiciels ; les méthodes
numériques questionnent plus largement la manière de faire de la recherche en
ligne. Elles invitent à considérer ou à imaginer d’un point de vue sociologique les
opportunités de recherche qu’offre la culture en ligne, en se laissant guider par
le médium au lieu de le faire répondre à des ordres disciplinaires, conceptuels.
Prenons l’exemple, en guise de conclusion, de l’activisme politique. On pourrait
observer d’un œil critique la montée du slacktivisme ou du clicktivisme, cette
activité en ligne qui requiert (par un simple clic) un engagement minimum mais
donne pour autant l’impression d’avoir été utile à une cause. On pourrait, à
l’inverse, étudier dans quelle mesure aimer, partager et commenter un contenu
est une preuve d’engagement, et par là-même étudier, par exemple, autour de
quelles vidéos et quelles photos se rassemblent aujourd’hui les groupes et pages
anti-islamiques sur Facebook (voir Figure 7). L’étude de l’engagement s’inspire
ici d’un cadre analytique qui capte aussi bien les clics que les commentaires et qui
30 Traces numériques et territoires
Figure 7 : Contenus les plus suivis sur les réseaux Facebook européens anti-djihadistes, janvier
2013. Tiré de « What does the Internet add? Studying extremism and counter-jihadism online »,
International Workshop and Data Sprint. © Digital Methods Initiative, Amsterdam, 2013
RÉFÉRENCES BIBLIOGRAPHIQUES
[Adobe, 2014] Adobe, 2014, « Adobe Analytics », http://www.adobe.com/solutions/digital-
analytics.html.
[Ackland, 2013] Ackland, R., 2013, Web Social Science: Concepts, Data and Tools for Social
Scientists in the Digital Age, London : Sage.
[Baetens et al., 2013] Baetens, T., Juetten, T., Maessen, J., Borra, E. et Rogers, R., 2013, De
Uitzondering op de Regel: Over Ambtenaren in de Openbaarheid, The Hague : Ministry
of Internal Affairs/Emma Communicatie.
[Berry, 2011] Berry, D. M., 2011, « The Computational Turn: Thinking About the Digital
Humanities », Culture Machine, 12, 1-22.
[Blood, 2002] Blood, R., 2002, « Introduction », In Rodzvilla J. (éd.), We’ve Got Blog: How Weblogs
Are Changing Our Culture, Cambridge, MA : Perseus, ix-xiii.
[Bollena et al., 2011] Bollena, J., Maoa, H. et Zengb, Z., 2011, « Twitter mood predicts the stock
market », Journal of Computational Science, 2(1), 1-8.
Au-delà de la critique big data 31
[Borgman, 2009] Borgman, C., 2009, « The Digital Future is Now: A Call to Action for the
Humanities », Digital Humanities Quarterly, 3(4), http://digitalhumanities.org/dhq/
vol/3/4/000077/000077.html.
[Borra et Weber, 2012] Borra, E. et Weber, I., 2012, « Political Insights: Exploring Partisanship in
Web Search Queries », First Monday, 17, http://firstmonday.org/ojs/index.php/
fm/article/view/4070/3272.
[boyd et Crawford, 2012] boyd, D. et Crawford, K., 2012, « Critical Questions for Big data:
Provocations for a Cultural, Technological, and Scholarly Phenomenon »,
Information, Communication & Society, 15, 662-679.
[CPID], 2015 Columbia Prediction of Infectious Disease (CPID), 2015, International Research
Institute for Climate and Society, New York : Columbia University, http://cpid.iri.
columbia.edu.
[Foot et Schneider, 2006] Foot, K. A. et Schneider, S. M., 2006, Web Campaigning, Cambridge,
MA : MIT Press.
[Graves et Kelly, 2010] Graves, L. et Kelly, J., 2010, « Confusion Online: Faulty Metrics and the
Future of Digital Journalism », Tow Center for Digital Journalism, New York :
Columbia University Graduation School of Journalism.
[Hansell, 2006] Hansell, S., 2006, 8 août, « AOL removes search data on vast group of web users »,
New York Times.
[Krippendorff, 2012]Krippendorff, K. H., 2012, Content Analysis: An Introduction to its Methodology,
London : Sage.
[Lazer et al., 2014] Lazer, D., Kennedy, R., King, G. et Vespignani, A., 2014, « The Parable of
Google Flu: Traps in Big data Analysis », Science, 343 (6176), 1203-1205.
[Lazer et al., 2009] Lazer, D., Pentland, A., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D.,
Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G.,
Macy, M., Roy, D. et Van Alstyne, M., 2009, « Computational social science »,
Science, 323(5915), 721-3.
[Latour, 1991] Latour, B., 1991, « Technology is society made durable », In Law, J. (éd.), A Sociology
of Monsters: Essays on Power, Technology and Domination, London : Routledge, pp 103-
131.
[Latour, 2004] Latour, B., 2004, Paris: Invisible City, http://www.bruno-latour.fr/virtual/EN/
index.html.
[Manovich, 2011] Manovich, L., 2011, « Trending: The Promises and the Challenges of Big Social
Data », http://www.manovich.net/DOCS/Manovich_trending_paper.pdf.
[Manovich, 2015] Manovich, L., 2015, « Analyzing Cultural Data », https://docs.google.com/
document/d/1DsAQUQ7paWimVQMNwXDO5Qgm7xnpeqv9HQdpn9E
Pwsg.
[Michel et al., 2011] Michel, J. B., Shen, Y. K., Aiden, A. P., Veres, A., Gray, M. K., Pickett, J.
P., Hoiberg, D., Clancy, D., Norvig, P., Orwant, J., Pinker, S., Nowak, M.A.
et Aiden, E. L., 2011, « Quantitative Analysis of Culture Using Millions of
Digitized Books », Science, 331, 176-182.
[Moretti, 2005] Moretti, F., 2005, Graphs, Maps, Trees, London : Verso.
[Moretti, 2000] Moretti, F., 2000, « Conjectures on World Literature », New Left Review, 1, 54-68.
32 Traces numériques et territoires
[Ohm, 2010] Ohm, P., 2010, « Broken Promises of Privacy: Responding to the Surprising
Failure of Anonymization », UCLA Law Review, 57, 1701.
[Parks, 2005] Parks, L., 2005, Cultures in Orbit, Durham : Duke University Press.
[Piper, 2013] Piper, A., 2013, « Reading’s Refrain: From Bibliography to Topology », ELH,
80(2), 373-99.
[Priem et al.,] 2010 Priem, J., Taraborelli, D., Groth, P. et Neylon, C., 2010, « Alt-metrics: a
manifesto », http://altmetrics.org/manifesto.
[Puschmann et Burgess, 2013] Puschmann, C. et Burgess, J., 2013, « The Politics of
Twitter Data », HIIG Discussion Paper Series, 2013-01, http://ssrn.com/
abstract=2206225.
[Richmond, 2011] Richmond, R., 2011, 27 septembre, « As “Like” Buttons Spread, So
Do Facebook’s Tentacles », New York Times, http://bits.blogs.nytimes.
com/2011/09/27/as-like-buttons-spread-so-do-facebooks-tentacles.
[Rochlin, 1997] Rochlin, G., 1997, Trapped in the Net, Princeton, NJ : Princeton University Press.
[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Rogers, 2009] Rogers, R., 2009, The End of the Virtual, Amsterdam : Amsterdam University
Press.
[Rogers, 2005] Rogers, R., 2005, « Old and New Media: Competition and Political Space »,
Theory and Event, 8, 2.
[Savage et Burrows, 2007] Savage, M. et Burrows, R., 2007, « The Coming Crisis of Empirical
Sociology », Sociology, 41, 885-899.
[Sullivan, 2010] Sullivan, D., 2010, « Why Google Can’t Count Results Properly, Search
Engine Land », http://searchengineland.com/why-google-cant-count-results-
properly-53559.
[de Solla Price, 1963] de Solla Price, D.J., 1963, Little Science, Big Science… and Beyond, New York :
Columbia University Press.
[Singhal et Cutts, 2011] Singhal, A. et Cutts, M., 2011, « Finding more high-quality sites in
search », http://googleblog.blogspot.nl/2011/02/finding-more-high-quality-
sites-in.html.
[Thelwall et al., 2005] Thelwall, M., Vaughan, L. et Björneborn, L., 2005, « Webometrics », In
Cronin, B. (éd.), Annual Review of Information Science and Technology, 39, Medford,
NJ : Information Today, 81-135.
[Turkey EJOLT Team, 2013] Turkey EJOLT Team, 2013, « Turkey’s Tree Revolution – part 2:
Everyday I’m chapulling* », EJOLT: Mapping Environmental Justice, http://www.
ejolt.org/2013/06/turkeys-tree-revolution-part-2-everyday-im-chapulling.
[Venturini, 2012] Venturini, T., 2012, « Building on Faults: How to Represent Controversies
with Digital Methods », Public Understanding of Science, 21, 796-812.
[Watts, 2007] Watts, D. J., 2007, « A Twenty-first Century Science », Nature, 445, 489.
Les méthodes d’interface
La renégociation des liens entre recherche numérique, STS et sociologie
John Law et ses co-auteurs [Law et al., 2011] soutiennent que les médias numériques
sociaux rendent possibles de nouveaux modes d’organisation, mais aussi d’analyse,
de la vie sociale. Les applications technologiques grand public de partage et
d’échange social en réseau, comme Facebook et Twitter, représentent des espaces
nouveaux où des données sociales sont produites, collectées et analysées [Beer et
Burrows, 2007]. Cependant, leur notoriété croissante dans la vie sociale entraîne
aussi des conséquences méthodologiques pour la recherche sociologique [Savage, 2009 ;
Rogers, 2013]. Pour ceux qui cherchent à tirer un parti empirique des plates-formes
des médias sociaux, il devient rapidement évident que celles-ci ne nous offrent
pas des données brutes, mais plutôt des informations mises en forme : les modes
d’organisation des données sur les médias sociaux tendent à favoriser grandement
certaines méthodes d’analyse fortement spécifiques, par exemple une enquête sur les
« réseaux » personnels, ou bien la « popularité » de certains mots à certaines époques
[Marres et Weltevrede, 2013 ; voir aussi Gitelman, 2013]. Les médias sociaux, en
offrant la capacité à des acteurs sociaux de collaborer dans des activités prédéfinies,
rendent les activités de ces derniers analysables. Par ailleurs, grâce à des formes de
données standardisées, ces médias sociaux offrent une fonction de médiation sociale
des activités, qui se prêtent à certaines formes d’analyse et pas à d’autres.
Certains des « biais méthodologiques » des médias sociaux sont assez évidents,
comme c’est le cas avec Facebook qui facilite explicitement des actions, comme se
faire « des amis » ou signaler que l’on « aime » telle ou telle chose (les like), et non
l’inimitié et la critique, ce qui, de ce fait, favorise une analyse des réseaux d’un type
particulier et très nettement partielle [Gerlitz et Helmond, 2012 ; Bucher, 2012].
Toutefois, dans le présent article, nous aimerions aborder des formes plus ambiguës
et plus fluides de « biais méthodologiques » dans la recherche sur les médias sociaux
et traiter éventuellement leurs plus larges implications en recherche pour les études
sociales. La recherche sur les médias sociaux pourrait mettre en cause les relations
entre les participants à la recherche, dont celles entre sujets et objets de recherche,
ainsi que les hiérarchies supposées des acteurs et actants en recherche sociale. Par
exemple, lorsqu’une analyse de réseau est menée avec Facebook, est-ce vraiment le
chercheur qui dans ce cas décide d’employer cette méthode, ou n’est-ce pas plutôt
la décision qui est informée par l’objet d’étude avec les outils et les métriques qui
lui sont associés ?
34 Traces numériques et territoires
Qui plus est, dans la mesure où ils soulèvent pareilles questions, les médias sociaux
nous incitent à étudier plus en détail les similitudes et différences entre les méthodes
sociales, qui sont pour ainsi dire intrinsèquement « implantées techniquement » dans
ces médias sociaux en ligne, et nos « propres » méthodes sociologiques [Beer, 2012 ;
Beer et Burrows, 2007 ; Marres, 2012]. Ainsi, pour aller dans le même ordre d’idée
que l’exemple que nous avons employé plus haut : quelle comparaison se dégage
entre les méthodes, les mesures et les techniques de l’analyse de réseaux mobilisées
par une entreprise technologique à finalités commerciales et nos méthodes
« académique » pour analyser les réseaux dits « sociotechniques » dans les travaux
de recherche sociale et culturelle [voir aussi sur ce point Langlois et Elmer, 2012] ?
Pareil questionnement pourrait passer pour servir à confirmer une distinction entre
« eux » et « nous », c’est-à-dire entre une recherche « à but lucratif » et une autre « à
but non lucratif », entre des formes d’analyse de données et de savoirs appliquées
et universitaires. Cependant, comme nous l’avons exposé dans d’autres travaux,
les pratiques en matière de médias sociaux peuvent s’entendre de manière égale
comme un lieu où les divisions du travail bien connues en sciences sociales sont
utilement exposées au questionnement [Marres, 2012 ; Rogers, 2009 ; Jirotka et al.,
2013 ; Wouters et al., 2012].
La cartographie des enjeux peut avoir une définition assez minimale : l’utilisation
de techniques informatiques dans le but de repérer, analyser et visualiser des
mouvements publics de contestation sur des affaires d’actualité [Marres, 2015 ; Marres
Les méthodes d’interface 35
Plus loin, nous examinerons plus en détail ces outils ainsi que les techniques et
méthodes qu’ils mettent en œuvre, et ce dans le but de clarifier une problématique
relativement plus large : que faire de ces résonances méthodologiques entre les
procédés d’analyse numérique et les méthodes sociologiques ? Notre but doit-il être
de lever les ambiguïtés méthodologiques qu’elles suscitent et de faire la différence
entre, d’une part, les utilisations journalistiques et commerciales, dans la pratique
quotidienne et par les gouvernements et, d’autre part, les applications sociologiques
de ces outils ? Ou bien ces résonances elles-mêmes et leurs prétendues affinités
recèlent-elles quelque chose de productif ? Il y a quelque pertinence dans cette
dernière question, nous semble-t-il, car les outils d’exploitation de données qui sont
généralement disponibles sont de plus en plus utilisés dans les travaux de recherche
empiriques, et ceci nous porte à nous demander quelle est la spécificité de leur
application dans la recherche sociologique numérique [Beer, 2012]. Nous émettrons
3 On trouvera un aperçu présentant de récentes études de cas et des modes opératoires pour
réaliser des cartographies des enjeux sur le wiki http://www.issuemapping.net que nous avons créé
dans le cadre du projet Demonstrating the Relevance of Issue Mapping for Participatory Research (Démontrer
la pertinence de la cartographie des enjeux pour la recherche participative) financé par l’Economic
and Social Research Council (Conseil pour la recherche en sciences économiques et sociales).
4 http://infomous.com.
5 http://mentionmapp.com.
36 Traces numériques et territoires
Les récents débats autour des implications d’un recours au numérique en sciences
sociales se sont concentrés sur les méthodes, et des sociologues de différents
horizons ont souligné les affinités méthodologiques de diverses natures entre
les méthodes numériques, répondant à une définition large, et la recherche
sociologique [Beer et Burrows, 2007 ; Latour et al., 2012 ; Ruppert et al., 2013 ;
Rogers, 2013]. Certains de ces auteurs ont signalé que les méthodes actuellement
intégrées dans des outils professionnels et grand public d’analyse numérique
ne sont pas sans ressembler aux méthodes d’analyse textuelle et de réseaux sur
lesquelles les sociologues académiques se sont longtemps appuyés [Beer, 2012 ;
Marres, 2012]. Une fois confrontés à ces affinités apparentes, certains sociologues
ont mis l’accent sur les divergences entre les buts et objectifs des procédés analytiques
numériques par rapport à la recherche sociologique classique [Savage et Burrows,
2007]. Au moment où le débat sur la « destinée » des méthodes sociologiques
a cours, des discussions plus précises encore sont à mener sur des méthodes
spécifiques, là où culture numérique et sociologie se chevauchent, comme c’est le
cas de la cartographie des enjeux.
6 http://www.emapsproject.com/blog.
38 Traces numériques et territoires
eux, le principe associationniste est central à la fois pour l’architecture des plates-
formes numériques et pour l’ANT. A partir de là, Latour et al. déclarent qu’une
ontologie hétérogène et dynamique – une hypothèse centrale pour la théorie de
l’acteur-réseau tout comme pour l’analyse des controverses – fait désormais partie
intégrante de la « câblerie » de la Toile [Latour et al., 2012].
D’autres travaux qui cherchent à élaborer la cartographie des enjeux sous forme de
méthode numérique, auxquels nous avons participé pour certains, ont également
postulé qu’il y a une affinité entre méthodes numériques et sociales ; toutefois,
ces similarités générales que l’on perçoit offrent l’occasion d’établir des différences
plus spécifiques et pertinentes entre les méthodes sociologiques et les méthodes
numériques pour l’analyse du contenu dynamique [Marres et Rogers, 2001].
C’est ainsi que les méthodes informatiques d’analyse de citation et d’analyse du
discours qui ont été exploitées à partir des années 1980 en STS et scientométrie
présentent de remarquables similitudes avec les méthodes d’analyse d’hyperliens et
de linguistique computationnelle qui jouent un rôle central dans le fonctionnement
de plates-formes numériques telles que Google et Twitter [Scharnhorst et Wouters,
2006 ; Brin et Page, 1998]. Cependant, comme nous l’avons signalé dans notre
introduction, dans le même temps, il n’est pas très difficile de différencier les mesures
intégrées dans les plates-formes des grands médias numériques et les méthodes
sociologiques apparentées appliquées à l’étude des réseaux et du discours. Par
exemple, des outils comme Mentiomapp sont spécialisés dans la détection des
acteurs influents sur Twitter à un moment donné, alors que les méthodes d’analyse
de contenu développées en STS ont été élaborées précisément pour détecter des
enjeux qui n’avaient pas (encore) atteint une certaine popularité et dont la pertinence
émergeait à peine [Callon et al., 1983]. De plus, des outils comme Infomous et
Mentionmapp sont faits essentiellement pour détecter les termes qui sont les plus
activement employés dans l’instant présent, tandis que la recherche sociologique s’est
concentrée sur l’analyse longitudinale, notamment sur la façon dont les termes
et les catégories qui organisent le savoir changent avec le temps [Bowker et Star,
2000 ; Uprichard, 2011]. Pareilles différences entre la « logique » des grandes plates-
formes numériques et les méthodes de la recherche sociologique ont tout autant
inspiré les premiers travaux de l’un d’entre nous sur l’analyse en ligne des « réseaux
d’enjeux » [Marres et Rogers, 2000]. Alors que les grands moteurs de recherche
(à cette époque) définissaient la pertinence d’une source comme étant le nombre
de sources faisant autorité contenant un lien vers elle – ce que nous avons décrit à la
manière d’une « contemplation d’étoiles » – l’analyse des réseaux d’enjeux privilégiait
des associations thématiques entre sources sur la Toile – offrant ainsi une mesure de
pertinence spécifiquement thématique ou propre à un enjeu. Si nous généralisions
quelque peu, nous pourrions dire que les procédés d’analyse implantés dans les
plates-formes numériques ont tendance à soutenir des conceptions de la réputation
centrées sur l’acteur, alors que la STS ont pensé des pertinences centrées sur l’enjeu,
et leur opposent une autre perspective [Marres et Rogers, 2008].
Les méthodes d’interface 39
Les outils d’analyse du contenu en ligne, nous semble-t-il, pourraient bien tomber
dans cette catégorie d’instruments variés. S’il est certes possible d’identifier des
similitudes et des différences spécifiques entre ces outils et les techniques de
recherche sociologique, cela ne veut pas dire que nous puissions décider – une bonne
fois pour toutes – que leurs buts analytiques s’alignent ou pas. Cela va dépendre
également du contexte d’utilisation, et de leur déploiement particulier. Sous
réserve de quelques ajustements, il est possible d’adapter une approche combinée
comme celle de Mentionmapp pour pouvoir mobiliser une analyse longitudinale
[Uprichard, 2011]. En effet, une bonne partie du débat sur les méthodes numériques
en recherche sociologique sur les médias a mis l’accent sur la possibilité de recibler
les dispositifs numériques [Rogers, 2009]. Des sociologues ont attiré l’attention sur
le fait que les méthodes de recherche numériques sont elles-mêmes instables et
sous-déterminées, proposant des notions comme les méthodes plastiques [Lury,
2012], en temps réel, ou live [Back et Puwar, 2012]. La variabilité des fins, en outre,
40 Traces numériques et territoires
est une caractéristique qui peut être assignée aux plates-formes de médias sociaux
eux-mêmes, car les configurations de ces plates-formes changent fréquemment
et cherchent à satisfaire des acteurs divers, devant s’interfacer et négocier avec
une multiplicité d’intérêts émanant de groupes d’utilisateurs différents y compris
les publicistes, des acteurs de tierce maintenance et les développeurs de logiciels
[Langlois et Elmer, 2013]. Les plates-formes de médias sociaux tout comme les
méthodes peuvent dès lors être caractérisées comme étant « multivalentes » : elles
peuvent être utilisées pour une multiplicité de fins analytiques et normatives qui
ne sont pas nécessairement transparentes, ni devant être réalisées en même temps,
ni être accessibles à tous les acteurs concernés [Gerlitz, 2012 ; Marres, 2011]. Dans
le présent article, nous souhaiterions pousser plus loin ce débat sur le dynamisme
des médias et des méthodes numériques en émettant la proposition qu’il permet
une approche distincte pour élaborer une méthodologie en sociologie numérique, que
nous appelons « méthodes d’interface ». À ce stade, nous définissions les méthodes
d’interface comme étant des méthodes émergentes, que nous comme chercheurs
en sciences de la société et de la culture ne pouvons précisément dire nôtres, mais
qui rentrent suffisamment en résonance avec nos intérêts et avec les démarches
qui nous sont familières pour offrir un espace productif d’engagement empirique
avec des contextes élargis, des pratiques, et des appareils7 techniques de recherche.
Toutefois, plutôt que nous lancer dans un développement sur une définition
générale des méthodes d’interface, nous souhaiterions en rendre compte par des
moyens empiriques en décrivant un projet de recherche numérique dans lequel
nous avons appliqué d’un point de vue critique et créatif une méthode d’interface
précise : l’analyse de cooccurrences.
Revenons aux outils en ligne d’analyse de données cités plus haut et abordons
leur « troublant mystère méthodologique » (methodological uncanny) plus en détail.
Les outils en ligne pour l’analyse de données en temps réel comme Infomous,
proposons-nous, accomplissent des tâches grosso modo similaires à certaines
études connues en sociologie de la connaissance et de l’innovation : ils cherchent
à détecter ce que sont les enjeux actifs (happening issues) en analysant les relations
changeantes entre mots dans le contenu en direct telles qu’elles apparaissent sur
des plates-formes médiatiques particulières. Donnons un autre exemple : Twitter
Streamgraph est un autre outil logiciel gratuit disponible en ligne qui permet
l’analyse et la visualisation des données Twitter, soi-disant en temps réel. Si l’on
7 Ce terme tire en partie son origine des travaux de Lucy Suchman [2005], de Celia Lury [2004] et
d’Alexander Galloway [2012], lesquels ont tous attiré l’attention sur les interfaces en tant qu’espaces
cruciaux où se négocient les divisions épistémiques du travail. Formant un entre deux, les interfaces
rendent possibles une dynamique de la multivalence, où des outils, des données et des méthodes
peuvent être reliées de différentes manières, et ce pour autoriser différents objectifs analytiques et
normatifs.
Les méthodes d’interface 41
Ces différences de contexte peuvent servir à rendre compte des mises en œuvre
divergentes de l’analyse de cooccurrence entre l’analyse numérique et la sociologie de
l’innovation classique : la fréquence de cooccurrence semble constituer un indicateur
adéquat si l’on a pour but de découvrir ce qui est en train de faire l’actualité, alors
que la détection des « zones de problématisation » nécessite une identification à la
granularité plus fine des termes qui entrent plus exactement en relation suivant
44 Traces numériques et territoires
Dans ce cas, nous n’avons pas affaire à des mesures « dans leur nudité » : les outils
d’analyse de données façonnent la pratique analytique. Les utilisateurs sont-ils en
mesure de délimiter les jeux de données ou est-ce que c’est l’outil qui le fait pour
eux ? Lorsque nous recherchons des mots-clés dans un flux médiatique donné,
dans quelle mesure cela limite les questions que nous pouvons nous poser [boyd
et Crawford, 2012] ? Les outils d’analyse de données participent activement à la
configuration des pratiques analytiques, ce qui à son tour permet de concrétiser des
régimes de valorisation. Pour cette raison, les méthodes numériques peuvent être qualifiées de
méthodes intéressées ou « épaisses » (en anglais thick) : elles constituent des propositions
qui suggèrent des manières particulières de doter, organiser et valoriser les pratiques
et les connaissances. Alors que les mesures intégrées dans les outils d’analyse de
données en ligne sont, dans un certain sens, bel et bien « minces » (en anglais thin),
l’appareil sociotechnique qu’ils permettent (la détection de ce qui est d’actualité –
et gratuitement !) est, pour ainsi dire, bien plus « épais », car il intègre l’analyse de
données en direct dans les pratiques numériques, et en tant que tel permet de mettre
en place des sociétés de l’information qui sont orientée vers le temps réel. C’est
pourquoi nous aimerions penser la cooccurrence, ou du moins sa mise en œuvre
dans les outils d’analyse de données en ligne, comme étant une méthode fortement
intéressée9.
8 A nos yeux, ceci a mis en lumière de manière intéressante les obstacles qui compliquent la prise
en compte, la négociation et la remise en cause d’hypothèse ontologique de recherche numérique :
ces hypothèses sont considérées comme trop « basiques » pour justifier une interrogation détaillée.
9 Le terme de « méthode intéressée » nous a été suggéré par Kristin Asdal lors d’une communication
personnelle.
Les méthodes d’interface 45
Pour développer et tester notre technique, nous décidons de nous en tenir aux
données de Twitter. Ces dernières sont relativement faciles à obtenir en passant les
APIs de Twitter. Pour capter et analyser les tweets, nous avons utilisé TCAT (Twitter
Capture and Analysis Toolkit) développé par le Digital Methods Group de l’Université
d’Amsterdam11. Notre but étant d’appliquer une analyse de cooccurrence de termes
en recherche numérique, nous nous concentrons sur les mots, mots-clés et hashtags,
10 Notons qu’il est également possible de faire une analyse dite de « cooccurrence de termes »
avec des données en ligne sans trop se préoccuper de l’application couramment répandue d’outils
similaires en ligne. En d’autres termes, on peut également « numériser » cette méthode et, par exemple,
les en-têtes de blogs de la même manière que l’on analysait les résumés d’articles scientifiques par
le passé [Hellsten et Elefteria, 2012].
11 DMI-TCAT est développé par Erik Borra et Bernhard Rieder. Les scripts de capture de flux sont
disponibles sur https://github.com/bernorieder/twitterstreamcapture.
Les méthodes d’interface 47
plutôt que d’autres objets Twitter, tels que les URLs et les noms d’utilisateurs. Les
données Twitter conviennent pour une analyse de cooccurrence de termes, parce
que le tweet limité à 140 caractères offre une unité de données exploitable où il est
possible de détecter des relations de cooccurrence. Comme indiqué par Callon et al.
[Callon et al., 1983], l’analyse de cooccurrence de termes fonctionne particulièrement
bien sur des fragments relativement courts d’informations mises en forme, comme
les résumés d’articles scientifiques, ce type d’information étant déjà structuré pour
démontrer une pertinence. Toutefois, notre première décision de nous appuyer sur
cette démarcation classique de l’unité de données – le tweet – où nous pourrions
déterminer les relations de cooccurrence n’est pas sans conséquence. Par exemple,
cela veut dire que nous écartons, au moins au départ, la possibilité de spécifier en
outre la « force » de la relation de cooccurrence à l’intérieur de chaque tweet, comme
l’avaient initialement formulé Callon et al.
Pour faire notre analyse de « contenu éventif » (happening content), nous décidons
de nous concentrer sur un terme relevant d’un enjeu assez général, à savoir le
« changement climatique » (ici, climate change), et d’inclure dans notre ensemble de
données tous les tweets utilisant ce terme sur une période de près de trois mois,
du 1er mars au 15 juin 2012, colligeant 204 795 messages de ce type au total,
soit un ensemble de données d’une taille largement exploitable. Nous avons mis
l’accent sur ce thème très général parce qu’il nous était familier à la suite de travaux
précédents sur la cartographie d’enjeux en ligne [Rogers et Marres, 2000 ; Niederer,
2009]. Lors de différents ateliers à Londres et à Amsterdam12, nous avons effectué
des études pilotes avec divers mots-clés d’une granularité plus fine (comme le style
de vie durable et l’action climatique : sustainable living et climate action) et à différents
intervalles, mais il semble qu’il faille un thème d’un enjeu relativement large et un
nombre suffisant d’intervalles de temps pour capter des variations thématiques que
l’on puisse interpréter. Une fois délimité notre ensemble de données, nous nous
sommes posé la question : sur quels termes nous concentrer ? Notre discussion
sur les différents critères de sélection initiaux possibles démontre à quel point
la conception proportionnelle de la pertinence est enracinée dans les pratiques
médiatiques en ligne : pour sélectionner nos « mots-cibles », nous nous sommes
d’abord portés sur les mots-clés des listes de 5, 10 et 20 premiers obtenus par
analyse de fréquence. Nous avons ensuite décidé de tester une mesure alternative,
à savoir l’analyse de cooccurrence, en nous interrogeant sur la différence que cela
engendrerait si au lieu d’étudier avec quelle fréquence un mot est cité dans Twitter,
nous nous intéressions à comment il est relié à d’autres mots. Avant de répondre à
cette question, cependant, nous devions nous attaquer à un problème tout aussi
épineux : nous concentrons-nous sur les mots ou les hashtags (les mots précédés
d’un signe dièse [#]) ? Notre but plus général étant de procéder à des analyses
12 Ceux-ci comprenaient les ateliers Issue Mapping Online et Co-Word Machine qui se sont tenus à
Goldsmiths College à l’Université de Londres en mai 2012, tous deux financés par le programme
Digital Social Research Programme du ESRC, ainsi que la Digital Methods Summer School organisée
à l’Université d’Amsterdam en juillet 2012.
48 Traces numériques et territoires
Figure 2 : Hit-parade des hashtags mesurés en fréquence de citation de termes (à gauche) et les liaisons
de cooccurrence (à droite) mesurées sur 6 intervalles hebdomadaires. Echantillon : le changement clima-
tique (climate change) sur Twitter
13 Pour la fréquence comme la cooccurrence, nous avons commencé par calculer le classement
global des termes (tous intervalles confondus) avant de calculer l’occurrence par intervalle. Nous
Les méthodes d’interface 49
pour chaque intervalle, et comment cet ensemble de hashtags les plus populaires
change avec le temps. La colonne de droite montre les hashtags qui y apparaissent
le plus souvent tout en étant associés à d’autres hashtags également présents dans
notre ensemble des données pour chaque intervalle14. Ces résultats divergent très
sensiblement, car les mesures de fréquence et celles de cooccurrence de termes
font ressortir des résultats différents des hitparades de hashtags provenant de notre
ensemble des données. Dans la colonne des fréquences, des hashtags renvoient à
des institutions ou des manifestations, comme #cop16 ou #auspol, tout comme
d’autres correspondent à des campagnes comme #savethearctic. Là où on applique
la cooccurrence de termes, des hashtags formés de substantifs sont davantage mis
en avant, dont #economics, #flood, #co2, #health. La figure rend aussi compte la
différence entre l’actualité et la vivacité des enjeux. Les hashtags qui sont globalement
fréquents sont davantage exposés à des dynamiques, en quelque sorte, de battage :
ils apparaissent rapidement, atteignent de fortes fréquences grâce à des activités de
retweet de courte durée, puis disparaissent, comme c’est le cas de #cleancloud et
#newbedon. Les hashtags aux fréquences les plus élevées sont spécifiquement internes à
Twitter, puisqu’on y trouve des termes comme #qanda (question & answer : « questions-
réponses ») or #newbedon15, bien que l’analyse de cooccurrence de termes fasse
bel et bien ressortir #dt (donated tweet, ou « don en tweet »). Les mots qui jouissent
de bonnes cooccurrences ont plus de chance de survivre d’un intervalle à l’autre,
ce qui en montre l’endurance, ce sont : #environment, #tcot (topconservatives,
ou archiconservateurs), et #drought (sécheresse). D’un point de vue empirique, la
figure apporte, au départ, de l’eau à notre moulin pour affirmer que les mesures
proportionnelles (la fréquence) sont plus susceptibles de diriger notre attention vers
des dynamiques propres au médium (feu de paille ou bursting, battage ou hyping), alors
que les mesures relationnelles (la liaison) permettent davantage de faire ressortir au
premier plan des dynamiques propres à l’enjeu. Cela veut dire que le choix de la
mesure peut orienter l’analyse davantage en direction d’une « étude de la dynamique
du médium » ou vers une « étude de la dynamique de l’enjeu », bien que l’une comme
l’autre feront les deux [voir sur ce point : Marres, 2015]. Toutefois, lorsqu’il s’agit de
détecter la vivacité d’enjeux, cette première figure laisse une question importante
sans réponse : elle donne une indication du nombre de liaisons de cooccurrence
pour un hashtag donné, mais ne nous dit rien sur la variation des liaisons, c’est-à-dire
les modalités d’évolutions des mots associés à ces hashtags.
avons exclu les termes de requête « climate change », « climate » et « change », ceux-ci n’apportant rien à
notre analyse.
14 Nous avons employé précisément la mesure de du « degré moyen pondéré », c’est-à-dire le degré
pondéré de liaisons entre un hashtag et d’autres hashtags.
15 Concernant newbedon, son apparition semble être indicative d’un phénomène propre à Twitter :
ce terme fait référence à des personnalités de l’opposition dans les Emirats Arabes Unis qui se sont
vus dépossédés de leur nationalité, et ce hashtag a été utilisé à des fins de sensibilisation. Ce hashtag
doit avoir été kidnappé, peut-être par des spammers.
50 Traces numériques et territoires
Pour résumer brièvement ce que nous avons établi jusqu’ici, trois points nous
semblent particulièrement importants. Premièrement, la traduction opérationnelle
de l’analyse de cooccurrence de termes pour analyser des données sur Twitter :
celle-ci nous a certes permis d’affirmer et de problématiser la distinction entre des
mesures proportionnelles (de la fréquence) et relationnelles (des cooccurrences)
de la pertinence. En traitant nos données avec ces mesures, nous avons trouvé
différentes façons dont l’intérêt pour la fréquence se trouve intégré aux pratiques
des médias numériques. Cela ne représente pas seulement une caractéristique des
outils prédominants d’analyse des données. Ainsi, l’importance des retweets nous
a rappelé combien la « fréquence de la mention » est recherchée activement – et
produite – dans le cadre d’une tactique publicitaire sur Twitter : retweeter est une
technique pour que des messages soient repris par le système. Deuxième point :
dans l’opérationnalisation de l’analyse de cooccurrence de termes pour la recherche
en ligne, notre propre démarche est influencée par son contexte d’application.
En appliquant concrètement en ligne l’analyse de cooccurrence de termes, notre
démarche a fini par intégrer certains des « présupposés du médium ». En effet, en
adoptant le tweet comme une unité significative d’analyse, nous avons aussi opté
pour la mesure de la cooccurrence plutôt que pour l’analyse de la cooccurrence
de mots. Notre outil de cooccurrence de terme définit une relation entre « co-
hashtags » comme étant l’occurrence de deux hashtags dans le même tweet, et
cette approche nous dispense efficacement de mesurer la relation de force relative
des liens comme le préconise Callon – la proximité relative entre mots – une
caractéristique primordiale de l’analyse de cooccurrence de termes. Toutefois, en
même temps, en abordant l’appareil de recherche Twitter, nous avons acquis une
vision plus claire de nos propres objectifs et intérêts méthodologiques. Nous avons
perçu clairement que si nous voulons détecter la vivacité d’enjeux grâce à Twitter,
nous devons élaborer une heuristique supplémentaire pour pouvoir repérer quelles
sont les mutations pertinentes parmi les associations fluctuantes de termes.
d’un hashtag, autrement dit les autres hashtags, mais aussi les URLs, auxquels il est
associé, ainsi que les utilisateurs17. Notre notion de profil d’associations reconnaît
ainsi les ontologies propres au médium, contrairement à Latour et al. [Latour et
al., 2012]. De plus, nous voulons utiliser cette heuristique du profil d’associations
pour détecter les modifications dans le temps des associations concernées : notre
recherche ne porte pas tant sur le côté ontologique de ce que composent les
associations (le profil) d’une entité donnée à un instant donné. Nous nous
intéressons davantage aux changements du profil de la composition d’un hashtag
comme indice de la variabilité d’un enjeu, ou son degré d’animation.
Pour examiner l’utilité de cette heuristique, nous avons décidé de produire trois
types de profils pour certains des hashtags les plus importants que nous avions
préalablement identifiés dans notre ensemble de données Twitter sur le changement
climatique : les profils d’acteurs, d’utilisateurs et de hashtags. En accomplissant
cet exercice, nous nous sommes concentrés au départ sur les hashtags les plus
explicitement politiques qu’il contient, à savoir : #ows (occupez Wall Street) et #tcot
(top conservateurs), en présupposant que des hashtags aussi polarisés offriraient
le plus de chances de présenter des profils distinctifs et notre analyse a bel et
bien révélé des différences explicites entre ces hashtags. Nous avons déterminé
les profils d’acteurs en rapport avec nos hashtags en identifiant quels étaient les
URLs figurant au premier plan des tweets contenant le hashtag en question, et
nous avons découvert que #ows est, pour la plupart, associé à des sites politiques
ou d’organisation et à des médias sociaux et de diffusion d’actualités en ligne18.
Par contre, #tcot est associé principalement à des médias de diffusions d’actualité
et généralistes, et à des intervalles ultérieurs de plus en plus à des blogs et au site
de l’organisation progressiste http://thingprogress.com. Le profil des hashtags
globalement progressifs #p2 est dominé par des organisations, plutôt que des sites
politiques, http://thinkprogress.org étant la source la plus fréquemment citée, mais
renvoie aussi fortement vers les sites d’actualité et médiatiques. Dans l’ensemble,
il semble exister des différences particulièrement significatives entre les profils
d’acteur de #ows et de #tcot : #tcot est essentiellement associé à des préoccupations
d’actualité, #ows à une démarche de campagne d’opinion et #tcot apparaît comme
étant plus diversifié que #ows au regard des sources citées19. Dans une deuxième
17 Selon le même principe qui veut que le tweet fournit le site et les moyens de liaison, on peut
dire : si deux entités sont reliées au même tweet, elles sont alors reliées.
18 Ressortent principalement http://majority.fm et http://savetheartic.org, un site de lanceurs
d’alerte et un site de campagne.
19 Nous tirons cette explication des données : une lecture attentive des tweets associés à ces deux
hashtags fait ressortir que, au moins dans l’échantillon de données liées au changement climatique,
un nombre significatif de tweets contenant #tcot faisait des commentaires sur le conservatisme.
Prenons un commentaire comme celui-ci, par @DukeMaximum : « Ouah, cette affaire de
changement climatique s’est changée en un clin d’œil d’une enquête scientifique légitime en culte
de fin du monde, non ? [Wow the climate change field went from legitimate scientific inquiry to a doomsday cult
in the blink of an eye didn’t it?] #tcot ». Ces tweets n’avaient pas toujours une orientation conservatrice
52 Traces numériques et territoires
phase de profilage, nous avons examiné les associations entre utilisateurs et hashtags.
Cette opération s’est avérée intéressante pour différentes raisons, notamment parce
qu’elle a mis en relief l’hétérogénéité des entités impliquées dans le changement
climatique sur Twitter20. Lorsque nous avons travaillé sur ce sujet pendant la Digital
Methods Summer School d’Amsterdam, un certain nombre de participants a décidé
d’examiner quels étaient les types d’utilisateurs que l’on trouve dans notre ensemble
de données Twitter, et ils se sont rapidement entendus sur la différence entre
utilisateurs humains et non humains (les bots) comme constituant la distinction la
plus importante. Comme l’exposent Niederer et Van Dijck [2010], les robots (les
bots) jouent un rôle important dans l’organisation du discours public présent sur les
plates-formes de médias sociaux. Ce point, toutefois, ne fait pas que soulever des
questions d’identification (sur Internet, peut-on vraiment savoir qui est quoi ?) dans
le même ordre d’idée que le test de Turing. La question pertinente est tout autant
celle-ci : à quel point les bots exercent-ils une influence sur l’organisation du discours
public sur le changement climatique sur Twitter ? Cette deuxième interrogation
diffère de la première. En effet, dans le deuxième cas, ici, elle ne porte pas sur la
différenciation entre discours humain et non humain, ou sur la possibilité d’en
faire une. Le but est plutôt de détecter les propriétés du discours public que la
plate-forme facilite dans la mesure où cela implique une diversité d’entités à la fois
humaines et non humaines, autrement dit, dans la mesure où cela implique une
certaine composition de bots et d’humains [voir aussi sur ce point Wilkie et al., 2015].
Toutefois, pour évaluer l’inflexion du discours sur le changement climatique sur
Twitter due aux bots, il reste nécessaire d’identifier ces utilisateurs non humains, et les
méthodes utilisées au cours du projet d’école d’été pour différencier ces deux types
d’acteurs ont été sans conteste expérimentales (voir Figure 3). Les utilisateurs ont
été sélectionnés en utilisant une mesure de fréquence (ils n’étaient que 60 utilisateurs
à écrire 100 tweets et plus), et ils ont été catégorisés à la main entre utilisateurs
humains et bots en fonction d’une description de profil, de l’activité en tweets et
des liens utilisés21. Une première série de résultats nous a permis de déterminer
en eux-mêmes, mais proposaient des commentaires sur le conservatisme où une préoccupation avec
l’actualité s’explique. De fait, #tcot est décrit comme un hashtag pour suivre les ultraconservateurs
sur Twitter (http://www.topconservativesontwitter.net [consulté le 16 juillet 2013]). A l’inverse, il
semble que les contributions contenant #ows sont davantage susceptibles de suivre une orientation
militante en soi.
20 Notons que les méthodes de profilage ci-dessus instaurent chacune un niveau élevé
d’homogénéité dans les données, ainsi dans un premier cas nous nous sommes concentrées sur les
relations entre les hashtags uniquement, puis, dans le second cas, entre hashtags et URLs contenues
dans les tweets, toutes les autres entités ayant été délibérément ignorées [pour une discussion, voir
Marres, 2012].
21 Les tweets créés par des bots suivent souvent un modèle très régulier, affichent une structure
de tweet semblable, et utilisent de façon répétée une chaîne de spam ou la même URL. Nous nous
sommes aussi demandé si les humains ou les bots présentent souvent un thème de prédilection issu
de la biographie de leur profil ou du contenu du tweet, et même chez les bots il est possible de trouver
des descriptions ciblées thématiquement.
Les méthodes d’interface 53
qu’il existe un grand nombre de bots génériques, c’est-à-dire des bots qui publient du
contenu qui n’est pas particulièrement spécifique au hashtag utilisé (climate change). Il
semble que ces bots s’avèrent profiter de la relative actualité des hashtags pour trouver
des publics, qu’importe le contexte sur le fond. La présence de bots peut donc être
prise en compte de manière très indirecte comme un indice d’activité autour d’un
enjeu en rapport avec le changement climatique sur Twitter. Leur présence, en effet,
suggère que le hashtag en question est d’actualité, mais dans la mesure où ces bots
sont génériques, l’actualité est une caractéristique qui s’applique au médium, et non
à l’enjeu. Il se peut que nous devions aussi faire une distinction entre l’activation
qui est plus spécifique à un médium (associations changeantes entre hashtags et
bots), par opposition à une activation qui est mobilisée par variation d’associations
sur le fond à l’intérieur de l’espace d’un même enjeu (comme une opposition entre
organisations et informations d’actualité).
Figure 3 : Comparaison humains et bots : profils d’utilisateurs pour les hashtags #ows, #tcot et #p2
en relation avec le thème du changement climatique (mot-clé climate change)
Pour finir, nous en sommes revenus à nos questions antérieures sur les liaisons entre
hashtags eux-mêmes. A quels hashtags se relient ceux que nous avons sélectionnés
dans chaque intervalle ? Comment ces associations de hashtags changent-elles d’un
intervalle à l’autre ? En collaboration avec des programmeurs et des designers,
nous avons mis au point une technique pour déterminer les profils d’associations :
détecter, pour un mot-cible donné, les hashtags qui lui sont associés par intervalle
et créer une visualisation qui montre la variation de ces associations sur l’ensemble
des intervalles (figure que nous appellerons provisoirement « courbe de vie de
54 Traces numériques et territoires
Figure 5 : Profils d’associations pour #ows (à droite) par rapport à #environment (à gauche)
auquel elle est appliquée. Twitter offre un autre cadre et un autre contexte que les
résumés d’articles scientifiques. Ainsi, alors que nous avions commencé nos
travaux à l’aide de l’analyse de cooccurrence de termes parce qu’elle offre une
méthode relationnelle, notre décision à travailler avec des données Twitter nous a
contraintes à nous occuper de différents effets proportionnels et liés à la fréquence.
Nous aimerions indiquer deux raisons expliquant cette situation. Premièrement,
nous avons été constamment confrontées à des effets proportionnels dans nos
données, par exemple sous la forme d’activités de retweets provoquant des salves
de hashtags, ou celle des bots en kidnappant certains. En menant cette analyse
sur Twitter, par conséquent, l’« ontologie » qui ressort des données de cette plate-
forme, son format spécifique et les pratiques d’usage associées ne peuvent être
tout simplement ignorés par notre méthode, et, de fait, elle semble avoir été
contaminée dans une certaine mesure. Les données provenant des médias sociaux
se présentent sous une forme, un format spécifique et sont façonnées par des
pratiques d’utilisation distinctes qui peuvent orienter l’analyse dans des directions
particulières, dans notre cas celles de formes d’analyse proportionnelles.
En deuxième lieu, et avec une égale importance, par notre tentative d’adapter
une démarche sociologique à l’analyse du « contenu éventif » (happening content) à
l’aide de Twitter, notre projet de recherche a créé le cadre d’une rencontre entre
différentes approches méthodologiques, et, partant, entre différentes traditions
analytiques dans la recherche sociale et culturelle. Nous en sommes venues à
l’analyse de cooccurrence de termes avec en tête un intérêt marqué par la STS pour
la cartographie d’enjeux et pour les méthodes relationnelles appliquées à l’étude
du contenu dynamique, le repérage de « poches d’innovation » ou ce que nous
avons préféré appeler « vivacité ». Toutefois, en cherchant à appliquer l’analyse
de cooccurrence de termes à la recherche numérique, cette méthode a fait l’objet
de discussions concernant une méthode apparentée, mais légèrement différente,
l’analyse des cooccurrences. S’il est vrai que les applications actuelles de cette
dernière méthode sont en partie déterminées par l’analyse de cooccurrence de
termes, celle-ci débouche assurément sur une traduction autre que celle que nous
avions appelée par le passé « analyse des relations inter-mots ». Comme indiqué,
l’analyse de cooccurrences se fixait sur la fréquence de liaisons cooccurrentes,
mais sans examiner les proximités relatives entre termes. Dans notre cas, le format
Twitter des tweets sert d’unité de référence pour l’analyse, et non le « cluster
de mots » – moins dépendant du médium – composé de mots présentant des
distances entre termes variables. En tentant cette mise en œuvre, nous avons
appris à connaître beaucoup mieux la méthodologie que nous proposions. On ne
peut certainement pas dire que l’analyse des données de Twitter en soi se limite
d’elle-même à un cadre proportionnel, et au travers de notre étude nous avons
appris beaucoup au sujet des champs d’opportunités et des contraintes que les
médias numériques imposent aux « méthodes associationnistes ». Nous voudrions
relever un des avantages essentiels des données Twitter : qu’il permet d’utiliser des
hétérogénéités préstructurées pour construire des profils d’associations ; celles-ci
Les méthodes d’interface 55
peuvent être des URLs ou des utilisateurs, auxquels pourraient s’ajouter la langue,
les appareillages et la plate-forme informatiques utilisés pour la publication
en ligne, ainsi que le type de tweet (@reply, tweet, retweets, etc.). Une telle
hétérogénéité préstructurée pourrait offrir un moyen formidable pour qualifier
plus avant les objets de profil et leur vivacité. Nous voulons aussi simplement
signaler que la délimitation de l’échantillon de données vis-à-vis du « médium dans
son intégralité » – ainsi que nous l’avons fait en nous concentrant sur tous les tweets
mentionnant le changement climatique (avec le mot-clé climate change) – oriente
l’analyse vers la détection d’effets propres à un médium.
Enfin, et c’est peut-être l’enseignement le plus important, nous avons tiré des leçons
sur l’importance de la mauvaise adéquation de la méthode par rapport au médium,
et sur la nécessité de créer un certain nombre d’ajustements bien choisis pour rendre
opérante une certaine part sélective d’inadéquation entre méthode et médium. Ce
point pourrait aussi servir de définition ad hoc de l’analyse contestante, ou pour dire
les choses plus simplement, de l’« intervention ». Comme nous avons porté notre
méthode pour qu’elle « interface » avec les pratiques analytiques et techniques de la
recherche sur Twitter, nous avons fini par adopter une méthode hybride. La question
se pose ainsi : qu’avons-nous gagné à accueillir de tels effets d’interface ? Qu’avons-
nous gagné en autorisant que des effets liés au médium déterminent notre étude
sur les effets d’enjeux ? Dans nos projets empiriques, nous avons tenté de créer
des relations informées entre notre méthode, les données et l’analyse de contexte,
comme la sociologie de la connaissance et l’analyse numérique, la spécificité de
Twitter et l’analyse de la dynamique des enjeux. S’il est vrai que nous n’avons pas
réussi à tous égards à établir pareilles relations, nous avons pu bel et bien nous
familiariser avec les façons plus ou moins déterminées par lesquelles celles-ci ne
sont pas adaptées les unes aux autres. Les pratiques sur Twitter peuvent susciter à
nouveau un intérêt pour la fréquence grâce aux pics de retweets, les bots peuvent
faire revenir la dynamique du médium dans l’étude de la dynamique des enjeux.
En d’autres mots, le biais proportionnel d’une bonne partie de l’analyse de Twitter
n’est pas seulement un artefact dû aux tendances méthodologiques de ceux qui
la pratiquent. Il y a des comportements, des pratiques et des effets spécifiques
aux médias qui produisent, participent à la production, des conditions qui rendent
possible la montée en notoriété de cette approche méthodologique : le fait de
retweeter, les tweets déclenchés par l’événement, et les invasions de bots sont un
certain nombre des phénomènes que nous avons rencontrés. Pour cette raison, il ne
paraît pas exagéré que les analyses proportionnelles sur Twitter parlent le « langage
du support » : elles ne sont pas seulement au fait de ce support, mais aussi bien
adaptées aux pratiques de ses utilisateurs, à leurs effets et à la culture spécifique de
ce médium.
La dynamique du support, dans notre cas celle sur Twitter, est coconstitutive du
biais favorable à l’analyse proportionnelle. On ne peut toutefois mettre la dynamique
du médium entre parenthèses, il faut y être attentif. La question est ouverte, mais
le fait de la poser implique une autre compréhension des méthodes d’interface.
Nous avons commencé par reconnaître que la question des outils et des mesures
reste ouverte, mais pour élaborer des formes d’analyse à l’interface de différentes
traditions méthodologiques, il peut également être important non seulement de
chercher à les aligner, mais également de reconnaître un éventuel vice d’ajustement
des différentes composantes constitutives de la pratique analytique. Nous concevons
alors les méthodes d’interface comme une remédiation à la fois du médium, des
données, des pratiques, des enjeux, des techniques et des méthodes, ce qui demande
une attention à l’égard à la fois de l’alignement ou du défaut d’alignement des
différents agents analytiques qui leur sont intégrés ou qu’elles rendent possibles.
REMERCIEMENTS
Nous remercions les participants de l’école d’été Digital Methods Summer School
2012 sur les dynamiques des enjeux en ligne intitulée « Issue Lifelines » : Albrecht
Hofheinz, Colleen Reilly, David Moats, Diego Dacal, Esther Weltevrede, Jill Hopke,
Johannes Passmann, Kalina Dancheva, Sara Kjellberg and Tally Yaacobi-Gross.
Nous remercions particulièrement, Alessandro Brunetti, designer d’information.
Nous tenons aussi à exprimer notre gratitude envers les participants des ateliers de
cartographie d’enjeux en ligne (Issue Mapping Online) et d’analyse de cooccurrences
automatique (The Co-Word Machine) à Goldsmiths College, University of London,
notamment : Esther Weltevrede, Marieke van Dijk, Richard Rogers, Sabine Niederer,
Anne Helmond, Bernhard Rieder, Emma Uprichard, Erik Borra, Lucy Kimbell,
Astrid Mager, Sam Martin, Esteban Damiani et Ea Ryberg Due. Pour finir, nous
tenons à remercier Simeon Smith pour sa lecture des données Twitter en qualité
d’adjoint de recherche.
FINANCEMENTS
Cet article a été possible grâce à une subvention de démonstrateur accordée par
le Conseil pour la recherche en économie et sciences sociales (Economic and
Social Research Council – ESRC) au titre de son axe sur le numérique en sciences
Les méthodes d’interface 57
RÉFÉRENCES BIBLIOGRAPHIQUES
[Back et Puwar, 2012] Back, L. et Puwar, N., 2012, « A manifesto for live methods: provocations
and capacities », The Sociological Review, 60, 6-17.
[Beck et Kropp, 2011] Beck, G. et Kropp, C., 2011, « Infrastructures of risk: a mapping approach
towards controversies on risks », Journal of risk research, 1(14), 1-1.
[Beer, 2012] Beer, D., 2012, August 31, « Using Social Media Data Aggregators to Do Social
Research », Sociological Research Online.
[Bowker et Star, 2000] Bowker, G. C. et Star, S. L., 2000, Sorting Things Out: Classification and Its
Consequences, Cambridge, MA : MIT Press.
[Bruns et Stieglitz, 2012] Bruns, A. et Stieglitz, S., 2012, « Quantitative Approaches to Comparing
Communication Patterns on Twitter », Journal of Technology in Human Services, 30(3-
4), 160-185.
[Bucher, 2012] Bucher, T., 2012, « Want to be on the top? Algorithmic power and the threat of
invisibility on Facebook », New Media & Society, 14(7), 1164-1180.
[Burrows et Beer, 2007] Burrows, R. et Beer, D., 2007, September 30, « Sociology and, of and in
Web 2.0: Some Initial Considerations », Sociological Research Online.
[Callon et al., 1983] Callon, M., Courtial, J.-P., Turner, W. A. et Bauin, S., 1983, « From translations
to problematic networks: An introduction to co-word analysis », Social Science
Information, 22(2), 191-235.
[Callon et al., 1986] Callon, M., Law, J. et Rip, A., 1986, Mapping the dynamics of science and
technology: sociology of science in the real world, London : Macmillan.
[Chateauraynaud, 2009] Chateauraynaud, F., 2009, « Public controversies and the Pragmatics of
Protest: Toward a Ballistics of collective action », Working Paper EHESS, Paris.
[Collins et Pinch, 1998] Collins, H. M. et Pinch, T., 1998, The golem: What you should know about
science, Cambridge : Cambridge University Press.
[Coulter et al., 1998] Coulter, N., Monarch, I. et Konda, S., 1998, « Software engineering as seen
through its research literature: a study in co-word analysis », Journal of the American
Society for Information Science, 49(13), 1206-1223.
[boyd et Crawford, 2012] boyd, D., et Crawford, K., 2012, « Critical questions for big data:
Provocations for a cultural, technological, and scholarly phenomenon.
Information », Communication & Society, 15(5), 662-679.
[Danowski, 2009] Danowski, J., 2009, « Inferences from word networks in messages », In
Krippendorff, K. et Bock, M. A. (éd.), The content analysis reader, Thousand Oaks,
CA : Sage, pp 421-429.
[Downs, 1972] Downs, A., 1972, « Up and down with Ecology: the Issue Attention Cycle », The
Public Interest, 28, 38-50.
58 Traces numériques et territoires
[Eklof et Mager, 2013] Eklof, J. et Mager, A., 2013, « Technoscientific promotion and biofuel
policy: How the press and search engines stage the biofuel controversy », Media
Culture Society, 4(35), 454-471.
[Galloway, 2012] Galloway, A. R., 2012, The Interface Effect, Cambridge : Polity.
[Gerlitz, 2012] Gerlitz, C., 2012, Continuous Economies, Goldsmiths, University of London : PhD
thesis.
[Gerlitz et Helmond, 2013] Gerlitz, C. et Helmond, A., 2013, « The Like economy: Social buttons
and the data-intensive web », New Media & Society, 15(8), 1348-1365.
[Gitelman, 2013] Gitelman, L. (éd.), 2013, Raw Data Is an Oxymoron, Cambridge, MA : MIT Press.
[Hansen et al., 2011] Hansen, L. K., Arvidsson, A., Nielsen, F. Å., Colleoni, E. et Etter, M.,
2011, « Good friends, bad news. Affect and virality in Twitter », Future Information
Technology, Berlin/Heidelberg : Springer, 34-43.
[Harvey et al., 2013] Harvey, P., Reeves, M. et Ruppert, E., 2013, « Anticipating Failure:
Transparency devices and their effects », Journal of Cultural Economy, 3(6), 294-312.
[Jirotka et al., 2013] Jirotka, M., Lee, C. P. et Olson, G. M., 2013, « Supporting Scientific
Collaboration: Methods, Tools and Concepts », Computer Supported Cooperative
Work (CSCW), 22(4-6), 667-715.
[Langlois et Elmer, 2013] Langlois, G. et Elmer, G., 2013, « The Research Politics of Social Media
Platforms », Culture, 14, 1-17.
[Latour et al., 2012] Latour, B., Jensen, P., Venturini, T. et Boullier, S. G. D., 2012, « The Whole
is Always Smaller Than Its Parts’: A Digital Test of Gabriel Tarde’s Monads »,
British Journal of Sociology, 63(4), 590-615.
[Law et al., 2011] Law, J., Ruppert, E. et Savage, M., 2011, The Double Social Life of Methods, CRESC
Working Paper Series, 44(95), 1-12.
[Lury, 2004] Lury, C., 2004, Brands. The logos of the global economy, London/New York : Routledge.
[Lury, 2012] Lury, C., 2012, « Going live: towards an amphibious sociology », The Sociological Review,
60(2012), 184-197.
[Lury et Wakeford, 2012] Lury, C. et Wakeford, N., 2012, Inventive Methods: The Happening of the
Social, London/New York : Routledge.
[Marres et al., 2013] Marres, N., Gerlitz, C., Weltevrede, E., Borra, E. et Rieder B., 2013, Mapping
WCIT with Twitter: Issue and Hashtag Profiles, http://issuemapping.net/Main/
WCITProfiles.
[Marres, 2015] Marres, N., 2015, « Why Map Issues? How digitization is changing the settings of
controversy analysis and what to do about it », Science, Technology and Human Values,
http://sth.sagepub.com/content/early/2015/03/16/0162243915574602.
[Marres, 2011] Marres, N., 2011, « The costs of public involvement. Everyday devices of carbon
accounting and the materialisation of participation », Economy and Society, 40(4),
510-533.
[Marres, 2012] Marres, N., 2012, « The redistribution of methods: on intervention in digital social
research, broadly conceived », The Sociological Review, 60(2012), 139-165.
Les méthodes d’interface 59
[Marres et Rogers, 2005] Marres, N. et Rogers, R., 2005, « Recipe for Tracing the Fate of Issues
and their Publics on the Web », In Latour, B. et Weibel P. (éd.), Making Things
Publics: Atmospheres of Democracy, Cambridge, MA : MIT Press, pp 922-935.
[Marres et Rogers, 2008] Marres, N. et Rogers, R., 2008, « Subsuming the ground: how local
realities of the Fergana Valley, the Narmada Dams and the BTC pipeline are put
to use on the Web », Economy and Society, 37(2), 251-281.
[Marres et Rogers, 2001] Marres, N. et Rogers, R., 2001, « Depluralising the Web and Repluralising
Public Debate: The Case of the GM Food Debate on the Web », In Rogers, R.
(éd.), Prefered Placement: Knowledge Politics on the Web, Maastricht : Jan van Eyck
Academie.
[Marres et Weltevrede, 2013] Marres, N. et Weltevrede, E., 2013, « Scraping the Social? Issues in
real-time social research », Journal of Cultural Economy, 6(3), 313-335.
[Niederer et Van Dijck, 2010] Niederer, S. et Van Dijck, J., 2010, « Wisdom of the crowd or
technicity of content? Wikipedia as a sociotechnical system », New Media &
Society, 12(8), 1368-1387.
[Niederer, 2009] Niederer, S., 2009, Climate Change Sceptics. Digital Methods Initiative, https://wiki.
digitalmethods.net/Dmi/ClimateChangeSkeptics.
[Rogers, 2009] Rogers, R., 2009, The End of the Virtual – Digital Methods. Media, http://www.
govcom.org/rogers_oratie.pdf.
[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Rogers et Marres, 2000] Rogers, R. et Marres, N., 2000, « Landscaping climate change: a mapping
technique for understanding science and technology debates on the World Wide
Web », Museum, 9, 1-23.
[Ruppert et al., 2013] Ruppert, E., Law, J. et Savage, M., 2013, « Reassembling Social Science
Methods: The Challenge of Digital Devices », Theory, Culture & Society, 30(4),
22-46.
[Savage, 2009] Savage, M., 2009, « Contemporary Sociology and the Challenge of Descriptive
Assemblage », European Journal of Social Theory, 12(1), 155-174.
[Scharnhorst et Wouters, 2006] Scharnhorst, A. et Wouters, P., 2006, « Webindicators: a new
generation of S&T indicators », Cybermetrics, 10.
[Suchman, 2005] Suchman, L., 2005, « Agencies in Technology Design: Feminist
Reconfigurations », http://www.lancs.ac.uk/fass/sociology/papers/suchman-
agenciestechnodesign.pdf.
[Thelwall et al., 2006] Thelwall, M., Vann, K. et Fairclough, R., 2006, « Web issue analysis: An
integrated water resource management case study », Journal of the American Society
for Information Science and Technology, 57(10), 1303-1314.
[Uprichard, 2011] Uprichard, E., 2011, « Dirty data: longitudinal classification systems », The
Sociological Review, 59(c), 93-112.
[Van der Velden, 2014] Van der Velden, L., 2014, « A study into third party elements on Dutch
governmental websites », doctoral dissertation chapter, Media Studies, University
of Amsterdam [ms].
[Venturini, 2010] Venturini, T., 2010, « Diving in magma: how to explore controversies with actor-
network theory », Public Understanding of Science, 19(3), 258-273.
60 Traces numériques et territoires
[Venturini, 2012] Venturini, T., 2012, « Building on faults: how to represent controversies with
digital methods », Public Understanding of Science, 21(7), 796-812.
[Wilkie et al., 2015] Wilkie, A., Michael, M. et Plummer-Fernandez, M., 2015, « Speculative Method
and Twitter: Bots, Energy and Three Conceptual Characters », The sociological
review, 63(1), 79-101.
[Wouters et al., 2012] Wouters, P., Beaulieu, A., Scharnhorst, A. et Wyatt, S. (éd.), 2012, Virtual
Knowledge: Experimenting in the Humanities and the Social Sciences, Cambridge, MA :
MIT Press.
Soft data
Essai d’une nouvelle définition des données pour les études territoriales
L’étiquette de « soft data » que nous utilisons dans le titre de ce chapitre constitue
un essai provisoire de réponse à une sensation d’insatisfaction terminologique
émergeant des travaux de l’axe scientifique Médias et territoire du Collège
international des sciences du territoire (CIST, Paris). Ces dernières années, la
recherche et l’administration publique se trouvent confrontées à un phénomène
qui semble pouvoir renouveler la façon de gérer et d’étudier le territoire. Nous nous
référons au déluge de nouveaux types de données générées par les technologies
numériques, notamment par l’Internet, qui se proposent comme nouvelle source
d’information sur le territoire [Hey et Trefethen, 2003].
Ces données représentent en même temps une réalité, un désir et un besoin. Une
réalité, car une des caractéristiques fondamentales des technologies numériques
est sûrement leur pouvoir de générer des traces. Toute action qui les traverse
laisse des traces qui peuvent être facilement récoltées et traitées. Un désir, car ces
données, grâce à leur valeur de trace de l’action sociale, promettent de répondre à
un désir généralisé des politiques publiques. Aujourd’hui le décideur public sent la
nécessité de trouver de nouvelles sources de données concernant la vie collective,
des informations disponibles en temps réel et produites avec des dynamiques
bottom-up qui puissent l’aider à rendre son action plus efficace. Dans ce sens, il
suffit de penser au nombre de collectivités territoriales qui se sont lancées dans
des projets de big et d’open data. Enfin, ces données représentent également un
besoin pour des méthodes et des outils plus adaptés à leur traitement.
Si les projets qui incluent des données provenant du Web dans l’étude de la société
se sont multipliés ces dernières années, nous pouvons noter comment les auteurs
les plus enthousiastes envers les données numériques se trouvent aujourd’hui à
faire un pas en arrière et à assumer des positions bien plus prudentes, voire parfois
pessimistes. Prenons le cas de David Lazer qui en 2009, dans un article collectif
[Lazer et al., 2009], arrive à la définition de la science sociale computationnelle
(Computational social science). Il observe : « Les nouvelles technologies, tels que la
surveillance vidéo, l’email, les badges nominatifs “intelligents”, offrent une image
instant par instant des interactions sur de longues périodes, en fournissant des
informations sur la structure et le contenu des relations ». Il continue : « Internet
offre une canal entièrement différent pour comprendre ce que les gens sont en
62 Traces numériques et territoires
De même, Venturini et al. [2014] identifient trois malentendus à l’usage des méthodes
numériques en sciences sociales et précisent toute une série de précautions à l’usage
des traces numériques dans ce type d’études qui contredisent paradoxalement
certains travaux antérieurs des même auteurs au Médialab de Sciences Po [Venturini
et Latour, 2012 ; Latour et al., 2013]. Ce mouvement vers l’arrière est certainement
représentatif d’un besoin d’une réflexion plus approfondie sur ces données et
d’une définition de méthodes plus adéquates aux différents contextes d’analyse.
Noortje Marres a été une des pionnières dans cette direction en mettant en avant
plusieurs limites des outils qu’elle-même avait utilisés précédemment [Marres
et Weltevrede, 2013]. En se concentrant sur la question de l’intervention des
technologies numériques dans les sciences sociales, l’autrice développe le concept de
« redistribution des méthodes » [Marres, 2012]. A travers cette expression, reprise des
STS [Latour, 1988 ; Rheinberger, 1997 ; Whatmore, 2009], elle souligne comment la
numérisation rend nécessaire la participation de nombreux acteurs à la définition des
méthodes utilisées dans la recherche : « Une approche redistributive à la recherche
sociale redéfinit les méthodes comme impliquant la combinaison et la coordination
de compétences différentes : classification, conception visuelle, analyse automatisée,
et ainsi de suite. Derrière les débats sur la faillibilité des données générées par les
sujets de recherche et le “désordre” des contenus en ligne auto-indexés, se trouve un
débat sur la redistribution des méthodes entre chercheurs, dispositifs, informations
et utilisateurs dans les environnements en ligne » [Marres, 2012 : 161]. D’ailleurs,
nous trouvons un autre exemple de cette attitude dans l’article de Marres et Gerlitz
publié ci-dessus.
1 http://www.google.org/flutrends.
Soft data 63
notre réflexion sera basée sur des expériences d’usage de données dans les études
territoriales [Delaney, 2005]. En introduisant la catégorie de soft data, nous ne
voulons pas théoriser l’existence d’un type particulier de données. Les soft data ne
sont pas une alternative aux hard data, aux big data ou aux open data. Notre intention
est plutôt de suggérer une manière différente de regarder les données disponibles
sur Internet. A notre avis, la notion de soft data est plus inclusive, car elle arrive
à rendre compte de certaines données qui ne sont pas facilement catégorisables
dans les catégories déjà existantes. Cela est le cas par exemple des tweets, souvent
utilisés dans des analyses de phénomènes territoriaux [Wilken, 2014 ; Romele et
Severo, 2014] ou les checks-in Facebook qui promettent de nous faire découvrir
de nouvelles géographies relationnelles [Vienne et al., 2014]. Ces données, qui
sûrement ne sont pas des open data2, peuvent fournir des informations intéressantes même
si elles n’ont pas non plus toujours les caractéristiques des big data.
L’analyse sera structurée en trois parties. Dans une première partie, nous
reprendrons les définitions principales proposées ces dernières années pour parler
des données du Web. Nous poserons l’accent en particulier sur les termes de data,
big data et d’open data, ces deux dernières étant les plus utilisées dans le contexte de
l’analyse territoriale. Dans une deuxième partie, nous analyserons plus précisément
les caractéristiques des données employées dans ce type d’études. En premier
lieu, nous observerons que leur succès est dû principalement à l’insatisfaction
générée par celles qu’on appellera hard data, c’est-à-dire les données créées par les
fournisseurs des données traditionnels (comme Eurostat ou l’Insee) généralement
employées dans les études territoriales. En deuxième lieu, nous poserons l’accent
sur la caractéristique principale des données employées pour étudier l’espace, la
géolocalisation, mais nous chercherons à montrer comme l’accent sur une telle
caractéristique a rendu difficile l’identification du nouvel apport des données du
Web dans les études territoriales. Cela nous portera à notre troisième partie, dans
laquelle nous proposerons une nouvelle définition de soft data. Dans cette dernière
partie, nous préciserons ainsi la nouveauté de notre définition en rapport aux
usages faits précédemment du terme soft data et déclinerons les caractéristiques
de ces données qui montrent l’imperfection des définitions déjà existantes et
justifient la nécessité d’une nouvelle définition.
Data
Avant d’introduire la nouvelle catégorie de soft data, dans cette partie nous allons
rendre compte des catégories déjà existantes. Avant de s’orienter sur les adjectifs
utilisés – « big », « open », etc. – il est nécessaire de préciser le sens du terme central « data ».
2 À propos des enjeux légaux liés à l’usage de Twitter, voir Beurskens [2014].
64 Traces numériques et territoires
Etymologiquement, le terme « data » est le pluriel de datum, terme latin qui dérive
du verbe dare, signifiant « donner ». Du point de vue étymologique donc, « data »
indique qu’il s’agit d’un élément donné ou accordé ou, encore mieux, qui se
donne ou s’accorde à quelqu’un en l’état. Les data ne sont pas travaillées par un
individu – par son regard, sa conscience, son intellect, etc. – ou par un groupe
d’individus, mais se donnent à cet individu ou à ce groupe dans leur évidence. De
ce point de vue, les données contrastent avec les faits, car factum est le participe
passé du verbe latin facere qui veut dire « faire », « exécuter », « accomplir ».
3 Dans ce contexte, bien que nous utiliserons quelque fois le français « données », c’est le terme
anglais « data » qui nous intéresse.
Soft data 65
D’ailleurs, ce n’est pas sans raison que le philosophe Martin Heidegger traduisait le
terme aletheia, vérité en grec, par « dévoilement ».
Or, si nous approchons le terme « data » d’un point de vue plus théorique, nous
assistons à une sorte de renversement de perspective. Les données semblent être
non pas quelque chose de donné, mais plutôt quelque chose de capturé : « Dans l’usage
général, data se réfère aux éléments qui sont pris ; extraits à travers observations,
computations, expériences et enregistrements [… ]. Techniquement donc, ce que
nous comprenons comme data sont en réalité capta [… ] ; les unités des données
qui on été sélectionnées et récoltées à partir de la somme de toutes données
potentielles » [Kitchin, 2014a : chapitre 1, paragraphe What are data?]. Au fond, les
sciences « dures » comme les sciences « molles » n’ont jamais à voir avec un référent
qui se donne. Ce que Latour et Woolgar soulignaient à propos de la construction
de faits dans leur Laboratory Life, nous pouvons le dire aussi des données : « Un
fait devient tel quand il perd toute qualification temporelle et devient incorporé
dans un grand corps de connaissance fondé sur d’autres » [Latour et Woolgar,
1986 : 106]. Les faits ne sont rien d’autre que des métaphores mortes, « mythologie
blanche », pour utiliser l’expression par laquelle Derrida indiquait le processus à
travers lequel la culture occidentale finissait par prendre « sa propre mythologie,
l’indo-européenne, son logos, c’est-à-dire le mythos de son idiome, pour la forme
universelle de ce qu’il doit vouloir encore appeler la Raison » [Derrida, 1971 : 254].
Big data
Selon Steve Lohr [Lohr, 2013], la première trace du terme « big data » remonte à
un article d’Erik Larson, publié en 1989 dans Harper Magazine puis republié par le
Washington Post. D’habitude, on reconnaît l’origine du terme dans la présentation
de John Mashey, déjà chercheur en chef à la Silicon Graphics, intitulée « Big data
and the Next Wave Infrastress » [Mashey, 1998], dans laquelle l’auteur se démontre
conscient du phénomène. Dans le contexte académique, la première occurrence
du terme remonte à l’ouvrage Predictive Data Mining: A Practical Guide [Weiss et
Indurkhia, 1998] où, dans les toutes premières lignes de la préface, les deux auteurs
affirment que « à l’époque d’Internet, des intranet et des entrepôts de données,
les paradigmes fondamentaux de l’analyse classique de données sont mûr pour le
changement. [… ] De très grandes collections de données [… ] sont aujourd’hui
compilées dans des entrepôts de données centralisés, permettant aux analystes
d’utiliser des méthodes puissantes pour examiner les données d’une manière plus
détaillée. En théorie, les “big data” peuvent conduire à des conclusions beaucoup
plus fortes pour les applications de fouille de données, mais en pratique beaucoup
de problèmes surgissent » [Weiss et Indurkhia, 1998 : xi]. En 2003, Diebold publie un
article intitulé « Big data Dynamics Factor Models for Macroeconomic Measurement
and Forecasting ». Comme l’affirme l’auteur lui-même dans une intervention qui
suit, il s’agit de la première référence au terme « big data » dans les domaines de
la statistique, de l’économétrie, etc. [Diebold, 2012]. Néanmoins, il paraît que le
vrai succès du terme arrive seulement en 2008. Dans un contexte de vulgarisation,
Anderson publie son fameux article « The end of theory: the Data Deluge Makes
the Scientific Method Obsolete », en annonçant l’entrée dans l’âge du petabyte : « Les
petabyte nous permettent de dire : “la corrélation est suffisante”. Nous pouvons
arrêter de chercher les modèles. Nous pouvons analyser les données sans hypothèses
sur ce qu’elles devraient montrer. Nous pouvons jeter les chiffres dans les plus
grandes clusters d’ordinateurs que le monde ait jamais vu et laisser les algorithmes
statistiques trouver des motifs (patterns) que la science ne peut pas trouver ». Dans
le contexte scientifique, Bryant, Kats et Lazowska, membres du Computer Community
Consortium, ont dédouané le terme avec leur article intitulé « Big-Data Computing:
Creating Revolutionary Breakthroughs in Commerce, Science, and Society ».
La définition la plus classique des big data est celle des 3V (volume, vélocité et
variété) selon laquelle les big data sont d’énormes bases de données, produites en
temps quasi réel, structurées ou non-structurées, et souvent temporellement et
spatialement référencées. La littérature émergente décrit les big data comme étant
(1) exhaustives, parce qu’elles ne se contentent pas d’un échantillon mais veulent être
représentatives de la totalité de leur objet de recherche ; (2) détaillées en résolution ;
(3) relationnelles, en ayant des aspects en commun qui permettent l’entrecroisement
entre différentes bases de données ; (4) flexibles, et donc facilement extensibles et
scalaires [Kitchin, 2014a : chapitre 6, Introduction]. A bien y voir donc, l’adjectif « big »
est en quelque manière trompeur, car les big data sont caractérisées par bien plus que
Soft data 67
leur volume : « En effet, certaines collections de données “small” peuvent être très
grandes en dimension, comme les recensements nationaux qui visent également
à être exhaustifs et à avoir une forte résolution et relationnalité. Néanmoins, les
collections de données concernant les recensements manquent de vélocité [… ], de
variété [… ], et de flexibilité » [Kitchin, 2014b : 2]. Or, la question des big data a été
envisagée selon différentes approches, techniques et méthodologiques, économiques
et sociales, éthiques, politiques et même philosophico-existentielles – voir l’article
de de Mul ci-dessus. Toutefois, c’est la perspective épistémologique qui a intéressé
le plus les interprètes et qui a polarisé le débat.
Surtout dans la première vague d’études sur les grandes bases de données, les experts
et les commentateurs ont eu tendance à reconnaître dans les big data un vrai tournant
épistémologique pour les sciences de la nature et les sciences humaines et sociales.
C’est le cas d’un auteur comme Lazer, que nous avons cité dans l’introduction.
Dans Mayer-Schönberger et Cukier [2013], ouvrage à la limite entre scientificité
et vulgarisation, nous trouvons plusieurs exemples du succès du traitement des big
data, comme le Google Flu Trends, l’algorithme d’Amazon pour la recommandation
de produits, la création de Farecast par Oren Etzioni ou le cas étrange des Pop-
Tarts chez Walmart aux Etats-Unis. A propos de ce dernier, les auteurs affirment :
« Nous n’avons plus forcément besoin d’une hypothèse substantive valide à propos
du phénomène pour commencer à comprendre notre monde. [… ] Nous n’avons
pas besoin de nous soucier des goûts culinaires des clients de Walmart. [… ] A la
place de l’approche orientée hypothèse, nous peuvent utiliser une approche orientée
données » [Mayer-Schönberger et Cukier, 2013 : 55]. Dans le premier livre de la
Métaphysique [981b 5-7], Aristote dit que « ce n’est pas l’habileté pratique qui rend, à
nos yeux, les chefs plus sages, c’est parce qu’ils possèdent la théorie et connaissent
les causes » et il définit la philosophie comme la science des causes primaires. Dans
cette approche aux big data, la recherche de la cause est clairement supprimée en
faveur de la simple constatation de corrélations, en voulant transformer ainsi un des
paradigmes fondateurs de la science occidentale.
La littérature plus récente a montré les limites et même les dangers de cet
enthousiasme initial. Dans leur « Six Provocations for Big data, boyd et Crawford,
en prenant position contre Chris Anderson et en citant Berry – qui à son tour se
réfère implicitement au « deuxième » Heidegger [boyd et Crawford, 2011 : 8] –,
soulignent : « Significativement, le rejet généralisé de toutes les autres théories et
disciplines proposé par Anderson révèle une allusion arrogante dans plusieurs
débats concernant les big data où toutes les autres formes d’analyse peuvent être
mises de côté [… ]. A la place de la philosophie – que Kant voyait comme la base
rationelle de toutes institutions – “la computationnalité pourrait être comprise
comme une ontothéologie, créant une nouvelle ‘époque’ ontologique comme une
nouvelle constellation historique d’intelligibilité” ». L’histoire des sciences guidées
par les données (data-driven) a commencé bien avant les grandes bases de données
numériques, et « la perception d’une “surcharge d’informations” a émergé à
68 Traces numériques et territoires
Open data
Selon Chignard [2013], le terme open data est apparu pour la première fois en 1995
dans On the full and open Exchange of scientific Data, une publication du Committee
on Geophysical and Environmental Data du National Research Council des Etats-
Unis. En réalité, l’idée d’appliquer les principes des biens communs au domaine
de la connaissance remonterait au moins aux travaux des années 1940 de Robert
King Merton, parmi les pères de la sociologie des sciences. Dans son « The
normative Structure in Science », il définit quatre normes éthiques qui régissent
les comportements scientifiques : universalisme, « communisme » (communism),
désintéressement et scepticisme organisé. Le « communisme » en sciences consiste
« in the non technical and extended sense of common ownership of goods […
]. The substantive findings of science are a product of social collaboration and
are assigned to the community » [Merton, 1973 : 273]. Internet et les nouvelles
technologies ont donné un nouveau crédit à cette idée. Notoirement, la naissance de
la Toile est strictement liée à la culture du partage des connaissances [Castells, 2001 :
40]. Dans ses recherches aux limites de la description et de la prescription, Yochai
Benkler [Benkler, 2006 : 31] affirme qu’« une confluence particulière de changements
techniques et économiques est maintenant en train d’altérer la manière dont nous
produisons et échangeons les informations, la connaissance et la culture ». Du point
de vue économique, les biens informationnels sont dits « non-rivaux » : « Nous
Soft data 69
Or, sous certains aspects le mouvement des open data s’oppose à celui des big
data. En effet, le traitement des big data implique des investissements importants
au niveau économique et des compétences que très peu d’institutions sont
aujourd’hui en mesure de proposer. Sous cet aspect, le big data ressemblent plutôt
à des formes classiques de traitement de données, telles que les archives d’Etat, qui
sont fermées par nature [Derrida, 1995]. Le mouvement des open data veut changer
cette situation. Pour certains, l’ouverture des données concerne exclusivement
les données elles-mêmes, tandis que pour d’autres l’ouverture est un concept
plus vaste, qui concerne aussi leur utilisation, analyse et distribution [Kitchin,
2014a : chapitre 3, Open Data]. En outre, certains auteurs [Gurstein, 2013] ont
affirmé qu’il faut considérer les données ouvertes non pas comme un produit
mais comme un service, i.e. comme une relation entre le fournisseur et l’utilisateur.
Bien évidemment, en cherchant à démocratiser l’accès et l’utilisation des bases des
données, le mouvement des open data est orienté vers des questions de nature
éthique, politique, économique et sociale. La plupart des arguments en faveur des
open data se joue précisément en cette direction : les open data servent à évaluer
l’activité d’institutions publiques et non-gouvernementales, elles encouragent une
4 http://www.theguardian.com/technology/free-our-data.
5 https://public.resource.org/8_principles.html.
70 Traces numériques et territoires
Toutefois, pour arriver à préciser la différence entre les open data et notre proposition
de soft data, il importe de considérer ce mouvement du point de vue épistémologique.
Considérons pour un instant les huit principes des open data dont nous avons dressé
la liste auparavant. Les quatre premiers principes ne sont rien d’autre qu’une reprise
des caractéristiques des big data. Les quatre autres principes sont par contre ce qui
distingue les open data par rapport à toute autre approche vis-à-vis des données. Leur
mise en pratique par les administrations et les institutions est encore loin d’être
réalisée de manière extensive. Parfois, à cause de décisions politiques et stratégiques ;
d’autres fois, à cause des difficultés – manque d’expertise, de financements, de
confrontation entre les différentes réalités, etc. – liées à une série d’opérations
nécessaires pour rendre ces données vraiment ouvertes, comme la mise en forme et
la standardisation. Le fait que les données des administrations soient de plus en plus
disponibles en ligne ne signifie pas en effet qu’elles peuvent être considérées comme
open. Sans doute, la poursuite d’un accès plus immédiat aux données représente
une tâche qui mérite d’être poursuivie. Toutefois, la nouvelle catégorie de soft data
voudrait répondre à la situation actuelle. Dans les pratiques actuelles, comme sans
doute dans celles du futur proche, les institutions publiques et privées qui veulent
utiliser les données en ligne ne peuvent pas attendre l’ouverture totale des données,
mais doivent être capables de travailler à partir d’un amas de données qui peuvent
être ouvertes, semi-ouvertes ou non-ouvertes.
en font une base solide pour des statistiques géographiques utiles à l’action des
décideurs publics [Burt et al., 2009 : 18].
Néanmoins, ces dernières années, les décideurs publics ont révélé certaines lacunes
ou des frustrations importantes liées à ces données qui peuvent être résumées par
trois éléments principaux :
1) Le trop long délai de publication. Les données officielles font l’objet d’un
processus technique et parfois politique d’harmonisation et de validation. Ce long
processus passe par des validations réitératives des données qui peuvent prendre
longtemps. Par exemple Fassmann et al. [2009 : 39 ; 115] observent que pour
l’étude des migrations la période entre deux recensements ainsi que la période
d’attente jusqu’à la disponibilité des données pour les chercheurs et politiciens
sont trop longues.
Aucune de ces critiques n’était très importante il y a dix ans. Tant que des données
officielles étaient la principale source d’information pour les décideurs et les
citoyens, les gens étaient susceptibles d’accepter un certain retard dans le processus
de suivi des territoires. Cependant, l’ordre du jour de la cohésion territoriale a été
fortement modifié par la croissance exponentielle de l’information disponible sur
Internet. Un grand nombre d’informations concernant le développement territorial
est maintenant disponible sur le Web, en introduisant une concurrence claire
pour les producteurs classiques de données. Ce phénomène va bien au-delà de
la néogéographie et du géoweb6 [Haklay et al., 2008 ; Elwood, 2010]. L’apport du
Web 2.0 à la cartographie constitue certainement l’interface la plus évidente de la
rencontre entre Web et territoire, mais cet article veut souligner la présence d’autres
données disponibles sur la Toile, qui correspondent à une vision de cartographie
2.0 [Mericskay et Roche, 2011] plus vaste que celle généralement implicite dans le
concept de géoweb, et qui promettent de transformer les études territoriales.
Le besoin d’un nouveau concept est dû, par ailleurs, à la nécessité d’aller au-delà
du phénomène de l’information géographique volontaire [Gooldchild, 2007] qui a
occupé de manière quasi exclusive l’attention des chercheurs qui se sont intéressés
à la rencontre entre géographie et Web. Sans oublier le rôle joué par le citoyen
comme capteur géographique dans des plates-formes comme Wikimapia ou
OpenStreetMap, il est aujourd’hui essentiel de poser notre attention sur d’autres
données disponibles sur le Web qui n’ont pas toujours les caractéristiques de
l’information géographique volontaire. Prenons l’exemple de check-in Facebook,
c’est-à-dire quand un membre de réseau social partage sa position avec ses amis.
Comme l’ont noté Vienne et al. [2014], ces déclarations permettent des définir de
nouvelles géographies de proximité, mais ce n’est pas pour autant qu’on peut utiliser
l’étiquette de information géographique volontaire. En effet, si l’action du check-in
est sûrement une action volontaire, la motivation qui est à la base est difficilement
comparable à celle à l’œuvre dans des applications de VIG dans des contextes de
crise [Roche et al., 2013] ou dans d’autres contextes comme ceux décrits par la
Citizen science [Hand, 2010]. Alors, comme cet exemple le rend clair, de nouvelles
traces numériques sont disponibles aujourd’hui sur le Web qui peuvent fournir une
nouvelle information, plus fraîche et participative, et répondre aux désirs que les hard
data ne pouvaient plus satisfaire. L’objectif de la suite de cet article est de chercher à
en produire une définition qui puisse mettre en avant la nouveauté de cette source
de données et son impact potentiel sur les études territoriales.
L’usage des traces numériques pour l’étude des phénomènes collectifs est en
train de se diffuser rapidement dans tous les champs de la société. Prenons par
exemple tous les terrains d’application des big data, résumés efficacement par le
74 Traces numériques et territoires
rapport de Bulger et al. [2014] pour le Oxford Internet Institute. Si l’on considère
le terrain des études territoriales, il faut noter d’abord que ce type d’études
exige une caractéristique précise aux données : la présence d’une information
géographique. Une information, pour être utile dans une analyse territoriale, doit
être liée à l’espace, à une échelle spécifique, encore mieux à un point spécifique
identifiable par des coordonnées géographiques. Les potentialités du numérique
ont sûrement accru ce besoin. Paéz et Scott [2005 : 53], en faisant une courte
histoire du rôle des nouvelles technologies dans les études territoriales, observent :
« une récente expression de la longue tradition dans l’analyse urbaine qui consiste
à adopter rapidement les développements technologiques peut être observée
dans l’adoption des systèmes d’information géographique ». Des outils comme
les GPS ont rendu finalement possible de générer de données géo-référencées en
grande quantité. Cette possibilité technique est certainement très précieuse pour
les études territoriales qui peuvent aujourd’hui s’appuyer sur des informations très
précises concernant les territoires qu’elles analysent. Cependant, il faut noter des
risques importants liés à cette nouvelle centralité de la géolocalisation.
En premier lieu, comme nous l’avons noté dans un article précédent [Romele et
Severo, 2014], l’action de géolocalisation n’est pas neutre, elle cache toute une série
de choix liés à la plate-forme technique qui génère les coordonnées géographiques
et à la personne qui déclare sa position. En effet, il faut prendre en compte
les « intentions de l’utilisateur » ainsi que le fait que l’action de géolocalisation
sur une plate-forme du Web 2.0 peut être une action volontaire mais est plus
souvent le résultat d’un artefact technologique. Comme on l’a déjà noté, cela
signifie que ces traces numériques, apparemment fiables et objectives, doivent être
problématisées et approfondies. Notamment, l’impact des outils employés pour
récolter et analyser ces informations géo-taggées ne doit pas être sous-évalué.
L’analyse des outils de scraping proposée par Marres et Weltevrede [2013] constitue
un exemple optimal de l’attitude qu’il faut tenir vers les méthodes numériques
employées pour étudier ces traces du social.
Par ailleurs, Mark Graham et Mattew Zook soulignent que « les lieux sont de
plus en plus définis par des couches denses et complexes de représentation
qui sont créées, accédées, et filtrées à travers les technologies numériques et
souvent à travers des lignes opaques d’algorithmes codés » [Graham et Zook,
2013 : 77]. Ils continuent en expliquant que « ces dimensions numériques de
lieux sont fragmentées en plusieurs axes comme le site, le langage et les réseaux
sociaux, avec des représentations également éclatées en fonction d’ensembles
uniques d’individus » [op. cit. : 78]. En ligne avec telle vision théorique, les auteurs
définissent de nouvelles géographies en étudiant la distribution des langues dans
les médias sociaux. En deux mots, les auteurs concluent : « outre à dévoiler où,
nous cherchons de comprendre quoi, pourquoi et qui » [op. cit. : 95].
Ces études nous aident à poser l’accent sur la variété et la richesse des informations,
que les données numériques peuvent offrir aux chercheurs et décideurs publics qui
s’occupent de gestion du territoire à toute échelle. Les coordonnées géographiques
sont certainement des données précieuses et puissantes qui permettent d’avoir une
vision ponctuelle de l’espace physique, même si cela ne doit pas devenir une limite
dans l’exploitation du potentiel qu’offre le numérique pour étudier l’espace social
et les phénomènes collectifs. C’est pour cela que dans le prochain paragraphe nous
essayerons de proposer une nouvelle définition de données numériques pour les
études territoriales basée sur un système plus articulé des caractéristiques.
Le terme soft data n’est sans doute pas nouveau. Selon Cole [1983], il trouve ses
racines dans la hiérarchisation des sciences proposée par Comte au XIXe siècle.
En épistémologie des sciences, la distinction est introduite par Bertrand Russel
en 1914. Dans son Our knowledge of the external world as a field for scientific method in
philosophy, le philosophe définit d’abord les data comme étant « des objets (matters)
de connaissance commune, vagues, complexes et inexacts comme l’est toujours la
connaissance commune, mais néanmoins commandant de quelque manière notre
assentiment comme sur le tout et dans certaines interprétations quasi certainement
vraies » [Russel, 1914 : 65]. En d’autres termes, les données sont des connaissances
préthéoriques, communément acceptées et généralement vraies, bien qu’encore
confuses. Dans le livre posthume De la Certitude, Wittgenstein appellera ces formes
de connaissance « images du monde » (Weltbildern). A la différence de Wittgenstein,
selon qui les visions du monde ne peuvent pas être soumises à des jugements de
vérité et fausseté, Russel utilise la vérité empirique et de la logique pour ordonner
les données sur une échelle qui va du hard au soft : « Par “hard” data je veux dire celles
qui résistent à l’influence dissolvante de la réflexion critique, et par “soft” data celles
76 Traces numériques et territoires
qui, sous l’opération de ce procès, deviennent à nos esprits plus ou moins douteuses.
Les plus dures des hard data sont de deux espèces : les faits particuliers des sens et
les vérités générales de la logique » [Russel, 1914 : 70-71]. Déjà dans cette première
définition, la frontière entre hard data et soft data n’est pas claire. De surcroît, les
deux notions sont données par défaut par rapport à un modèle qui, comme l’a bien
démontré le Wittgenstein des Recherches philosophiques, est déjà problématique en soi.
À partir de cette distinction entre données dures et molles, les interprètes sont
arrivés à parler de hard sciences et soft sciences. Or, il y a au moins trois manières de
discerner ces deux types de sciences. La première, la plus immédiate, est à partir de
leurs objets respectifs. Toutefois, comme nous venons de le dire, l’idée selon laquelle
les objets des mathématiques, de la logique ou des sciences tels que la physique ou
la biologie sont des référents durs a été défiée par les considérations du « deuxième »
Wittgenstein. La deuxième est à partir des différentes méthodologies au sens large, i.e.
les techniques et technologies que chaque science utilise. Le philosophe Hans-Georg
Gadamer, dans son œuvre majeure Vérité et Méthode, distinguait par exemple entre
les disciplines de la vérité, comme l’art, l’histoire et la philosophie, et les sciences
de la méthode. La validité de cette distinction a été néanmoins niée par le succès
des sciences structurales du langage, qui s’efforçaient d’utiliser une méthodologie
rigoureuse dans des contextes normalement considérés comme mous comme la
littérature. En outre, la perspective gadamérienne ne fournissait pas de réponse pour
les cas limites de certaines sciences à l’époque déjà florissantes, comme la sociologie
et la psychanalyse, trop « dures » pour être considérées comme disciplines de la vérité
mais encore trop « molles » pour être accueillies parmi les sciences de la méthode.
Loin d’être dépassées, ces deux manières simplistes de discriminer entre sciences
dures et sciences molles sont encore bien présentes dans la littérature. En 1986,
le mathématicien Serge Lang accusait le candidat à la National Academy of Sciences,
Samuel Huntington, d’utiliser des pseudo-mathématiques dans ses analyses en
sciences politiques : « Comment Huntington mesure-t-il des choses comme la
frustration sociale ? Possède-t-il un compteur de frustration sociale ? Je conteste
à l’académie de certifier comme science de simples opinions politiques » [Lang,
1988]. Comme l’observe Diamond [1987], « la question que Lang soulève est
centrale à toute science, hard ou soft. Elle pourrait être définie comme la nécessité
d’“opérationnaliser” un concept. [… ] Malheureusement, opérationnaliser se prête
au ridicule en sciences sociales, parce que les concepts étudiés tendent à être
des concepts familiers sur lesquels nous tous imaginons être des experts ». Les
distinctions entre données dures et molles « orientées objet et méthode » sont
aujourd’hui communes dans le domaine des affaires [Stawarski et Phillips, 2008 :
108], de la géostatistique [Zhang et al., 2008 ; Lu et al., 2010], des sciences de
l’information [Pravia et al., 2008 ; Prentice et Shapiro, 2011], et d’autres encore.
Soft data 77
La troisième manière de distinguer entre hard et soft sciences est celle développée
par la sociologie de la connaissance scientifique, à ne pas confondre avec la
sociologie des sciences [Collins, 1983]. En s’appuyant sur les travaux liminaires
de Robert King Merton sur la reconnaissance et la récompense dans le domaine
des sciences, Norman W. Storer [1967] affirmait que la distinction entre sciences
dures et sciences molles ne peut s’appuyer ni sur une question d’objets visés, ni sur
l’idée qu’une hard science comme la physique nécessite une concentration majeure,
plus d’heures de travail et d’exercices en laboratoire qu’une soft science telle que la
sociologie7. La différence repose plutôt sur la difficulté qu’ont les sciences dures à
contribuer de manière significative à la discipline et donc aussi sur le risque assumé
par le chercheur à chaque contribution : « “Hardness” en ce sens [… ] suggère aussi
un degré de difficulté impliqué dans la tentative de contribuer au sujet et ainsi
un degré de risque qu’un scientifique prend quand il propose une contribution »
[op. cit. : 79]. La hardness des sciences a des effets directs sur les relations sociales
entre scientifiques : « si nous concluons qu’il y a plus de risque impliqué dans
la contribution en sciences dures qu’en sciences molles parce que les collègue
peuvent plus facilement identifier toute faiblesse dans le travail de quelqu’un, il
pourrait être que ce quelqu’un se sent moins “proche” de ces collègues en termes
de chaleur et confiance » [op. cit. : 79]. L’hypothèse était que l’impersonnalité des
sciences dures pouvait être mesurée « en cherchant si, en citant le travail d’autres
scientifiques, l’auteur d’un rapport de recherche a utilisé le prénom ou seulement
les initiales » [op. cit. : 80]. Les résultats des recherches conduites sur un échantillon
de publications dans dix domaines scientifiques confirmèrent cette hypothèse. Sur
la même ligne s’insère le travail de Solla Price dans Citation Measures of Hard Science,
Soft Science, Technology, and Non Science (1969), qui avance l’hypothèse selon laquelle
les hard sciences se caractérisent par l’immédiateté des citations, c’est-à-dire par le
fait que les références dans un article tendent à ne pas dépasser les cinq années
précédentes. Pour cette raison, plus haute est la quantité de vieilles citations, plus
probable est que l’article en question appartienne au domaine des sciences molles.
7 Similairement, Soler [2000 : 24] affirme que « l’opposition sciences dures/sciences molles n’est pas
à placer sur le même plan que [les autres classifications des sciences], dans la mesure où elle repose
essentiellement sur un jugement de valeur : parler de sciences “molles” est évidemment péjoratif ».
Dans l’éditorial de Nature 487/271 (19 juillet 2012), on trouve une défense des sciences sociales en
ces termes : « Une partie de la responsabilité doit se trouver dans la pratique d’étiqueter les sciences
sociales comme étant soft, que trop rapidement se traduit comme signifiant vagues et stupides (soft-
headed). Dans la mesure où ils ont à avoir avec des systèmes hautement complexes, capables de
s’adapter et non réglé de manière rigoureuse, les sciences sociales sont parmi les disciplines les plus
difficiles, méthodologiquement et intellectuellement ».
78 Traces numériques et territoires
repose précisément sur l’idée que cette dernière utilise une méthodologie plus
solide et a des objets d’investigation bien définis, notamment la logique. Dans la
sociologie aussi on a essayé de distinguer entre hard-data sociology et soft-data sociology
[Eriksson, 1978]. Face à cette difficulté, les interprètes ont ainsi dû développer des
méthodologies astucieuses comme celles que nous venons de voir. Deuxièmement,
nous pouvons retenir quelque chose du fait que les dernières définitions dont nous
avons parlé ont la particularité d’être intra- et inter-textuelles, mais de ne pas aller
au-delà de la production scientifique comme production de textes scientifiques.
Une fois écartée la possibilité de distinguer entre sciences dures et molles à partir de
leurs objets et de leurs techniques, il reste une distinction toute interne aux manières
respectives de produire des textes. Par conséquence, en utilisant la terminologie de
la linguistique, nous pouvons dire que la distinction entre sciences dures et molles
est ici de nature synchronique et non diachronique. Mais alors toutes les sciences
finissent par perdre au moins une partie de leur hardness. Les travaux de Bruno
Latour sur la construction des objets scientifiques (Pasteurisation) nous mènent
précisément dans cette direction.
Or, nous choisissons ici l’étiquette soft data pour trois raisons. Premièrement,
précisément parce que nous croyons qu’en général les données ont une nature
plus molles que ce qui a leur été attribué dans les sciences. Comme nous l’avons
dit dans le deuxième chapitre, les data ne sont ni de nature ontologique, comme
les faits, ni de nature épistémologique, comme les évidences, mais de nature
rhétorique ou « diaphorique ». Selon cette perspective, nous pouvons dire que si
« raw data is an oxymoron » [Gitelman, 2013], alors « soft data est un pléonasme ». Dans
leur réflexion, Gerardi et Turner [Gerardi et Turner, 2002] cherchent à construire
des bases théoriques solides pour la recherche qualitative en sciences sociales. Dans
Real man don’t collect soft data, ils affirment justement que la distinction entre hard et
soft « néglige le substrat de méthodes, perceptions, capacités et attentes implicites
qui imprègnent toute investigation, quelle que soit son organisation systématique,
et surestime l’importance des chiffres et des mesures » [op. cit. : 34].
Deuxièmement, nous choisissons ici l’étiquette soft data parce que nous pensons que
ceci est d’autant plus vrai dans le cas des données numériques. Si dans l’opposition
traditionnelle le terme soft sert à souligner l’absence de rigueur et de structure des
données dans les sciences humaines et sociales, ici nous volons poser l’accent sur
le fait que c’est exactement cette forme moins structurée qui rend intéressante
l’information contenue dans ces données. L’étiquette « soft data » permet de marquer
une différence par rapport à la prétention de hardness qui se cache derrière les
définitions de big data et d’open data. Encore une fois, comme nous l’avons dit en
introduisant ces termes dans la deuxième partie, la littérature a récemment mis
à dure épreuve l’idée selon laquelle les grandes bases de données représentent
une nouveauté épistémologique, une automatisation absolue et sans faille de tout
processus de connaissance. De surcroît, nous avons montré comment les données
Soft data 79
Regarder les données du Web comme étant « molles » plutôt que « grandes » ou
« ouvertes » a aussi ses avantages. Par rapport à l’étiquette big data, parler de soft
data nous permet de souligner que les données numériques peuvent être bien
utiles pour les politiques publiques même si elles n’ont pas le volume, la vitesse
et la variété des grandes bases de données. Dans une époque de big data, les small
data ont encore une grande valeur : « les small data peuvent se focaliser sur des
cas spécifiques et raconter des histoires individuelles, nuancées et contextuelles.
Les études à partir des small data visent à trouver de l’or en travaillant dans des
mines étroites, tandis que les études à partir des big data visent à extraire des
pépites en creusant à ciel ouvert, en ramassant et criblant de grandes étendues
8 Souvent l’étiquette « données non structurées » est utilisées pour identifier ces données disponibles
sur le Web. Cependant, nous trouvons cette étiquette restrictive pour deux raisons. En premier lieu,
les données disponibles sur Internet ne sont pas toujours non structurées, mais si on y retrouvent pas
les structures classiques des données pour la recherche, elles sont souvent très codifiées et enrichies
de métadonnées. En deuxième lieu, le fait de caractériser ces données simplement pour leur forme, ne
permet pas de capturer toutes les spécificités liées à leur provenance et leur signification pour les SHS.
80 Traces numériques et territoires
de terrain » [Kitchin, 2014b : 4]. Par rapport aux open data, un regard orienté soft
permet d’accueillir toutes les données qui ne sont pas libres de droit. Les données
sur Internet sont souvent produites par des sujets, individuels ou collectifs, privés
ou publics, qui en gardent la propriété. Last but not least, le terme soft data offre un
abri à toutes les données numériques qui ne sont pas construites avec la rigueur
ontologique et épistémologique exigée par les big data et les open data.
CONCLUSION
Cet article visait à réfléchir sur l’usage des données numériques dans les études
territoriales. Dans la partie introductive, nous avons montré comment les auteurs
qui ont contribué le plus à développer cet enthousiasme pour les données
numériques se trouvent aujourd’hui à faire un pas en arrière et à assumer des
positions bien plus prudentes, voire pessimistes. Comme nous avons argumenté
dans la deuxième partie, c’est la nature même des données, et des données
numériques en particulier, qui nous impose une attitude différente. En ce qui
concerne les premières, nous avons dit qu’elles n’ont pas une nature ontologique
« dure », car leur référence dépend en grande partie des intentions – de la
pragmatique, pour utiliser le langage de Peirce – de leur utilisateur. A propos des
données numériques, nous avons travaillé les catégories de big data et open data avec
l’intention de déconstruire leur prétention à une épistémologie et méthodologie
hard. La littérature sur les grandes bases de données admet de plus en plus le
regard (critique) du chercheur là où auparavant elle voyait un procès automatisé,
anonyme et objectif. Si du point de vue socio-économique et socio-politique les
données ouvertes représentent une possible alternative aux big data, du point de
vue de leur fonctionnement elles reprennent le désir de complétude, primauté,
opportunité et exploitation automatique des big data. Dans la troisième partie, nous
avons orienté notre critique vers les traces numériques pour l’étude du territoire.
A ce propos, le cas des données géoréférencées s’est démontré paradigmatique.
Premièrement, parce qu’en dépit de son importance indiscutable, l’action de
géolocalisation n’est pas neutre, elle cache toute une série de choix liés à la plate-
forme technique qui génère les coordonnées géographiques et à la personne qui
déclare sa position. Deuxièmement, car les chercheurs ont souvent surestimé la
puissance de la géolocalisation à représenter de manière fidèle la réalité sociale, en
négligeant ainsi d’autres caractéristiques de ces nouvelles données.
d’abord montré comment la réserve générale envers les donnés soft ne tient pas.
La distinction entre sciences « dures » et « molles » ne peut se baser ni sur leurs
objets ni sur leurs méthodologies respectives. De surcroît, la discrimination inter-
et intra- textuelle proposée par la sociologie de la connaissance scientifique ne fait
que faire perdre un peu de hardness à toutes les sciences. Le terme de « soft data » est
préférable non seulement pour nommer les données scientifiques en général, mais
aussi les données numériques et les traces numériques pour l’étude du territoire en
particulier. Il nous permet surtout d’accueillir les data qui n’ont pas la voluminosité,
la vitesse et la variété des grandes bases de données ni la forme déjà structurée et
libre de droit des données ouvertes. C’est précisément avec ces données de nature
mixte que les institutions publiques doivent aujourd’hui apprendre à travailler.
En conclusion, cette proposition de définition est une invitation aux chercheurs
et aux décideurs publics à prendre conscience de la spécificité des données du
Web pour l’étude du territoire et de la nécessité d’identifier des procédures et
des techniques adéquates pour gérer certaines des problématiques mentionnées
jusqu’ici, comme la question de la propriété des données, de leur hétérogénéité et
de leur lien complexe avec l’espace.
RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 2008] Anderson, C., « The end of theory », Wired magazine, 16(7), 16-17.
[Benkler, 2006] Benkler, Y., 2006, The wealth of Networks. How social Production transforms Markets
and Freedom, New Haven et London : Yale University Press.
[Beurskens, 2014] Beurskens, M., 2014, « Legal Questions of Twitter Research », In Weller, K.,
Bruns, A. et Burgess, J. E. (dir.), Twitter and society, Peter Lang, pp 123-133.
[Bizer et al., 2009] Bizer, C., Heath, T. et Berners-Lee, T., 2009, « Linked Data: The Story so Far »,
http://tomheath.com/papers/bizer-heath-berners-lee-ijswis-linked-data.pdf.
[boyd et Crawford, 2011] boyd, D. et Crawford, K., « Six Provocations for Big data », A Decade in
Internet Time: Symposium on the Dynamics of the Internet and Society, http://ssrn.com/
abstract=1926431.
[boyd et Crawford, 2012] boyd, D. et Crawford, K., 2012, « Critical questions for big data:
Provocations for a cultural, technological, and scholarly phenomenon »,
Information, communication & society, 15(5), 662-679.
[Bulger et al., 2014] Bulger, M., Taylor, G. et Schroeder, R., 2014, Data-Driven Business Models:
Challenges and Opportunities of Big data, Oxford Internet Institute.
[Burt et al., 2009] Burt, J. E., Barber, G. M. et Rigby, D. L., 2009, Elementary Statistics for Geographer,
New York : Guilford Press.
[Castells, 2001] Castells, M., 2001, The Internet galaxy: Reflections on the Internet, business, and society,
Oxford : Oxford University Press.
[Chignard, 2013] Chignard, S., 2013, « A brief History of Open Data », ParisTech Review, http://
www.paristechreview.com/2013/03/29/brief-history-open-data.
82 Traces numériques et territoires
[Cole, 1983] Cole, S., 1983, « The Hierarchy of the Sciences? » American Journal of Sociology, 89,
111-139.
[Collins, 1983] Collins, H. M., 1983, « The Sociology of Scientific Knowledge: Studies of
Contemporary Science », Annual Review of Sociology, 9, 265-285.
[Crampton et al., 2013] Crampton, J. W., Graham, M., Poorthuis, A., Shelton, T., Stephens, M.,
Wilson, M. W. et Zook, M., 2013, « Beyond the geotag: situating “big data” and
leveraging the potential of the geoweb », Cartography and Geographic Information
Science, 40(2), 130-139.
[Delaney, 2005] Delaney, D., 2005, Territory: A Short Introduction, Malden, MA : Blackwell.
[Derrida, 1995] Derrida, J., 1995, Mal d’archive, Paris : Galilée.
[Derrida, 1971] Derrida, J., 1971, « La mythologie blanche », Marges de la philosophie, Paris : Editions
de Minuit.
[Diamond, 1987] Diamond, J., 1987, « Soft sciences are often harder than hard sciences », Discover,
août.
[Diebold, 2012] Diebold, F. X., 2012, « A personal Perspective on the Origin(s) and Development
of “Big data”: the Phenomenon, the Term, and the Discipline », Working paper,
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2202843.
[Driscoll, 2012] Driscol, K., 2012, « From Punched Cards to “Big data”: A Social History of
Database Populism », communication + 1, 1(4), http://scholarworks.umass.edu/
cpo/vol1/iss1/4.
[Elwood, 2010] Elwood, S., 2010, « Geographic information science: Emerging research on the
societal implications of the geospatial web », Progress in Human Geography, 34(3),
349-357.
[Eriksson, 1978] Eriksson, I., 1978, « Soft-Data Sociology », Acta Sociologica, 21(2), 103-124.
[Fassmann et al., 2009] Fassmann, H., Reeger, U. et Sievers, W., 2009, Statistics and Reality: Concepts
and Measurements of Migration in Europe, Amsterdam : Amsterdam University Press.
[Floridi, 2008] Floridi, L., 2008, « Data », In Darity, W. A. (dir), International Encyclopedia of the Social
Sciences, Detroit : Macmillan.
[Frasera et al., 2006] Frasera, E. D.G., Dougilla, A. J., Mabeeb, W. E., Reeda, M. et McAlpinec,
P., 2006, « Bottom up and top down: Analysis of participatory processes for
sustainability indicator identification as a pathway to community empowerment
and sustainable environmental management », Journal of Environmental Management,
78, 114-127.
[Gerardi et Turner, 2002] Gerardi, S. et Turner, B., 2002, « Real men don’t collect soft data », In
Huberman, A. Michael et Miles, Matthew B., The qualitative researcher’s companion,
Thousand Oaks : Sage, 81-100.
[Gitelman, 2013] Gitelman, L., 2013, Raw Data is an oxymoron, Cambridge, MA : MIT Press.
[Ginsberg et al., 2009] Ginsberg, J., Mohebbi, Matthew H., Patel, R. S., Brammer, L., Smolinski,
M. S. et Brilliant, L., 2009, « Detecting influenza epidemics using search engine
query data », Nature, 457 (7232), 1012-4.
[Goodchild, 2007] Goodchild, M. F., 2007, « Citizens as sensors: the world of volunteered
geography », GeoJournal, 69(4), 211-221.
Soft data 83
[Goodchild et al., 2007] Goodchild, M. F., Fu, P. et Rich, P., 2007, « Sharing geographic information:
An assessment of the Geospatial One-Stop », Annals of the Association of American
Geographers, 97(2), 250-266.
[Graham et Zook, 2013] Graham, M. et Zook, M., 2013, « Augmented realities and uneven
geographies: exploring the geolinguistic contours of the web », Environment and
Planning A, 45(1), 77-99.
[Guermond, 2011] Guermond, Y., 2011, « Les banques de données géographiques régionales e
de la révolution du libre accès à la participation citoyenne », L’Espace géographique,
2(40), 97-102.
[Gurstein, 2013] Gurstein, M. B., 2013, « Empowering the Empowered or effective Data Use for
Everyone? », First Monday, 16(2).
[Haklay et al., 2008] Haklay, M., Singleton, A. et Parker, C., 2008, « Web mapping 2.0: The
neogeography of the GeoWeb », Geography Compass, 22(6), 2011-2039.
[Hand, 2010] Hand, E. (2010). « Citizen science: People power », Nature, 466, 7307, 685-687.
[Herring, 1994] Herring, C., 1994, « An architecture of cyberspace: Spatialization of the Internet »,
US : Army Construction Engineering Research Laboratory.
[Hey et Trefethen, 2003] Hey, A. J. G. et Trefethen, A. E., 2003, « The Data Deluge: An e-Science
Perspective », In Berman, F., Fox, G., et Hey, A. J. G. (éd.), Grid Computing: Making
the Global Infrastructure a Reality, John Wiley and Sons, pp 1-17.
[Kitchin, 2014a] Kitchin, R., 2014, The Data Revolution: Big data, Open Data, Data Infrastructures
and their Consequences, London : Sage, Kindle Edition.
[Kitchin, 2014b] Kitchin, R., 2014, « Big data, new Epistemologies and paradigm shift », Big data
& Society, 1(1), 1-12.
[Kitchin et Lauriault, 2014] Kitchin, R. et Lauriault, T. P., 2014, « Small Data in the Era of Big
data », GeoJournal, 1-13.
[Lang, 1998] Lang, S., 1998, « Academia, Journalism, and Politics: A Case Study: The Huntington
Case », Challenges, New York : Springer Science & Business Media, 1-222.
[Latour et al., 2013] Latour, B., Jensen, P., Venturini, T., Grauwin, S. et Boullier, D., 2013, « Le
tout est toujours plus petit que les parties. Une expérimentation numérique des
monades de Gabriel Tarde », Réseaux, 31(177), 199-233.
[Latour, 1993] Latour, B., 1993, The pasteurization of France, Harvard University Press.
[Latour et Woolgar, 1986] Latour, B. et Woolgar, S. (1986), Laboratory Life L The Construction of
scientific Facts, Princeton : Princeton University Press.
[Lazer et al., 2014] Lazer, D. M., Kennedy, R., King, G. et Vespignani, A., 2014, « Big data. The
parable of Google Flu: Traps in big data analysis », Science, 343(6176), 1203-1205.
[Lazer et al., 2009] Lazer, D., Pentland, A., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D.,
Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G.,
Macy, M., Roy, D. et Van Alstyne, M., 2009, « Computational social science »,
Science, 323(5915), 721-3.
[Lohr, 2013] Lohr, S., 2013, The Origins of Big data: An etymological detective Story, http://bits.blogs.
nytimes.com/2013/02/01/the-origins-of-big-data-an-etymological-detective-
story.
84 Traces numériques et territoires
[Marres et Weltevrede, 2013] Marres, N. et Weltevrede, E., 2013, « Scraping the social? », Journal
of Cultural Economy, 6(3), 313-335.
[Marres, 2012] Marres, N., 2012, « The redistribution of methods: on intervention in digital social
research, broadly conceived », The sociological review, 60(S1), 139-165.
[Mashey, 1998] Mashey, J., 1998, « Big data and the Next Wave Infrastress », Computer Science
Division Seminar, Berkeley : University of California.
[Mayer-Schönberger et Cukier, 2013] Mayer-Schönberger, V. et Cukier, K., 2013, Big data: A
Revolution That Will Transform How We Live, Work, and Think, Eamon Dolan/
Mariner Books [réimpression].
[Mericskay et Roche, 2011] Mericskay, B. et Roche, S., 2011, « Cartographie 2.0 : le grand public,
producteur de contenus et de savoirs géographiques avec le web 2.0 », Cybergeo/
European Journal of Geography, 552, http://cybergeo.revues.org/24710.
[Merton, 1973] Merton, R. K., 1973, « The normative Structure of Science », In The Sociology of
Science. Theoretical and empirical Investigations, Chicago : University of Chicago Press.
[Nature, 2012] « A different agenda », Editorial, Nature, 487(7407), 271.
[Paéz et Scott, 2005] Paéz, A. et Scott, D. M., 2005, « Spatial statistics for urban analysis: a review
of techniques with examples », GeoJournal, 61(1), 53-67.
[Pravia et al., 2008] Pravia, M. A., Prasanth, R. K., Arambel, P. O., Sidner, C. et Chong, C. Y.
2008, « Generation of a fundamental data set for hard/soft information fusion »,
Proceedings of the 11th International Conference on IEEE.
[Prentice et Shapiro, 2011] Prentice, M. et Shapiro, S. C., 2011, « Using propositional graphs for
soft information fusion », Information Fusion (FUSION), Proceedings of the 14th
International Conference on IEEE.
[Rheinberger, 1997] Rheinberger, H.-J., 1997, Toward a History of Epistemic Things: Synthesizing
Proteins in the Test Tube, Stanford, CA : Stanford University Press.
[Roche et al., 2013] Roche, S., Propeck-Zimmermann, E. et Mericskay, B., 2013, « GeoWeb
and crisis management: issues and perspectives of volunteered geographic
information », GeoJournal, 78(1), 21-40.
[Rogers, 2013] Rogers, R., 2013, Digital methods, Cambridge, MA : MIT press.
[Romele et Severo, 2014] Romele, A. et Severo, M., 2014, « Une approche philosophique de la ville
numérique : méthodes numériques et géolocalisation », In Carmes, M. et Noyer,
J.-M. (dir.), Devenirs urbains, Paris : Presses des Mines, pp 205-225.
[Rosenberg, 2013] Rosenberg, D., 2013, « Data before Facts », In Gitelman, L. (dir.), Raw Data is
an oxymoron, Cambridge, MA : MIT Press, pp 15-25.
[Russell, 1914] Russell, B., 1914, Our knowledge of the external world as a field for scientific
method in philosophy, Open Court.
[Sakaki et al., 2010] Sakaki, T., Okazaki, M. et Matsuo, Y., 2010, « Earthquake shakes Twitter users:
real-time event detection by social sensors », Proceedings of the 19th international
conference on World wide web.
[Severo et al., 2015] Severo, M., Giraud T. et Pecout, H., 2015, « Twitter data for urban policy
making: an analysis on four European cities », Twitter for Research conference, Lyon.
Soft data 85
[Sieber, 2006] Sieber, R., 2006, « Public participation geographic information systems: A literature
review and framework », Annals of the Association of American Geographers, 96(3),
491-507.
[Soler, 2000] Soler, L., 2000, Introduction à l’épistémologie, Paris : Ellipses.
[Stawarski et Phillips, 2008] Stawarski, C. et Phillips, P. P., 2008, Data collection: Planning for and
collecting all types of data, Oxford : John Wiley and Sons.
[Storer, 1967] Storer, N. W., 1967, « The hard Sciences and the Soft: Some Sociological
Observations », Bulletin of the Medical Library Association, 55, 75-84.
[Strasser, 2012] Strasser, B. J., 2012, « Data-driven sciences: from wonder cabinets to electronic
databases », Studies in History and Philosophy of Biological and Biomedical Sciences, 43,
85-87.
[Unsworth et al., 2014] Unsworth, K., Forte, A. et Dilworth, R., 2014, « Urban Informatics:
The Role of Citizen Participation in Policy Making », Journal of Urban Technology,
21(4), 1-5.
[Venturini et al., 2014] Venturini, T., Baya Laffite, N., Cointet, J.-P., Gray, I., Zabban, V. et De
Pryck, K., 2014, « Three maps and three misunderstandings: A digital mapping
of climate diplomacy », Big data & Society, 1, 2.
[Venturini et Latour, 2014] Venturini, T. et Latour, B., 2010, « The social fabric: Digital traces and
quali-quantitative methods », In Proceedings of Futur en Seine 2009, Paris : Editions
Futur en Seine, 87-101.
[Vienne et al., 2014] Vienne, F., Douay, N., Le Goix, R. et Severo, M., 2014, « Lieux et hauts lieux
des densités intermédiaires : une analyse par les réseaux sociaux numériques »,
ASRDLF 2014.
[Weiss et Indurkhya, 1998] Weiss, S. et Indurkhya, N., 1998, Predictive Data Mining: A Practical Guide,
San Francisco : Morgan Kaufmann Publishers.
[Weller et al., 2014] Weller, K., Bruns, A., Burgess, J., Mahrt, M. et Puschmann, C. (éd.), 2014,
Twitter and society, New York : Peter Lang.
[Whatmore, 2009] Whatmore, S. J., 2009, « Mapping knowledge controversies: science, democracy
and the redistribution of expertise », Progress in Human Geography, 33(5), 587-598.
[Wilken, 2014] Wilken, R., 2014, « Twitter and Geographical Location », In Weller, K., Bruns,
A., Burgess, J., Mahrt, M. et Puschmann, C. (éd.), Twitter and society, New York :
Peter Lang.
[Woolgar, 2002] Woolgar, S. (dir), 2002, Virtual society? Technology, cyberbole, reality, Oxford : Oxford
University Press.
[Zhang et al., 2008] Zhang, T., Lu, D. et Li, D., 2008, « A statistical information reconstruction
method of images based on multiple-point geostatistics integrating soft data
with hard data », Computer Science and Computational Technology, 2008, ISCSCT’08,
International Symposium on IEEE, pp 573-578.
L’identité comme base de données
Identité personnelle et culturelle à l’ère de la mise en données du monde
Jos de Mul
INTRODUCTION
Le 27 février 2004, j’ai pris part au débat plutôt passionné qui agitait les Pays-Bas
sur le multiculturalisme en publiant un essai dans le NRC Handelsblad, un des
grands quotidiens néerlandais1. Cet article commençait par la brève description
d’une jeune Arabe qui, quelques mois auparavant, passait près de moi glissant sur
des rollers dans la station de métro Kralingse Zoom à Rotterdam. Elle semblait
être étudiante et se rendre, tout comme moi, à l’Université Erasme. Vêtue d’un
sarouel bouffant et d’un t-shirt arborant un smiley, et portant un petit sac à dos,
sa tête était couverte d’un foulard d’où dépassait le cordon de l’oreillette de son
téléphone portable. Lorsqu’elle fut assez proche de moi, je pus capter quelques
bribes de la conversation qu’elle menait, dans cet étrange mélange d’arabe et de
néerlandais mâtiné d’un fort accent de Rotterdam, avec une amie, pour autant que
je puisse le deviner au ton de la discussion. Pareille image d’une jeune musulmane
patinant sur des rollers était assez inattendue en 2004. Pourtant, à en croire un
des articles parus récemment sur le site Web de la communauté turque aux Pays-
Bas, la pratique du roller connaît un succès grandissant chez les jeunes filles
musulmanes néerlandaises2. De plus, cette pratique tendrait à gagner en popularité
dans des cercles musulmans plus orthodoxes. En avril 2012, les amateurs de
patinage artistique en Italie ont eu la faveur de voir Zahra Lari être la première
patineuse venue du Golfe à évoluer en niqab.
La raison pour laquelle je commençais mon essai de 2004 par cette image
pittoresque d’une jeune musulmane en rollers tenait à ce qu’elle était la
proclamation vivante d’une identité personnelle et culturelle dans une société
postmoderne. Elle se situait manifestement au-delà de l’opposition qui avait
paralysé le débat néerlandais sur le multiculturalisme pendant de nombreuses
1 Jos de Mul, « Het vlietend ‘thuis’. Interculturele vibraties », NRC Handelsblad. Cultureel Supplement,
27 février 2004, 21. La même année, cet essai a été publié dans un volume rassemblant les
contributions ayant suscité le plus de discussions lors de ce débat : Het multiculturele debat. Integratie
of assimilatie [Le débat multiculturel : intégration ou assimilation] [Rutgers et Molier, 2004 : 133-
38]. Une version mise à jour a été publiée dans Jos de Mul, Paniek in de polder. Polytiek en populisme
in Nederland [Panique dans le polder : polytique et populisme aux Pays-Bas] [de Mul, 2011 : 51-57].
Dans la première section de cet article, certaines parties de l’essai de 2004 ont été incorporées.
2 Voir http://turkseinfo.nl/moslima-steeds-vaker-te-zien-op-skeelers.
88 Traces numériques et territoires
L’IDENTITÉ
Comme bon nombre de mots du langage quotidien ayant une longue histoire,
le mot « identité » est porteur d’un certain nombre de connotations. Ses racines
étymologiques remontent au concept latin identitas qui lui-même est un dérivé du
mot « idem » : le même. Je reste, de fait, le même ma vie durant dans la mesure
où ce mot désigne mon unité numérique : je suis identique à moi-même et à
personne d’autre. Qui plus est, il est raisonnable de prédire que demain je serai
encore la même personne qu’aujourd’hui et que je ne me réveillerai pas en étant,
par exemple, mon voisin. De toute évidence, cela ne veut pas dire que nous ne
changeons pas. Après tout, tout au long de notre existence, notre vie corporelle
et mentale connaît des modifications d’importance. En raison de la croissance et
du renouvellement biologiques (pratiquement toutes les cellules de notre corps
sont peu à peu remplacées par de nouvelles), de l’ingestion et de l’excrétion, des
nouvelles expériences, de processus d’apprentissage, du vieillissement, puis, pour
L’identité comme base de données 89
Il y a continuité spatiale parce que les éléments à partir desquels nexus physique et
psychique se construisent ne forment pas un lâche conglomérat, mais constituent
plutôt un nexus interne, où la partie et le tout sont étroitement liés. Cet aspect est
évident pour la dimension physique, où les différentes parties du corps (les cellules,
les tissus, les organes, les membres, etc.) sont intégrées dans un tout fonctionnel.
De plus, nos pensées, actes, rôles sociaux et désirs consacrés forment un tout
significatif. Certes, cette intégration n’est jamais complète : l’identité humaine se
compose de nombreux éléments hétérogènes qui ne se correspondent pas toujours
et sont parfois antinomiques. De plus, notre existence témoigne de toutes sortes
d’états dissociatifs allant du rêve (ou la rêverie), l’extase religieuse ou sexuelle,
l’immersion dans un film, un morceau de musique, un jeu (informatique) jusqu’aux
symptômes de dégradation physique ou mentale3. Outre la continuité spatiale,
nous avons un vécu de continuité temporelle, car, bien que nous changions en
permanence au cours de notre vie, nos évolutions corporelles et mentales se
produisent pour la plupart progressivement. On ne devient pas un adolescent,
un adulte ou une personne âgée du jour au lendemain. Et il en va de même de
nos relations personnelles, de nos rôles sociaux, de notre métier, etc. Pour ce
qui concerne la continuité temporelle, la mémoire et l’anticipation jouent un rôle
crucial : elles constituent la permanence dans le temps. Tout comme dans le cas
de la continuité spatiale, la continuité dans le temps n’est jamais complète, elle se
caractérise par des interruptions (le sommeil) et des brèches (l’oubli). Et de même en
ce qui concerne le nexus temporel, il se peut parfois que des discontinuités radicales
(par exemple, une perte de mémoire en cas de démence, la perte d’un membre, une
opération transgenre, une addiction perturbante ou une conversion religieuse ou
politique radicale) puissent engendrer des changements fondamentaux, ou même
une distorsion totale, de l’identité temporelle (physique et mentale).
Une bonne part de ce que je viens d’énoncer sur l’identité personnelle s’applique
aussi à l’identité culturelle. Une culture (et une sous-culture) fait aussi montre
d’une certaine unité de ses parties constitutives. Une communauté de l’Eglise
néerlandaise réformée située dans le Bijbelgordel, la « ceinture biblique » des Pays-
Bas, et une sous-culture hip-hop d’Amsterdam, pour donner deux exemples, se
caractérisent chacune par un style de vie et une vision du monde spécifiques,
où les éléments constitutifs (leurs modes d’habillement, leurs goûts musicaux,
les rôles qu’ils assignent aux genres, les obligations morales, etc.) forment un
3 Quand le nexus fonctionnel ou signifiant est largement ou totalement détruit (par exemple, dans
le cas de troubles dissociatifs de l’identité), une désintégration voire une perte totale de l’identité de
la personne peut en résulter [cf. Glass, 1993].
90 Traces numériques et territoires
En bref, notre identité personnelle et culturelle n’est pas seulement une entité
autarcique et invariable, dissimulée quelque part dans les profondeurs de notre
« moi intérieur » ou de notre « esprit national », elle est construite réflexivement dans
un monde social à l’aide d’une variété d’expressions. Entre autres expressions, les
récits et les biographies jouent un rôle de premier plan. Cela est compréhensible, car
ces récits sont particulièrement adaptés pour exprimer et transmettre la continuité
spatiotemporelle de notre identité. Ce n’est que dans les récits que nous racontons
aux autres et à nous-mêmes quant à nos vies et d’autres vies (réelles ou fictives)
que nous sommes en mesure d’exprimer nos propres identités, et c’est seulement
en nous identifiant à ces récits que naît notre identité réflexive. Aussi, dans cette
optique, comme nous le trouvons dans l’œuvre de Paul Ricœur, le récit narratif n’est
L’identité comme base de données 91
pas seulement une métaphore adéquate de l’identité chez l’humain, c’est également
de manière éminemment primordiale le médium à l’intérieur duquel nous, individu
et communautés, donnons forme à notre identité [cf. Ricœur, 1991b ; Ricœur,
1991a ; Ricœur, 1990].
Dans le débat néerlandais sur l’intégration des minorités culturelles qui se poursuit
depuis que l’on a déclaré la faillite de la société multiculturelle, on peut distinguer
deux partis qui, malgré leurs différences d’opinions clamées haut et fort, partagent
un malentendu fondamental.
Ceci n’est pas seulement vrai pour les Pays-Bas. Les cultures sont toujours
hétérogènes. D’ailleurs, les membres des minorités ethniques néerlandaises
ne vivent plus dans des cultures homogènes. Le « Marocain » n’existe plus :
nous sommes en présence d’un ensemble kaléidoscopique de sous-cultures
hétérogènes qui diffèrent les unes des autres tout autant que la sous-culture hip-
hop d’Amsterdam par rapport aux fidèles de l’Eglise réformée de la ceinture de
la Bible néerlandaise.
Nous ne devons pas fermer les yeux sur le fait que même dans les sociétés
postmodernes hybrides les traditions gardent leur importance et restent tenaces.
Après tout, la vie humaine est impossible sans les usages, les habitudes, les mœurs,
4 Voir http://en.wikipedia.org/wiki/List_of_Christian_metal_bands.
L’identité comme base de données 93
les institutions et les biens culturels qui se sont transmis de personne en personne,
de groupe pair en groupe pair et de génération en génération. Les traditions,
incarnations de la continuité temporelle, nous offrent une « maison », elles
concentrent notre expérience et dirigent nos actes. Cette ténacité des traditions
est en lien avec la finitude fondamentale de l’existence humaine.
« Les êtres humains ne sont pas absolus : ils sont plutôt finis. Ils vivent et ne
choisissent pas (du moins, pas de manière prépondérante) leur vie de manière
absolue, et ce parce qu’ils doivent mourir. Pour reprendre les termes de Heidegger,
ils sont des « êtres-vers-la-mort ». Une limite est fixée à leur existence : vita brevis. La
vie humaine est trop courte pour un choix absolu. Au niveau le plus élémentaire,
les êtres humains n’ont tout simplement pas assez de temps de choisir, ou choisir
de rejeter, ce qu’ils sont déjà (accidentellement), et de choisir (ou même de choisir
de manière absolue), à la place, quelque chose d’entièrement différent et nouveau.
Leur mort vient toujours plus vite que leur choix absolu. […] Nous autres êtres
humains sommes davantage nos pratiques habituelles que notre choix absolu »
[Marquard, 1991 : 113, 117].
Notre espérance de vie est tout simplement trop courte pour découvrir toutes les
connaissances et compétences qui sont nécessaires pour nos vies. Par conséquent,
nous devons nous appuyer sur les expériences de nos prédécesseurs pour l’essentiel.
Les traditions que nous rencontrerons au cours de nos vies relèvent complètement
du fait accidentel, mais les traditions ne sont pas des prisons d’où il n’y a aucune
échappatoire. Les traditions sont fluctuantes et peuvent être redessinées. Beaucoup
de personnes prennent leurs distances, peu ou prou, des traditions dans lesquelles
elles ont grandi et adhèrent à une autre culture ou sous-culture ayant d’autres
coutumes et d’autres mœurs. Mais dans ce cas aussi, les traditions sont inévitables.
Les traditions sont aussi artificielles : elles ne sont pas innées, mais apprises.
Il est vrai que la plupart des traditions ont un fondement naturel, mais elles ne
peuvent être totalement réduites à cela. Les traditions transforment ce fondement
et nous offrent une « seconde nature ». Qui plus est, elles sont artificielles par
le fait qu’elles ne sont jamais originales, mais sont toujours empruntées à
d’autres cultures. Chaque culture doit son existence aux cultures précédentes et
environnantes. On oublie souvent que même sur le plan archétypique les biens
culturels néerlandais, comme la pomme de terre et la tulipe, ont leur « origine » en
Amérique du sud et en Turquie, respectivement. Même ce dont les Néerlandais
sont le plus fiers, leur esprit démocratique, est parvenu jusqu’à eux en passant
par des voies différentes en provenance de la Méditerrannée. Dans un contexte
culturel nouveau, pareils éléments peuvent acquérir un sens nouveau et devenir
quelque chose d’autochtone, mais ils doivent leur existence précisément à leur
94 Traces numériques et territoires
différence par rapport à l’« autre ». Dans ce sens, chaque culture est interculturelle :
l’origine se trouve toujours ailleurs5.
Les traditions jouent un rôle important dans les sociétés prémodernes. La question
est de savoir si cela s’applique également à la culture moderne, qui est après tout
caractérisée avant toute chose par un processus continu de renouvellement social,
politique, économique, technologique et culturel. Indéniablement, la modernité a
détruit bien des traditions, mais la rupture avec la tradition a elle-même engendré
une tradition. Dans l’art moderne, par exemple, domaine de renouvellement
constant et sans limites, la rupture avec la tradition est devenue… une tradition,
proclamée avec plus de dogmatisme encore [cf. Paz, 1991 : 29]. De plus, aucune
autre culture ne focalise aussi obsessionnellement sur la conservation des traditions
qu’elle détruit que la culture moderne. « Aucune époque n’a autant occulté le passé
que la nôtre, et en même temps aucune époque ne s’est accrochée à autant de
vestiges du passé : les entassant dans des musées, les conservant avec soin, les
protégeant écologiquement, les recueillant dans des archives, les reconstruisant
archéologiquement, les mémorisant historiographiquement » [Marquard, 1991 :
87]. Nous recueillons le passé dans notre mémoire culturelle, le revivons avec
nostalgie, le commercialisons sous la forme d’une mode ou d’un style rétro.
5 La citationnalité des éléments culturels sape la notion d’une pure origine des cultures de manière
fondamentale. Ceci est un des éclairages de premier plan de la pratique de la déconstruction de
Derrida. En « citant » un élément culturel dans un autre contexte – Derrida emploie l’image de la
« greffe » d’un mot sur une autre « branche » [Derrida, 1972 : 381] – de nouveaux sens sont produits
en permanence : « Tout signe, linguistique ou non linguistique, parlé ou écrit (au sens courant de cette
proposition), en petite ou grande unité, peut être cité, mis entre guillemets ; par là il peut rompre avec
tout contexte donné et engendrer à l’infini des contextes, de façon absolument non saturable. Cela
ne suppose pas que la marque vaut hors contexte, mais au contraire qu’il n’y a que des contextes sans
aucun centre d’ancrage absolu. Cette citationnalité, cette duplication ou duplicité, cette itérabilité de
la marque n’est pas un accident ou une anomalie, c’est ce (normal/anormal) sans quoi une marque
ne pourrait même plus avoir de fonctionnement dit normal ».
L’identité comme base de données 95
Dans les sociétés modernes, caractérisées par une certaine sensibilisation aux autres
cultures, et parfois une certaine familiarité avec elles, et une conscience historique
plus ou moins développée, les traditions ne vont plus de soi. Les populations
modernes sont conscientes de la diversité historique et culturelle des traditions.
Manifestement, la sensibilisation aux autres cultures n’entraîne pas forcément
une tolérance ou une ouverture : l’ethnocentrisme, la discrimination et la violence
font également partie des échanges interculturels modernes. Cependant, ce qui
distingue les populations modernes et prémodernes, c’est le fait que, en raison
de leur sensibilisation à d’autres options, elles ont plus d’opportunités à partir
desquelles opérer des choix. D’une certaine manière, elles sont forcées de choisir,
car rester dans la même tradition n’est plus une coutume, mais est devenu un choix
aussi. Et, en raison de cette disponibilité séduisante entre choix, les sociétés sont
caractérisées par de plus en plus de mobilité sociale et culturelle [cf. de Mul, 2005].
Vu sous cet éclairage, Oussama ben Laden était avant tout un « traditionaliste
moderne », ainsi que le soutient John Gray dans son livre Al Qaeda and what it means
to be modern [Gray, 2003]. Par contraste avec l’islamiste prémoderne, Oussama ben
Laden était un homme qui connaissait très bien la culture moderne. Il avait obtenu
un diplôme d’ingénieur et faisait usage des médias modernes de communication et
des technologies avancées pour se faire le chantre du retour à l’Islam traditionnel.
Cet Islam traditionnel là ne fait pas du tout partie de la tradition, mais est un
phénomène tout à fait nouveau dans de nombreux pays de son apparition, en
Indonésie, par exemple. Mais le fait même que ben Laden, à partir de la conscience
géographique et historique de la distinction entre culture islamique traditionnelle et
culture occidentale, à un moment de sa vie a choisi de vivre et de propager le mode
de vie islamique traditionnel, en fait un traditionaliste extrêmement moderne.
96 Traces numériques et territoires
Bien que des parties importantes du monde sont encore prémodernes, ou deviennent
à peine modernes, les processus de postmodernisation peuvent être constatés dans
de nombreuses autres régions6. Les sociétés modernes occidentales se caractérisaient
par des récits aux « grands narratifs » portant sur l’émancipation et le salut par
l’éducation, la politique ou la science qui étaient souvent des prolongations laïques
du christianisme. Dans la culture postmoderne, en raison de l’apparition de sociétés
multiculturelles et interculturelles, de la croissance économique, de l’assouplissement
de l’économie et de l’implantation mondiale des technologies de l’information et de
la communication, ces « grands narratifs » ont perdu le caractère d’évidence qu’ils
avaient par le passé [cf. Lyotard, 1979]. L’économie de marché néolibérale semble
être le seul grand narratif qui reste bien qu’avec la crise économique de 2008, celui-ci
a aussi perdu une part de sa crédibilité. À l’ère postmoderne, une fois encore, il existe
un changement structurel quant à la nature et la fonction des traditions.
6 Comme le montrent des pays comme le Japon et la Chine au cours des dernières décennies,
la postmodernité n’est pas un phénomène exclusivement occidental, mais plutôt marque la fin de
la domination de la culture occidentale. La Chine est en particulier un cas intéressant, car ce pays
à bien des égards est passé à côté de la modernisation socioculturelle telle qu’elle est apparue en
Occident, et combine des caractéristiques prémodernes et postmodernes dans ses régions rurales
et urbaines respectivement.
L’identité comme base de données 97
Pour que la conception d’une base de données puisse être souple, il faut une
atomisation des données. Que nous traitions des données relatives aux gènes, à
des objets manufacturés ou des personnes, il faut que les données soient réduites
aux éléments les plus petits possibles. Selon les algorithmes, ces éléments peuvent
ensuite être combinés, décombinés puis recombinés de toutes les façons possibles.
98 Traces numériques et territoires
De plus, à l’âge des big data, ces bases de données sont de plus en plus connectées
les unes aux autres et avec des flux de données connectés, comme les recherches
sur Google, les interactions sur Twitter et Facebook, et les achats sur les boutiques
en ligne. Ces grappes volumineuses de données sont suivies et utilisées pour du
profilage en temps réel par des entreprises commerciales (Amazon.com en étant
une des pionnières) et des organismes gouvernementaux comme la National Security
Agency (NSA). De plus, grâce à la mise en données des processus de production,
les virements d’argent, les appareils GPS, les caméras de surveillance, les mesures
biométriques et l’utilisation de téléphones intelligents et d’autres appareils
localisables, presque tout finit par faire partie d’une base de données mondiale, qui
« va transformer notre manière de vivre, travailler et penser » [Mayer-Schönberger
et Cukier, 2013].
L’impact des bases de données est si vaste, car il ne se limite pas au monde de
l’informatique. Les bases de données fonctionnent souvent comme des métaphores
matérielles [Hayles, 2002]. Elles évoquent des actes du monde matériel. Il y a comme
exemple des bases de données biotechnologiques utilisées en génie génétique,
des bases de données installées sur des robots industriels, ce qui permet des
personnalisations de masse, des profils d’aéroport, visant à détecter les terroristes.
En principe, tout ce qui peut être réduit en données finit par être contrôlé par une
base de données.
7 Voir le chapitre « Chance Living », dans Jos de Mul, Destiny Domesticated. The Rebirth of Tragedy Out
of the Spirit of Technology [de Mul, 2014 : 23-36].
8 D’un point de vue sceptique humien, tel que représenté par des philosophes comme Dennett et
Burton, il peut être tentant d’affirmer que l’agentivité narrative n’est qu’une fiction [Dennett, 1992 ;
Burton, 2013], mais dans ce cas on omet d’apprécier qu’il s’agit là d’une « fiction » qui crée de réels
effets dans nos vies quotidiennes. En s’appropriant le daimon (ou les neurones de son cerveau, dans
une version moderne de ce récit) qui fait commettre à Médée son meurtre, celle-ci devient agente
morale et prend sa responsabilité.
9 La tragédie d’Euripide Médée offre un exemple ancien de ce type d’appropriation narrative. Quand
Médée se tient debout près de ses enfants endormis avec à la main le couteau qui les tuera, elle
se dit au début que ce n’est pas elle qui commet ce meurtre, mais sa main, marionnette obéissante
de son daimon, qui la pousse à se venger de son mari infidèle. Toutefois, elle finit par accepter que
ce soit son daimon qui l’incite à tuer ses enfants et prend la responsabilité de cet acte. Voir pour
un développement approfondi de la « responsabilité sans liberté » de Médée le chapitre « Tragic
Parenthood » dans Destiny Domesticated. The Rebirth of Tragedy Out of the Spirit of Technology [de Mul,
2014 : 150-165].
100 Traces numériques et territoires
Que se passe-t-il si nous remplaçons les histoires par des bases données devenant
le système d’exploitation de notre construction identitaire ? Si, en raison du
processus d’identification, la structure du médium est constitutive de l’identité de
l’utilisateur, nous pourrions nous attendre à ce qu’utiliser des bases de données
pour une construction identitaire produise un type différent d’identité. Même
lorsque Manovich exagère en proclamant que narratif et base de données sont
des « ontologies ennemies », il est clair que les histoires et les bases de données
structurent le monde et nous-mêmes de manière fondamentalement différente.
10 D’après la section Journal de Facebook (j.j. août 2013), ceci correspond à la médiane établie à
partir d’un échantillon pris au hasard de 7 000 utilisateurs actifs quotidiens sur une période d’une
semaine en juillet 2013. L’algorithme de Facebook sélectionne environ 300 sur les 1 500 nouvelles
publiées chaque jour pour améliorer le nombre de nouvelles lues dans les faits par l’utilisateur.
Facebook met constamment son algorithme à jour pour continuer à améliorer ce chiffre et ses
bénéfices (voir Note 12). https://www.facebook.com/facebookforbusiness/news/News-Feed-
FYI-A-Window-Into-News-Feed.
L’identité comme base de données 101
que celle-ci, qui travaille « en coulisse » dans ce que l’on nomme l’arrière-boutique
du site Web, n’est pas visible de l’utilisateur, depuis 2013 la fonction Graph Search
permet à l’utilisateur de filtrer les masses envahissantes de données11.
11 « Google traite plus de 24 pétaoctets par jour, un volume qui correspond à des milliers de fois
tous les documents américains imprimés que contient la bibliothèque du Congrès américain (U.S.
Library of Congress). Facebook, entreprise qui n’existait pas il y a une décennie, reçoit plus de
10 millions de nouvelles photos par téléchargement toutes les heures. Les membres de Facebook
cliquent sur le bouton « J’aime » ou déposent un commentaire près de trois milliards de fois par
jour, créant des traces numériques que l’entreprise peut prospecter pour en apprendre sur les
préférences des utilisateurs. En même temps, les 800 millions d’utilisateurs mensuels du service
YouTube chargent environ une heure de vidéo toutes les secondes. Le nombre de messages sur
Twitter augmente à un rythme d’environ 200 % par an et en 2012 a dépassé les 400 millions de
tweets par jour. » [Mayer-Schönberger et Cukier, 2013 : 8].
102 Traces numériques et territoires
Troisièmement, l’identité comme base de données qui est construite avec l’aide de
Facebook est extrêmement flexible. Ceci est directement l’effet de l’ontologie base
de données qui exige une atomisation de l’utilisateur, et sa division en de nombreuses
entités plus petites, appartenant aux multiples dimensions d’identité, comme les
données biographiques, les « J’aime », les photos, les achats, etc. D’une certaine
manière, les utilisateurs de Facebook, ne sont plus des individus, mais deviennent
plutôt, pour reprendre l’expression de Deleuze, des dividuels [cf. Aas, 2004]. Les
fragments épars de l’individu peuvent, par la suite, être combinés, décombinés et
recombinés de nombreuses manières. Par conséquent, l’identité comme base de
données est toujours en construction et semble ainsi concrétiser le rêve d’Ulrich
dans le roman de Robert Musil L’Homme sans qualités pour remplacer notre sentiment
de réalité par un sentiment de possibilité [de Mul, 2010 : 161-192]. Dans ce sens,
l’identité comme base de données exprime la flexibilité et l’hypermobilité que
requiert le fait de vivre dans une culture postmoderne globalisée.
Cela est d’autant plus vrai des utilisations de la base de données en arrière-
boutique, partie à laquelle l’utilisateur n’a qu’un accès limité – par exemple en
utilisant Graph Search – ou, dans la plupart des cas, pas d’accès du tout. Les bases
de données « en coulisse » n’offrent pas seulement à l’utilisateur la possibilité
de combiner, décombiner, recombiner les éléments atomisés de leur propre
dividualité mais aussi celle de leurs amis, elles offrent aussi aux propriétaires de
Facebook la capacité de profiler et de fouiller dans les vies mises en données de
leurs utilisateurs en temps réel pour aller à la chasse aux schémas de comportement
12 Des travaux de recherche récents tendent à indiquer que, en plus d’utiliser les paramètres
de confidentialité par défaut, des utilisateurs connaissent cette limitation et élaborent un certain
nombre de stratégies pour satisfaire leurs besoins de confidentialité. « Ces stratégies sont utilisées
essentiellement pour se préserver de menaces envers la confidentialité sociale et consistent à
exclure des informations de contact, en utilisant les options de profil limité, à retirer des tags, des
photographies et à limiter les demandes d’amis issus d’inconnus. Les stratégies de confidentialité
sont destinées techniquement à la gestion du profil Facebook, qui d’après nous fonctionne comme
une avant-scène. Cette gestion active du profil permet à des utilisateurs de transiger entre un besoin
de se connecter à Facebook et le désir d’une plus grande confidentialité. » [Young et Quan-Haase,
2013 : 479].
L’identité comme base de données 103
13 « Facebook a engrangé 2,6 milliards de dollars en 2012, dont 1,25 milliard provenait de la
publicité, dont 80 % issues des annonces Web. La raison la plus importante de la réussite de
Facebook vient de la publicité. […] Facebook accède à toutes les informations que vous déposez
sur le site. Il publie ensuite des publicités dans votre écran qui sont directement liées à l’endroit
où vous êtes, ce que vous faites, ce à quoi vous vous intéressez, et j’en passe. Si vous mettez
votre statut à jour en indiquant que vous sortez pour faire un jogging, vous allez commencer à
voir Nike et d’autres marques apparaître sur votre page d’accueil. Vous aimez boire de la bière ?
Mettez votre statut à jour en en parlant, et vous verrez une pub de la microbrasserie la plus proche.
Voilà en réalité ce qui se passe : Facebook et une marque de grande consommation, mettons Nike,
passent un accord appelé Facebook Exchange ou FBX. A partir de là, Facebook va vendre ses
informations sur les utilisateurs à Nike, qui va les utiliser pour viser une base de données Facebook
spécifique. Imaginons que vous venez d’acheter une paire de chaussures Nike neuves et que vous
avez donné votre adresse de courriel ou vos numéros de téléphone au moment de l’achat. Nike peut
se reporter à la base de données de Facebook via FBX et vous recevrez instantanément des publicités
Nike dans vos pages Facebook. Facebook ne manque pas d’affirmer qu’il protège strictement les
informations personnelles de l’utilisateur. L’importance de FBX tient au fait que n’importe quelle
marque peut utiliser les informations pour viser des utilisateurs spécifiques, plutôt qu’une vague
catégorie démographique, et de payer Facebook pour pouvoir faire paraître ses annonces sur la page
de cet utilisateur précis. » [Kulkarni, 2013 ; cf. Mayer-Schönberger et Cukier, 2013 : 150ff].
104 Traces numériques et territoires
Toutefois, l’« individualisation » pourrait ne pas être le terme approprié pour décrire
ce qui arrive quand des personnes en viennent à subir la mise en données. En
l’espèce, Facebook pourrait servir d’exemple à nouveau. Paradoxalement, malgré
les possibilités presque illimitées pour combiner, décombiner et repanacher les
éléments de la base de données, Facebook force ses utilisateurs à entrer dans
une structure technologique extrêmement homogène avec des menus prédéfinis,
des listes déroulantes et des catégories. La soi-disant « individualisation » exige
des formes extrêmes de standardisation, d’homogénéisation technologique et
culturelle14. Ainsi, la structure de Facebook à l’origine excluait les personnes
transgenre. Ce n’est qu’après une longue période de protestations que Facebook
a ajouté une icône pour le mariage homosexuel dans sa fonction journal en juillet
2012. En 2014, Facebook a voulu semble-t-il régler cette question une bonne fois
14 L’homogénéisation culturelle ne devient pas seulement manifeste dans les catégories utilisées
dans la base de données, mais aussi, et en lien avec cela, dans la domination de la langue anglaise
dans l’univers informatique.
L’identité comme base de données 105
Toutefois, comme nous l’avons déjà observé, l’individu ne fait pas que subir une
massification, mais aussi une atomisation et un tri. A ce niveau, peut-être, se trouve
le plus grand danger de l’identité comme base de données. Dans le monde des big
data, la corrélation a remplacé la causalité et ceci rejaillit sur l’agentivité humaine
à un niveau fondamental [voir Hildebrandt, 2008]. A un niveau plus ou moins
innocent, nous voyons cela se produire dans les boutiques en ligne sur le Web. En
utilisant des techniques de fouille de données connues sous le terme de « filtrage
collaboratif objets », Amazon.com propose aux acheteurs d’un livre d’autres livres
qu’ils seraient susceptibles d’aimer. Aujourd’hui, un tiers des ventes d’Amazon
seraient le résultat de cette technique. D’une certaine manière, Amazon en sait
plus sur les préférences d’un acheteur que cette personne elle-même16. Toutefois,
Amazon n’a aucune idée de la raison pour laquelle les acheteurs d’un certain
livre s’intéressent à un autre livre en particulier. Le « prochain livre à acheter »
pourrait être, mais pas nécessairement, du même auteur, du même genre ou dans
la même langue. Le système s’appuie uniquement sur des corrélations : « savoir
quoi, mais pas pourquoi, c’est suffisant » [Mayer-Schönberger et Cukier, 2013 : 52].
Alors que dans l’univers de l’identité narrative le « pourquoi » est essentiel, les récits
portent toujours sur les raisons pour lesquelles les protagonistes agissent comme
ils agissent, sur les pulsions et sur les raisons qui motivent leur agentivité, pareille
causalité narrative n’intervient pas dans le cas des identités de bases de données.
Les identités de bases de données sont des « soi corrélatifs ». Les entreprises
commerciales ou les organismes publics, pour des raisons de pur pragmatisme,
veulent uniquement savoir ce que les clients et les citoyens pourraient souhaiter,
mais ne s’intéressent pas à leurs motivations ou leurs raisons. Le danger, dans
ce cas, réside en particulier dans la tentation d’utiliser les big data pour prédire le
comportement futur des personnes, par exemple, au moment de choisir des études
qui conviennent aux enfants, ou pour profiler une personne par anticipation de
15 « Une succession sans fin de manœuvres soutenues par de gigantesques investissements ont
encouragé des jeunes pénétrant pour la première fois l’univers du Web à créer des présences
standardisées sur des sites comme Facebook. Des groupes commerciaux ont encouragé l’adoption à
grande échelle de modèles standardisés comme le blog et ces modèles ont encouragé le pseudonymat,
du moins dans certains aspects de leurs modèles, comme les commentaires, au lieu de la fière
extraversion que l’on a connue pendant la première vague de la culture du Web » [Lanier, 2010].
16 Bien entendu, bien que relativement innocente, la question économique demeure : à qui
appartiennent les données, les informations, les connaissances qui sont extraites à partir de ces
données ? [Lanier, 2013].
106 Traces numériques et territoires
son comportement face à des circonstances qui ne se sont pas encore présentées17.
« C’est la quintessence de la pente dangereuse, qui mène tout droit vers la société
dépeinte dans Minority Report, un monde où le choix individuel libre sera éliminé,
où notre boussole morale individuelle aura été remplacée par des algorithmes
prédictifs et où les personnes seront exposées à la vindicte sans entrave de
l’arbitraire collectif. Si elles étaient exploitées ainsi, les big data menaceraient
de nous emprisonner tous, qui sait, à la lettre, dans les probabilités » [Mayer-
Schönberger et Cukier, 2013 : 163].
POUR FINIR…
17 « Ces nouveaux instruments répressifs ne sont pas déterminés par la logique linéaire de cause
à effet, mais par la logique additive. A ne suis pas B pour une certaine raison, mais plutôt A peut
être relié, ou s’ajouter, à B au hasard » [Lash, 2002]. « Ce phénomène a été décrit comme étant un
empilement d’informations. […] L’empilement signifie que l’on peut combiner de plus en plus divers
éléments d’information sur un coup de tête, sans idée particulière de développement interne ou de
progression ou d’objectif. On ne “sait pas vraiment où on va”. […] Différentes formes de police, de
systèmes de cartographie criminelle et de prescriptions en matière de prononcé des peines sont, pour
cette raison, des instruments répressifs qui ne tentent pas de répondre à la question du “pourquoi”
(un certain acte a été commis ou pourquoi la réaction envers lui doit se faire d’une certaine manière).
Ce ne sont pas des instruments de compréhension, mais des instruments pour l’action » [Aas, 2004].
L’identité comme base de données 107
RÉFÉRENCES BIBLIOGRAPHIQUES
[Aas, 2004] Aas, K. F., 2004, « From narrative to database: Technological change and penal
culture », Punishment Society, 6, 379-393.
[Bradley, 2014] Bradley, C., 2014, Bigender, Cisgender, Two-spirit: Which of Facebook’s new 50 options
are you?, http://www.mirror.co.uk/news/technologyscience/technology/
facebook.
[Burton, 2013] Burton, R. A., 2013, A skeptic’s guide to the mind : what neuroscience can and
cannot tell us about ourselves, New York : St. Martin’s Press.
[Cascio, 2005] Cascio, J., 2005, The Rise of the Participatory Panopticon, http://www.worldchanging.
com/archives/002651.html.
[Dawkins, 1976] Dawkins, R., 1976, The selfish gene, Oxford : Oxford University Press.
[de Mul, 2005] de Mul, J., 2005, « From Mobile Ontologies to Mobile Aesthetics », Contemporary
Aesthetics, Special Volume I: Aesthetics and Mobility.
[de Mul, 2009] de Mul, J., 2009, « The work of art in the age of digital recombination’, in Digital
Material: Anchoring New Media », In Raessens, J., Schäffen, M., Boomen, M. V.
D., Lehmann, A.-S. et Lammes, S. (éd.), Daily Life and Technology, Amsterdam :
Amsterdam University Press.
[de Mul, 2010] de Mul, J., 2010, Cyberspace odyssey : towards a virtual ontology and anthropology,
Newcastle upon Tyne : Cambridge Scholars.
[de Mul, 2011] de Mul, J., 2011, Paniek in de Polder. Polytiek en populisme in Nederland, Zoetermeer :
Uitgeverij Klement.
[de Mul, 2014] de Mul, J., 2014, Destiny Domesticated. The Rebirth of Tragedy Out of the Spirit of
Technology, Albany : State University of New York Press.
[Dennett, 1992] Dennett, D. C., 1992, « The Self as a Center of Narrative Gravity », In Kessel,
F., Cole, P. et Johnson, D. (éd.), Self and Consciousness, Hillsdale, NJ : Erlbaum.
[Derrida, 1972] Derrida, J., 1972, Marges de la philosophie, Paris : Editions de Minuit.
[Glass, 1993] Glass, J. M., 1993, Shattered Selves: Multiple Personality in a Postmodern World, Itchaca/
London : Cornell University Press.
[Gray, 2003] Gray, J., 2003, Al Qaeda and what it means to be modern, New York : New Press.
[Grosser, 2011] Grosser, B., 2011, « How the Technological Design of Facebook Homogenizes
Identity and Limits Personal Representation », http://bengrosser.com/wp-
content/themes/grosser/files/GROSSER-facebook-identity.pdf.
[Hildebrandt, 2009] Hildebrandt, M., 2009, « Who is Profiling Who? Invisible Visibility », In
Gutwirth, S., Poullet, Y., Hert, P., Terwagne C. et Nouwt S. (éd.), Reinventing
Data Protection?, Rotterdam : Springer Netherlands.
[Keymolen, 2007] Keymolen, E., 2007, Onzichtbare Zichtbaarheid. Helmuth Plessner ontmoet profiling,
BA, Erasmus University.
108 Traces numériques et territoires
[Kulkarni, 2013] Kulkarni, A., 2013, « How does Facebook Make Money? », http://www.
buzzle.com/articles/how-does-facebook-make-money.html.
[Lanier, 2010] Lanier, J., 2010, You are not a gadget: a manifesto, New York : Alfred A. Knopf.
[Lanier, 2013] Lanier, J., 2013, Who owns the future?, New York : Simon & Schuster.
[Lyotard, 1979] Lyotard, J.-F., 1979, La condition postmoderne, Paris : Editions de Minuit.
[Manovich, 2002] Manovich, L., 2002, The Language of New Media, Cambridge, MA : MIT Press.
[Marquard, 1991] Marquard, O., 1991, In Defense of the Accidental: Philosophical Studies, Oxford :
Oxford University Press.
[Mayer-Schönberger et Cukier, 2013] Mayer-Schönberger, V. et Cukier, K., 2013, Big data: a
revolution that will transform how we live, work, and think, Boston : Houghton Mifflin
Harcourt.
[Paz, 1991] Paz, O., 1991, Children of the mire: modern poetry from Romanticism to the
avant-garde, Cambridge, MA : Harvard University Press.
[Ricœur, 1985] Ricœur, P., 1985, Temps et récit III : le temps raconté, Paris : Le Seuil.
[Ricœur, 1991a] Ricœur, P., 1991a, « Life in the Quest of Narrative », In Wood, D. (éd.), On Paul
Ricœur. Narrative and Interpretation, London : Routlegde.
[Ricœur, 1991b] Ricœur, P., 1991b, « Narrative identity », In Wood, D. (éd.), On Paul Ricœur.
Narrative and Interpretation, London : Routlegde.
[Ricœur, 1990] Ricœur, P., 1990, Soi-même comme un autre, Paris : Le Seuil.
[Rutgers et Molier, 2004] Rutgers, G. R. et Molier, G., 2004, Het multiculturele debat: integratie of
assimilatie?, Den Haag : Boom Juridische Uitgevers.
[Terranova, 2000] Terranova, T., 2000, « Free Labor: Producing Culture for the Digital
Economy », Social Text, 18, 33-58.
[Van den Boomen, 2014] Van den Boomen, M., 2014, Transcoding the Internet. How metaphors
matter in new media, Amsterdam : Institute of Network Cultures.
Partie 2
Rencontre entre traces numériques et
territoires
L’écume numérique des territoires
Dominique Boullier
Lorsque le numérique saisit le territoire1, il ne le fait jamais de façon univoque.
Une « politique numérique » qui se projette sur un territoire ne peut que renforcer
la définition classique du territoire, qui se résume à la projection d’un pouvoir sur
un espace défini par des frontières et approprié comme idéologie [Lussault, 2007].
Cette définition produit déjà des dimensions qui ne seront pas nécessairement
présentes de la même façon selon les choix stratégiques effectués : un pouvoir,
des frontières, une idéologie. La seule présence de l’idéologie ouvre la dimension
double des territoires référés aux états-nations : non seulement des états mais aussi
des nations, c’est-à-dire encore des « communautés imaginées » [Anderson, 1991].
Apparait ainsi un effet d’agencement particulier : si les agencements étatiques sont
massivement topographiques, cela ne résume pas le travail des états qui peuvent
et doivent avoir des dimensions topologiques dans les relations de pouvoir et
d’influence qu’ils mobilisent [Lévy, 2002]. Nous chercherons ici à ouvrir encore la
possibilité des combinaisons pour montrer que l’émergence des réseaux numériques
et la traçabilité généralisée qu’ils instaurent nous obligent à penser un agencement
chronologique des territoires, ce qui, au bout du compte, pourrait même remettre
en cause la pertinence du concept de territoire pour penser ces processus.
1 Ce travail sur les relations entre territoire et numérique a été commencé par la publication d’un
article dans un ouvrage en 2008. Il a été repris et travaillé en 2014-2015 lors de présentations à
Lille, à Compiègne, à Grenoble et enfin à Poitiers. Il a été conduit parallèlement à une analyse
comparée des politiques des villes intelligentes qui a fait l’objet de plusieurs présentations et d’une
publication (2014). Des variations sensibles sont à noter entre toutes ces approches qui sont subi
aussi l’influence des travaux en cours sur les sciences des vibrations, sciences sociales de 3eme
génération, en 2015.
112 Traces numériques et territoires
Pour les décideurs politiques, numériser les territoires signifie le plus souvent
équiper le territoire physiquement par des réseaux techniques, en les planifiant,
en les finançant ou en les gérant directement, la combinaison reste assez ouverte.
Cette réduction à un équipement physique possède un avantage évident : elle
opère par transposition directe de la vision des infrastructures de réseaux de
transport, qui ont tant marqué l’histoire de « l’aménagement » en France mais
aussi dans tout le monde occidental. Les « autoroutes de l’information » en étaient
sans doute l’expression la plus fameuse et la focalisation sur le très haut débit et
l’équipement de tous les territoires la prolonge avec une obstination non démentie
depuis le XIXeme siècle, après l’impulsion essentielle de Saint-Simon [Musso,
2003]. Notons cependant que le modèle des réseaux tend rapidement vers la
métaphore biologique, dès lors que l’on pense le territoire comme un organisme,
irrigué par des vaisseaux, ou mieux par un système nerveux, qui convient mieux
à la société de la connaissance, mais qui laisse entendre qu’il reste un cerveau qui
pilote l’opération, à savoir le gouvernement du territoire.
Si l’on peut comprendre ainsi le territoire équipé de réseaux comme une forme de
traduction topographique de l’Etat, les diffusions médiatiques qui contribuent à
constituer la nation n’ont jamais connu les mêmes limitations de frontières. En effet,
la nation constituée solidairement à l’état n’a ni les mêmes principes ni les mêmes
conditions de félicité. Desrosières [1993] montre ainsi comment la radio devint, à
partir de 1925, une condition d’existence de la nation américaine, notamment parce
qu’elle était le vecteur nouveau des campagnes présidentielles qui, seul, permettait
de toucher toutes les populations en même temps et de leur permettre de se faire
une idée sur les candidats. C’est à cette occasion que se constitua l’opinion publique
de façon opérationnelle grâce à ces médias mais aussi aux sondages d’opinion qui
L’écume numérique des territoires 113
purent ainsi la calculer, toutes choses étant égales par ailleurs, avec un degré de
connaissance partagée supposée. Cette dimension mass-médiatique des territoires
avait certes été initiée par les journaux mais sans la puissance d’immédiateté des
médias de masse qui synchronisent des populations entières. Plus encore, c’est tout
un « esprit national » qui se constitue ainsi et qui peut même tenter de s’exporter
dans la diffusion des contenus à l’étranger, ce qu’on a nommé le « soft power ».
Les émissions de radio des USA vers le bloc soviétique faisaient cependant appel
à un autre agencement, celui qui constitue une audience et que nous appellerons
topologique. La puissance des médias n’est pas seulement de produire une zone
d’influence, elle consiste aussi à mobiliser des désirs, politiques ou consumeristes,
et dans tous les cas, à rendre attractif un territoire. Le marketing territorial s’y
emploie désormais et reproduit les mêmes méthodes que toute marque, lorsqu’elle
doit diffuser son influence. Cela suppose toujours un centre mais son territoire est
alors agencé sur le mode topologique, fait de nœuds d’influence qui permettent la
propagation (cf. le two-step flow de Katz et Lazarsfeld, 1955).
Mais cette propagation a désormais muté, elle ne provient plus d’un centre, d’un
pouvoir central, ni d’un maillage topologique des influences. C’est la métaphore
biologique de l’épidémiologie qui s’impose, celle de la prolifération virale, permettant
aux idées de circuler à travers des contacts éphémères, sans qu’un centre soit bien
défini et sans qu’un réseau soit identifiable a priori. Lorsque les territoires prennent
l’initiative de créer des « clusters » qui associent des entités diverses, entreprises de
production, de services ou de R&D, laboratoires, notamment, c’est un effet du
type de la propagation épidémiologique qui est recherché. Les particularités du
« milieu » permettent à des ingénieurs ou à des chercheurs de choisir des secteurs
où l’ambiance culturelle ou environnementale est de plus grande qualité et où la
seule proximité permet de générer des rencontres stimulantes sans que cela relève
uniquement d’une théorie de la classe créative [Florida, 2012]. Le territoire n’est
plus un organisme comportant des limites précises que l’on peut irriguer plus ou
moins activement. Il est devenu un milieu de référence, un écosystème qui ne reste
vivant qu’à la condition d’activer ses échanges avec son environnement. Lorsque
le numérique permet de donner un statut permanent et actif aux diasporas de
tous types, par exemple [Boullier et al., 2008], c’est tout le territoire qui se redéfinit
comme « milieu associé », c’est-à-dire indépendamment des distances physiques
et de l’équipement lui-même. Car si un certain équipement en est la condition, ce
n’est pas « l’autoroute de l’information » entre deux villes du territoire qui devient
essentielle mais la plate-forme qui soutient la dynamique des flux, bien au-delà des
territoires et des « communautés », nationales ou non. Internet a bien été structuré
comme réseau distribué qui s’est transformé en véritable milieu, assurant une
symétrie potentielle entre toutes les contributions. Pourtant, le risque est désormais
de voir les plates-formes (GAFAT), qui garantissaient la fluidité et la contagion
rapide, capter les externalités générées par cette connectivité pour reconstituer
des asymétries et des centres. En procédant ainsi, on finirait par tuer le principe
même du milieu et sa capacité à trouver des voies multiples de survie, qui génèrent
114 Traces numériques et territoires
Si l’on pose le territoire équipé comme un système nerveux, c’est bien qu’on lui
suppose ou qu’on lui souhaite une topologie centralisée, construite sur une asymétrie
où l’on chercherait un quelconque cerveau. Mais ce pouvoir central ne peut être
pensé comme centre isolé de son histoire et de ses justifications. Il est mythiquement
relié au-delà de lui-même, il puise dans une tradition qui le rend incommensurable,
que cette tradition soit de droit divin ou fondée dans les lumières de la Raison.
Face à lui, ce sont bien des sujets, qui gagnent ainsi une place, certes, mais au prix
de la perte de prise sur leur propre système politique territorial. Or, ce montage
asymétrique ne tient plus guère et ce n’est pas le numérique qui le rend incertain
mais l’élévation générale du niveau d’éducation et l’affaiblissement de ces traditions
incorporées qu’étaient la religion ou les grands systèmes d’adhésion politiques. Cette
asymétrie possède des propriétés topographiques aisément restituées par les cartes
de distribution des ressources et des pouvoirs. Plus ou moins décentralisé, selon les
systèmes politiques, le pouvoir ne repose malgré tout dans cette approche que sur
une centralité, souvent visible. Les techniques numériques peuvent l’équiper sans
difficulté et les centres de commandement urbain que IBM peut proposer, comme
à Rio, sont des traductions numériques réussies de cette mise en scène du pouvoir
central qui dispose désormais d’énormes tableaux de bord (« dashboards ») tous
interopérables.
Mais l’abonné est encore d’une certaine façon le sujet d’un opérateur, il dépend
entièrement de cette offre de fréquence, qui permet d’échanger, comme c’est
le cas pour les mass-médias eux-mêmes. Or, cela ne rend pas compte de ce qui
circule, des entités qui produisent cette contagion, des modes, des rumeurs, du
buzz, toutes choses fort dédaignées par la supposée société de la connaissance et
qui pourtant vivent de leur vie, prolifèrent et dépassent de supposées intentions
individuelles ou stratégiques. L’assujettissement n’est pas le régime d’existence de
ces êtres qui peuplent les réseaux numériques. Il convient plutôt de les désigner
par le concept de Michel Serres de « quasi sujets ». Ce ne sont plus a priori des
humains ou des objets qui font l’histoire ou qui l’inspirent mais bien plutôt les
entités qui résultent de leur frottement tangentiel [Boullier, 2004] entre elles. Il
ne s’agit plus donc de penser des formes de cohabitation, ce qui serait encore
supposer un espace partagé, comme dans le cas des répartition de fréquences,
mais des formats d’association qui font émerger des quasi sujets. Tout le problème
de cette gestion des rumeurs, des réputations tient dans cette absence de source,
d’origine supposée du message, du pouvoir et du mythe, aussi fictifs étaient-ils
dans le cas du pouvoir central d’un territoire donné. Disparition du centre veut
dire disparition des sujets mais émergence des circulations. Et ce ne sont pas celles
des véhicules, qui sont autant d’entités découpables et identifiables mais celles
des contagions (biologiques, magnétiques, mimétiques ou autres) où l’entité, bien
qu’existante, n’est plus visible et n’offre plus de prises immédiates. On ne peut
espérer s’en tirer par une stratégie d’image offensive car c’est dans le maillage de
ces quasi sujets que réside la source même des informations et des connaissances.
C’est pourquoi aucune carte des communautés ne permet de rendre compte de
cette mise en tension des quasi-sujets. Ils sont mis en tension autour de problèmes,
d’ « issues » [Marres, 2007] et non en permanence. Ce sont les problèmes qui sont
les quasi-sujets qui font agir d’autres quasi-sujets, qu’on classe comme humains
alors qu’ils ne sont que des comptes Facebook ou Twitter.
voit avec les batailles sous le pôle Nord). Ce sont plutôt des routes maritimes qui
sont essentielles à préserver, des circulations plutôt qu’une domination sur un
domaine impossible à clore. C’est encore plus vrai pour l’espace aérien, même
si les violations peuvent être détectées par les radars et provoquer des tensions
internationales à épisodes réguliers. C’est encore plus difficile pour l’espace
hors atmosphère terrestre où la question des orbites et des altitudes est plus
décisive, même si les satellites géostationnaires ont bien entendu un ancrage
terrestre mais impossible à délimiter en adéquation avec les frontières politiques
des territoires. Ce n’est plus vrai pour l’espace hertzien [Boullier, 1987] qui n’a
jamais été totalement contrôlé malgré toutes les tentatives techniques totalitaires
pour le faire (émetteurs, brouillages, etc.) et malgré la répartition internationale
des fréquences. Et les frontières ne veulent plus dire grand-chose pour le réseau
internet, à l’exception de certaines tentatives totalitaires en Chine ou en Iran par
exemple, et malgré les problèmes juridiques que cela pose pour faire appliquer des
réglementations et des lois. Les effets de territoire semblent désormais reposer
sur des frontières produites à volonté selon les impératifs de la sûreté de l’état :
tout drone militaire transforme toute zone d’un autre pays en territoire du pays
attaquant qui y fait régner son ordre [Chamayou, 2013]. Si l’état se définissait chez
Weber par ce monopole de la violence, il le faisait dans le cadre des limites du
territoire qu’il domine [Weber, 1995]. Désormais, c’est la technologie qu’il contrôle
qui transforme tout espace en territoire soumis à la loi nationale, indépendamment
de ses frontières. Cette mutation est considérable et fait reposer la définition des
frontières sur la zone d’action possible des capteurs et des effecteurs au service
du centre comme pour toute opération logistique. L’état logisticien produit un
agencement topographique qui redéfinit les relations territoriales classiques tout
en s’y inscrivant (les capteurs sont bien disposés dans l’espace physique).
est ainsi offert est permis par l’autorité émettrice, qui conserve le fichier de tous
ses membres et la trace de toutes leurs interactions. Le territoire nouveau qui fait
l’objet du contrôle est bien plus celui des annuaires, des fichiers de membres et
des logs d’activité que celui balisé par une frontière. On peut ainsi imaginer qu’un
territoire donné, et non seulement ceux qui ont par tradition le rôle de délivrer
des papiers d’identité, pourrait diffuser à tous ceux qu’ils considèrent comme
membre, une carte donnant des privilèges d’accès dans n’importe quel espace,
réel ou virtuel, et bien au-delà de ses frontières administratives, puisqu’il s’agirait
alors d’un service fourni à tout moment. Cette image rend bien compte du
changement de paradigme entre frontière et accès et du rôle de passeur que peut
jouer une autorité supposée gérer un territoire. L’évolution actuelle des moteurs de
recherche vers une personnalisation accrue des réponses aux requêtes, comme le
fait Google avec son algorithme Hummingbird, contribue à basculer d’une logique
de présentation d’une carte du web à une logique d’accès. Chaque internaute n’a
plus aucune chance de visualiser une liste commune à tous les internautes, qui
pourrait laisser croire à un territoire balisé par le moteur. Désormais, ce sont les
requêtes précédentes, son historique et toutes ses traces exploitées par le moteur
qui lui fourniront une image supposée plus adaptée à sa « demande véritable » au-
delà de la requête explicite saisie dans le champ prévu à cet effet. Ce qui engendre
les risques du « filter bubble » signalé par Eli Pariser [2011].
Cette capacité à faire varier le territoire et ses critères d’accès selon les attributs des
entités qui y circulent ne permet pas cependant de rendre compte de ces processus
épidémiques qui font l’objet des rumeurs, des imitations déjà évoquées. Les limites
de l’accès reposent plutôt sur cette « hésitation » dont parlait Tarde [2001] entre deux
rayons d’imitation qui entrent en conflit pour nous faire agir. Il est cependant possible
désormais de suivre à la trace toutes ces propagations et de mieux comprendre les
capacités d’extension de certaines épidémies, ou de certaines olas dans un stade,
car les phénomènes sont du même ordre. Ces émergences éphémères peuvent
être tracées sur le web avec des dispositifs comme le memetracker de Leskovec
et Kleinberg [2009]. Leur agencement n’est pas tant spatial que chronologique car
la propagation produit certains patterns temporels qui changent la nature même
de l’épidémie. La vitesse de propagation mesurée en Tweet per second devient un
élément clé pour repérer l’extension d’une épidémie. La vélocité captée par le Big
Data devient le critère clé pour comprendre cette extension. Quand bien même
on peut après coup projeter ces propagations sur des cartes avec frontières ou sur
118 Traces numériques et territoires
des réseaux avec accès différenciés, c’est le rythme de l’extension qui constitue le
phénomène épidémique et non ses frontières ni ses relais. Le territoire ainsi décrit est
avant tout une « extension en train de se faire » et non plus une « extension déjà faite
», pour reprendre l’opposition classique de B. Latour dans son analyse de la science.
Un territoire s’organise en référence à une centralité qui définit ainsi de fait des
périphéries. Il produit un espace hiérarchisé, qui peut être aligné sur la dimension
politique et symbolique (mais ce n’est pas toujours le cas). On constate ainsi à quel
point il est difficile de faire vivre des échelles territoriales nouvelles, telles que les
« pays » en France, lorsqu’ils ne sont pas reliés à (ou producteurs de) une forme de
centralité, et la globalisation indique bien cette perturbation des conventions lorsque
les espaces pertinents pour les échanges ne sont pas contrôlés par des pouvoirs
correspondant à la même échelle. L’analyse des fonctions urbaines permet cependant
de différencier les types de centralité, comme c’est le cas lorsqu’on ne constate pas
une congruence entre centralité politique, administrative, économique, commerciale,
universitaire voire symbolique. Ce sont alors des centralités qui se combinent entre
elles en autant de configurations locales pour faire tenir les territoires. La tradition
française a très nettement tendance à empiler les différents types de centralité
qui se neutralisent alors les unes les autres et à attendre les arbitrages de l’Etat,
seule hiérarchie acceptée au finale. La démultiplication des centralités, selon des
spécialisations, est rarement comprise par le citoyen ordinaire (cf. les divisions des
rôles entre départements, régions, communes et services décentralisés de l’Etat
par exemple en France). De la même façon, les réputations des universités restent
souvent globales et s’étendent à toutes les spécialités de la même institution, alors
qu’il existe des fonctions et des activités fort différentes, mais on ne peut afficher
plus d’une « marque » institutionnelle. Ces enjeux apparaissent lors du lancement de
sites web institutionnels qui fonctionnent comme des vitrines pour des marques
qui encapsulent toutes les autres entités dans leur cadre unique, le site portail.
Les conflits sont fréquents car la publication en ligne oblige à expliciter les frontières
et les hiérarchies sans laisser proliférer la diversité née de l’activité spontanée.
territoire des spécialistes mondiaux d’un domaine très pointu alors que cela ne
représente en aucun cas une attraction spatiale ou démographique visible du point
de vue du territoire physique. Les entreprises qui se sont développées sur des niches
qu’elles ont réussi à étendre à un niveau mondial par la qualité de leur offre, qui
en font des autorités dans leurs domaines, et par la qualité de leur connexion au
reste du monde, constituent de fait de nouvelles centralités tout aussi importantes.
L’espace médiatique ainsi équipé par les réseaux numériques permet d’effectuer
de véritable comparaisons entre autorités, ainsi que le montre la tendance générale
au ranking international. Les territoires de réputation sont ainsi constitués sur
un mode équivalent à celui des marques lorsqu’elles mobilisent les médias. Les
comparateurs peuvent être des moteurs généralistes mais aussi des moteurs plus
spécialisés ou tout média qui prétend couvrir un domaine pointu. Le numérique
et sa dimension de réseau permettent de fournir l’infrastructure nécessaire pour
faire émerger ces diverses autorités, en les rendant visibles et comparables, ce qui
permet au public de s’orienter sans avoir à passer par des médiateurs multiples.
Cette tendance au benchmarking [Bruno et Didier, 2013], très soutenues par
les modèles de management de l’économie financière, est ainsi un instrument
pour délégitimer les autorités instituées à centralité hiérarchique et proposer une
objectivation algorithmique permettant de mettre en ordre le monde selon d’autres
critères. Dans notre étude sur la culture scientifique et technique française sur le Web
[Boullier, 2008], nous avons observé qu’un site amateur spécialisé en aquariophilie
était ainsi devenu le centre d’agrégation de tous les sites parlant de ce thème dans
le monde entier, alors que les autorités du domaine, les aquariums de la CSTI, se
cantonnaient sur le Web à promouvoir leur équipement sans s’intéresser à toutes les
dimensions de ce thème. Le site amateur en question est topologiquement un hub.
D’une intermédiation spécialisée peut ainsi naître un nouveau pouvoir, non central
ni hiérarchique mais capable d’organiser la comparaison et la commutation entre
toutes les offres. C’est ce que l’on observe avec les moteurs de recherche, et Google
en premier, qui tendent à occuper cette place d’autorité de substitution alors même
qu’ils ne sont que des hubs qui renvoient vers d’autres sites. Leurs algorithmes non
publics de ranking permettent de faire apparaître des résultats qui font office de
certification d’autorités en quelque sorte par leur présence en tête de liste de Google,
qui devient ainsi le garant de ces résultats alors même qu’il prétend en rester à un
rôle d’orientation sans certification d’aucune sorte.
dans ces processus si ce n’est celle, très éphémère, du buzz qui met en avant
une citation, un même, ou une entité nommée. Cette focalisation de l’attention
[Boullier, 2009] n’est même plus topologique car la carte de la propagation ne dit
rien des « acteurs » concernés mais indique seulement quel attribut d’un compte
a été percuté et rendu visible par le mème ou ce que nous appellerons désormais
une « vibration » donnée [Boullier, 2015b]. Ce qui apparait alors ce sont des
« bursts and streams » [Leskovec et Kleinberg, 2009], des flux de propagation
qui font subir des mutations ou des dérivations aux entités qui circulent dès lors
qu’elles pénètrent certains milieux et qui provoquent dès lors des tremblements
de terre ou plutôt d’esprit. Les mesures de ces vibrations sont réalisées par des
capteurs, qui sont l’équivalent des sismographes que Pierre Levy considérait en
2000 comme notre mode d’existence. Or, qui sont les sismographes du monde
numérique ? Les plates-formes qui génèrent elles-mêmes les dispositifs de traces
(les likes, les RT et les clics) et qui produisent la mesure en la mettant de façon de
plus en plus contrôlée à disposition des marques et des chercheurs pour en faire
la matière première de leurs stratégies ou de leurs analyses.
conceptuel d’une discipline peut être représenté spatialement en réseaux sur une
surface mais cela permet de faire apparaitre des proximités et des distances (on
parle de word space pour les analyses de cooccurrences). Ces approches se sont
étendues largement hors de la scientométrie où elles sont nées pour donner lieu à
des visualisations de tous types, depuis les sites web reliés par des liens hypertextes
qui permettent de produire des clusters d’attachement politique à des opinions
voisines par exemple, jusqu’aux graphes produits par les réseaux sociaux comme
Linkedin ou Facebook qui visualisent les statuts d’amis ou les mentions faites des
uns et des autre sur les comptes. L’espace de sociabilité peut ainsi être considéré
comme un territoire mais il a ses propriétés qui sont topologiques comme l’analyse
sociologique des réseaux sociaux le pratiquait depuis longtemps. Penser un
territoire en tant qu’espace de sociabilité ne saurait dès lors se résumer à décrire
les propriétés des voisinages dans des quartiers par exemple mais doit intégrer
la dimension topologique des clusters affinitaires pour rester en prise avec les
pratiques observables.
Cependant, l’analyse de réseaux sociaux avait établi que dans une même relation
plusieurs valeurs d’échange pouvaient circuler [Degenne et Forsé, 1994]. Ils parlaient
alors de multiplexage. Or, cette dimension nécessite une dimension temporelle car
le multiplexage nécessite malgré tout que chaque valeur d’échange soit mobilisée
tour à tour : on peut être en relation en tant que collègues, anciens de la même
école, ou membres du même club de foot mais ces valeurs d’échange s’expriment
les unes après les autres dans un échange donné (à travers des indices verbaux
qui permettent de switcher sur la valeur pertinente). Ce switching temporel est
exactement la définition du commutateur [Guillaume, 1999]. Sur un même support
physique, plusieurs signaux peuvent passer en commutation temporelle, ce qui
correspond à un type de multiplexage (il existe aussi du multiplexage spatial sur la
fibre optique).
plan d’action, et l’énergie dépensée pour les prospectives des territoires sous diverses
formes montre bien ce souci constant (dimension de l’avenir, de la vision). Mais tout
semble s’ordonner comme un déplacement, solidaire dans le temps, d’une même
configuration avant tout marquée par son caractère spatial.
Or, les réseaux numériques que l’on doit penser désormais sont avant tout
organisés en « réseaux à agencement chronologique », ce qui complète l’approche
de Jacques Lévy. La vision du territoire se démultiplie ainsi en plusieurs couches
tenant compte de cette multiplexité propre aux réseaux numériques. Il devient
crucial de permettre la circulation entre ces réseaux dans des temporalités
courtes. Tous les acteurs que l’on peut recenser comme de supposés membres
peuvent ainsi participer à plusieurs univers à la fois sur des modes intermittents
en basculant de l’un à l’autre dans des délais extrêmement courts. On peut en
trouver la trace dans les mobilisations politiques ou citoyennes [Boullier, 2008]
devenues elles aussi intermittentes, loin des fidélités militantes construites
dans la longue durée et tendant au monopole. C’est ce que nous avons appelé
le « High Frequency Politics » [Boullier, 2013] que l’on résume parfois au buzz
mais qui agit en réalité en propre pour modifier la synchronisation collective
sur une haute fréquence. Les grands médias avaient cette capacité à organiser la
synchronisation à travers ce qu’on appelait « les grands messes du 20 heures » qui
ont largement contribué à constituer la « communauté imaginée » nationale. Mais
la fragmentation des audiences menace ce point de référence et les fonctions
de synchronisation se déportent vers des instances plus imprévues. Des grands
organisateurs d’événements, sportifs, culturels, peuvent jouer un rôle essentiel
dans cette synchronisation encore classique. Mais sur les réseaux, ce sont des
effets de focalisation de l’attention sur certains « événements » propres à la toile
qui peuvent créer cet effet, lorsque des millions de connexions sont recensées
sur le site de YouTube pour la vidéo scandaleuse qu’il faut avoir vue ou lorsqu’on
mesure en Tweet per second la propagation d’une nouvelle. Il n’existe plus
d’instance de synchronisation en tant que telle mais un moment de focalisation
sur un support qui peut accepter des flux de masse agrégés à un instant donné.
. Mettre en forme le passage d’un événement à un autre entre milieux différents
[Boullier, 2010] nécessite un équipement de commutation que peuvent instituer
les territoires au sens traditionnel du terme. L’une des fonctions politiques des
territoires serait ainsi désormais d’organiser cette synchronisation qui doit être
considérée comme l’équivalent de la continuité topographique.
Tenir un territoire, et donc le faire durer au-delà même des aléas du politique,
repose entièrement sur une bureaucratie, aurait dit Weber, et plus précisément
L’écume numérique des territoires 123
d’admettre que ces relais d’opinion comme on les appelle ne se gouvernent mais
s’influencent eux-mêmes. La carte de leurs relations, de leurs arguments, de leurs
positions prend une forme topologique parce que les échanges d’influence ont
une nature topologique. La proximité avec des études d’opinion est certaine mais
elle s’appuie alors sur des méthodes d’opinion mining dont nous avons montré les
limites [Boullier et Lohard, 2012]. Comme on le voit des métriques concurrentes
peuvent s’instituer pour faire émerger cette opinion sous influence mais dans tous
les cas, elles seront bien différentes de celles adoptées par l’administration et par
ses registres.
Ces approches des topologies des sphères d’influence peut prendre des formes assez
durables, le statut d’influenceur exigeant du temps pour se construire. Cela ne doit
faire oublier que la vie des réseaux numériques a produit des vibrations d’un autre
type, beaucoup plus éphémères, à partir des traces laissées sur les plates-formes.
La circulation, la propagation de (et la focalisation sur) certains événements, ou
certains messages constituent des phénomènes qui gagnent une visibilité de plus
en plus grande et qui finissent par rétroagir sur une administration par exemple
lors d’un buzz négatif sur un incident avec la police municipale. L’administration
de ces traces est entièrement prise en charge par les plates-formes que sont les
GAFAT (avec Twitter en plus) qui produisent, suscitent, mesurent et vendent ces
traces pour leur compte propre. Le territoire à agencement chronologique n’est
plus seulement hors de la compétence des administrations territoriales classiques,
il est directement capté, défini et administré par les plates-formes. Ce qui n’était
pas le cas des blogs par exemple qui se traduisaient par une dissémination des
sphères d’influence sans administration véritable. La centralisation de l’internet
et la perte de son caractère distribué permettent aux plates-formes de produire
leur territoire qui n’a pas de matérialité spatiale mais qui insuffle la pulsation
des attentions, un agencement typiquement chronologique. Les personnels qui
peuvent gérer ces situations ne sont plus ni des administratifs ni des bloggeurs
indépendants mais des équipes en formation commando qui réagissent en temps
réel aux alertes des systèmes de « social listening » pour lancer des guerres éclairs
ou même provoquer des effets de traces à l’aide de l’astroturfing. La présence
durable sur des réseaux d’échange d’opinions n’est plus d’aucune utilité dans ce
cas, c’est la réactivité immédiate qui compte.
plus que celle du territoire. Mais il finit pourtant par incarner ce peuple, au point
de parler au nom du territoire dans cette assomption d’une personnalité morale
d’un type particulier qui s’exprime par la voix de ces êtres politiques (« la France
pense que », « la Bretagne veut », etc.). Le pouvoir du gouvernement dépend de
sa capacité à faire taire (comme pour tout porte-parole, comme le rappelle la
théorie de l’acteur-réseau, Latour, 2006) toutes les autres voix qui pullulent sur le
territoire. C’est désormais le territoire qui doit parler, grâce à ces ventriloques d’un
type particulier que sont les élus qui gouvernent. La mise en scène de ce pouvoir
et du silence qu’il impose par le fait qu’il dépasse tous les citoyens qu’il est censé
représenter peut faire appel aussi aux médias numériques, sans aucun doute. Mais
cela ne serait qu’un avatar de plus de ce porte-voix qui fait descendre la bonne
parole sur le troupeau. Le bon pasteur, cette métaphore fondatrice du politique
chez Platon, protège et fait en même temps respecter l’ordre et le silence.
se passe ouvertement dans ces espaces que l’on a qualifié « d’extimes » [Tisseron,
2000] tels que ceux que l’on trouve sur les réseaux sociaux, mais aussi toutes les
traces laissées volontairement ou non sur les réseaux. Un bon gouvernement est
désormais non pas celui qui parle à la place de ses citoyens, non plus celui qui
sait les écouter mais celui qui peut devancer leurs propres désirs et peurs à partir
des traces qu’ils laissent dans toutes leurs activités numériques. Désormais le
territoire se vit sous alerte et se résume à une mise en alerte 24heures sur 24. Tout
ce qui ne peut être tracé et ne peut générer d’alerte n’a plus d’existence car il ne
participe plus à la sismographie collective, à la vibration qui met le monde sous
tension. La capacité à être en alerte n’est en rien le propre de larges entités comme
un gouvernement territorial. Chacun des êtres (y compris les objets désormais)
appartenant à ces territoires a appris à pratiquer cette veille, à être en alerte. A
tel point que le téléphone portable génère ainsi un régime d’engagement dans le
monde, une posture d’alerte [Boullier, 2008] qui résume quasiment le principe de
l’habitèle [Boullier, 1999, 2014a]. Il ne faut pas risquer de perdre une occasion
et, à l’aide du téléphone portable, des notifications des news, des flux RSS, des
tweets ou des SMS, on peut désormais être à l’affût de toutes les opportunités.
Le petit gouvernement de ce territoire multiplexe que constitue notre supposé
« moi » procède ainsi comme tous les gouvernements de l’ère numérique : plus
de contrôle direct, plus de silence imposé mais au contraire une alerte constante
aux signaux qui émergent du bruit général. Le territoire ainsi défini peut être
très éloigné des frontières physiques car l’alerte peut se déclencher à travers des
connexions improbables mais pourtant réelles grâce au réseau. La qualité des
capteurs ou des balises qui auront été placées aux endroits stratégiques (sur les
réseaux, sur les objets, sur des acteurs) permettra au gouvernement de reprendre
prise sur ce territoire incertain ou au contraire de n’entendre que sa propre voix, en
ignorant d’éventuels signaux faibles porteurs pourtant d’orages à venir. Ce zonage
pertinent de capteurs d’alerte devient ainsi le nouveau gouvernement paradoxal.
Et là encore, les plates-formes ont un avantage certain. Mais ce principe des
alertes est aussi au cœur du pilotage des capteurs de données environnementales,
de trafic, ou d’autres situations à risques ou à pilotage fin. Les traces, dans leur
principe de signal élémentaire, irriguent tout le système de vibration mis en place
dans les territoires.
le panneau « France » que le territoire en question est plus « réel » : nous avons
admis avec le temps qu’il était la marque d’un tout dont nous ne pouvons, ni
aucun humain d’ailleurs, embrasser la totalité ni « l’essence ». La convention de
la nation, qui semblait bien arbitraire face à la tradition des provinces, a fini par
devenir vraie. Et il a fallu pour cela bien plus que de la discipline ou du découpage
du territoire physique, il a fallu produire cette « fiction vraie » de la nation (mais
aussi de la région, du pays, de la ville, la fiction du département étant certes un
peu difficile à rendre vraie, on le sait). Le territoire n’est rien sans cette fiction
vraie qui va mobiliser des récits fondateurs, qu’on a parfois été chercher fort loin
dans les traditions au XIXeme siècle pour la création des nations européennes
[Thiesse, 1999]. Rien ne sert d’adopter à cette occasion une posture de critique
ou de dénonciation : il n’existe pas de territoire qui ne soit mythique ou virtuel.
Dès lors, le numérique possède seulement une autre matérialité, celle des réseaux,
des processeurs et des écrans mais ce n’est pas en cela qu’il est virtuel. Il peut
mobiliser d’autres récits fondateurs ou au contraire reprendre les anciens récits
fondateurs à son compte, voilà en quoi il renouvelle la fiction vraie et dès lors
permet d’associer d’une autre façon les êtres concernés. L’effet de ces récits a été
décrit par Sloterdijk [2002] comme relevant du phénomène des « baldaquins », ces
ciels qu’embarquaient les voyageurs au long cours lors des grandes navigations,
pour garder en permanence avec eux les repères de leur ciel de départ (et l’on voit
à cette occasion que l’image du territoire est en fait celle du ciel d’origine plutôt
que celle de la terre !). Et le baldaquin opère comme un cadre mental qui reste
inchangé malgré la confrontation avec l’étranger, malgré le dépaysement. Dans
tous les cas, il garde une connexion étroite avec l’origine, le temps et le lieu, il
reste une topographie portable, certes, mais bien ancrée dans un espace physique.
Cet ancrage n’est pas nécessaire pour le marketing territorial qui fait la promotion
des villes et des territoires dans des espaces de transaction qui valent avant tout
pour leur connectivité. Certes, les ressources du territoire physique peuvent servir
d’argument de vente mais ce sont bien plutôt les qualités de connectivité (via les
transports, les réseaux de télécommunications et les centres de congrès qui seront
recherchées. Dans ce cas, la présence sur les réseaux et la réputation construite
à l’occasion d’événements pèse plus lourd que les qualités patrimoniales ou les
références à un récit fondateur. Tout peut devenir matière à un storytelling qui
n’a plus guère de rapport avec ces récits. Car les événements et les arguments
de connectivité redessinent le territoire dans une mise en scène attractive. Le
marketing territorial est capable même de réinventer un ersatz de récit fondateur
en allant chercher parfois des éléments oubliés, des indices qui peuvent prendre
place dans le storytelling qui circule sur les réseaux. Les connexions avec les
nœuds pertinents pour assurer la propagation de l’histoire doivent être soignées.
Les territoires n’existent alors que par ces liens, par leur présence dans un réseau
porteur d’un storytelling formaté.
128 Traces numériques et territoires
CONCLUSION
Le tableau qui suit permet de résumer les contrastes entre des approches des
territoires selon les types d’agencement. Qui dit agencement dit aussi architecture
technique et en particulier architecture de données. Cette ouverture permet de
ne pas cantonner le numérique dans les villes et dans les territoires en général,
à une dimension unique puisqu’il peut amplifier les trois agencements que
nous proposons. L’obligation de repenser ce qui fait territoire nous est apparu
nécessaire dès lors qu’une nouvelle couche de données s’impose pour saisir et
expérimenter les territoires, non plus seulement d’un point de vue de surplomb
mais de l’intérieur. Cette nouvelle peau n’est pas seulement celle que les individus
produisent avec leur habitèle, l’appropriation de leur « personal data ecosystem »,
elle est collective et constitutive de la matérialité des territoires que l’on habite. La
L’écume numérique des territoires 129
différence entre les trois agencements a été mise en avant mais il va de soi que de
multiples combinaisons sont possibles et nécessaires pour l’expérience, la gestion
et la gouvernement des territoires. Il est cependant important de souligner que
l’agencement chronologique que nos avons introduit ici change assez radicalement
le statut du territoire au point de questionner la pertinence même du terme. En
effet, ce principe des traces éphémères qui sont massivement traitées par des
plates-formes remet en cause la durabilité et la supposée évidence des frontières
pour provoquer une synchronisation extrêmement volatile. L’intérêt de Sloterdijk
pour les écumes, pour une aphrologie, théorie des écumes, se comprend mieux
par ce déplacement vers un agencement chronologique qui tient compte de
l’interpénétration et la « co-fragilité » de ces voisinages des bulles dans l’écume.
L’écume est ainsi superficielle pense-t-on, et pourtant elle organise la pulsation
de nos vies dans les territoires et elle tend même à en mobiliser la visibilité par
saturation attentionnelle. Simmel disait bien que la vie urbaine était superficielle
et qu’il fallait cesser de s’en plaindre. Nous sommes entrés dans l’ère des écumes
urbaines et territoriales qui rend parfois improbable ou inutile le gouvernement des
autres couches du social. En cela, les territoires seraient affectés par le virus de la
finance qui depuis plus de trente ans a transformé la vie économique en économie
d’opinion, en succession de bulles et de manipulation des reflets réciproques. Cela
ne signifie pas que toutes les autres agencements qui président aux territoires ont
disparu, cela signifie seulement que l’agencement chronologique qui produit les
écumes et qui est produit par les traces des plates-formes numériques ne peut
être ignoré. Peut-il être gouverné ? C’est une autre question assez analogue à celle
posée par la spéculation financière en général et étendue au buzz qui entraine le
monde dans sa vibration permanente.
RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 1991] Anderson, B., 1991, Imagined Communities: Reflections on the Origin and Spread of
Nationalism. Revised, London and New York : Verso.
[Boullier, 1987] Boullier, D., « Espace hertzien et espace public », Espaces et Sociétés, 50.
[Boullier, 1999] Boullier, D., 1999, L’urbanité numérique. Essai sur la troisième ville en 2100, Paris :
L’Harmattan.
[Boullier, 2008] Boullier, D., 2008, « Web CSTI : le Web est un autre monde ! », Revue de l’OCIM,
Mai.
[Boullier, 2009] Boullier, D., 2009, « Les industries de l’attention : fidélisation, alerte ou immersion
», Réseaux, 154.
[Boullier, 2010] Boullier, D., 2010, La ville-événement. Foules et publics urbains, Paris : PUF.
[Boullier, 2011] Boullier, D., 2011, « Habitèle virtuelle », Revue Urbanisme, 376, Janvier-février.
[Boullier, 2013] Boullier, D., 2013, « Plates-formes de réseaux sociaux et répertoires d’action
collective » in Najar, S. (eds.), Les réseaux sociaux sur internet à l’heure des transitions
démocratiques, Paris : Editions Karthala.
[Boullier, 2014a] Boullier, D., 2014, « Habitele: mobile technologies reshaping urban life », URBE,
6(1), 13-16.
[Boullier, 2014b] Boullier, D., 2014, « Politiques des villes intelligentes », in Actes du colloque Ville
intelligente, ville démocratique? , Berger-Levrault, Chaire MADP Sciences Po.
[Boullier, 2015a] Boullier, D., 2015a, « Pour des sciences sociales de troisième génération (SS3G) :
des traces numériques aux réplique »s, in PM Menger (eds.), Big Data, entreprises et
sciences sociales, Paris : Open Editions Press (Collège de France).
Boullier, 2015b] Boullier, D., 2015b, « Vie et mort des sciences sociales avec le Big Data », Socio,
4, 19-37.
Boullier et al., 2008] Boullier D., Le Bayon, S. et Philip, F., 2008, « Formats techniques, formats
communautaires, formats d’engagement : le cas d’une communauté diasporique
», Colloque Web participatif, Québec.
[Boullier et Ghitalla, 2004] Boullier, D. et Ghitalla, F., 2004, « Le Web ou l’utopie d’un espace
documentaire », I3, Information, Interaction, Intelligence, 4(1), 173-189.
[Boullier et Lohard, 2012] Boullier, D. et Lohard, A., 2012, Opinion mining et sentiment analysis.
Méthodes et outils, Paris : Open Editions Press.
[Bruno et Didier, 2013] Bruno, I. et Didier, E., 2013, Benchmarking. L’Etat sous pression statistique,
Paris : La Découverte.
[Chamayou, 2013] Chamayou, G., 2013, Théorie du drone, Paris : La Fabrique Editions.
[Colson, 2001] Colson, D., 2001, Petit lexique philosophique de l’anarchisme. De Proudhon à Deleuze, Le
livre de Poche.
[Degenne et Forsé, 1994] Degenne, A. et Forsé, M., 1994, Les réseaux sociaux. Une approche structurale
en sociologie, Paris : Armand Colin.
L’écume numérique des territoires 131
[Deleuze et al., 1975] Deleuze, G. et Guattari, F. Kafka. Pour une littérature mineure, Paris : Editions
de Minuit, 1975.
[Desrosières, 1993] Desrosières, A., 1993, La politique des grands nombres. Histoire de la raison statistique,
Paris : La Découverte.
[Donzelot, 2003] Donzelot, J., 2003, Faire société. La politique de la ville aux Etats-Unis et en France,
Paris : Le Seuil.
[Eisenstein, 1991] Eisenstein, E. L., 1991, La révolution de l’imprimé dans l’Europe des premiers temps
modernes, Paris : La Découverte.
[Flichy, 2001] Flichy, P.,2001, L’imaginaire d’internet, Paris : La Découverte.
[Florida, 2012] Florida, R., 2012, The Rise of the Creative Class, Revisited, New York : Basic Books.
[Fouetillou, 2008] Fouetillou, G., 2008, « Le web et le traité constitutionnel européen : Ecologie
d’une localité thématique compétitive », Réseaux, 147, 229-257.
[Guillaume, 1999] Guillaume, M., 1999 L’empire des réseaux, Paris : Editions Descartes.
[Katz et Lazarsfeld, 1955] Katz, E. et Lazarsfeld, P., 1955, Personal Influence : the part played by the
people in the flow of mass communication, Glencoe : Free Press.
[Kleinberg, 2002] Kleinberg, J., 2002, « Bursty and Hierarchical Structure in Streams », in Proceedings
8th ACM SIGKDD Intl. Conf. on Knowledge Discovery and Data Mining.
[Kleinberg et al., 1998] Kleinberg, J., Gibson, D. et Raghavan, P., 1998, « Inferring Web
Communities From Link Topology », In Proceedings of the 9th ACM Conference
on Hypertext and Hypermedia (HYPER-98), 225-234.
[Latour, 2006] Latour, B. , Changer de société. Refaire de la sociologie, Paris : La Découverte, 2006.
[Le Béchec et Boullier, 2014] Le Béchec, M. et Boullier, D., « Communautés imaginées et signes
transposables sur un «web territorial» », Etudes de communication, 2014, 42, 113-125.
[Le Béchec, 2010] Le Béchec, M., 2010, Territoire et communication politique sur le « web régional breton
», Thèse de l’Université Européenne de Bretagne-Rennes 2.
[Lefebvre, 2001] Lefebvre, H., 2001, Espace et politique. T2. Le droit à la ville, Paris : Editions
Anthropos.
[Leskovec et al., 2009] Leskovec, J., Backstrom, L. et Kleinberg, J., 2009, « Meme-tracking and
the Dynamics of the News Cycle », in ACM SIGKDD International Conference on
Knowledge Discovery and Data Mining (KDD).
[Lessig, 1999] Lessig, L., 1999, Code and other laws in cyberspace, Basic Books.
[Lévy, 2002] Lévy, J., 2002, Jeux de cartes, nouvelle donne, Paris : DATAR.
[Levy, 2000] Levy, P., 2000, World philosophy : le marché, le cyberespace, la conscience, Paris : Odile Jacob.
[Lussault, 2007] Lussault, M., 2007, L’homme spatial. La construction sociale de l’espace humain, Paris :
Le Seuil.
[Marres, 2007] Marres, N., 2007 « The Issues Deserve More Credit: Pragmatist Contributions
to the Study of Public Involvement in Controversy », Social Studies of Science, 37,
759-78.
[Musso, 1998] Musso, P., 1998, Télécommunications et philosophie du réseau, Paris : PUF.
132 Traces numériques et territoires
[Musso, 2003] Musso, P., 2003, Critique des réseaux, Paris : PUF.
[Orlean,1999] Orlean, A., 1999, Le pouvoir de la finance, Paris : Edition Odile Jacob.
[Pariser, 2011] Pariser, E., 2011, The Filter Bubble: What the Internet Is Hiding from You, New York :
Penguin Press.
[Rifkin, 2000] Rifkin, J., 2000, L’âge de l’accès. La révolution de la nouvelle économie, Paris : La Découverte.
[Sloterdijk, 2000] Sloterdijk, P., 2000, Règles pour le parc humain, Paris : Mille et une nuits.
[Sloterdijk, 2002] Sloterdijk, P., 2002, Sphères I Bulles, Paris : Maren Sell éditeur.
[Sloterdijk, 2005] Sloterdijk, P., 2005, Sphères III Ecumes, Paris : Maren Sell éditeur.
[Tarde, 2001] Tarde, G., Les lois de l’imitation, Paris : Les empêcheurs de penser en rond.
[Thiesse, 1999] Thiesse, A. M., La création des identités nationales. Europe XVIIIe- XX siècle, Paris :
Le Seuil.
[Tisseron, 2002] Tisseron S., 2002, L’intimité surexposée, Paris : Hachette.
[Weber, 1995] Weber, M., 1995, Economie et société, Paris : Pocket.
[Zouabichvili, 2003] Zouabichvili, F. , 2003, Le vocabulaire de Deleuze, Paris : Ellipses.
Spatialités algorithmiques
Boris Beaude
« Un poète doit laisser des traces de son passage, non des preuves. Seules les traces
font rêver. »
René Char, La Parole en archipel, Gallimard, 1962.
En nous informant sur ce qui fut, les traces numériques nous informent aussi
sur ce qui est en puissance. La virtualité recouvre ici toute sa portée, celle du
monde en devenir, et non celle de l’artificialité ou de l’irréalité [Deleuze, 1968].
Les traces numériques nous informent sur ce qui a lieu, sur les pratiques spatiales
individuelles, sur la spatialité d’une société. Et, de plus en plus, quelle que soit
notre action spatiale, territoriale ou réticulaire, dans la rue ou sur Internet, nous
laissons des traces de notre passage.
En cela, la distinction entre espace réel et espace virtuel relève d’une aporie
préjudiciable, héritée d’une conception positionnelle et absolue de l’espace, en plus
d’être matérialiste. Elle confond ce qui situe et ce qui est situé. L’espace, depuis
Leibniz, n’est pas une chose, mais l’ordre des choses [Robinet et al., 1957 ; Lévy,
1994]. Internet, mais aussi l’ensemble des dispositifs de transmission numérique
contemporains, s’inscrivent ainsi dans une perspective historique de réagencement
continue de notre environnement, comme autant de dispositifs de canalisation
distribuée de l’énergie, permettant potentiellement l’interaction immatérielle à
l’échelle de la planète.
Selon cette perspective, qui appréhende l’espace comme n’étant rien d’autre que
l’agencement particulier du réel, la distance apparaît comme l’un des concepts
les plus fondamentaux pour appréhender les phénomènes sociaux [Lévy, 1994 ;
1999]. C’est effectivement la distance qui permet de penser le singulier, l’ordre des
choses, la relation et l’interaction. La distance, mais aussi les moyens de la réduire
ou de l’augmenter, se trouvent ainsi au cœur de l’action, qui est toujours localisée
134 Traces numériques et territoires
(absolue) et plus encore de l’interaction, qui est toujours située (relative), conçue
comme l’ensemble des relations établies entre les réalités qui la rendent effective.
La spatialité peut ainsi être saisie dans toute sa puissance, comme agrégation
d’actes élémentaires aux intentionnalités multiples. La précision et la quantité
des traces numériques constituent en effet une opportunité stimulante de saisir
l’espace comme un agencement dynamique de réalités sociales, octroyant une
visibilité inédite des pratiques spatiales selon des perspectives novatrices.
1 L’exemple de Fragile Success, projet de visualisation développé par la Regional Plan Association,
présente la région métropolitaine de New York avec une précision remarquable, agrégeant de
très nombreuses données publiques, relatives à l’emploi, les transports, la performance des écoles
publiques ou la criminalité (http://fragile-success.rpa.org). Ce projet s’inscrit dans une perspective
de valorisation innovante de données conventionnelles, soulignant la qualité et l’importance de
telles données.
Spatialités algorithmiques 135
Parmi les traces numériques exploitées, nombreuses sont celles qui ont trait
à l’espace urbain en particulier. Beaucoup ne sont que des démonstrations de
compétences, ne faisant pas l’objet de recherches approfondies, à l’exemple de
World Touristness map proposée en 2009 par Bluemoon Interactive, qui exploitait les
données de Panoramio. C’est aussi le cas de Vizualizing Facebook Friends, la célèbre
carte des 10 millions « d’amitiés » que Paul Bulter réalisa en 2010. Notons aussi
les New City Landscape Maps de Fabian Neuhaus, « tweetography » qui propose des
cartes de densité de tweets au sein de quelques villes, dont Londres, New York,
Munich et Paris.
Le design, enfin, occupe une place non négligeable de ces productions visuelles, à
l’image d’Anil Bawa-Cavia, qui utilisa les données de Foursquare pour Archipelago
(2010), ou des prolifiques et stimulantes cartes d’Eric Fischer (Local et Tourist3,
2010 ; A Day of Muni, 2011 ; See Something or Say Something, 2011), qui utilisèrent
respectivement les données de Flickr, NextBus, et une association de Flickr et de
Twitter.
2 L’opposition entre big data et small data, mais aussi entre soft data et hard data illustre très bien
ce débat. Elle questionne la valeur relative des traces numériques dans un environnement déjà
largement pourvue d’informations spatiales.
3 Ce travail remarquable portait initialement sur Flickr (https://flic.kr/s/aHsjqXbTjG), avant
d’être adapté à Twitter à l’échelle du monde dans le cadre d’une collaboration avec Mapbox (https://
www.mapbox.com/labs/twitter-gnip/locals). Le concept fut emprunté à Tracing the Visitor’s eye
(2006) de Fabien Girardin, qui portait sur la localisation distincte des photos publiées sur Flickr par
les touristes et les habitants de Barcelone (http://www.girardin.org/fabien/tracing).
136 Traces numériques et territoires
Un ensemble de recherches plus vastes porte sur des analyses détaillées des
pratiques, ne s’intéressant pas tant à la prévision des mobilités qu’à leur inégale
répartition dans l’espace. Une large impulsion fut lancée en 2006, avec quelques
projets menés par des groupes de recherche structurés autour de Carlo Ratti et
Sandy Pentland, tous deux chercheurs au MIT [Eagle et Pentland, 2006 ; O’Neill
et al., 2006 ; Ratti et al., 2006]. Ces recherches, portant respectivement sur des
étudiants du MIT, des passants de la ville de Bath et des habitants de Milan, ont
initié un renouveau de la visualisation des mobilités urbaines.
Avec les années, les traces exploitées lors de telles recherches se sont émancipées de
la contrainte relative à l’utilisation de dispositifs dédiés, dont les limites et les biais
furent nombreux. Aussi, il apparaît que les chercheurs ayant publié sur le sujet ont
quasi systématiquement exploité le même type de traces. Jusqu’à 2011, avant que les
recherches ne se multiplient, les six sources les plus importantes furent les suivantes :
1. les données relatives aux téléphones cellulaires, de loin les plus nombreuses
[Reades et al., 2007 ; Shoval et Isaacson, 2007 ; Girardin et al., 2008 ; Girardin,
2009 ; Bayir et al., 2009 ; Eagle et Pentland, 2009 ; Reades et al., 2009 ; Vaccari
et al., 2009 ; Calabrese et al., 2010 ; Ahas et al., 2010 ; Olteanu et al., 2011].
3. les données GPS (dispositifs embarqués, taxis, bus) [Ratti et al., 2006 ;
Froehlich et al., 2006 ; Shoval et Isaacson, 2007 ; Vaccari et al., 2009 ;
Neuhaus, 2010].
5. les données fournies par les opérateurs de vélos en libre service [Froehlich
et al., 2008 ; Borgnat et al., 2009] et Revealing Paris Through Velib’ Data, projet
expérimental de Fabien Giradin présenté en 2008.
Dans l’ensemble, ces recherches présentent des travaux très innovants qui
contribuèrent significativement à une meilleure lisibilité de l’environnement urbain
et plus précisément de son inégale pratique par les individus. Elles proposent
des représentations originales et souvent inédites de l’espace urbain, le révélant
au travers de pratiques singulières (déplacements, prise de photos, partage ou
historique de lieux fréquentés…).
Ces dernières années, d’autres démarches peuvent être soulignées, tant elles
renouvellent les modalités pratiques de la connaissance et de la représentation de
l’espace. Dans le prolongement de la notion de Cellular Census proposée dès 2007 par
Jonathan Reades, Francesco Calabrese, Andres Sevtsuk et Carlo Ratti [Reades et al.,
2007], certaines initiatives proposent ouvertement de se substituer aux recensements,
jugés trop longs, peu représentatifs et trop coûteux, en exploitant systématiquement
et massivement les données relatives à la localisation des téléphones cellulaires
[Deville et al., 2014].
A une échelle plus fine, des chercheurs se sont appuyés sur les réseaux socio-
spatiaux tels que Foursquare pour identifier des quartiers intra-urbains [Cranshaw
et al., 2012], et ont proposé d’éprouver le concept au sein de quelques villes nord-
américaines dans le cadre du projet Livehood. Plus récemment, des recherches ont
été menées à partir de bornes Bluetooth afin d’analyser précisément les parcours
de touristes dans le Musée du Louvre [Yoshimura et al., 2014].
Du fait de leur technicité avancée, ces recherches sont quasi exclusivement menées
hors des sciences sociales, ce qui limite grandement les moyens d’en qualifier les
données et plus généralement la pertinence, dès lors qu’elles rendent compte de
pratiques éminemment sociales. Or, ces recherches sont limitées par les nombreux
biais inhérents aux méthodes utilisées, ainsi que par l’inégale fiabilité des données
primaires.
Ces projets furent souvent réalisés dans le cadre d’événements, biennales, fêtes
de la musique, et n’ont pas été développées au-delà, accentuant la tendance de ces
initiatives à proposer un instantané de la ville qui en montre l’exceptionnel plutôt
que l’usuel (Amsterdam RealTime, Real Time Rome, UrbanMobs).
Des recherches s’inscrivant plus ouvertement dans les sciences sociales tendent
néanmoins à émerger, mais avec beaucoup de retard, et un accès aux données
souvent plus difficile. Des recherches innovantes sont parfois menées, à l’exemple
du projet Imagitour, qui exploite les données de Flickr, Panoramio, Facebook et
Tripadvisor, associant informatique et ethnologie, afin de mieux comprendre les
pratiques touristiques françaises, leurs spatialités et leurs temporalités. De telles
recherches restent néanmoins relativement rares.
Cette prolifération des traces numériques se traduit aussi par des partenariats de plus
en plus nombreux entre des villes et des entreprises telles que Waze5 et Uber6, à l’image
des nombreuses initiatives de Boston. Enfin, les capteurs d’activités constituent
de plus en plus de traces des mobilités piétonnes, autorisant des visualisations
particulièrement fines7. Depuis peu, l’exploitation des traces numériques est
aussi envisagée pour hiérarchiser l’importance des voies de circulation, identifier
automatiquement leurs sens, mais aussi leurs limitations de vitesse8.
5 Dès 2013, Google a racheté Waze 1,13 milliards de dollars et a investi dans Uber par l’intermédiaire
du fond de placement Google Venture.
6 Uber communique explicitement sur ce point (http://blog.uber.com/city-data).
7 Les nombreuses cartes proposées par Human Data témoignent parfaitement de ce potentiel
(http://cities.human.co).
8 Pour plus de détail, se référer à la collaboration entre OpenStreetMap et Mapbox (https://www.
mapbox.com/blog/mining-probe-data).
140 Traces numériques et territoires
Cette perspective peut néanmoins être inversée, dès lors qu’Internet décentralise
autant qu’il centralise les points de vue sur le Monde. Internet, au moins
virtuellement, permet à chacun de voir le Monde avec une rare intensité.
La surveillance n’est effectivement plus exclusivement surplombante, mais
potentiellement en tout individu, telle une sousveillance, distribuant horizontalement
la veillance, déployant une appréciation collective et généralisée de ce qui convient.
Ainsi, tel un panoptique inversé, nous assistons à l’émergence d’un catoptique
[Ganascia, 2009], un dispositif de médiation qui redistribue si puissamment les
observations, qu’il place chacun en position de voir chaque autre. Les plates-
formes telles que Yelp ou Tripadvisor, bien que limitées à des pratiques tout à fait
circonscrites, ont effectivement radicalement renouvelé les modalités pratiques de
la qualification de l’espace, redistribuant l’acte d’évaluation, de représentation et de
consultation. Le catoptique10 résume cette visibilité redoutable de chaque instant, de
chaque acte qui, surpris par quiconque, peut être instantanément exposé au Monde.
Aussi complexes que puissent être de tels dispositifs de visualisation des pratiques
individuelles et collectives, il convient de souligner à quel point leur puissance et
leur intensité n’a d’égal que leurs lacunes. De même que l’omniprésence des caméras
de surveillance initiée au Royaume-Uni pouvait donner l’illusion d’une complétude
[Thrift et French, 2002 ; Dodge et Kitchin, 2005 ; Graham, 2005 ; Klauser, 2010],
leurs images ne sont pourtant qu’une multitude de cadres, bornés et limités par leur
champ. Toujours, ces visions sont partielles, comme autant d’oligoptiques [Latour
et Hermant, 1998], comme autant « d’étroites fenêtres qui permettent de se relier,
9 Eric Schmidt, alors dirigeant de Google, résuma parfaitement cette logique lorsqu’il suggéra en
2009 à une journaliste de CNBC que si nous avons un fait à cacher, peut-être que nous n’aurions
tout simplement pas dû le réaliser.
10 Ce terme est emprunté à la catoptrique, discipline qui étudie la réflexion de la lumière.
Spatialités algorithmiques 141
par un certain nombre de conduits étroits, à quelques aspects seulement des êtres
(humains et non humains) dont l’ensemble compose la ville » [Latour, 2007].
Les traces numériques constituent sans aucun doute un potentiel inédit pour
les sciences qui s’intéressent à la dimension spatiale du social. Elles permettent
d’accéder à une connaissance des pratiques spatiales, plus individualisée, plus
continue et plus intense. Ainsi, la prolifération des traces numériques et la
généralisation de leur traitement automatique répondent plus précisément aux
motivations de l’empirisme, du pragmatisme, de l’utilitarisme et du positivisme.
HÉRITAGES
Ce paradigme s’inscrit dans un tout autre héritage, qui trouve ses fondements dans
le saint-simonisme, qui valorisait déjà la puissance des réseaux [Musso, 1997], le
positivisme d’Auguste Comte et son aspiration à l’émergence d’une physique sociale
[Comte, 1995], la monadologie de Gabriel Tarde et son « épidémiologie » des idées
[Tarde, 2001], la cybernétique de Norbert Wiener, plus particulièrement l’enjeu
de sa transposition à la société comme modalité idéale de gouvernance [Wiener,
1950], et le « village global » de McLuhan, en particulier l’hypothèse de la régulation
des pratiques avec l’avènement d’un réseau mondial de capteurs [McLuhan, 1969].
Pourtant, dans le dernier ouvrage d’Alex Pentland, Social Physics, mais aussi dans la
majeure partie des travaux portant sur le potentiel des big data [Mayer-Schonberger et
Cukier, 2013], les références à cet héritage sont inexistantes. Pierre Bourdieu, Antony
Giddens, Michel Foucault ou Jacques Derrida, penseurs du social parmi les plus
reconnus au XXe siècle, sont aussi absents de tels édifices théoriques. Alex Pentland
semble construire son projet scientifique en réaction à Adam Smith et à Karl Marx,
auquel il se réfère abondamment, réduisant les sciences sociales à la faiblesse des
11 Afin de ne pas créer de confusion entre la physique sociale de la fin du XIXe et celle du début
du XXIe siècle, l’expression anglophone sera maintenue pour la proposition d’Alex Pentland. « Social
physics is a quantitative social science that describes reliable, mathematical connections between
information and idea flow on the one hand and people’s behavior on the other hand ». « Social
physics helps us understand how ideas flow from person to person through the mechanism of social
learning and how this flow of ideas ends up shaping the norms, productivity, and creative outputs
of our companies, cities, and societies » [Pentland, 2014 : 4].
Spatialités algorithmiques 143
La rupture suggérée suppose que la quantité tend vers l’exhaustivité, et que l’accès
à de telles données renouvelle profondément les sciences sociales [Lazer et al.,
2009 ; Song et al., 2010 ; Pentland, 2014], permettant de « matérialiser » le social, de
l’observer enfin [Venturini et Latour, 2010]. L’exhaustivité constituerait en quelque
sorte une étape ultime, qui remettrait en cause deux principes fondamentaux de
la science : la représentativité et la reproductibilité (n=all=) [Mayer-Schonberger
et Cukier, 2013].
Ce qui est communément appelé big data constitue en cela une opportunité pour
les sciences sociales qui encourage à repenser les conditions empiriques de la
recherche [Kitchin, 2013 ; Ruppert, 2013 ; Graham et Shelton, 2013 ; Romele et
Severo, 2014]. Cette approche permettrait de désagréger le social en évitant les
catégories réductrices telles que les classes, tout en reliant les individus à l’ensemble
des réalités qui les constituent [Pentland, 2014 ; Latour et al., 2012].
PRÉCAUTIONS
12 Alex Pentland arrive à la même conclusion après avoir étudié la localisation des transactions de
cartes de crédit de la moitié de la population active des Etats-Unis [Pentland, 2014 : 160].
144 Traces numériques et territoires
Force est de constater que malgré leurs limites, ce type de recherches abonde
dans les revues scientifiques les plus prestigieuses (Nature et Science en particulier).
Le plus surprenant est certainement que l’échec de Google Flu Trends était
pourtant largement prévisible. Les causes énoncées pour expliquer les erreurs
récurrentes de ce projet, qui ne s’appuie que sur des corrélations, ont d’ailleurs
été décriées par des chercheurs en sciences sociales avant même que les écarts
ne deviennent manifestes et injustifiables. Ces dernières années, de nombreux
chercheurs ont effectivement dénoncé la mythologie sous-jacente à de telles
approches, n’hésitant pas à rappeler les fondements de la démarche scientifique,
et des journalistes s’autorisent légitimement à rappeler quelques principes
élémentaires de la statistique [Harford, 2014]. La critique la plus aboutie de cette
dérive est probablement celle de danah boyd et Kate Crawford [2011 ; 2012].
Sans exception, les précautions qu’elles suggèrent s’appliquent parfaitement au cas
plus particulier des traces numériques territoriales. De l’évolution de la pratique
scientifique aux problématiques de vie privée ou d’accessibilité des données, en
passant par les illusions de représentativité ou d’objectivité, danah boyd et Kate
Crawford inscrivent les big data dans une filiation dont les exigences ne sauraient
être si aisément remises en cause.
13 Le modèle ne fut pas efficace dès 2009 et, malgré ses ajustements, il ne se révèle pas plus
performant que de simples modèles s’appuyant sur une projection des données du CDC (Centers
for Desease Control and Prevention) [Lazer, 2014]. Lors de la saison 2011/2012, l’erreur était de
plus de 50 %. Lors de la saison 2012/2013, l’erreur fut supérieure à 100 %.
14 Bien que GFT ne soit généralement pas perçu comme territorial, il s’agit bien de traces
numériques territoriales. GFT crée des analogies entre les recherches et leurs localisations, sans
lesquelles l’épidémiologie ne serait pas envisageable.
15 Nous pouvons déjà émettre l’hypothèse selon laquelle GFT progressera avec l’introduction
d’hypothèses et d’a priori plus explicites.
Spatialités algorithmiques 145
Ce constat explique probablement pourquoi nous retrouvons avec les big data
des engouements très semblables à ceux qui se manifestèrent avec l’émergence
de la statistique, de l’informatique et des systèmes d’information géographique.
A chacun de ces moments, l’amélioration des modalités pratiques de l’expérience
empirique du monde se traduisit par l’illusion d’une lisibilité ultime, dont la société
serait changée, mais aussi considérablement améliorée.
CONJONCTIONS DE CORRÉLATIONS
L’objectivité supposée des traces numériques doit ainsi être questionnée, tant la
confusion entre la quantification et l’objectivation est étonnamment récurrente.
L’activité des chercheurs exige une réflexivité à l’égard de la quantification qui
se traduit par une interprétation et non par une simple « lecture » de faits qui
parleraient d’eux-mêmes. Cette critique du sens commun16 souligne que le
vraisemblable n’est pas plus vrai que l’invraisemblable.
16 Le physicien Duncan Watts, devenu sociologue, souligne bien cet enjeu particulier du sens
commun en sciences sociales, et la difficulté de s’y soustraire [Watts, 2011].
146 Traces numériques et territoires
selon lequel les corrélations ne permettent pas d’établir des relations effectives
entre des phénomènes, il importe de considérer que plus le nombre de variables
est important, plus les corrélations fallacieuses sont nombreuses [Ioannidis, 2005].
REPRÉSENTATIVITÉS REPRÉSENTATIVES
Les biais inhérents à la constitution des traces numériques sont effectivement tout
à fait remarquables. L’exemple de Twitter est incontestablement le plus édifiant.
Il constitue en effet l’une des sources les plus utilisées, bien qu’il ne soit que très
marginalement utilisé par la population. Les données relatives à la géolocalisation
des téléphones cellulaires sont certes plus représentatives statistiquement, mais elles
n’en demeurent pas moins d’une grande pauvreté sémantique.
Les analyses exploitant de telles sources n’auraient de sens que si elles étaient
circonscrites aux réalités considérées, ce qui est rarement le cas17. Une approche
plus rigoureuse exigerait d’exclure toutes problématiques que ces traces ne
représenteraient que partiellement, ce qui en réduirait considérablement l’intérêt
et la portée, au-delà d’une meilleure connaissance de la mobilité des personnes
considérées.
18 La recherche ne fait d’ailleurs pas exception à cela. Alors qu’elle est de plus en plus réduite à ses
traces, les citations, les chercheurs devraient être particulièrement sensibles à la réduction dont de
telles approches sont porteuses.
148 Traces numériques et territoires
Les big data et la social physics supposent en effet une assignation violente à la
transparence, parfaitement incarnée par Google et Facebook, qui exigent l’accès
au plus grand nombre de traces possible, sans lesquelles l’individualisation
contextuelle ne serait pas possible. Or, le traitement automatisé de l’ensemble des
données publiques d’un individu n’est pas nécessairement justifiable lorsqu’elles
ont été élaborées dans un contexte de visibilité spécifique, soulignant la différence
fondamentale entre être en public et être public [boyd et Marwick, 2011].
Cette stratégie inéluctable de contrôle engagé par les individus se traduit par
une mise en scène croissante des traces numériques, qui limite plus encore les
présupposés de représentativité, tout en soulignant la consubstantialité des
données et de leur contexte de production.
La proposition d’un New Deal on Data [Pentland, 2014 : 177-188] qui permettrait
un contrôle beaucoup plus fin des données personnelles n’est en cela pas tout
à fait satisfaisante. Elle répond à la demande légitime des individus de choisir
plus précisément ce qu’ils souhaitent partager, mais elle accroît conjointement la
disjonction entre ce qui est montré et ce qui ne l’est pas, mais aussi entre ceux qui
montrent et ceux qui ne montrent pas.
Spatialités algorithmiques 149
LE POUVOIR DE L’OPACITÉ
De surcroît, cette opacité concerne non seulement les données, mais aussi les
algorithmes utilisés pour les exploiter, déployant subrepticement une double
opacité particulièrement préjudiciable à l’exercice de la science. Cette double
opacité est d’autant plus regrettable qu’elle se transpose avec la même intensité
à la politique, lorsque les traces numériques sont exploitées pour informer des
stratégies relatives à l’organisation des transports, de la lutte contre la criminalité
et plus généralement des villes dans leur ensemble.
Avec Derrida, danah boyd et Kate Crawford nous rappellent que la démocratisation
tient essentiellement en un principe : la participation et l’accès aux archives, à leur
150 Traces numériques et territoires
L’EFFACEMENT DU SUJET
2014 : 97-98, 190, 209] permettrait de mieux comprendre le monde social, au-delà
de sa seule dimension biophysique ?
L’approche des big data promue par Chris Anderson, Victor Mayer-Schonberger ou
Alex Pentland semble non seulement confondre le mouvement et le changement,
mais aussi le potentiel de la description partielle de l’ordre existant avec l’actualisation
de l’ordre à venir. En s’appuyant sur des corrélations, aussi nombreuses soient-
elles, de telles approches permettent de renouveler puissamment la lisibilité du
présent, mais elles n’en demeurent pas moins insuffisantes pour déduire de cet
ordre celui qui vient. Cette projection n’a de sens que dans un monde stable,
dépourvu de réflexivité et expurgé de tout changement [Harford, 2014 ; Carr,
2014]. Il s’agit d’un monde sans réelle innovation. C’est pourquoi la référence
de Bruno Latour à Gabriel Tarde pour justifier son engouement pour les traces
numériques est surprenante. Car en 1890, aux prémices de la sociologie, Gabriel
Tarde soulignait déjà les limites de la statistique dans Les lois de l’imitation :
152 Traces numériques et territoires
« À mesure que la statistique porte sur de plus grands nombres, on est quelquefois
enclin à penser que, bien plus tard, si la marée montante de la population continue à
accroître et les grands Etats à grandir, un moment viendra où tout, dans les phénomènes
sociaux, sera réductible en formules mathématiques. D’où l’on induit abusivement que
le statisticien pourra un jour prédire l’état social futur aussi sûrement que l’astronome
la prochaine éclipse de Vénus. En sorte que la statistique serait destinée à plonger
toujours plus avant dans l’avenir comme l’archéologie dans le passé. Mais nous savons
par tout ce qui précède que la statistique est circonscrite dans le champ de l’imitation
et que celui de l’invention lui est interdit » [Tarde, 2001 : 196].
Cette opposition entre l’imitation et l’invention est au cœur de la pensée de Gabriel
Tarde, qui considère que l’une et l’autre constituent les actes sociaux élémentaires,
dont la dynamique serait animée par la croyance et le désir [Tarde, 2001 : 203]. Gabriel
Tarde émet alors l’hypothèse selon laquelle les « similitudes sociales » s’expliquent
par l’importance de l’imitation, conçue comme « force sociale » dominante.
Ainsi, l’échec de Google Flu Trends, qui repose précisément sur cette incapacité à
vraiment saisir le changement dans le mouvement, est sensiblement le même que
celui des marchés financiers, dont les analyses s’appuyant sur le passé fonctionnent
tant qu’il n’y a pas de changement. Leur conformité au passé laisse supposer leur
conformité à venir, dans l’illusion la plus totale, aussi entretenue et dévastatrice
soit-elle. C’est pourquoi la réflexivité et plus précisément la capacité des individus
à transformer significativement leur comportement ne doivent pas être négligées.
Sans cette précaution, l’usage systématique des traces numériques se résumera
à la description d’invariants relativement banals, mais aussi à maintenir l’ordre
social existant [Carr, 2014], en négligeant la composante la plus essentielle de
l’humanité : l’invention. Comme le soulignait déjà Gabriel Tarde, l’imitation est
certes la force sociale dominante, mais l’innovation, à la force des désirs, est celle
qui motive le changement.
19 Alex Pentland justifie la régularité des logiques d’engagement en les associant à la pensée rapide,
telle que proposée par Daniel Kahneman [Kahneman, 2012]. La pensée rapide, constituée par les
habitudes, procéderait par associations automatiques et inconscientes. Elle s’opposerait à la pensée
lente qui procéderait quant à elle par raisonnements conscients, qui permettraient l’innovation
[Pentland, 2014 : 235].
Spatialités algorithmiques 153
L’AVENIR À INVENTER
Les logiques de marché elles-mêmes répondent bien à cela, alors qu’Apple est
devenu la plus importante capitalisation mondiale en réfutant la pertinence des
études de marché, qui projettent l’avenir à partir du présent, sans projet véritable20.
Steve Jobs aimait rappeler la célèbre phrase d’Henri Ford : « Si j’avais demandé
à mes clients ce qu’ils voulaient, ils auraient répondu “un cheval plus rapide”, et
pas une voiture ». C’est bien là la limite des algorithmes qui reposent sur les traces
20 Cela ne signifie aucunement qu’Apple ne sorte pas de produits qui ne rencontrent pas de marché,
mais que ses échecs ne sont pas significativement plus importants que chez d’autres constructeurs
qui organisent leur avenir autour d’une idée présente du futur.
154 Traces numériques et territoires
numériques : être incapable de prévoir l’avenir que nous leur confions, car dans le
meilleur des cas, ils ne connaissent que notre passé recomposé ! Le futur est plein
de propositions inattendues, qui répondent à une demande qui n’existe pas encore.
Une telle démarche a comme préalable de rappeler que ces traces n’ont pas vocation
à dicter notre conduite. Elles ne dispensent certainement pas d’interprétations,
d’analyses, et moins encore de projets ! Encore faut-il le rappeler, les spatialités
algorithmiques à venir sont largement à inventer et non à attendre !
RÉFÉRENCES BIBLIOGRAPHIQUES
[Ahas et al., 2010] Ahas, R., Aasa, A., Silm, S. et Tiru, M., 2010, « Daily rhythms of suburban
commuters’ movements in the Tallinn metropolitan area: Case study with mobile
positioning data », Transportation Research Part C: Emerging Technologies, 18(1), 45-54.
[Anderson, 2008] Anderson, C., 2008, « The end of theory », Wired magazine, 16(7), 16-17.
[Barnes, 2013] Barnes, T. J., 2013, « Big data, little history », Dialogues in Human Geography, 3(3),
297-302.
[Batty, 2013] Batty, M., 2013, « Big data, smart cities and city planning », Dialogues in Human
Geography, 3(3), 274-279.
[Bayir et al., 2009] Bayir, M.A., Demirbas, M. et Eagle, N., 2009, « Discovering spatiotemporal
mobility profiles of cellphone users », World of Wireless, Mobile and Multimedia
Networks & Workshops, IEEE, 1-9.
[Beaude, 2009] Beaude, B., 2009, « Crime Mapping, ou le réductionnisme bien intentionné »,
EspacesTemps.net, Objets, 04/05/2009, http://www.espacestemps.net/articles/
crime-mapping-ou-le-reductionnisme-bien-intentionne.
[Beaude, 2010] Beaude, B., 2010, « Espace de la carte, espace de la ville. Des analogies à la
coexistence », In Zreik, K. (éd.), Nouvelles cartographies, nouvelles villes. HyperUrbain2,
Paris : Europia Productions, 15-39.
[Beaude, 2012] Beaude, B., 2012, Internet. Changer l’espace, changer la société, Limoges : FYP.
[Beaude, 2013] Beaude, B., 2013, « Synchorisation », In Lussault, M. et Lévy, J. (éd.), Dictionnaire
de la géographie et de l’espace des sociétés, Paris : Belin, 972.
Spatialités algorithmiques 155
[Beaude, 2014] Beaude, B., 2014, Les fins d’Internet, Limoges : FYP.
[Beecham et Wood, 2013] Beecham, R. et Wood, J., 2013, « Exploring gendered cycling behaviours
within a large-scale behavioural data-set », Transportation Planning and Technology,
37(1), 83-97.
[Benkler, 2006] Benkler, Y., 2006, The Wealth of Networks: How Social Production Transforms
Markets And Freedom, London : Yale University Press.
[Blondel et al., 2010] Blondel, V., Krings, G. et Thomas, I., 2010, « Regions and bordersof mobile
telephony in Belgiumand in the Brussels metropolitan zone ». Brussels Studies,
42(4), 1-12.
[Blumberg et Eckersley, 2009] Blumberg, A. J. et Eckersley, P., 2009, 3 août, On Locational Privacy,
and How to Avoid Losing it Forever, https://www.eff.org/fr/wp/locational-privacy.
[Borgnat et al., 2009] Borgnat, P., Fleury, E., Robardet, C. et Scherrer, A., 2009, « Spatial analysis
of dynamic movements of Vélo’v, Lyon’s shared bicycle program », European
Conference on Complex Systems 2009, Warwick, United Kingdom.
[boyd et Crawford, 2012] boyd, d. et Crawford, K., 2012, « Critical questions for big data »,
Information, Communication & Society, 15(5), 662-679.
[boyd et Crawford, 2011] boyd, d. et Crawford, K., 2011, « Six Provocations for Big data », SSRN,
http://ssrn.com/abstract=1926431.
[boyd et Marwick, 2011] boyd, d. et Marwick, A. E., 2011, « Social Privacy in Networked
Publics: Teens’ Attitudes, Practices, and Strategies », SSRN http://ssrn.com/
abstract=1925128.
[Butler, 2013] Butler, D., 2013, « When Google got flu wrong », Nature, 494(7436), 155.
[Calabrese et al., 2010] Calabrese, F., Pereira, F. C., Di Lorenzo, G., Liu, L. et Ratti, C., 2010, « The
geography of taste: analyzing cell-phone mobility and social events », In Floréen,
P., Krüger, A. et Spasojevic, M. (éd.), Pervasive Computing: 8th International Conference,
Springer : Berlin-Heidelberg, pp 22-37.
[Callon, 1986] Callon, M., 1986, « Eléments pour une sociologie de la traduction », L’Année
sociologique, 36, 169-208.
[Cardon, 2013] Cardon, D., 2013, « Dans l’esprit du PageRank », Réseaux, 177(1), 63-33.
[Carmes et Noyer, 2014] Carmes, M. et Noyer, J.-M., 2014, « L’irrésistible montée de
l’algorithmique », Les Cahiers du numérique, 10(4), 63-102.
[Carr, 2014] Carr, N., 2014, « The Limits of Social Engineering », MIT Technology Review, http://
www.technologyreview.com/review/526561/the-limits-of-social-engineering.
[Casilli, 2013] Casilli, A. A., 2013, 30 juillet, « Contre l’hypothèse de la “fin de la vie privée”. La
négociation de la privacy dans les médias sociaux », Revue française des sciences de
l’information et de la communication, 3, http://rfsic.revues.org/630.
[Castells, 2001] Castells, M., 2001, The Internet galaxy: reflections on the Internet, business, and society,
Oxford : Oxford University Press.
[Comte, 1995] Comte, A., 1995 (1842), Discours sur l’esprit positif, Paris : Librairie philosophique
J. Vrin.
[Cortright, 2009] Cortright, J., 2009, « Walking the Walk: How Walkability Raises Home Values
in U.S. Cities », CEOs for Cities.
156 Traces numériques et territoires
[Cousin et al., 2014] Cousin, S., Chareyron, G., Da-Rugna, J. et Jacquot, S., 2014, 29 août,
« Étudier TripAdvisor. Ou comment Trip-patouiller les cartes de nos vacances »,
EspacesTemps.net, http://www.espacestemps.net/articles/etudier-tripadvisor-ou-
comment-trip-patouiller-les-cartes-de-nos-vacances.
[Crandall et al., 2009] Crandall, D. J., Backstrom, L., Huttenlocher, D. et Kleinberg, J., 2009,
« Mapping the world’s photos ». WWW’09: Proceedings of the 18th international
conference on World wide web, 761-770.
[Cranshaw et al., 2012] Cranshaw, J., Schwartz, R., Hong, J. I. et Sadeh, N. M., 2012, « The
Livehoods Project: Utilizing Social Media to Understand the Dynamics of a
City », ICWSM.
[de Montjoye et al., 2015] de Montjoye, Y. A., Radaelli, L., Singh, V. K. et Pentland, A. S., 2015,
« Unique in the shopping mall: On the reidentifiability of credit card metadata »,
Science, 347(6221), 536-539.
[de Montjoye et al., 2013] de Montjoye, Y. A., Hidalgo, C. A., Verleysen, M. et Blondel, V. D.,
2013, « Unique in the Crowd: The privacy bounds of human mobility », Scientific
Reports, 3.
[Deleuze, 1968] Deleuze, G., 1968, Différence et répétition, Paris : Presses universitaires de France.
[Deleuze, 1990] Deleuze, G., 1990, Pourparlers, Paris : Editions de Minuit.
[Desrosières, 2008] Desrosières, A., 2008, Gouverner par les nombres, Paris : Presses des mines.
[Deville et al., 2014] Deville, P., Linard, C., Martin, S., Gilbert, M., Stevens, F. R., Gaughan, A. E.
et Tatem, A. J., 2014, « Dynamic population mapping using mobile phone data »,
Proceedings of the National Academy of Sciences, 111(45), 15888-15893.
[Dodge et Kitchin, 2005] Dodge, M. et Kitchin, R., 2005, « Code and the Transduction of Space »,
Annals of the Association of American Geographers, 95(1), 162-180.
[Eagle et Pentland, 2006] Eagle, N. et Pentland, A.S., 2006, « Reality mining: sensing complex
social systems », Personal and Ubiquitous Computing, 10(4), 255-268.
[Eagle et Pentland, 2009] Eagle, N. et Pentland, A.S., 2009, « Eigenbehaviors: identifying structure
in routine », Behavioral Ecology and Sociobiology, 63(7), 1057-1066.
[Foucault, 1975] Foucault, M., 1975, Surveiller et punir, Paris : Gallimard.
[Froehlich et al., 2006] Froehlich, J., Chen, M. Y., Smith, I. E. et Potter, F., 2006, « Voting with Your
Feet: An Investigative Study of the Relationship Between Place Visit Behavior
and Preference », Lecture Notes in Computer Science, UbiComp’06, 4206, 333-
350.
[Froehlich et al., 2008] Froehlich, J., Neumann, J. et Oliver, N., 2008, « Measuring the Pulse of the
City through Shared Bicycle Programs », Proceedings of UrbanSense08 - International
Workshop on Urban, Community, and Social Applications of Networked Sensing Systems,
Raleigh, North Carolina, USA, 16-20.
[Ganascia, 2009] Ganascia, J.-G., 2009, Voir et pouvoir : qui nous surveille ?, Paris : Le Pommier.
[Ginsberg et al., 2009] Ginsberg, J., Mohebbi, Matthew H., Patel, R. S., Brammer, L., Smolinski,
M. S. et Brilliant, L., 2009, « Detecting influenza epidemics using search engine
query data », Nature, 457(7232), 1012-4.
Spatialités algorithmiques 157
[Girardin, 2009] Girardin, F., 2009, « Aspects of implicit and explicit human interactions with
ubiquitous geographic information », Phd Thesis, Barcelona : Universitat Pompeu
Fabra, Departament de Tecnologies de la Informació i les Comunicacions.
[Girardin et al., 2008] Girardin, F., Calabrese, F., Fiore, F. D., Ratti, C. et Blat, J., 2008, « Digital
Footprinting: Uncovering Tourists with User-Generated Content », IEEE
Pervasive Computing, 7(4), 36-43.
[Goffman, 1973] Goffman, E., 1973, La mise en scène de la vie quotidienne, Paris : Editions de Minuit.
[Gonzalez-Bailon, 2013] Gonzalez-Bailon, S., 2013, « Big data and the fabric of human
geography », Dialogues in Human Geography, 3(3), 292-296.
[González et al., 2008] González, M. C., Hidalgo, C. A. et Barabási, A.-L., 2008, « Understanding
individual human mobility patterns », Nature, 453(7196), 779-782.
[Gordon et de Souza e Silva, 2011] Gordon, E. et de Souza e Silva, A., 2011, Net Locality,
Hoboken, NJ : John Wiley and Sons.
[Gorman, 2013] Gorman, S. P., 2013, « The danger of a big data episteme and the need to evolve
geographic information systems », Dialogues in Human Geography, 3(3), 285-291.
[Graham et Shelton, 2013] Graham, M. et Shelton, T., 2013, « Geography and the future of big
data, big data and the future of geography », Dialogues in Human Geography, 3(3),
255-261.
[Graham, 2005] Graham, S., 2005, « Software-sorted geographies », Progress in Human Geography,
29(5), 562-580.
[Harford, 2014] Harford, T., 2014, « Big data: are we making a big mistake? », Financial Times,
28/03/2014, http://www.ft.com/cms/s/2/21a6e7d8-b479-11e3-a09a-
00144feabdc0.html.
[Hollenstein et Purves, 2011] Hollenstein, L. et Purves, R., 2011, « Exploring place through user-
generated content: Using Flickr tags to describe city cores », Journal of Spatial
Information Science, 0(1), 21-48.
[Ioannidis, 2005] Ioannidis, J. P. A, 2005, « Why Most Published Research Findings Are False »,
PLoS Medicine, 2(8), e124.
[Kahneman, 2012] Kahneman, D., 2012, Thinking, Fast and Slow, New York : Penguin.
[Kitchin, 2013] Kitchin, R., 2013, « Big data and human geography: Opportunities, challenges
and risks », Dialogues in Human Geography, 3(3), 262-267.
[Kitchin et Dodge, 2011] Kitchin, R. et Dodge, M., 2011, Code/Space: Software and Everyday Life,
Cambridge, MA : MIT Press.
[Klauser, 2010] Klauser, F., 2010, « Splintering spheres of security: Peter Sloterdijk and the
contemporary fortress city », Environment and Planning D: Society and Space, 28(2),
326-340.
[Krings et al., 2009] Krings, G., Calabrese, F., Ratti, C. et Blondel, V. D., 2009, « Urban gravity:
a model for inter-city telecommunication flows », Journal of Statistical Mechanics:
Theory and Experiment, 2009, 07.
[Lambiotte et al., 2008] Lambiotte, R., Blondel, V. D., de Kerchove, C., Huens, E., Prieur, C.,
Smoreda, Z. et Van Dooren, P., 2008, « Geographical dispersal of mobile
158 Traces numériques et territoires
[Musso, 1997] Musso, P., 1997, Télécommunications et philosophie des réseaux : la postérité
paradoxale de Saint-Simon. La politique éclatée, Paris : Presses universitaires de
France.
[Neuhaus, 2010] Neuhaus, F., 2010, « UrbanDiary - A Tracking Project Capturing the beat and
rhythm of the city: Using GPS devices to visualise individual and collective
routines within Central London », The Journal of Space Syntax, 1(2), 315-336.
[Nova, 2009] Nova, N., 2009, Les médias géolocalisés : comprendre les nouveaux espaces
numériques, Limoges : FYP.
[Olteanu et al., 2011] Olteanu, A.-M., Couronné, T. et Fen-Chong, J., 2011, « Modélisation des
trajectoires spatio-temporelles issues des traces numériques de téléphones
mobiles », SAGEO’11 - International Conference on Spatial Analysis and GEOmatics,
Paris.
[O’Neill et al., 2006] O’Neill, E., Kostakos, V., Kindberg, T., Penn, A., Fraser, D. S. et Jones,
T., 2006, « Instrumenting the City: Developing Methods for Observing and
Understanding the Digital Cityscape », In Dourish, P. et Friday, A. (éd.), Ubicomp
2006, LNCS, 4206, 315-332.
[Pasquale, 2015] Pasquale, F., 2015, The Black Box Society: The Secret Algorithms That Control Money
and Information, Cambridge, MA : Harvard University Press.
[Pentland, 2014] Pentland, A.S., 2014, Social Physics: How Good Ideas Spread. The Lessons
from a New Science, New York : Penguin.
[Phithakkitnukoon et Olivier, 2011] Phithakkitnukoon, S. et Olivier, P., 2011, « Sensing Urban
Social Geography Using Online Social Networking Data », The Social Mobile Web.
[Plantin et Monnoyer-Smith, 2014] Plantin, J.-C. et Monnoyer-Smith, L., 2014, « Ouvrir la boîte
à outils de la recherche numérique. Trois cas de redistribution de méthodes »,
tic&société, 7(2), http://ticetsociete.revues.org/1527.
[Purves et al., 2011] Purves, R. S., Edwardes, A. J. et Wood, J., 2011, « Describing place through
user generated content », First Monday, 16(9).
[Rattenbury et al., 2007] Rattenbury, T., Good, N. et Naaman, M., 2007, « Towards automatic
extraction of event and place semantics from flickr tags », Proceedings of the 30th
annual international ACM SIGIR conference on Research and development in information
retrieval, 103-110.
[Ratti et al., 2006] Ratti, C., Williams, S., Frenchman, D. et Pulselli, R. M., 2006, « Mobile
Landscapes: using location data from cell phones for urban analysis », Environment
and Planning B: Planning and Design, 33(5), 727-748.
[Ratti et al., 2010] Ratti, C., Sobolevsky, S., Calabrese, F., Andris, C., Reades, J., Martino, M. et
Strogatz, S. H., 2010, « Redrawing the Map of Great Britain from a Network of
Human Interactions », In Sporns, O. (éd.), PLoS ONE, 5(12), e14248.
[Reades et al., 2007] Reades, J., Calabrese, F., Sevtsuk, A. et Ratti, C., 2007, « Cellular Census:
Explorations in Urban Data Collection », IEEE Pervasive Computing, 6(3), 30-38.
[Reades et al. 2009] Reades, J., Calabrese, F. et Ratti, C., 2009, « Eigenplaces: analysing cities using
the space-time structure of the mobile phone network », Environment and Planning
B: Planning and Design, 36, 824-836.
[Robinet et al., 1957] Robinet, A., Leibniz, G. W. et Clarke, S., 1957, Correspondance Leibniz-Clarke,
Paris : Presses universitaires de France.
160 Traces numériques et territoires
[Rogers, 2013] Rogers, R., 2013, Digital Methods, Cambridge, MA : MIT Press.
[Romele et Severo, 2014] Romele, A. et Severo, M., 2014, « Une approche philosophique de la ville
numérique : méthodes numériques et géolocalisation », In Carmes, M. et Noyer,
J.-M. (éd.), Devenirs urbains, Paris : Presses des Mines, 205-226.
[Rouvroy et Berns, 2013] Rouvroy, A. et Berns, T., 2013, « Gouvernementalité algorithmique et
perspectives d’émancipation », Réseaux, 177(1), 163-196.
[Ruppert, 2013] Ruppert, E., 2013, « Rethinking empirical social sciences », Dialogues in Human
Geography, 3(3), 268-273.
[Salzberg, 2014] Salzberg, S., 2014, « Why Google Flu Is A Failure », Forbes, 23/03/2014, http://
www.forbes.com/sites/stevensalzberg/2014/03/23/why-google-flu-is-a-failure.
[Shoval et Isaacson, 2007] Shoval, N. et Isaacson, M., 2007, « Tracking tourists in the digital age »,
Annals of Tourism Research, 34(1), 141-159.
[Song et al., 2010] Song, C., Qu, Z., Blumm, N. et Barabási, A. L., 2010, « Limits of Predictability
in Human Mobility », Science, 327(5968), 1018-1021.
[Tarde, 2001] Tarde, G., 2001, Les lois de l’imitation, Paris : Les empêcheurs de penser en rond [1re
éd. 1890].
[Thrift, 2005] Thrift, N., 2005, Knowing Capitalism, Thousand Oaks, CA : Sage.
[Thrift et French, 2002] Thrift, N. et French, S., 2002, « The automatic production of space »,
Transactions of the Institute of British Geographers, 27(3), 309-335.
[Tobler, 1970] Tobler, W. R., 1970, « A Computer Movie Simulating Urban Growth in the Detroit
Region », Economic Geography, 46, 234-240.
[Turner, 2006] Turner, F., 2006, From Counterculture to Cyberculture. Chicago : University of Chicago
Press.
[Vaccari et al., 2009] Vaccari, A., Calabrese, F., Liu, B. et Ratti, C., 2009, « Towards the SocioScope:
an information system for the study of social dynamics through digital traces »,
ACM GIS’09 - Proceedings of the 17th ACM SIGSPATIAL International Conference
on Advances in Geographic Information Systems, New York, 52-61.
[Venturini et Latour, 2010] Venturini, T. et Latour, B., 2010, « Le tissu social : traces numériques
et méthodes quali-quantitatives », In Chardronnet, E. (éd.), Actes Futur en Seine
2009, Paris : Cap Digital, 89-106.
[Watts, 2011] Watts, D. J., 2011, Everything Is Obvious: *Once You Know the Answer, New York :
Crown Business.
[Wiener, 1950] Wiener, N., 1950, The human use of human beings: cybernetics and society, Cambridge,
MA : Da Capo Press.
[Yoshimura et al., 2014] Yoshimura, Y., Sobolevsky, S., Ratti, C., Girardin, F., Carrascal, J. P., Blat,
J. et Sinatra, R., 2014, « An analysis of visitors’ behavior in The Louvre Museum:
a study using Bluetooth data », Environment and Planning B: Planning and Design,
41(6), 1113-1131.
L’hyperville
Éléments pour un design territorial contributif et digital
Franck Cormerais
« Dans le cas de la cité grecque, ce nouvel élément est le commun (koïnon) ; dans
celui de la cité de Rome, c’est la chose publique (res publica) ; dans celui de la nation
européenne, c’est le public dans ses différentes déclinaisons : intérêt public, opinion
publique, espace public. Autrement dit, tout progrès en généralité suppose une
nouvelle association humaine, cadre d’une opération humaine inédite. »
Manent Pierre, La métamorphose de la Cité, Flammarion, 2012.
Ces procédures permettent d’aborder les modes d’existence dans le milieu digital
qu’organise l’hyperville. Le paradigme des traces, compris comme l’association du
signe (signum) et de la donnée (data) autorise une nouvelle conception des politiques
de la ville et des territoires. L’hyperville se comprend comme une organisation
étendue des traces dans le déploiement de la relation entre un système local en
relation avec trois H : l’Habitat, l’Habitude, l’Habitacle. Le concept d’habitude
renvoie à l’invention du quotidien et non à la reproduction des actes [Ravaison,
1997]. L’habitude se situe entre les niveaux d’une organisation de l’habitant ; elle
opère une transformation des conditions concrètes de l’existence sous l’effet de
modifications de l’habitacle compris comme agencement du milieu de la vie. La
rencontre entre l’hyperville et les données annonce la formation de nouveaux
territoires (politiques, sociaux, psychiques) compris comme établissement de
relations spécifiques entre le système local et les modes d’existence abordés dans
les trois procédures génériques.
L’approche par les signes-traces dans l’hyperville revisite les rôles du visible/
invisible, du vu/ressenti, de la raison/émotion dans l’interprétation humaine.
L’enjeu des données dans la phase actuelle de désajustement et de crise [Sanken,
2009] appelle une reconfiguration. Les données et les systèmes de rétention
tertiaire [Stiegler, 2012] de conservation des traces renouvellent la mémoire et des
formes de la vie. A l’individu atomisé s’oppose une individuation dont la poursuite
se réalise dans une métropolisation qui complète celle des individus [Bourdin,
2000] par une individuation psychique et collective. L’hyperville vient préciser
le concept de « métapole » [Ascher, 1995] et le concept de « cité connexioniste »
[Boltanski et Chiapello, 1999].
L’hyperville 163
La construction des politiques publiques locales des données suppose des choix,
autour de la formation d’un habitacle, qui prennent un sens dans l’opposition de
l’hyperville à la smart city, où il s’agit dans cette dernière d’afficher des performances
en multipliant les indicateurs au service d’une efficacité s’illustrant dans un marketing
territorial. Calcul des durées d’attente, du taux de fidélité, des temps de séjour et de
shopping, du taux de conversion (piétons/visiteurs/clients) demeurent des sources
d’une approche de ville marchandisable, non d’une cité contributive.
Les données ne sont pas données mais issues d’un processus de construction,
selon des nomenclatures qui établissent des catégories et des regroupements. La
typologie présentée dans le Tableau 2 apporte des précisions relatives à l’hyperville,
plus exactement sur le statut complexe de l’information, qui dans sa multiplicité
doit être compris également comme un « bien commun » [Ostrom, 2010]. La
donnée informatique ne serait donc être abordée en termes uniques de captation
et d’exploitation mais aussi de transmission et de transfert. L’espace public digital
possède une fonction de reliance sur un territoire qui implique un modèle du
« faire société » ; il ouvre avec l’hyperville une perspective communicationnelle
post-habermatienne avec l’apparition d’un espace public qui diffère aussi bien
de « l’espace public bourgeois » [Habermas, 1988] que de « l’espace public
oppositionnel » [Neg, 2007]. Pour aborder la spécificité de l’espace public de
164 Traces numériques et territoires
Dans la seconde direction les data et les processus de transfert sont mobilisés pour
envisager leur rôle constituant dans un nouveau moment de la subjectivation,
qui traduit un rééquilibrage de la relation dissymétrique entre la figure du
consommateur (C1) et celle du citoyen (C2). Cette réduction peut produire des
« territoires apprenants » [Veltz, 1994] enrichis par une création collective qui
organise une synthèse entre l’individualisation, la socialisation et la différentiation.
Ces trois tendances forment les clés des agencements de l’hyperville qui éclairent
les relations entre l’Habitat, l’Habitude et l’Habitacle (cf. Tableau 1).
Le choix d’une direction plutôt que l’autre repose sur la nature des décisions
misent en applications dans la sphère publique et la sphère privée. Ces décisions
engagent deux conceptions de la ville.
Cette approche comparative des pratiques pouvant être engagées dans l’espace
public digital souligne l’influence qu’elles exercent sur des différents plans de
l’existence des acteurs. Les différences entre les deux options posent la question
L’hyperville 167
Dans les domaines de l’hyperville la mise en œuvre d’une dynamique oriente des
choix qui recomposent des pratiques sociales. Le croisement entre les différentes
dimensions de l’existence produit des rapprochements et des accords qui
s’opposent à une vitesse que nul ne maîtrise aujourd’hui [Rosa, 2010], tant l’ordre
juridique peine à suivre l’évolution technologique. Face à la dissémination d’une
« métropole des individus » [Bourdin, 2009] apparaissent de nouvelles opportunités
d’association qu’il convient de perfectionner et de renforcer. La réussite du passage
d’un monde commun à définir vers des biens communs informationnels s’avère
décisif. Il semble nécessaire, mais pas suffisant, de poser pour cela que le statut
de l’information se situe entre le commun et la propriété (Aigrain). L’hyperville
peut-elle problématiser l’actuelle période de transition dans la perspective d’une
cause commune par une affirmation du « commun » ? [Dardo et Laval, 2014] La
critique de l’appropriation privée de la chaîne de la valeur demeure dans une
posture de dénonciation. Pour étendre la nécessité de la base informationnelle, il
faut trouver une justification qui démontre les limites d’une situation négative où
les GAFA (Google, Apple, Facebook, Amazon) organisent les principaux circuits
mondiaux de la communication.
Afin de mieux saisir la dynamique suscitée autour des données dans les décisions
politiques de l’hyperville, nous proposons d’avancer dans le cadre d’une
pharmacologie positive. Sans apparaître comme un guide, cette approche souhaite
relier les domaines et les décisions à des sphères associées dans l’espace public
digital, ceci afin de mieux définir des régimes possibles d’action (cf. Tableau 6).
168 Traces numériques et territoires
Ce tableau illustre la mise en œuvre d’un système local contributif dans l’hyperville qui
implique un modèle de développement soutenable, où les dimensions micro, macro
et méso se complètent. Ce modèle se conçoit autour d’une fonction de contribution
spatialisée et de l’élaboration de nouveaux indicateurs [Beraud et Cormerais, 2013].
Afin d’aborder ces indicateurs, il importait de préciser préalablement les variables
de la valorisation pour réaliser un ordre de grandeur synthétique.
170 Traces numériques et territoires
CONTENU
e-Consommation Responsable et/ou biologique Organisation des circuits
courts
e-Finance Emprunt locaux, crédit social Finance responsable et
solidaire
e-Communication Neutralité du net Média citoyen, espace public
numérique
e-Mobilité Géolocalisation des itinéraires, multi- Diminution des coûts et des
modalité, information trafic en temps temps de transport
réel
e-Santé Bilans médicaux, mesures personnelles, Prévention
prescriptions
e-Formation Certification, itinéraire professionnel Formation continue
e-Culture Activités associatives, sportives, Créa-Lab, e-Bibliothèque ;
culturelles musée virtuel
Tableau 10 : Technologies informationnelles et construction de soi
RÉFÉRENCES BIBLIOGRAPHIQUES
[Ascher, 1995] Ascher, F., 1995, Métapolis ou l’avenir des villes, Paris : Odile Jacob.
[Ascher, 2009] Ascher, F., 2009, L’âge des métapoles, La Tour d’Aigues : Editions de l’Aube.
[Beraud et Cormerais, 2011] Beraud, P. et Cormerais, F., 2011, « Economie de la contribution et
innovation sociétale », Revue Innovations, 34(1), 163-183.
[Beraud et Cormerais, 2013] Beraud, P. et Cormerais, F., 2013, « Le bien-être comme création
collective », In Florin, A. et Préau, M. (éd.), Le Bien-être, Paris : L’Harmattan, 83-97.
[Boltanski et Chiapello, 1999] Boltanski, L. et Chiapello, E., 1999, Le nouvel esprit du capitalisme,
Paris : Gallimard.
[Booth, 2010] Booth, P., 2010, Digital Fandom, New Media Studies, Berne : Peter Lang.
[Bourdin, 2000] Bourdin, A., 2000, La question locale, Paris : Presses universitaires de France.
[Bourdin, 2009] Bourdin, A., 2009, La métropole des individus, La Tour d’Aigues : Editions de l’Aube.
[Carmes et Noyer, 2014] Carmes, M. et Noyer, J.-M. (éd.), 2014, Devenirs urbains, Paris : Presses
des Mines.
[Castel, 2009] Castel, R., 2009, La montée des incertitudes : travail, protections, statut de l’individu,
Paris : Le Seuil.
[Christakis et Fowler, 2009] Christakis, N. et Fowler, J., 2009, Connected. The amazing power of social
networks and the shape our lives, London : Harper press.
[Citton, 2014] Citton, Y. (éd.), 2014, L’économie de l’attention, nouvel horizon du capitalisme, Paris : La
Découverte.
[Corboz, 1997] Corboz, A., 1997, « La Suisse comme hyperville », conférence prononcée dans
le cadre du cycle « Suburbanisme et paysage », organisé par la Société française
des architectes, http://www.jointmaster.ch/jma/ch/dech/file.cfm/document/
La_Suisse_comme_hyperville.pdf?contentid=1040.
174 Traces numériques et territoires
« Qui n’aurait pas encore remarqué que la maison de l’Etre disparaît sous les
échafaudages ? Et personne ne sait à quoi elle ressemblera après la rénovation,
d’autant moins qu’on ne touche pas seulement ici à la superstructure, mais aussi
aux fondations. La caractéristique la plus frappante de la situation mondiale actuelle,
dans le domaine de l’histoire de l’esprit et de la technique, est justement le fait que
la culture technologique produit un nouvel état d’agrégat du langage et du texte qui
n’a pratiquement plus rien de commun avec ses interprétations traditionnelles par la
religion, la métaphysique et l’humanisme. »
Peter Sloterdijk, La domestication de l’être – Pour un éclaircissement de la clairière, Editions
Mille et une nuits, 2000.
« L’homme est une invention dont l’archéologie de notre pensée montre aisément la
date récente. Et peut-être la fin prochaine. Si ces dispositions venaient à disparaître
comme elles sont apparues, si par quelque événement dont nous pouvons tout au
plus pressentir la possibilité, mais dont nous ne connaissons pour l’instant encore ni
la forme ni la promesse, elles basculaient, comme le fit au tournant du XVIIIe siècle
le sol de la pensée classique, alors on peut bien parier que l’homme s’effacerait,
comme à la limite de la mer un visage de sable. »
Michel Foucault, Les mots et les choses, Gallimard, 1966.
L’ensemble des collectifs et des institutions qui vont avec sont affectés. Et si,
aujourd’hui, plus de la moitié de la population mondiale a accès à l’Internet, aux
alentours de 2025, les deux tiers seront connectés. De même, plus de 14 milliards
de périphériques sont à présents connectés à l’Internet et en 2030 ce nombre
pourrait atteindre 50 milliards. Quant aux applications, qui expriment l’incarnation
du vaste spectre des désirs, elles croissent pour l’instant de manière exponentielle.
Déjà en 1990, Gilles Deleuze écrivait dans un texte célèbre « dans les sociétés
de contrôle, au contraire, l’essentiel n’est plus une signature ni un nombre, mais
un chiffre : le chiffre est un mot de passe, tandis que les sociétés disciplinaires
sont réglées par des mots d’ordre (aussi bien du point de vue de l’intégration
que de la résistance). Le langage numérique du contrôle est fait de chiffres, qui
marquent l’accès à l’information, ou le rejet. On ne se trouve plus devant le couple
masse-individu. Les individus sont devenus des “dividuels”, et les masses, des
échantillons, des données, des marchés ou des “banques” » [Deleuze, 1990].
Sémiotiques et statistiques
Nous connaissons à présent la force des liens entre la « révolution électronique »,
la gestion informatisée des « marchés » et les politiques algorithmiques qui vont
avec, et nous prenons la mesure des tensions qui se déploient entre processus de
robotisation1, devenirs entrepreuneuriaux monopolistiques et inégalités [Krugman,
2012 ; Linn et Longman, 2010], au cœur de la nouvelle révolution industrielle
promise par Chris Anderson ou mise en scène par la vision prospective, aseptisée
1 Y compris robotisation de la guerre : A. Joxe par exemple attire l’attention sur ce processus
comme forme nouvelle du devenir biotechnique militaire, processus dédié à s’abstraire, d’un certain
point de vue, de la prégnance des sols et à affronter à moindre frais et pour son propre avantage, les
asymétries anthropologiques, en particulier les différences dans le travail de la pulsion de la mort, de
sa conjuration comme de sa célébration. Bien que ce ne soit pas là la visée de cet article, la question
des devenirs polémologiques du monde est toujours présente, têtue et les pacifications promises,
(à la fois théâtres d’ombres chinoises et promesses de modes conjurant les violences), porteuses
d’inquiétantes étrangetés. On ne saurait les évacuer. Voir aussi Joxe [2012].
180 Traces numériques et territoires
et très politique de Jeremy Rifkin. Révolution industrielle fondée sur l’alliance entre
« Imprimantes 3D, découpeuses laser, logiciels et matériels open source » [Anderson,
2012] et de l’avènement de la flexibilité mondialisée. Nous percevons aussi
certains des mécanismes économiques et financiers qui perturbent les processus
d’innovation bien plus que les phénomènes de robotisation en cours. Enfin, nous
constatons simultanément (et une partie croissante des populations en éprouve les
effets) que la monétarisation numérique – et son cortège phénoménal – de data
ne cesse de venir remplir le gouffre de l’immanence y introduisant, comme dit
Schmitt, une « déformation, une convulsion, une explosion, bref un mouvement
de violence extrême » [Deleuze et Guattari, 1972]. Nous savons combien sont
fortement nouées formes de pouvoir et « raison statistique », sociologies et
statistiques assumant une sorte de fonction fabulatrice extraordinaire.
La danse et le flux des data viennent chercher leurs rythmes et leur modes
d’infiltration, propagation « dans » les interfaces dotées d’applications et alimentant
les multiples boucles récursives ouvrant vers l’action, la pensée. Cela n’est pas sans
accentuer les transformations du Politique.
Le devenir numérique
Ces noces-là sont sans fin et nourries aux flux et stocks immenses des traces
(big data) que laissent toutes nos pratiques et actions, du click le plus furtif, aux
trajectoires les plus sophistiquées où se déposent et se laissent déchiffrer les
histoires et cartographies entrelacées de nos lectures et visions, de nos rythmes et
de nos attentions, de nos prédilections pour telle ou telle substance d’expression,
etc., de nos compulsions et de nos hésitations, de nos tremblements et addictions
consuméristes, mais aussi de nos silences « par défaut », de nos absences, au sein
du labyrinthe à N dimensions de l’Internet.
Elles nous mènent encore aux architectures plus ou moins stables de ce que
nous associons et/ou de cela, de tout cela qui s’associe à nous en des graphes
tantôt grossiers, tantôt subtils, aux formes infiniment variées. Incarnations du
rêve scientifique de Gabriel Tarde [1895] et de Bruno Latour [Latour et al., 2012].
Les data sont fabriquées et circulent entre les applications, les capteurs, les banques
de données, applications et capteurs qui sont en quelque sorte les points de croix
proliférant et plus ou moins complexes, qui font la Texture du système relationnel à
N dimensions du monde. Cette texture se trame à partir d’une ichnologie toujours
plus extensive et intrusive. Le spectre de la traçabilité et des data associées, hantant
les nouveaux modes de travail, les nouveaux modes d’existence et les nouveaux
modes de gouvernementalité. Quels que soient les niveaux d’échelle, des intranets
aux processus de globalisation, les passages en cours de la forme de l’Etat nation
vers l’Etat marché (dans le cadre de la tentative d’établissement, à marche forcée,
d’un marché mondial), des formes classiques de la souveraineté vers des nouvelles
182 Traces numériques et territoires
INCARNATIONS, HETEROGENESES
2 Voir aussi Pentland [2012] : « I believe that the power of Big data is that it is information about
people’s behavior instead of information about their beliefs. It’s about the behavior of customers,
employees, and prospects for your new business. It’s not about the things you post on Facebook,
and it’s not about your searches on Google, which is what most people think about, and it’s not data
from internal company processes and RFIDs. This sort of Big data comes from things like location
data off of your cell phone or credit card, it’s the little data breadcrumbs that you leave behind you
as you move around in the world ».
3 Pour indiquer rapidement quelques critiques marquantes, avant de reprendre autrement les
interrogations portées par notre article sur ce point (voir dans ce même article la Partie III « Eléments
pour “un programme minima” en SHS numériques ? Contrôles et résistances : maintenir le mouvement
de la créativité »), l’article de Nicolas Carr dans la MIT Technology Review (« The Limits of Social
Engineering, Tapping into big data, researchers and planners are building mathematical models of
personal and civic behavior. (… ) But the models may hide rather than reveal the deepest sources
of social ill ») soulève un certain nombre de points importants. Il note en particulier que l’idée de
Pentland d’une « data-driven society » pose un certain nombre de problèmes. Il voit dans cette option
stratégique l’encouragement à préserver le statu quo sur la base de rapports de force anthropologique
et politique établis, sans possibilité de favoriser des alternatives et ce en contraignant les changements
et les devenirs au sein de sorte de chréodes stratégiques et politiques évolutives, ne laissant aux acteurs
désirant introduire des changements qu’un simple calcul de maximisation des devenirs à l’intérieur de
modèles stables. Tel est au passage un des dangers majeurs des « sociétés performatives », d’une vision
« constructale » des sociétés à l’œuvre encore une fois dans l’idéologie transhumaniste.
Désirs de data 183
Les nouvelles écologies urbaines (des « smart cities » aux villes sécuritaires) se
développent rapidement et posent de nombreux problèmes qui font varier les
socles anthropotechniques et politiques de nos sociétés, organisations et collectifs
de pensée, ainsi que les processus de subjectivation.
En d’autres zones du globe, à travers par exemple les cas présentés dans son numéro
spécial consacré aux « smart cities », Scientific American nous montre un ensemble de
facettes de la ville intelligente : réduction de ses impacts écologiques et optimisation
énergétique ; gestion intelligente des déplacements et des flux dans la ville ; création de
services renouvelant les relations des habitants à leur ville, mais aussi transformation
des relations sociales ; déploiement de capteurs nourrissant un ensemble de bases de
données indissociables d’un pilotage efficient de l’action publique…
« Truly smart cities will emerge as inhabitants and their many electronic devices are
recruited as realtimesensors of daily life. Networking the ubiquitous sensors and
linkingthem to government databases can enhance a city’s inventiveness, efficiency
and services »4. Les data y sont populations majeures.
4 Voir Scientific American, septembre 2011, et, plus particulièrement, dans le même numéro, « The
efficient city » de Mark Fischetti.
184 Traces numériques et territoires
La notion de digital Cities, quant à elle, insiste davantage sur les modes de
représentation de la ville et leur caractère plus ou moins immersif (simulation :
avatars, second life cities, Sim city). Elle met l’accent sur les interfaces et les
nouveaux modes de connexion dans des milieux urbains ou des territoires
hybrides pour partie ou massivement numériques.
Enfin, la notion de smart cities, qui est la plus en vogue et peut-être la plus
importante, vise sous des formes variées la gestion « optimisée » et écologique
des villes, des flux énergétiques, des populations, de l’information, de la mobilité,
etc. Il y a, dans l’approche des smart cities adossée à la question de la transition
énergétique et de la maîtrise anthropotechnique et politique de nos milieux associés
urbains, une visée « constructale » problématique5. C’est en effet dans la gestion
urbaine que s’exprime, de la manière la plus avancée, l’extension généralisée de la
numérisation des sols et des bâtiments, des flux énergétiques, des mouvements
de populations. C’est donc là encore que se manifeste de la manière la plus forte
le lien politique entre big data/open data/algorithmique. Ce lien, nous ne cessons de
le vérifier, est central et problématique. Mais force est aussi de constater que le
rabattement idéologique est constant qui tente de dire les bonnes formes de ce
lien. « Villes ouvertes, villes intelligentes » ne sont souvent que des slogans ou dans
les cas les plus positifs, expressions des utopies présentes. Il n’empêche que ce
vaste champ de transformation est en expérimentation généralisée.
Ceci dit, cela ne cesse d’étre répété et attendu, les villes ne seront vraiment
intelligentes que lorsque leurs habitants, leurs interfaces et applications enfin
couplés, seront des capteurs infatiguables et « en temps réel » des activités de la
vie quotidienne. Pour cela il faut mettre en réseau les capteurs partout distribués
et omniprésents et les relier aux bases de données des divers dispositifs de
gouvernance, pour améliorer l’inventivité des villes, des mondes urbains leur
efficacité et les services. Et, accompagnant l’écologisation des territoires, « l’open
5 Trouver la forme idéale d’un système afin qu’il offre un rendement optimal, tel est le but de la
théorie constructale dont il est relativement aisé de percevoir qu’appliquée aux sociétés humaines
elle se présente plutôt comme idéologie de la maîtrise absolue, comme moment d’éradication de la
créativité comme processus et altération… Voir sur la théorie constructale et ses applications dans
le monde des ingénieurs : André Béjan, professeur d’ingénierie spécialiste de thermodynamique.
Désirs de data 185
data power »6, qui se veut nouvel horizon de la politique de la ville, participe de cette
création quasi sans limites de données et des dispositifs de traitements adéquats
convoquants open source, énergies alternatives, etc.
« The vast amount of data that is emerging is the starting point for making efficient
infrastructure programmable so that people can optimize a city’s daily processes.
Extracting information about real-time road conditions, for exemple, can reduce
traffic and improve air quality. (…) The potential for developing more of this kind
of efficient infrastructure is vast –and a good fraction can be unleashed through
smart systems. It is thus no surprise that many large corporations, such as IBM,
Cisco Systems, Siemens, Accenture, Ferrovial and ABB, are setting theirs sights on
the urban space » [Ratti et Townsend, 2011]
Pour suivre de près Jean-François Lyotard, les big data participe pleinement de « la
légitimation par la puissance. [… ] cette dernière s’autolégitimant comme semble le
faire un système réglé sur l’optimisation de ses performances. Or c’est précisément
ce contrôle sur le contexte que dit fournir » l’alliance algorithmie/big data-open
data. On peut dire que la performativité d’une politique s’accroît à proportion des
informations dont elle dispose concernant son milieu associé. « Ainsi l’accroissement
de la puissance et son autolégitimation passent à présent par la production, la mise
en mémoire, l’accessibilité et l’opérationnalité » des data [Lyotard, 1979].
6 http://datascienceseries.com/blog/download-open-data-power-smart-cities.
186 Traces numériques et territoires
L’open data du secteur public constitue un cas emblématique pout l’étude du rôle
des narrations et des mots d’ordre qui participent pour partie de la fabrication du
désir de données. D’un point de vue très général, l’open data promeut l’idée d’un
libre accès (et développe des dispositifs pour cela) à un certain nombre de données
publiques afin d’en permettre une utilisation et une exploitation sans restrictions
de droits d’auteur, de brevets ou d’autres mécanismes de contrôle. Il s’agit là d’une
définition très simple. Le développement du Web a favorisé, dès sa création, la
mise à disposition « libre » de documents hétérogènes. C’est même l’idée fondatrice
de ceux qui ont créé le réseau Internet sur la base d’un modèle spécifique de
l’activité scientifique comme mode de production, circulation « libre » des savoirs,
optimal en terme d’innovation et de créativité. On peut contester le côté irénique
et simplificateur de ce modèle, mais c’est sur cette idée générale que le projet
s’est développé. De plus, ce que l’on appelle le « Web des données » peut être vu
comme un ensemble de processus qui convergent vers un objectif commun :
la dissémination dans l’espace public et privé des données et la « réutilisation
intelligente des données indépendamment de leur contexte numérique d’origine »
[Noyer et Carmes, 2012].
Or, la tension se fait toujours plus vive entre, pour durcir la présentation, les
tenants d’une philosophie ouverte des ressources (le Web comme espace lisse)
et les tenants d’une approche propriétaire (le Web comme espace strié). Cette
manière de présenter les choses est toutefois très imparfaite, offre trop de
« facilités » conduisant à être chahuté « entre Charybe du marché pour tous de la
propriété intellectuelle et Scylla des bantoustans du communisme primitif selon
l’évangile de la nouvelle accumulation » [Moulier-Boutang, 2010].
7 La loi du 17 juillet 1978 imposait déjà la mise à disposition des données et reconnaissait le droit
d’accès à l’information publique en France. En 2014, la commission des Finances de l’Assemblée
Nationale a décidé que les réformes en matière d’open data (accès et réutilisation des données
publiques) devront passer par un débat parlementaire.
Désirs de data 187
À notre sens, l’enjeu réside en une véritable rupture de l’économie politique des
territoires. Dans le cadre de l’affaiblissement relatif des systèmes de gouvernance
centralisée et la montée de nouveaux systèmes décentralisés ou a-centrés, la question
peut être formulée de manière grossière en ces termes : comment transformer
l’action publique par l’open data (en tous cas certaines de ses formes) et faire
advenir un « milieu pour l’action » autre que celui dominé par un constructivisme
planificateur ? Enfin, cela implique de repenser les démarches d’évaluation, de
se défaire des indicateurs d’activité hérités, et de faire preuve de réflexivité pour
pouvoir en inventer d’autres en explorant d’autres méthodes… En effet, comment
comprendre ce que l’OD fait (ou peut faire) aux territoires, au citoyen, à la relation
qu’il entretient avec les premiers, à la manière de concevoir cette relation, en
l’absence de véritables enquêtes sociotechniques, anthropologiques et politiques,
de suivi du « cycle de vie » des données, de moyens de compréhension des pratiques
hétérogènes, des réseaux longs, des agencements complexes ici impliqués.
Bernard Stiegler de son côté, mène une critique très radicale du marketing. Le
but (pour le marketing) est, selon lui « de prendre le pouvoir sur le psychisme de
l’individu afin de l’amener à un comportement pulsionnel. Cette captation est
évidemment destructrice. On canalise le désir vers des moyens industriels et pour
ce faire, on est obligé de court-circuiter l’énergie libidinale et tout son dispositif,
parce que l’énergie libidinale est produite dans un deuxième rang, ce n’est pas
une énergie primaire, les énergies primaires ce sont les pulsions. » [Stiegler, 2012].
Dans ce cadre, l’agencement prédictif (et son désir) est un dispositif essentiel
et immanent au processus de métastabilité des collectifs hybrides et occupe
une place centrale au point de se vouloir « arché », maintenant son emprise sur
l’autofabrication d’humains-posthumains et de ses milieux associés.
En tant que nexus, l’individu consumériste est tissé des relations-objets qui le
traversent, des relations-objets qui convergent vers lui et/ou partent de lui, des
transactions qu’il noue. Il est donc l’expression d’une sorte d’onto-éthologie qui
est inscrite dans la strate numérique. Les interfaces, on l’a déjà indiqué, sont
donc essentielles, la question des technologies relationnelles et des applications,
décisive. Ce sont elles qui assurent les échanges entre les territoires, traduisent et
redistribuent les flux informationnels numériques, les éléments socio-sémantiques
de quelque nature que ce soit. Ce sont elles qui assurent la possibilité d’univers
existentiels plus ou moins riches et l’émergence de nouveaux modes d’existence.
La strate Internet, ses réseaux et ses interfaces de recherche, tout cela rend en
effet de plus en plus visibles l’émergence de connaissances collectives, l’émergence
d’agencements d’énoncés exprimant des jugements et leur transformation dans le
temps sous l’influence de facteurs multiples et selon leurs trajectoires à travers des
mondes culturels, économiques plus ou moins hétérogènes, selon les réseaux et
dispositifs à travers lesquels ils s’expriment et circulent, et circulant se transforment.
C’est là on le sait une des raisons qui ont très vite conduit à développer des analyses
linguistiques et statistiques permettant d’extraire de façon plus ou moins fine des
dynamiques sémantiques, des régimes sémiotiques à partir de grandes quantités
d’énoncés, de textes, de documents y compris les sons et les images.
Cette histoire est relativement bien connue et elle va de la lexicométrie aux études
infométriques, aux études dites de « data mining », « opinion mining » et « sentiment
analysis » fort prisées dans le secteur de l’e-réputation, dans le secteur de la mise
en visibilité des réseaux d’influence, de leur modalité, bref tout ce qui relève d’une
approche des narrations et des conflits qu’elles portent. Les approches et les
sources sont multiples, qui sont utilisées pour obtenir de telles connaissances : la
notation, par exemple, de produits, d’entreprises, d’organisations et de services par
des internautes ; l’évaluation de l’expertise des internautes ; la recommandation,
Désirs de data 191
Pour s’en tenir aux réseaux sociaux numériques dits « relationnels » (tels que
Facebook), il convient de noter qu’ils ne constituent qu’une part de ce vaste
mouvement de transformation du « champ d’immanence de la doxa ». Au-delà de
ces réseaux de masse où se déploient, s’agrègent et convergent les communautés
à travers les narrations et transactions dont elles sont précisément l’expression et
l’exprimé, on assiste aussi à une différenciation progressive de l’espace d’expression
et à un devenir minoritaire complexe des réseaux numériques. Ce point est d’une
grande importance. De nombreux types de réseaux sociaux, rivaux, sont déjà en
place ou en train de se développer qui répondent par des approches émergentes
et ad hoc, à des besoins d’agrégation spécifiques associés à une exigence de
confidentialité non seulement plus grande dans le temps court, mais pérenne. L’on
assiste ainsi à des phénomènes de convergence et de renforcement de certains
types communautaires, renforcement se faisant sur le partage de pratiques, de
modes narratifs, de niveaux de savoirs, d’attracteurs « memetiques » spécifiques.
Mais, ce qui importe, c’est de saisir et de penser ici l’articulation et plus profondément
le couplage structurel, c’est-à-dire les rapports de codétermination des milieux
(numériques et non-numériques). Et les processus de reterritorialisation (ce qui
veut dire en fait, « complication » des territoires et des pratiques) que le marketing
promeut à travers le mouvement de géolocalisation en particulier sont de plus en
plus forts. Cela a des conséquences substantielles sur les économies politiques,
sur les économies libidinales, sur la « complexion passionnelle des individus », de
leurs affects, à la traversée du commerce des objets et des services.
Le marketing cherche donc à intervenir avec de plus en plus de force sur les
agencements moléculaires et molaires qui fondent la relation-client.
De ce point de vue le data mining est devenu un nouveau « grand récit », qui tend à
structurer et à façonner le monde et en particulier les régimes de désirs, les régimes
pulsionnels nécessaires au maintien du consumérisme. A travers lui, le marketing
ne cesse de développer des techniques de profiling en vue d’alimenter la fameuse
trinité « description-prédiction-performation », jusqu’à rêver de « préempter » les
figures du désir et les devenirs des subjectivités.
Marketing et immunopolitique
C’est la raison pour laquelle le marketing se rend compte qu’il doit d’une certaine
manière creuser encore et encore l’examen des pratiques et des transactions qui se
déploient à partir des réseaux sociaux, et où : « la tendance historique aux formes de
vie individualistes dévoile sa signification immunologique : aujourd’hui […] ce sont
les individus qui en tant que vecteurs de compétences immunitaires, se séparent
de leurs corps de groupe […] et veulent massivement détacher leur bonheur et
leur malheur de l’être-en-forme de la commune politique. Nous vivons aujourd’hui
la mutation, vraisemblablement irréversible, de collectifs de sécurité politique en
groupes dotés de designs immunitaires individualistes… » [Slotedijk, 2006].
Comme le dit François Bourdoncle, « à chaque fois, c’est la logique d’usage qui
prévaut, et la même information (par exemple, un commentaire sur un blog) peut
être structurée de plusieurs manières différentes en fonction de l’usage que l’on
souhaite en faire. Et ce n’est donc clairement pas le rédacteur de l’information qui
peut avoir connaissance de tous les usages qui vont être faits de ce qu’il rédige »
[Bourdoncle, 2010].
Graphes et temporalités
Qui peut extraire et exploiter les graphes correspondants à partir des traces
numériques (singulières et/ou collectives) sémantiques, comportementales,
géolocalisées, occupe une position de supériorité au sein des économies politiques,
libidinales, stratégiques, au sein du marketing. Extraction de valeurs et théorie des
graphes sont ici très étroitement liées.
Qui peut exploiter les régimes temporels et les parcours (les navigations plus ou
moins complexes, les procrastinations que le « clickstream » étudie) accompagnant
la décision d’achat ou de suspension de l’achat, acquiert une position dominante
dans la prédiction consumériste et dans la performation des pulsions.
Il suffit de dire pour l’instant que cet évolution se déploie selon quatre
dimensions qui articulent géolocalisation/orientation-désorientation/ navigation/
temporalités. La première reterritorialise, la seconde exprime les comportements
dans l’espace relationnel, topologique du Web, la troisième renvoie aux types de
cheminements dans l’espace numérique non-linéaire, hypertextuel plus ou moins
chaotique, et la quatrième aux rythmes d’exploration, aux rapports de vitesse et de
lenteur entre exploration et moment de la décision… C’est ainsi que se développent
Désirs de data 195
Cela implique donc qu’il faille pouvoir mettre, d’un point de vue plus ambitieux,
sur le plateau du jeu de Go démocratique, les « processus d’individuation
juridiques et collectifs » aux termes toujours provisoires desquels, telle ou telle
data, tel ou tel ou tel ensemble de data occupent tel ou tel statut dans le processus
fabrication-circulation-transformation de savoirs et de valeurs. La où les data,
dans leur devenir propriétaire, étant sans cesse soumises à l’immense processus
anaphorique en quoi consiste l’artificialisation du monde, processus on ne peut
plus différencié et où les acteurs sont (d’un point de vue anthropologique et
politique) hétérogènes, profondément inégaux. Dans les sociétés performatives
la question de savoir si « les données personnelles sont une anomalie » a toute sa
force et on doit lui faire face. Il y a plusieurs moyens, plusieurs types de forces et
plusieurs types de résistances pour affronter cette question.
Ce que nous suggérons, c’est de réfléchir et d’agir afin sinon d’enlever (ce serait
illusoire) le data mining et l’algorithmie des mains des grandes machines molaires,
scientifico-politiques (impériales ou post-impériales), des grandes machines de
capture du marketing, de la santé… au moins d’œuvrer à la multiplication et
dissémination des petites machines d’extraction des savoirs, des petites machines
de navigation et de connexion, des petites machines d’écriture-lecture. En tous
cas de produire les conditions rendant possible l’existence de contre-pouvoirs
technopolitiques de types moléculaires.
9 Sur la notion de sousveillance, voir Mann, Nolan et Wellman [2003] et Quessada [2010].
Désirs de data 197
Et/ou de faire en sorte que les grandes machines puissent s’adapter à des petits
dispositifs et s’ouvrent donc à la re-négociation de leur place et statut technopolitique,
jusqu’à aller, pourquoi pas, à produire les conditions de leur propre démantèlement ?
Ce pourrait être là une ligne stratégique pour « l’open data » sous sa forme
publique : promouvoir sous des formes économiques spécifiques la dissémination
d’applications ou d’éléments d’applications devant être exploités, combinés par les
individus ou groupes d’individus variables. Pour cela donc, concevoir des formations
plus consistantes au devenir algorithmique des sociétés. Il s’agirait de mettre en place
des processus d’utilisation les plus extensifs de dispositifs permettant de lutter contre
la concentration des moyens de production et d’extraction des savoirs, de lutter
contre le bridage des écologies cognitives, bridage qui s’effectue et se perpétue entre
autres par la non dissémination des micro-outils de data mining, de cartographies, etc.
Pour enfoncer encore le clou, ce qui doit être visé c’est ce qui fait face, contourne,
enveloppe le maintien des dispositifs qui favorisent la spécialisation du savoir,
les monopoles professionnels qui vont avec, les asymétries dans la réutilisation
des données. Et quand bien même nous arriverions à faire proliférer les boucles
récursives productrices de réflexivité pour maintenir ouverte la possibilité de contre-
pouvoirs… il conviendrait d’aller plus loin encore. Pour suivre les voies proposées
en 1972 dans l’Anti-Œdipe, ce n’est pas seulement par la dissémination de noo-
machines relativement simples et petites que doit se faire la résistance créatrice mais
au nom de l’innovation machinique elle-même au cœur de ce que certains nomment
la noopolitik (J. Arquilla-D. Ronfeldt), la noopolitique (B. Stiegler) ou la « neocortical war »
(US-Army). La question politique, stratégique, (l’interrogation démocratique pour
les puissances et acteurs immergées dans ce vaste processus), est de comprendre
en profondeur – quelle est la nature de la relation existante entre la dissémination-
dispersion des nouvelles technologies intellectuelles et la genèse au sein des formation
sociales de nouveaux rapports de puissance et de pouvoir fondés à la traversée du
plissement numérique, de dispositifs de « savoir-pouvoir » émergents associés ? Enfin
de comprendre la relation entre cette différenciation et dissémination et une capacité
d’expansion économique, stratégique, liée aux capacités renouvelées et transformées
des intelligences collectives ? Rapidement, il serait par exemple utile de mettre en
place des nouveaux « habitats sociocognitifs » pour les controverses inhérentes à tous
les devenirs portés par les collectifs, de fabriquer des conditions permettant d’être
de manière ouverte « au milieu » des narrations politiques, économiques, juridiques,
scientifiques, religieuses, sous les conditions des réseaux numériques, les réseaux
n’étant pas porteurs en eux-mêmes de libération.
Force est même de constater que d’une certaine manière, ils mettent en place de
nouvelles formes de contrôle et de rigidité qui opèrent à un niveau « anonyme,
non-humain, a-signifiant, matériel ». De plus et parce qu’il n’y a pas d’opposition
binaire entre réseaux centralisés et réseaux décentralisés, il faut comprendre
comment les réseaux fonctionnent aussi bien comme « rogue swarm » que comme
« mainframe grid » et mesurer les contraintes qui en découlent d’un point de vue
démocratique et des systèmes ouverts. Comme l’on a affaire le plus souvent à des
198 Traces numériques et territoires
Dans ces conditions comment les noces du hasard avec les devenirs, seront-elles
encore possibles ? Quelle est la force de cette immense béance qui ne cesse de
s’agrandir et de se remplir de data tout en créant les conditions de son propre
effondrement ?
Utopie concrète déjà fort avancée, cette hybridation du monde porte des
« différends » de types nouveaux, des hétérogenèses culturelles et sociales en
tension, des polémologies sociocognitives en voie de radicalisation et nos désirs
se trouvent sous des chaosmoses particulièrement fortes. Et cette addiction à
leur production-exploitation-consommation est en appui sur les procédures de
légitimation par la puissance, sur les volontés de puissance (des plus archaïques
au plus futuristes), sur la croyance à pouvoir relayer le cosmos comme immense
machine à produire des dieux.
Désirs de data 199
Cela parle à présent barbare et créatif, primitif et stratège sur les agora de la doxa
et dans les imaginaires technoscientifiques qui portent le plissement numérique
du monde. Et les masses grouillantes de data constituent le socle qui permet de
relancer la quête pour la création de Valeur, la voie royale pour faire face à la crise
énergétique-écologique, le chemin glorieux pour une physique sociale « réellement
technoscientifique » (?) adossée à une science du marketing de plus en plus en plus
puissante. Nous savons comment le monde devint numérique et nous savons
comment l’ensemble des sciences et des arts est traversé par ses empiries et ses
algorithmes, nous savons comment nous le réfléchissons et le modélisons, le
simulons jusqu’à rêver un vaste système immersif en expansion généralisée et
en abîme, contrôlable ! « Comme l’enfant en vient à surmonter dans la duperie
du miroir l’horreur de son corps morcelé, les modèles réfléchissent selon l’idéal
prématuré du texte unifiant le désordre instantané de la production des savoirs.
Le modèle appartient à la métathéorie sécurisante d’une conjoncture » [Lacan,
1949 ; Badiou, 1968]10.
Toutes les peaux numériques que nous ajoutons redéfinissent notre milieu, ce que
nous activons et créons comme connexions, les manières dont nous continuons
à faire l’expérience de nous-mêmes en activant en particulier de nouveaux états
internes (en particulier cérébraux, perceptifs), de nouveaux états corporels.
Cela sert donc à relancer, d’un certain point de vue, la créativité. Tel est ce que
l’Anthropocène porte avec lui. Qu’est ce que cela veut dire ? Cela veut dire
principalement que l’être immersif que nous sommes doit à présent assurer la
perpétuation (la création continuée du monde) de son milieu associé, c’est-à-dire
de ce sans quoi nous n’existerions plus, mais aussi de la possibilité d’un dehors
(ou pour le moins de son imaginaire : exoplanètes s’offrant à nous dans les temps
incertains du futur).
10 Et les data d’apparaître alors comme « liquide amniotique » ou corps sans organes ou encore
matière grise soumise à la sélection de J. P. Changeux : les applications pouvant être vues comme
comme synapses ou ensembles synaptiques.( ?)
200 Traces numériques et territoires
une science toute de maîtrise héritée de l’ère précédente suffira ; l’autre de croire
que les choses iront dans le même temps selon les forces bienveillantes des dieux,
adossées elles-mêmes à une auto-organisation enchantée. Ces deux croyances se
répondant.
La question qui se pose est donc de savoir à la fois comment « nous fabriquer
un habitat » qui « assure » la vie et ses modes d’existence sous les conditions de
la finitude radicale et de la contingence radicale des choses, dans le contexte des
grandes crises écologiques (environnementale, climatologique, mentale, cognitive
et psychique, démographique et énergétique). Comment « nous fabriquer » un
habitat qui assure, encore et toujours, que nos devenirs auront un avenir, que les
processus d’altération-création ne cesseront pas de venir au devant de nous et que
du dehors et du chaos ne cesseront pas d’alimenter le mouvement de la création.
Il faut donc inventer des nouveaux modes d’existence et cette invention ne peut
prendre le risque de s’épuiser à terme ou de s’effondrer sous le poids d’un principe
de précaution omniprésent, omniscient. C’est, nous le verrons, la position qu’adopte
par exemple le « post humanisme spéculatif » et qui s’exprime de manière simple,
militante, exaltée dans la doxa et la pulsion du Manifeste des mutants11.
11 http://www.lesmutants.com/manifeste.htm.
Désirs de data 201
Elles affectent notre socle anthropologique ainsi que le « Virtuel » qui nous
enveloppe et nous précède. Ces populations ont pour noms, data, Algorithmes,
PucesRfid, QR codes, Interfaces, Robots, Nano-bio Machines, OGM… Elles
semblent, avec de plus en plus de force, affecter et les agencements fondamentaux
de nos écologies et les dispositions de nos savoirs. L’avertissement de Foucault
n’en résonne que plus fortement.
12 http://fr.wikipedia.org/wiki/Nanotechnologies,_biotechnologies,_informatique_et_sciences_
cognitives.
13 http://fr.wikipedia.org/wiki/Singularité_technologique. Les critiques de cette notion sont
nombreuses et fortes. Et le caractère relativement convenu des thèses de Science Fiction qu’’elle
véhicule est somme toute décevant.
202 Traces numériques et territoires
Dans cette perspective le « post humanisme spéculatif » prend les devants. Que
dit en effet le Manifeste du post-humanisme spéculatif3 ?
C’est là raison pour laquelle le cri de Dantec doit être ici répété. Il est en écho avec
celui de Zinoviev [1976 ; 1978].
« Ce petit post-homme aux prothèses matricielles re-présentant sans cesse en
progression réticulaire sa propre non-existence devenue partie connectée d’une
“intelligence collective” auquel aucun léniniste n’aurait pu rêver, nous conduit –
si j’ose dire – dans l’ère de la kolkhozisation de l’homme. Son intimité est par sa
propre “volonté” partagée avec le Moloch démocratique formé de tous ses “frères”
qui en tous points l’imitent. En retour les biopolitiques répressives/permissives
sont reconfigurées en lui en tant qu’agent totalement libre de choisir ses propres
codifications morales dans la zone que l’hypermarchandise lui accorde. Mieux
encore, un “surplus de jouissance” au sens lacanien du terme, lui est constamment
accordé en échange de la perte définitive de territoires entiers de souveraineté-
liberté. » [Dantec, 2001].
Il est à noter que, de manière ironique, c’est au moment même où ce(s) courant(s)
de pensée exprime(nt) leur volonté de rupture et leur revendication de penser
autrement le devenir biotechnicopolitique, de rejeter tout ce qui entraverait le libre
exercice des facultés, qu’il(s) referme(nt) en partie la créativité quant aux modes
d’existence, et dénonce(nt) par avance tout ce qui ne rentrerait pas dans le cadre
d’intensification de la maîtrise du nouveau monde à venir, à partir des modèles
Désirs de data 207
RÉFÉRENCES BIBLIOGRAPHIQUES
[Abiteboul, 2012] Abiteboul, S., « Sciences des données : de la logique du premier ordre à la Toile »,
Leçon inaugurale au Collège de France, 08/03/2012, http://www.college-de-
france.fr/site/serge-abiteboul/inaugural-lecture-2012-03-08-18h00.htm.
[Anderson, 2012] Anderson, C., 2012, Makers : la nouvelle révolution industrielle, Paris : Pearson.
208 Traces numériques et territoires
[Lacan, 1949] Lacan, J., 1949, « Le stade du miroir comme formateur de la fonction du Je telle
qu’elle nous est révélée dans l’expérience psychanalytique », repris in Ecrits I,
1999, Paris : Le Seuil, pp 92-99
[Latour et al., 2012] Latour, B., Jensen, P., Venturini, T., Grauwin, S. et Boullier, D., 2012, « The
Whole is Always Smaller Than Its Parts. How Digital Navigation May Modify
Social Theory », British Journal of Sociology, 63(4), 590-615.
[Lazzarato, 2006] Lazzarato, M., 2006, « Le pluralisme sémiotique et le nouveau gouvernement
des signes. Hommage à Félix Guattari », Transversal, 107, http://eipcp.net/
transversal/0107/lazzarato/fr.
[Lynn et Longman, 2010] Lynn, B. C. et Longman, Ph., 2010, « Who Broke America’s Jobs
Machine? Why creeping consolidation is crushing American livelihoods »,
Washington Monthly, http://www.washingtonmonthly.com/features/2010/1003.
lynn-longman.html.
[Lyotard, 1979] Lyotard, J.-F., 1979, La condition postmoderne, Paris : Editions de Minuit.
[Malabou, 2004] Malabou, C., 2004, Que faire de notre cerveau ?, Paris : Bayard.
[McKinsey Global Institute, 2013] McKinsey Global Institute, 2013, Open data: Unlocking
innovation and performance with liquid information, http://datascienceseries.com/blog/
download-open-data-power-smart-cities.
[Mann et al., 2003] Mann, S., Nolan, J. et Wellman, B., 2003, « Sousveillance: Inventing and Using
Wearable Computing Devices for Data Collection in Surveillance Environments »,
In Surveillance & Society, 1(3), 331-355.
[Moulier-Boutang, 2010] Moulier-Boutang, Y., 2010, « Droits de propriété intellectuelle, terra
nullius et capitalisme cognitif », Multitudes, 41(2), 66-72.
[Nissenbaum, 2011] Nissenbaum, H., 2011, « A Contextual Approach to Privacy Online »,
Dædalus, the Journal of the American Academy of Arts & Sciences, 140(4), 32-48.
[Noyer et Carmes, 2011] Noyer, J.-M. et Carmes, M., 2011, « Les interfaces machiniques comme
problème sémio-politique », In Broudoux E. et Chartron G. (éd.), Enjeux politiques
du document numérique, Paris : ADBS, pp 193-216.
[Noyer et Carmes, 2012] Noyer, J.-M. et Carmes, M., 2012, « Le mouvement “Open Data” dans
la grande transformation des intelligences collectives et face à la question des
écritures, du web sémantique et des ontologies », ISKO, http://www.grico.fr/wp-
content/uploads/2012/10/ISKOMaghreb2012_P9_NoyerCarmes-Copy.pdf.
[Noyer, 2014] Noyer, J.-M., 2014, « Encyclopédisme en éclats : réflexions sur la sortie des
“essences” », Cosmopolis. Revue de cosmopolitique, 3-4, 49-77.
[Origgi, 2008] Origgi, G., 2008, « La Sagesse en réseaux : la passion d’évaluer », La vie des idéee.fr,
http://www.laviedesidees.fr/Sagesse-en-reseaux-la-passion-d.html.
[Pentland, 2014] Pentland, A.S., 2014, Social Physics : How Good Ideas Spread, The lessons
from a New Science, New York : Penguin.
[Pentland, 2012] Pentland, A.S., 2012, « Reinventing society in the wake of Big data », http://edge.
org/conversation/reinventing-society-in-the-wake-of-big-data.
[Quessada, 2010] Quessada, D., 2010, « De la sousveillance, La surveillance globale: un nouveau
mode de gouvernementalité », Multitudes, 40, 54-59.
210 Traces numériques et territoires
[Ratti et Townsend, 2011] Ratti, C. et Townsend, A., 2011, « The social Nexus », Scientific American,
305, 42-48.
[Stiegler, 2012] Stiegler, B., 2012, « Le marketing détruit tous le outils du savoir », La bête dans la
jungle, http://labetedanslajungle.fr/le-marketing-detruit-tous-les-outils-du-savoir-
entretien-avec-bernard-stiegler.
[Sloterdijk, 2000] Sloterdijk, P., 2000, La domesticaton de l’être, Paris : Editions des Mille et une nuits.
[Sloterdijk, 2006] Sloterdijk, P., 2006, Le palais de cristal, à l’intérieur du capitalsime planétaire, Paris :
Maren Sell Editeurs.
[Surowiecki, 2004] Surowiecki, J., 2004, The Wisdom of Crowds: Why the Many Are Smarter
Than the Few and How Collective Wisdom Shapes Business, Economies,
Societies and Nations, New York : Doubleday.
[Tarde, 1895] Tarde, G., 1895, Les lois de l’imitation, http://classiques.uqac.ca/classiques/tarde_
gabriel/lois_imitation/lois_imitation_tdm.html [1re éd. 1890].
[Weissman, 2014] Weissman, J., 2014, « Acceleration, Becoming, Control, Deleuze, Machine,
Nietzsche, Subjectivity, Virtual. Technoscience and Expressionism »,
https://fractalontology.wordpress.com/2014/07/16/technoscience-and-
expressionism/#more-2570.
[Zinoviev, 1976] Zinoviev, A., 1976, Les Hauteurs béantes, Lausanne : L’Age d’Homme.
[Zinoviev, 1978] Zinoviev, A., 1978, L’Avenir radieux, Lausanne : L’Age d’Homme.
Partie 3
Les pratiques de la trace numérique
De la trace à la carte et de la carte à la trace
Pour une approche critique des nouvelles sources de fabrique cartographique
Matthieu Noucher
Cette vision de la cartographie est bien entendu très caricaturale et les postulats
positivistes de la carte comme représentation neutre et toujours précise du
territoire ont été largement remis en cause depuis la fin des années 70. En prenant
de la distance à l’égard des approches fonctionnalistes et en privilégiant leur
portée cognitive les sciences sociales ont permis de repenser les cartes comme
des formes de savoir socialement construit, subjectif et idéologique [Lascoumes,
2007]. Cette « rupture épistémologique » au sein de la discipline cartographique
[Crampton, 2001] a été portée par les tenants de la « cartographie critique »
dont le texte de Brian Harley de 1989 « Deconstructing the map » constitue l’un des
fondements. La déconstruction de la carte y apparaît comme nécessaire pour
identifier les jeux de pouvoir, omniprésents selon Harley. Ce dernier nous invite
alors à analyser le discours cartographique en s’inspirant de Foucault et Derrida
car les cartes peuvent être perçues et décryptées comme des textes culturels. Avec
la cartographie critique, Brian Harley a offert un « élargissement de l’horizon » [Gould
et Bailly, 1995] qui permet aujourd’hui de poser des questions sur les cartes qui
n’étaient pas considérées auparavant comme importantes.
214 Traces numériques et territoires
LA CARTOGRAPHIE CRITIQUE
Au moins quatre évolutions majeures sont ainsi venues rebattre les cartes.
Premièrement, l’irruption de nouveaux acteurs au-delà de la sphère géomaticienne
et étatique provoque de multiples recompositions. Les multinationales de l’Internet
ont toutes, qu’il s’agisse de Google, Microsoft, Facebook ou Apple, placé les
services de cartographie et de géolocalisation et le « crowdsourcing4 » au cœur de leur
stratégie. Le modèle de la cartographie officielle est également concurrencé par les
systèmes comme OpenStreetMap, fondés sur la contribution des utilisateurs et la
mouvance du libre [Noucher et Gautreau, 2013]. Deuxièmement, la popularisation
voire l’instrumentalisation de la figuration et du référencement cartographiques
conduit à la multiplication des mises en carte et à l’émergence de référentiels
géographiques relevant de logiques différentes des productions institutionnelles
classiques [Feyt et Noucher, 2014]. Troisièmement, l’accroissement des données
produites se double d’un accroissement des capacités d’accès effectif aux données,
notamment par la diffusion de plates-formes de partage sur Internet [Gautreau
et al., 2013]. Enfin, l’intégration de la géolocalisation dans un nombre sans cesse
croissant d’objets du quotidien avec la démultiplication des capteurs conduit à une
augmentation exponentielle d’empreintes numériques individuelles qui alimentent
la personnalisation algorithmique des cartes, i.e. la contextualisation des contenus
en fonction des profils des utilisateurs [Noucher, 2014].
4 Néologisme proposé en 2006 par Jeff Howe et Mark Robinson, rédacteurs en chef au magazine
Wired dans un article intitulé « The rise of crowdsourcing » (la montée du crowdsourcing). Jeff Howe
y explique que les sauts technologiques et la démocratisation des outils informatiques ont réduit
les écarts entre professionnels et amateurs, ce qui permet à des entreprises comme Google ou des
structures publiques comme Wikipedia de profiter du talent/travail des internautes. Une traduction
française a été proposée : « externalisation ouverte » [Lebraty, 2009].
216 Traces numériques et territoires
DE LA TRACE À LA CARTE
individuelles recueillies. C’est le cas, par exemple, des sites qui permettent le dépôt
de traces GPS pour cartographier – sans les agréger – les parcours de contributeurs
divers (randonnées pédestres, circuits de VTT, performances artistiques avec GPS,
etc.). A l’inverse, certaines contributions individuelles ne sont pas directement
représentées sous la forme de carte mais agrégées (par des opérateurs algébriques
qui peuvent être variés). Ainsi, l’application Noise Tube qui permet d’enregistrer
(via le micro du smarthphone), de géoréférencer (via le GPS intégré) et de qualifier
(via la saisie de tags dans des formulaires préformatés) des volumes sonores
propose des cartes qui ne sont pas l’expression des relevés personnels mais une
synthèse des apports individuels mis en commun. Notre deuxième axe d’analyse
(Figure 2) permet donc de distinguer le niveau de combinaison sous-jacent aux
analyses produites sur la base des données collectées.
Figure 2 : Deuxième axe d’analyse, cartographie individu-centrée versus cartographie par agrégation de
données individuelles
Le croisement de ces deux axes d’analyse nous permet donc d’identifier quatre
situations qui « donnent à voir » la variété des fabriques cartographiques qui
s’appuient aujourd’hui sur les traces quelles soient issues d’observations et de
pratiques de citoyens-capteurs (cas n° 1), produites par des capteurs GPS (cas n° 2),
en provenance de cyber-traces (cas n° 3) ou encore extrapolées à partir d’empreintes
numériques (cas n° 4).
218 Traces numériques et territoires
RÉFÉRENCES BIBLIOGRAPHIQUES
[Anderson, 1983] Anderson, B., 1983, Imagined Communities: Reflections on the Origin and
Spread of Nationalism, London and New York : Verso.
[Besse, 2006] Besse, J.-M., 2006, « Cartographie et pensée visuelle: réflexions sur la
schématisation graphique », exposé présenté lors de la journée d’étude « La
carte, outil de l’expertise aux XVIIIe et XIXe siècle ».
[Caquard, 2013] Caquard, S., 2013, « Collective cartographies in the social media era », Progress
in Human Geography, 38(1), 141-150.
[Craib, 2000] Craib, R., 2000, « Cartography And Power In The Conquest And Creation Of
New Spain », Latin American Research Review, 35(1), 7-36.
[Crampton, 2001] Crampton, J., 2001, « Maps as social constructions: power, communication
and visualization », Progress in Human Geography, 25(2), 235-252.
[de Certeau, 1990] de Certeau, M., 1990, L’Invention du quotidien, 1. Arts de faire, Paris : Gallimard
[1re éd. 1980].
[del Casino et Hanna, 2006] del Casino, V. J. et Hanna, S. P., 2006, « Beyond The “Binaries”:
A Methodological Intervention for Interrogating Maps as Representational
Practices », ACME : An International E-Journal for Critical Geographies, 4(1), 34-56.
222 Traces numériques et territoires
[Noucher, 2014] Noucher, M., 2014, « Du capital spatial au capital social des cartes participatives.
Pour un droit à la décontextualisation cartographique », EspacesTemps.net, http://
www.espacestemps.net/articles/pour-un-droit-a-le-de-contextualisation-
cartographique.
[Scott, 1998] Scott, J., 1998, Seeing Like a State: How Certain Schemes to Improve the Human
Condition Have Failed, New Haven, CO : Yale University Press.
[Steck, 2011] Steck, B., 2011, « Flux et territoires : de la trace à la marque, une question de
distance », In Galinon-Melenec, B. (éd.), L’Homme trace. Perspectives anthropologiques
des traces contemporaines, Paris : CNRS Editions, pp 249-270.
[Wood, 1992] Wood, D., 1992, The power of maps, New York : Guilford Press.
Dimensions spatiales de l’actualité internationale
La représentation des individus dans le New York Times
INTRODUCTION
Les actualités produites par les médias sont de plus en plus utilisées dans la
recherche universitaire comme des données permettant l’étude de phénomènes
sociaux divers. Leur étude permet ainsi de détecter et de modéliser des
phénomènes aussi variés que les mouvements sociaux, les « images-pays » (la façon
dont un espace donné est représenté et les thématiques qui lui sont associées)
ou les catastrophes naturelles. Ces dernières décennies, plusieurs chercheurs ont
également travaillé sur la définition et l’identification des événements médiatiques
[Dayan et Katz, 1992 ; McCombs et Shaw, 1972]. La prise en compte de la
dimension spatiale concernant la fabrication de l’actualité internationale a été au
cœur de plusieurs travaux théoriques et empiriques majeurs [Galtung et Ruge,
1965 ; Koopmaas et Vliegenthart, 2011], la question essentielle concernant la
recherche des mécanismes permettant d’expliquer le niveau d’attention médiatique
à des événements donnés. La transformation d’un fait en actualité, c’est-à-dire le
passage d’une situation se déroulant dans le monde à sa mention dans un ou
plusieurs médias d’information, dépend de facteurs liés tant à la distance qu’aux
conditions de production et de consommation de l’actualité, et ceci est encore
plus net pour l’actualité internationale [AFP, 2010].
Cet article est organisé en deux parties. La première partie détaille les problèmes
soulevés par les bases de données médiatiques traditionnelles et les avantages
potentiels de l’utilisation des flux RSS, hypothèse actuellement testée dans le cadre
226 Traces numériques et territoires
Dans la deuxième partie de cet article, un cas d’étude nous sert à valider l’intérêt
d’utiliser dans des études spatiales les flux RSS émis par les sites d’informations.
Centrée sur la place et l’espace – les espaces – des individus, notre étude montre
qu’une analyse qualitative et quantitative de ces flux permet de saisir en partie les
logiques sous-jacentes relatives à la production et à la diffusion de l’information. Les
logiques de personnalisation de l’information destinées à favoriser l’identification
du lectorat sont mises en évidence à travers le cas de l’actualité internationale du
New York Times. Cette analyse s’intéresse en particulier à deux types d’individus
identifiables dans les flux RSS : les stars mondiales et les anonymes.
Sans prétendre à l’exhaustivité, il est nécessaire de rappeler en premier lieu que les
études médiatiques ont une longue histoire et que de nombreuses pistes de recherche
ont été explorées ces dernières décennies. La recherche sur la valeur d’actualité d’un
fait – news value – [Galtung et Ruge, 1965], les travaux relatifs à la mise à l’agenda –
agenda setting – [McCombs et Shaw, 1972] ou encore les recherches sur l’événement
médiatique [Dayan et Katz, 1992] ont ainsi de manière complémentaire permis
d’éclairer les logiques médiatiques relatives à l’actualité internationale. Des travaux
empiriques se sont notamment intéressés aux mouvements sociaux [Herkenrath
et Knoll, 2011 ; Giraud et Severo, 2013], aux catastrophes naturelles [Koopmaas
et Vliegenthart, 2011] ou à l’image d’un espace donné [Robinet, 2013 ; Chaudhary,
2001], montrant une attention médiatique sensible à la localisation des différents
producteurs et diffuseurs d’information [Brooker-Gross, 1983]. Interroger les
interactions entre les aspects spatiaux, temporels et thématiques des faits devenus
événements médiatiques apparaît comme l’une des pistes prometteuses ouvertes
par des travaux récents [Koopmaas et Vliegenthart, 2011].
Ces études sont généralement basées sur l’analyse des médias traditionnels tels
que la presse et la télévision2. Comme on le sait [Earl et al., 2004], l’utilisation de
la presse pour l’étude de différents objets de recherche (par exemple le territoire)
peut soulever des critiques relatives à la collecte des données, à leur sélection et à
la description du contenu des articles [McCarthy et McPhail, 1996]. Cependant,
en accord avec Earl et al. [2004], nous estimons que les données de la presse,
en dépit de leurs limites, peuvent permettre d’étudier certains aspects que les
chercheurs ne pourraient guère approcher avec d’autres méthodes. Il est possible
de distinguer deux grands types d’études : des études de nature qualitative qui
ciblent le traitement réalisé par un média précis sur un événement donné ; des
études de nature quantitative qui cherchent à repérer des structures récurrentes
en prenant un corpus large dans le temps et/ou l’espace [Wu, 2000]. Chacune des
ces approches présente ses avantages et ses inconvénients.
L’utilisation de ces bases de données est non seulement coûteuse, mais elle soulève
aussi plusieurs problèmes méthodologiques et techniques. L’extraction des
données est généralement limitée (le plus souvent, impossibilité d’extraire plus de
100 items simultanément), que ce soit pour des raisons commerciales ou de droits
d’auteur, et la création de bases de données conséquentes est donc chronophage.
Au niveau méthodologique, ces bases de données sont peu transparentes en
ce qui concerne la variabilité de leur contenu ; des titres apparaissent, d’autres
disparaissent et la stabilité du corpus constitué n’est que trop rarement assurée.
Si elles permettent en théorie d’étudier de manière longitudinale de vastes corpus,
cette possibilité est plus apparente que réelle. Enfin, le problème du partage des
données est essentiel : il n’est pas possible avec ce type de fournisseurs de données
de s’inscrire dans des démarches d’open data et de recherche reproductible. Toutes
ces limites nous ont conduit à explorer une piste alternative, celle des flux RSS.
2 Nous nous limitons ici aux études portant sur la presse écrite.
228 Traces numériques et territoires
Nous proposons d’utiliser un autre type de données qui semble plus adapté à
des études de l’actualité internationale. Nous testons l’intérêt d’utiliser les flux
RSS fournis par les quotidiens d’information. Les fils RSS sont des fichiers
XML régulièrement mis à jour sur un site Internet et donnant une information
synthétique sur la mise en ligne d’un nouveau contenu ou l’actualisation d’un
contenu déjà présent. Un flux RSS est constitué de plusieurs items, chacun étant
construit selon certains standards techniques (RSS 1.0, RSS 2.0 et Atom) et
comprenant une série de champs obligatoires (date, titre, description, hyperlien).
En ce qui concerne les quotidiens d’information, chaque item correspond à un
article et contient un titre, qui coïncide généralement avec le titre de l’article, une
description, qui correspond soit à un résumé du contenu soit aux premières lignes
de l’article, et un lien vers l’article en question. La description est généralement très
courte et ne dépasse pas deux ou trois lignes. De façon plus rare, des métadonnées
autres peuvent être présentes (mots-clés, nom de l’auteur de l’article par exemple).
Les flux RSS présentent trois avantages majeurs : ils sont librement accessibles
et peuvent donc être archivés et documentés ; leur structure est d’une grande
homogénéité, ce qui les rend comparables et facilitent donc la constitution de
grands corpus ; ils sont produits en temps réel et permettent des analyses fines de
la diffusion d’une information dans l’espace médiatique international. Pourtant, les
flux RSS restent simultanément peu étudiés dans leur dimension technique et très
sous exploités dans leur dimension thématique [Thewall et Prabowo, 2007]. Les
rares études produites à ce jour s’intéressent quasi exclusivement aux dimensions
techniques du flux RSS [Hmedeh et al., 2011] et concernent notamment l’utilisation
de différentes spécifications [Hammond et al., 2004 ; Hammersley 2005]. Une
recherche intensive nous a permis de repérer une poignée d’exceptions, ainsi des
études portant sur l’utilisation des flux RSS dans le domaine de l’éducation [Duffy
et Bruns, 2006] et de l’édition scientifique [Hammond et al., 2004]. Plus récemment,
la valeur informationnelle des flux RSS a été étudiée, Marty et al. [2009, 2010, 2012]
se sont notamment intéressés à la pluralité de l’information disponible en ligne en
analysant le contenu de plusieurs centaines de flux RSS. Si les études sur la presse
en ligne font preuve d’un dynamisme général [Dagiral et Parasie, 2012], les flux RSS
comme dispositif informationnel original ont à ce jour peu mobilisé les chercheurs.
Si la littérature sur le sujet reste réduite, nous pouvons cependant noter que plusieurs
chercheurs ont récemment basé tout ou partie de leurs protocoles de recherche sur
des flux RSS, sans d’ailleurs questionner ou justifier leurs choix méthodologiques.
En France, l’Agence nationale de la recherche (ANR) a financé plusieurs projets
dans ce sens : l’Observatoire Trans-média (http://www.otmedia.fr) dont l’ambition est
de détecter les événements médiatiques dans l’ensemble de la sphère médiatique
(Web, presse, radio et télévision) ; le projet ChronoLines (http://chronolines.fr) dont
l’objectif est de modéliser des « chronologies basés sur l’événement » en analysant
Dimensions spatiales de l’actualité internationale 229
Un dernier point mérite d’être rappelé. En 2013, Google Reader, le plus gros
agrégateur de flux RSS, a fermé et certains acteurs des médias et de l’Internet ont
alors annoncé la mort du RSS. Ces derniers restent pourtant produits et diffusés.
Même si des moyens alternatifs d’accès à l’information se développent, notamment
via les pages Facebook des différents médias ou des plates-formes dédiées à la
diffusion de contenu vers les smartphones et assimilés, ce format reste encore
largement utilisé aujourd’hui par de nombreux quotidiens d’information. Il apparaît
donc utile de continuer à explorer les possibilités offertes par ce dispositif technique.
Les objectifs majeurs du projet Corpus Géomédia sont d’une part d’identifier
les flux d’information entre Etats (quels sont les lieux d’intérêt en fonction de
la localisation du média émetteur ? Quels sont les lieux souvent associés ?) et
d’autre part de définir la catégorie d’événement international (peut-on notamment
distinguer au sein de notre corpus entre des événements internationaux,
régionaux ou globaux ?). En raison de la taille du corpus collecté, des procédures
automatiques sont nécessaires pour caractériser les items récoltés.
230 Traces numériques et territoires
En ce qui concerne les événements, il est nécessaire que leur spectre lexical soit aussi
réduit que possible afin de pouvoir être identifié dans notre corpus. Ainsi, l’étude
de l’épidémie d’Ebola n’a pas soulevé de problèmes méthodologiques majeurs
dans la mesure où, quels que soient le journal et la langue, il n’y a pas d’ambiguïté
relative aux termes utilisés. De manière similaire, l’identification d’un nom propre
d’une personne comme Edward Snowden ou Dominique Strauss-Kahn [Grasland
et Severo, 2014] s’est démontrée très efficace. Inversement, extraire tous les items
relatifs au terrorisme par exemple serait beaucoup plus délicat donc la mesure où
les termes utilisés pour décrire le phénomène sont nombreux et polysémiques
(une attaque peut être cardiaque et toucher une personnalité ou désigner une
attaque terroriste) ; de plus, de nouveaux acteurs et de nouveaux termes émergent
régulièrement et de façon imprévisible (Charlie-Hebdo est par exemple devenu à
l’échelle mondiale synonyme d’attaque terroriste en janvier 2015).
selon les journaux et la période étudiés [Severo et al., 2014]. La hiérarchie des
lieux dans l’actualité internationale est un sujet de recherche ancien et nous
examinons si, malgré les changements majeurs de la production et de la diffusion
de l’information liés à l’essor de l’Internet, des règles proposés il y a près de 50
ans restent valides aujourd’hui – les premières études semblent montrer que c’est
le cas et qu’Internet ne change guère les configurations d’ensemble [Paterson,
2005]. Enfin, une troisième piste consiste à s’intéresser aux cooccurrences de lieux
dans les items RSS [Giraud et Severo, 2013]. Ce sujet de recherche, peu abordé à
ce jour, permet de mettre en évidence les hiérarchies et les structures politiques
globales [Beauguitte et Severo, 2014].
Nous cherchons par ailleurs à valider l’utilisation des flux RSS pour des approches
mixtes, mêlant méthodes quantitatives et qualitatives [Giraud et Severo, 2013], et
visant à interroger la dimension spatiale de l’actualité internationale. La deuxième
partie de cet article s’inscrit dans cette démarche mixte et s’intéresse à la place de
l’individu dans le flux RSS international du New York Times et aux espaces qui lui
sont associés.
Suivant des études antérieures, nous nous attendons à trouver trois grands types
d’individus : les stars mondiales, les élites et les gens ordinaires (« common people »,
voir Galtung et Ruge, 1965). Les caractéristiques attendues sont les suivantes :
- la star mondiale est toujours nommée, elle apparaît à plusieurs reprises dans
l’actualité et son action se déploie sur une large gamme d’échelles (du local
au global) ;
- la personne ordinaire n’apparaît qu’une fois et n’est pas nommée. Elle est
ancrée localement mais, pour justifier sa place dans l’information internationale,
son cas est considéré comme le symbole d’une situation plus vaste. Elle peut
également jouer le rôle de source ou de témoin d’une actualité ;
L’ensemble des 1 304 éléments du flux RSS de la rubrique internationale émis par
le New York Times entre le 1er janvier et le 31 mars 2013 a été codé par les deux
auteurs afin de répondre aux questions suivantes : y a-t-il présence d’un individu dans
l’item du flux ? L’individu est-il nommé ou anonyme ? Est-il possible de déterminer
l’échelle de l’actualité (locale, nationale, mondiale etc.) ? Ce dernier item a été le
plus délicat à coder : de rares flux sont a-spatiaux (« Oscar Pistorius, the double amputee
Olympic runner accused of murder, will be allowed to travel abroad under strict conditions »4, item
du 28 mars 2013), d’autres mêlent plusieurs espaces de référence (« The United States
government has petitioned the Irish High Court to extradite an Algerian man living in Ireland
on terrorism charges relating to a plot to kill a Swedish artist »5, item du 1er mars 2013 – cet
item n’est absolument pas représentatif dans la mesure où sa complexité spatiale est
très largement supérieure à l’immense majorité des items). Les catégories utilisées
sont les suivantes : 0 (pas d’espace explicite), local (infra-national, exemple une ville,
un Etat américain, etc.), national, inter-national (relation entre deux ou trois Etats),
régional (supra-national comme Europe, Asie, etc.), global.
4 Oscar Pistorius, le coureur olympique double amputé accusé d’assassinat, sera autorisé à voyager
à l’étranger dans des conditions strictes.
5 Le gouvernement des Etats-Unis a demandé à la Haute Cour irlandaise d’extrader un Algérien
vivant en Irlande sur des accusations de terrorisme liées à un complot visant à tuer un artiste suédois.
Dimensions spatiales de l’actualité internationale 233
6 Un enquêteur des Nations Unies, dont un rapport sur l’utilisation par la CIA de détentions
secrètes et de techniques d’interrogatoire doit être publié, a accusé les Etats-Unis publiquement.
234 Traces numériques et territoires
Figure 1 : Benoît XVI et François Ier dans le flux RSS international du NYT
Obama est durant la période considérée la seule personnalité qui apparaisse à une
telle fréquence et avec une telle pluralité d’échelles. Il faut signaler qu’il n’y a pas de
biais lié à la nationalité du journal : Barak Obama est la personnalité politique la plus
citée dans la grande majorité des journaux de notre corpus. Hugo Chavez est présent
selon des modalités différentes : son hospitalisation à Cuba crée une actualité inter-
nationale (Vénézuela, Cuba), les conséquences de son décès sont évoquées à toutes
les échelles possibles (réactions locales au décès, deuil national, hommage dans des
pays tiers, conséquences au niveau régional, etc.), et enfin sa succession devient un
problème national avant que son nom ne disparaisse de l’actualité.
Enfin, le cas Pistorius est intéressant car il permet de saisir en partie la temporalité
d’une actualité. Si du point de vue de l’échelle, l’actualité est toujours à une échelle
locale – explicite ou non (cf. supra) –, du point de vue temporel l’articulation est
plus complexe. Deux temps apparaissent : un premier temps, très resserré, où 5
items le citent (20 au 22 février) et qui correspond à l’apparition du fait divers dans
l’actualité ; un second temps, moins riche (2 items seulement), et plus lâche (un
Dimensions spatiales de l’actualité internationale 235
La relation la plus évidente qui émerge est entre l’échelle locale, d’un côté, et
activistes et victimes, de l’autre. Une actualité liée à une protestation ainsi qu’à
un fait violent qui touche une victime est souvent localisée de manière précise.
Une exception est liée au cas du garçon russe trouvé mort au Texas, ce qui rend
l’actualité internationale (« Adopted Boys Death in U.S. Stirs Outrage in Russia. The
authorities in Texas are careful about commenting on a 3-year-olds death, with investigations
continuing »7). Pour les autres catégories, il n’est pas toujours possible d’identifier
des connections aussi claires. Par exemple, les fonctionnaires peuvent être liés à
toutes les échelles et dans de contextes très différents. A noter qu’ils sont souvent
cités comme source de l’information (« … an official in Dar es Salaam said », « … a
top official with the World Health Organization said » ou « A judge said that… ») et, dans
ce cas précis, il faut prendre en compte le phénomène de l’anonymat des sources
(« said a military official who declined to be named ») [Lambert, 2001].
Un sujet d’études prometteur concernant les liens entre espaces et médias est le
fait de nommer ou non les personnes, notamment lorsque celles-ci appartiennent
à l’élite politique d’un Etat. Ainsi il semble, mais des études approfondies
seraient nécessaires pour confirmer ce fait, que si les responsables politiques
américains sont systématiquement nommés, ce n’est pas le cas que pour les chefs
d’Etat et les ministres étrangers de certaines nationalités (Chine et Royaume-
Uni notamment). Les responsables ministériels d’autres Etats ne sont nommés
qu’exceptionnellement. Dans notre échantillon, 21 articles concernent des
autorités étrangères non nommées (« The foreign ministers of Japan and the Philippines »,
7 La mort d’un garçon adopté aux Etats-Unis provoque un scandale en Russie. Les autorités du
Texas font preuve de prudence en commentant la mort d’un enfant de trois ans, tandis que les
enquêtes se poursuivent.
236 Traces numériques et territoires
« Greek Prime Minister »). Une étude comparative avec les flux émis par d’autres
journaux d’origine différente donnerait sans doute des résultats intéressants.
CONCLUSION
L’objectif de ce chapitre était double : souligner l’intérêt des flux RSS dans
les études médiatiques ; s’intéresser à la place de l’individu dans l’actualité
internationale. Un troisième objectif était de montrer l’intérêt d’une analyse
qualitative d’une information simultanément abondante et pauvre, les flux RSS,
dans des études territoriales.
Si le flux RSS est un dispositif largement utilisé par les médias d’information, peu
d’études ont à ce jour cherché à les exploiter thématiquement. Le corpus construit
au sein de l’ANR Géomédia et destiné à être rendu accessible à la communauté à
l’issue du projet (démarche d’open data) fournira une base documentée susceptible
d’alimenter des travaux de recherche liés à l’actualité internationale. Le flux RSS
est certes une donnée qualitativement pauvre (quelques lignes de texte seulement),
il permet pourtant de saisir diverses logiques relatives à la construction et à la
diffusion de l’actualité. La facilité de sa collecte pour des médias divers est un
atout pour l’étude comparative de médias de différentes origines.
L’analyse exploratoire menée ici montre que l’individu, anonyme ou non, est
mobilisé très fréquemment par les journalistes pour mettre en scène l’actualité
internationale. Une poignée d’individus est susceptible de revenir fréquemment
dans l’actualité et à des échelles variées tandis que la très grande majorité fait une
apparition rapide, souvent anonyme et généralement mono-scalaire. Dans le cas
de faits divers impliquant des célébrités, une construction feuilletonesque, en
épisodes, apparaît. La courte étude de cas présentée dans ce texte ne permet pas
de généraliser ces évidences à toute l’actualité internationale et des démarches
comparatives (types de journaux différents, nationalités de journaux variées) sur
une période plus longue apporteraient sans nul doute d’intéressants résultats.
RÉFÉRENCES BIBLIOGRAPHIQUES
Tous les liens indiqués étaient valides lors de l’écriture de ce chapitre (avril 2015).
[AFP, 2010] AFP, 2010, Abécédaire de l’AFP. Comment l’Agence informe sur le monde, Paris :
Victoire Editions.
[Beauguitte et Pecout, 2014] Beauguitte, L. et Pecout, H., 2014, « Courte présentation du corpus
Géomédia », Blog Corpus-Géomédia, http://geomedia.hypotheses.org/209.
[Beauguitte et Severo, 2014] Beauguitte, L. et Severo, M., 2014, « Les flux RSS pour les
études territoriales : une analyse de l’individu et ses espaces dans les actualités
Dimensions spatiales de l’actualité internationale 237
[McCarthy et McPhail, 1996] McCarthy, J. et McPhail, C., 1996, « Images of Protest: Dimensions
of Selection Bias in Media Coverage of Washington, 1982 and 1991 », American
sociological review, 61(3), 478-499, http://www.jstor.org/stable/10.2307/2096360.
[Mercier, 2006] Mercier, A., 2006, « Logiques journalistiques et lecture événementielle des faits
d’actualité », Hermès, 46, 23-35.
[Ostgaard, 1965] Ostgaard, E., 1965, « Factors Influencing the Flow of News », Journal of Peace
Research, 2(1), 39-63.
[Paterson, 2005] Paterson, C., 2005, « News Agency Dominance in International News on the
Internet », In Skinner, D., Compton, J.R. et Gasher, M. (dir.), Converging Media,
Diverging Politics: A Political Economy of News Media in the United States and Canada,
Lanham : Lexington Books, pp 145-64.
[Robinet, 2013] Robinet, F., 2013, « La fabrique médiatique des événements internationaux :
Afrique, un continent en marge (1994–2008) ? », Le Temps des médias, 20(1), 152-67.
[Severo et al., 2014] Severo, M., Douay, N., Giraud, T., Grasland, C., Nielsen, M., Pecout, H. et
Texier, M., 2014, Tools (2011-2014). Feasibility Study on Analytical Tools based on Big
Data, final report, ESPON project.
[Severo et al., 2012] Severo, M., Giraud, T. et Douay N., 2012, « The Wukan’s protests: just-in-time
identification of international media event », In Proceeding of Workshop Just-in-Time
Sociology, SocInfo international conference.
[Smyrnaios et al., 2010] Smyrnaios, N., Marty, E. et Rebillard, F., 2010, « Does the “Long Tail”
apply to online news? A quantitative analysis of French-speaking websites », New
Media and Society, 12(8), 1244-1261.
[Thelwall et Prabowo, 2007] Thelwall, M. et Prabowo, R., 2007, « Identifying and characterizing
public science-related fears from RSS feeds », Journal of the American Society for
Information Science and Technology, 58(3), 379-390.
[Wu, 2000] Wu, D.H., 2000, « Systemic Determinants of International News Coverage: A
Comparison of 38 Countries », Journal of Communication, 50(2), 110-30.
Reconfiguration des pratiques participatives
Le cas de « Carticipe »
INTRODUCTION
nous rappelle que la carte est un instrument de pouvoir qui peut permettre le
dialogue entre des savoirs experts et des savoirs habitants. Elle peut ainsi devenir
une production citoyenne au service de l’appropriation et de la transformation
de l’espace. Dans cette perspective, la carte comme arène numérique de la
planification urbaine permettrait ainsi aux différents porteurs d’enjeux d’exprimer
et de confronter leurs intérêts divergents et, surtout, de dialoguer pour travailler
collectivement à une stratégie.
Problématique et hypothèses
Nous proposons d’étudier les nouvelles pratiques citoyennes de militantisme et de
participation à l’ère du numérique en nous appuyant principalement sur deux études
de cas : celle des pratiques participatives numériques émergentes de la plate-forme
Carticipe1 à Marseille et Strasbourg : « On dit Carticipe, on ne met pas d’article devant.
C’est une marque, un concept, on dit Carticipe sans article » (entretien fondateur)2.
L’intérêt de cette monographie sur Carticipe est à chercher dans l’analyse illustrée du
développement de dispositifs concrets qui viennent cadrer et encadrer les actions
et les représentations des acteurs sociaux, du côté des objets techniques, des outils
et des instruments et participent ainsi au débat public local.
Notre méthodologie repose sur une analyse des Carticipe de Marseille et Strasbourg
et des données qui y sont associées, notamment celles sur les idées et les
contributeurs, un questionnaire auprès des utilisateurs et une série d’entretiens
avec le créateur et un échantillon d’utilisateurs. Une attention aux débats publics
en aménagement à Marseille et Strasbourg s’appuie sur une revue de presse locale
Une seconde série porte sur le processus et les pratiques militantes : par-delà
l’artefact marketing et le processus de labellisation [Douay et Prévot, 2014] quel
degré et quelle forme d’engagement actif du grand public dans la lecture et
l’écriture de cartes y-a-t-il à l’œuvre dans ces expérimentations en ligne ?
l’action publique aurait perdu toute ambition substantielle pour orienter l’action et
serait réduite à un rôle procédural visant à créer les « bonnes » conditions du dialogue
entre des intérêts divergents et fragmentés ?
3 http://www.reperageurbain.com.
Reconfiguration des pratiques participatives 243
Figure 1 : L’environnement technique des sites Web Carticipe. Source : http://carticipe.files.wordpress.
com/2014/05/compar-stbg-mars.jpg
Les propositions sont libres mais doivent s’inscrire dans une des catégories
proposées. Celles-ci sont volontairement assez générales et hiérarchisées avec
des sous-catégories. La catégorisation et le design vont rendre opérationnels un
format de participation [Baudouard, 2014] qui est orientée vers une dimension.
En même temps que ces applications ouvrent des possibles, elles cadrent aussi les
244 Traces numériques et territoires
conditions de leur réalisation en exerçant une contrainte normative sur les pratiques
des internautes : elles rendent donc possible la réalisation d’une action d’une certaine
façon, note à juste titre Romain Badouard. Il est donc demandé aux utilisateurs de
situer eux-mêmes leurs propositions dans ces différentes catégories :
- Mobilité et espaces publics ;
- Bâti, constructions ;
- Activité économique, commerce ;
- Sport, culture, services, publics ;
- Espaces verts, nature, environnement.
Toutefois le lien n’est pas toujours évident et il arrive même que les participants jouent
de ces possibles ambiguïtés. Par exemple, à Marseille, dans la catégorie « Mobilités
et espace public », un participant évoque la question des ordures ménagères et fait
le lien avec les rapports avec les syndicats (ce qui est historiquement désigné à
Marseille comme étant de la cogestion entre la Mairie et le syndicat majoritaire FO)
et finalement le mode de gouvernance de la municipalité, voire le maire lui-même :
« en finir avec l’hégémonie Force Ouvrière (FO) sur la mairie. Audit des services
municipaux afin de fusionner un maximum d’entités pour faire des économies.
Arrêter d’acheter la paix sociale par le biais de subventions d’associations. Un
nouveau maire ambitieux et à temps plein » (florent.bernier.98). L’environnement
du site apparait donc comme un guide mais pas forcément comme une contrainte
technique forte au point d’empêcher les propositions de s’exprimer. Les choix
ergonomiques dessinent donc un environnement sociotechnique ouvert qui tente
de répondre aux critiques habituelles sur les dispositifs classiques de participation
tels que les conseils de quartier ou les enquêtes publiques.
Ensuite, le site est centré autour des différentes propositions qui vont occuper
l’avant-plan de la carte, le site invite donc à contribuer et surtout à prendre part
aux débats à travers les injonctions à « ajouter », « voter » et « commenter » qui
vont baliser la navigation et définir une procédure de participation. Au-delà de la
simple proposition d’une idée, il y a donc la possibilité de voter pour ou contre les
contributions des autres internautes. Dans ce cas nous ne savons pas qui a voté,
mais il faut être inscrit sur la plate-forme pour pouvoir participer au vote ce qui
Reconfiguration des pratiques participatives 245
Les participants ont l’obligation de créer un profil mais ils peuvent utiliser un
pseudonyme, ils ont aussi la possibilité de se connecter par l’intermédiaire du réseau
social Facebook. Ils sont invités à déclarer leur commune et quartier de résidence
ainsi que l’âge, mais le site précise que ces informations sont réservées à l’équipe de
Carticipe et à la presse. Ces choix ergonomiques correspondent au désir des créateurs
du site qui ne voulaient pas brider d’éventuels participants qui auraient peur de sortir
de l’anonymat. L’identité des carticipants est donc à la fois déclarative, agissante
et calculée des internautes : « [… ] on a décidé de laisser en optionnel les fiches
signalétiques très sommaires qu’on a mises en place. On propose aux gens de mettre
leur quartier et leur âge, leur commune de résidence. [… ] On va certainement la
rendre obligatoire dans le cadre de prochaines consultations » (entretien fondateur).
Environ un tiers des participants font apparaître leur nom de famille. Certains
des participants sont impliqués, nous le verrons, dans la vie associative ou civique
de la cité, mais ces appartenances ne sont pas utilisées de manière explicite. La
contribution à Carticipe est donc plutôt envisagée comme un engagement individuel
par le recours à une identité numérique qui n’est pas forcément une identité publique.
Ainsi il est possible de voir la liste des différentes idées proposées par un participant
mais pas ses votes et enfin il n’est pas possible de créer un réseau de contact entre
les participants.
En résumé, la structure du site donnerait donc ici aisément à voir ce qui est
attendu des participants. Ces différents éléments ne doivent pas être isolés d’autres
types de ressources de type organisationnel comme les principes de modération
ou, dans le cas de Carticipe, les représentations graphiques présentes sur le site :
elles constituent également des formes de cadrage et d’incitation à l’action et à
l’échange qui traduisent une certaine conception de l’usager/participant (ce qu’il
est censé faire, dire, ne pas faire ou ne pas dire).
La plate-forme a été testée une première fois à Laval (50 000 habitants) dans le cadre
de la concertation du Plan local d’urbanisme (PLU). Après six mois d’utilisation,
Carticipe4 avait recueilli 613 suggestions, 478 commentaires et plus de 4 000 votes
de la part de 359 inscrits sur la plate-forme, voire plus de 500 participants en
comptant les contributions directes lors des ateliers de quartier. Au-delà de cette
utilisation institutionnelle qui démontrait que les outils numériques permettent
de rejoindre plus de citoyens que les forums classiques de la participation, deux
utilisations citoyennes se sont développées en association avec des médias locaux
dans la perspective des élections municipales de mars 2014. Fin août 2013, Carticipe
Strasbourg 20285 est lancé avec le soutien du journal en ligne Rue89Strasbourg.
En janvier 2014, le site avait engendré plus 38 000 pages vues par plus de 10 700
visiteurs uniques et par ailleurs on notait plus de 620 suggestions, plus de 1 700
commentaires et plus de 11 000 votes, le tout avec plus de 780 contributeurs. Enfin,
Carticipe Marseille-Provence6 a été lancé mi-décembre 2013 avec le soutien du
journal en ligne Marsactu.fr. En janvier 2014, le site avait généré plus 7 500 pages
vues et recueilli plus de 300 suggestions, plus de 600 commentaires et plus de 4 500
votes, le tout avec plus de 320 contributeurs.
4 http://laval2021.carticipe.fr.
5 http://strasbourg2028.carticipe.fr.
6 http://marseille.carticipe.fr.
plus de 24 000 pages vues par plus de 8 000 personnes en 5 mois à Marseille. Les
propositions déposées sur la carte ont donc intéressé en moyenne 15 « curieux »
pour 1 contributeur actif. Notons que les deux sites atteignent un public équivalent
en rythme mensuel : 4 700 pages par mois à Strasbourg, contre 4 800 à Marseille.
Ces chiffres sont donc à replacer dans le cadre d’une expérimentation limitée en
termes de moyens techniques et de supports médiatiques. Toutefois, au regard des
publics mobilisés dans les dispositifs classiques de la participation, ils apparaissent
assez importants (cf. Tableau de synthèse).
Pour autant, nous assisterions bien ici à ce qu’Alexandre Coutant et Thomas Stenger
évoquent sous le terme de « tripartition »7, autrement dit : « 1 % de contributeurs,
9 % de commentateurs pour 90 % de lecteurs »8. Cela ramène aussi au constat que
nous avons fait sur la participation à Carticipe, qui est essentiellement faite de votes,
puis de commentaires et enfin de création d’idées. Les deux auteurs rappellent aussi
que l’accessibilité aux sites en ligne repose sur les compétences à participer, qui
restent très inégales. De même, l’enquête Sociogeek9 (lancée par la Fondation Internet
Nouvelle Génération (Fing)) démontre qu’au-delà des compétences techniques,
la capacité à participer et à bâtir une autorité au sein d’espaces et de publics est
fortement liée au capital culturel. Cependant, nous pouvons émettre l’hypothèse
selon laquelle le numérique permet à des citoyens qui ne participent pas aux forums
classiques de la participation de trouver une façon plus simple de participer : « c’était
plus simple [… ] parce que c’était numérique, j’étais chez moi, je l’ai vu, j’ai cliqué
dessus et je pouvais me connecter à chaque fois et proposer mes idées, débattre ou
voter pour des idées » (entretien n° 2 avec un contributeur). Cela permet aussi de se
sentir plus légitime à le faire par ces médias ou du moins de dépasser une certaine
timidité : « j’ai jamais participé à un forum classique de participation mais c’est un
regret, c’est vraiment par manque de temps. [… ] En fait, j’ai pas de connaissance
scientifique en termes d’urbanisme, c’est juste une passion, je suis un amateur et je ne
me sens pas capable d’avoir toutes les connaissances nécessaires pour participer à ce
genre de choses ou rentrer dans un collectif avec des personnes qui s’y connaissent
vraiment qui ont fait des études dans le domaine [… ] » (entretien n° 1 avec un
contributeur). Dés lors, la participation à Carticipe est justifiée par son côté « ouvert
à tous » qui donnerait plus de poids à la participation citoyenne : « je pense que c’est
plus mis en valeur sur ce type de support, sur Carticipe. Parce que déjà c’est plus
facile, on peut le faire tranquillement chez soi en rentrant. C’est plus accessible. Et le
système de bulles qui grossissent au fur et à mesure que les votes augmentent. C’est
assez intéressant, cela permet de mettre en avant les projets qui fédèrent » (entretien
n° 1 avec un contributeur).
Alors que les publics des dispositifs classiques de la participation sont souvent
caractérisés comme étant plutôt âgés, masculins, blancs et disposant d’un fort capital
socio-économiques, les plates-formes numériques, notamment les réseaux sociaux,
valoriseraient un modèle de citoyenneté active favorisant les jeunes [Coleman, 2008 ;
Bennett, 2008].
Carticipe semble correspondre à ce modèle avec un public plus jeune mais surtout plus
diversifié que celui que l’on trouve, par exemple, au sein des partis politiques : « […
] à Marseille, ce n’est pas que des propositions de catégories sociales déterminées
parce qu’on a des propositions sur les quartiers nord, on a des noms à consonance
maghrébine puisque ça constitue une bonne partie de la population marseillaise.
On intéresse les gens de différentes origines, cela ne veut pas dire que ce sont
les plus pauvres ou les plus incultes qui sont connectés. [… ] souvent on récolte
tous les bac+5 dans les quartiers HLM et c’est là aussi qu’on fait découvrir aux
services administratifs qu’il y a des bac+5 dans les quartiers HLM dont une partie
des administrants et des administrés ont peur ! » (entretien fondateur).
Le niveau de revenus moins élevé dans le nord de la ville n’empêche pas un niveau
de participation important. Toutefois, il convient de noter que la localisation des
projets correspond souvent à l’espace de proximité des participants mais pas
forcément comme nous pouvons le penser pour les projets de l’espace central.
Il semble aussi plus ouvert à la diversité ethnique. A cet égard, les débats récurrents
sur la représentation de la diversité ethnique des élus municipaux marseillais sont
assez révélateurs. Souvenons-nous du film Rêves de France à Marseille (2003) de Jean-
Louis Comolli et Michel Samson qui retraçait le parcours de différents candidats de
la diversité lors des élections municipales de 2001 dont une certaine Samia Ghali
qui se retrouvera au cœur des débats sur ces enjeux lors des primaires socialistes de
Reconfiguration des pratiques participatives 249
2014 pour ces mêmes élections. La participation en ligne permet donc l’ouverture
sur de nouveaux publics mais la décision reste l’apanage d’une petite minorité.
Figure 2 : Niveau de participation et revenus. Source : http://carticipe.files.wordpress.com/2014/05/
1924917_10151938850092126_840937876_o.jpg, réalisation par Benjamin Hecht de Repérage
urbain
Figure 3 : Impact de la densité sur le niveau de participation. Source : http://carticipe.files.wordpress.com
/2014/05/10269916_10151938850047126_1317254630_o.jpg, réalisation par Benjamin Hecht
de Repérage urbain
250 Traces numériques et territoires
dans les forums off-line. L’apport du numérique se situerait donc plutôt dans la
capacité à élargir un peu les publics impliqués dans le débat public. En ce sens, la
participation via Carticipe constituerait donc en quelque sorte une des réponses à la
contre démocratie ou la politique à l’âge de la défiance qu’évoque P. Rosanvallon10
en offrant de nouveaux médias pour faire participer de nouveaux publics sans
forcément ouvrir vers une plus grande diversité de situations socio-économiques.
Cela est particulièrement observable dans le cas de Marseille où la vie politique
locale est marquée par de nombreuses affaires touchant les différents partis ce qui
peut tenir à l’écart des milieux militants des citoyens qui souhaiteraient s’engager
mais ne se reconnaissent pas dans les structures partisanes : « oui il y a 4 ou 5 ans,
je voulais m’inscrire dans un parti politique, tout ça… mais c’était une vague idée.
[… ] Il y a eu l’affaire Guérini, je me suis dit nan mais c’est bon. Puis après je me
suis rendu compte de la moisissure qu’il y avait en politique en général et cela m’a
découragé, mais je ne regrette pas. [… ] Mais j’ai toujours été intéressé par les
questions publiques. Depuis que je suis tout petit je dessine des plans de villes.
C’est quelque chose… je suis né avec ! » (entretien n° 1 avec un contributeur). Plus
fondamentalement peut-être, la création de ce site par d’anciens militants, associée
au profil militant ici esquissé de ceux qui s’y investissent doit nous interroger sur
le rôle des NTIC dans la disparition des structures sociales intermédiaires (partis,
syndicats) traditionnellement disposées entre l’individu et la collectivité, au sens
générique. Dès 1975, Joël de Rosnay dans Le Macroscope avait établi une vision
prospective assez élaborée par laquelle il évaluait les effets sociaux et politiques de
ce que sont devenus entre temps les NTIC. Il y annonçait comment l’interactivité
affecterait les rapports sociaux et le fonctionnement démocratique de nos sociétés
occidentales en modifiant l’équilibre entre démocratie représentative et participation
citoyenne. A ceci près d’essentiel qu’il n’avait alors anticipé ni la miniaturisation,
ni le coût toujours plus bas du numérique. Ce sont pourtant précisément ces deux
derniers aspects qui ont été stimulés par une aspiration sociale toujours plus forte
à l’individualité, contribuant à créer un marché économique à part entière. Cette
« numérisation miniaturisée » à l’échelon individuel, en court-circuitant les structures
intermédiaires traditionnelles telles qu’elles étaient aussi inscrites dans un territoire
physique (cellule, fédération, section, etc.) a produit en retour une vacuité propice
à la prolifération de structures intermédiaires d’un genre renouvelé et démultiplié,
dont les réseaux sociaux et autres plates-formes numériques telles que Carticipe
sont les illustrations. Ce mouvement continu d’individualisation permet à chacun
d’adhérer à différentes structures sociales, communautaires ou « tribales » plus ou
moins éphémères, démultipliant ainsi ses identités au gré de ses disponibilités et
de ses choix.
10 https://www.uclouvain.be/cps/ucl/doc/etes/documents/2008.Rosanvallon.cdemo.pdf.
252 Traces numériques et territoires
Figure 4: Bilan des 3 Carticipe. Source : Eric Hamelin, 2014, Carticipe Strasbourg et Marseille :
petit bilan quantitatif comparé, http://carticipe.net/2014/05/23/carticipe-strabourg-et-marseille-
petit-bilan-quantitatif-compare
Reconfiguration des pratiques participatives 253
Mobilité et
272 547 2 798 3 147 349 3 496 90 % 10 %
espaces publics
Bâti,
54 123 512 654 142 796 82 % 18 %
constructions
Activité
économique, 29 59 304 380 76 456 83 % 17 %
commerce
Sport, culture,
services, 84 174 834 1 002 168 1 170 86 % 14 %
publics
Espaces
verts, nature, 67 133 840 951 111 1 062 90 % 10 %
environnement
Au regard des données de mai 2014 (total de 463 idées), il y a 951 commentaires
produits par 118 internautes différents et 463 idées émises par 108 carticipants
différents. Comme ce ne sont pas toujours les mêmes qui déposent les idées et
font les commentaires, il y a au total 158 carticipants créatifs ayant déposé des
contributions écrites, idées ou commentaires. On peut donc constater le niveau
d’engagement suivant : 1 inscrit sur 2,8 contribue par écrit en rédigeant des avis, les
autres se contentant de voter.
L’observation plus fine des idées proposées montre une certaine concentration.
Ainsi, le principal participant, Hugo Lara, comptabilise à lui seul 28 propositions,
soit 6 % de l’ensemble. De même 10 % des contributeurs ont-ils proposé 44 %
des idées tandis que 35 % des participants n’en ont proposé qu’une seule.
254 Traces numériques et territoires
Figure 6 : Visualisation d’une proposition (rue de Paradis – Marseille).
Source : Tournadre Anthony / Carticipe – Marseille
Les questions de transports dominent les débats avec des propositions qui vont
se concentrer sur la nécessité d’améliorer la situation des transports publics. Les
propositions concernent le développement des réseaux de bus mais aussi de
métro, de tram ou encore de tram-train sans oublier l’échelle métropolitaine avec
les liaisons avec les villes d’Aix-en-Provence ou encore d’Aubagne.
Reconfiguration des pratiques participatives 255
La question des politiques culturelles est aussi débattue avec la suite à donner à
l’année 2013 pendant laquelle Marseille était capitale européenne de la culture. Les
propositions portent sur le renouveau de l’offre culturelle et artistique notamment
en matière de cinémas.
CONCLUSION
À Strasbourg et Marseille, Carticipe reposent sur des médias locaux qui tentent
de peser sur le débat public local. Cela correspond à un engagement militant de
professionnels de la ville et des médias au service d’un urbanisme plus collaboratif
mais la question des effets de l’expérimentation reste entière : « à Strasbourg et à
Marseille on est dans une expérience plus médiatique. C’est médiatico-politique
mais ce n’est pas une commande de la mairie. [… ] C’est un truc qu’on a monté
en proposant un partenariat aux médias locaux en ligne pour se faire mousser
dans la campagne en montrant qu’on pouvait apporter des idées de l’extérieur.
C’est le côté de bas en haut, participatif, initiatives non politiques quoi » (entretien
fondateur). Pour dépasser le « marketing participatif » [Aldrin et Utard, 2008], il
faut interroger les dynamiques possibles d’institutionnalisation et de pérennisation
de la plate-forme. En effet, la participation publique renvoie aussi aux acteurs
institutionnels de l’aménagement. Les innovations numériques cohabitent donc
aux côtés des autres dispositifs plus classiques de la participation. En l’absence de
moyens et de supports politiques, le risque est de n’être qu’un gadget qui masque la
permanence des mécanismes classiques de décision. Les acteurs institutionnels de
la participation doivent donc réfléchir aux moyens alloués aux différents dispositifs
de la participation et à leurs articulations entre le numérique et le non-numérique.
L’enjeu étant de faire du numérique une ressource supplémentaire au service
de politiques publiques plus inclusives. En l’absence de telles démarches pour
institutionnaliser et articuler les instruments numériques dans le débat public local,
le risque est de voir se développer des plates-formes parallèles, voire concurrentes.
À Strasbourg, depuis quelques mois, les réseaux sociaux sont le théâtre d’un débat
public local assez conflictuel quant à l’utilisation nocturne de l’espace public du
centre-ville. Ces conflits d’usage dégénèrent et conduisent à l’affrontement entre
différents groupes par l’intermédiaire de pages Facebook avec la dénonciation de
comportements individuels qui sont filmés et partagés sur le site de vidéos You
Tube12. Ce conflit illustre bien les ressources supplémentaires que le numérique
peut apporter aux groupes qu’ils soient institutionnalisés ou pas. Cela rappelle aussi
l’intérêt et la responsabilité politique des acteurs institutionnels afin de développer
un dispositif sociotechnique afin d’organiser et de modérer les échanges au sein
d’un forum qui permette une mise en débat et surtout une délibération capable
de préserver le vivre ensemble.
RÉFÉRENCES BIBLIOGRAPHIQUES
[Aldrin et Utard, 2008] Aldrin, Ph. et Utard, J.-M., 2008, The ambivalent politicization of European
Communication. Genesis of controversies and institutional frictions surrounding the 2006
White Paper, Strasbourg : Centre for European Political Sociology, http://
prisme.u-strasbg.fr/workingpapers/WPAldrinUtard.pdf.
[Bailleul, 2008] Bailleul, H., 2008, « Les nouvelles formes de la communication autour des projets
urbains : modalités, impacts, enjeux pour un débat participatif », Métropoles,
http://metropoles.revues.org/2202.
[Bailleul et Gibon, 2013] Bailleul, H. et Gibon, C., 2013, « Médiation urbaine numérique Quels
enseignements pour un urbanisme participatif ? », Place publique, 25, 39-44.
[Baudouard, 2014] Baudouard, R., 2014, « La mise en technologie des projets politiques. Une
approche “orientée design” de la participation en ligne », Participations, 8, 31-54.
[Blondiaux et Cardon, 2006] Blondiaux, L. et Cardon, D. (éd.), 2006, Dispositifs participatifs, Politix,
75(19).
[Callon et al., 2001] Callon, M., Lacousmes, P. et Barthe, Y., 2001, Agir dans un monde incertain. Essai
sur la démocratie technique, Paris : Le Seuil.
[Cardon, 2010] Cardon, D., 2010, La démocratie internet. Promesses et limites, Paris : Le Seuil.
[del Casino et Hanna, 2006] del Casino, V. J. et Hanna, S. P., 2006, « Beyond The “Binaries”:
A methodological Intervention for Interrogation Maps as Representational
Practices », ACME: An International E-Journal for Critical Geographies, 4(1), 34-56.
[Comolli et Samson, 2003] Comolli, J. L. et Samson, M., 2003, Rêves de France à Marseille, film
documentaire de 1h44.
[de Rosnay, 1975] de Rosnay, J., 1975, Le Macroscope, Paris : Le Seuil.
[Douay, 2011] Douay, N., 2011, « Urbanisme 2.0, de la contestation à la participation », TechniCités,
214, 46-49.
12 http://tempsreel.nouvelobs.com/vu-sur-le-web/20140813.OBS6248/a-strasbourg-facebook-
envenime-le-debat-sur-la-vie-nocturne.html.
http://www.rue89strasbourg.com/index.php/2014/08/12/societe/vie-nocturne-centre-ville-
internet-casse-tete.
[Douay, 2014] Douay, N., 2014, « Les usages du numérique dans le débat public », In Carmes, M.
et Noyer, J.-M. (dir.), Devenirs numériques, Paris : Presses des Mines, pp 227-244.
[Douay et Prévot, 2012] Douay, N. et Prévot, M., 2012, « Activismes urbains : engagement et
militantisme », L’Information géographique, 76(1), 74-88.
[Douay et Prévot, 2014] Douay, N. et Prévot, M., 2014, « Park(ing) Day : label international d’un
activisme urbain édulcoré », Environnement urbain, 8, 14-33.
[DuvalI, 2014] DuvalI, A., 2014, L’usage d’Internet dans les pratiques de la démocratie participative
en aménagement, l’exemple du site Internet Strasbourg 2028, mémoire de master 1
Aménagement et développement local, Université Paris-Diderot, Paris.
[IAU îdF, 2013] IAU îdF, 2013, « Cartes, plans, 3D : représenter, imaginer la métropole », Cahier
de l’IAU îdF, 166.
[Joliveau et al., 2013] Joliveau, T., Noucher, M. et Roche, S., 2013, « La cartographie 2.0, vers
une approche critique d’un nouveau régime cartographique », L’Information
géographique, 4, 29-46.
[Latour, 2005] Latour, B., 2005, Reassembling the Social: An Introduction to Actor-Network-Theory,
Oxford : Oxford University Press.
[Macintosh, 2007] Macintosh, A., 2007, « e-Participation: from e-enabling to e-empowerment »,
Communication au colloque E-democracy: new opportunities for enhancing civic
participation, Conseil de l’Europe, Strasbourg.
[Minnery et Searle, 2014] Minnery, J. et Searle, G., 2014, « Toying with the city? Using the
computer game SimCity4® in planning éducation », Planning Practice & Research,
29(1), 41-55.
[Nonjon, 2005] Nonjon, M., 2005, « Professionnels de la participation : savoir gérer son image
militante », Politix, 70, 89-112.
[Noucher, 2013] Noucher, M., 2013, « Introduction au dossier thématique “Cartographie
thématique” », L’Information géographique, 77(4), 6-9.
[Offerlé, 1996] Offerlé, M., 1996, Sociologie des groupes d’intérêt, Paris : Montchrestien.
[Palsky, 2011] Palsky, G., 2011, « Cartes participatives, cartes collaboratives, la cartographie
comme maieutique », Le Monde des Cartes, 205, 49-59.
[Palsky, 2013] Palsky, G., 2013, « Cartographie participative, cartographie indisciplinée »,
L’Information géographique, 4, 10-25.
[Proulx et al., 2014] Proulx, S., Garcia, J. L. et Heaton, L. (éd.), 2014, La contribution en ligne. Pratiques
participatives à l’ére du capitalisme informationnel, Québec : Presses de l’Université du
Québec.
[Rodota, 1999] Rodota, S., 1999, La démocratie électronique, Rennes : Apogée.
[Quaderni, 2012] Quaderni (revue), 2012, « Produire la démocratie. Ingénieries et ingénieurs de
l’offre publique de participation », 79(3).
[Wachter, 2011] Wachter, S., 2011, « La ville numérique : quels enjeux pour demain ? »,
Métropolitiques, 28/11/2011, http://www.metropolitiques.eu/La-ville-numerique-
quels-enjeux.html.
Remerciements
Cet ouvrage est le résultats des travaux de l’axe de recherche « médias et territoires »
du GIS Collège International de Sciences de Territoire (Paris) et notamment de
la journée d’étude Ville 2.0 : Soft data pour les politiques publiques de la ville, qui s’est
tenue à l’Université de Lille 3 en octobre 2014.
Nos remerciements vont d’abord aux institutions qui ont financé cet événement
et la publication de cet ouvrage : le CNRS (à travers le PEPS Décisions, Indicateur
et politiques publiques), le GIS Collège International de Sciences de Territoire et
la Maison européenne des sciences de l’homme et de la société de Lille.
Enfin, nous aimerions remercier Marion Gentilhomme, qui s’est chargée avec
grande méticulosité de la correction et de la mise en page du manuscrit. Sans son
aide, ce travail n’aurait jamais pu être achevé.
Les auteurs
Boris Beaude
Boris Beaude est docteur en géographie, chercheur au laboratoire Chôros, Ecole
polytechnique fédérale de Lausanne (EPFL). Après avoir enseigné les enjeux
politiques de l’espace pendant 8 ans à l’Institut d’études politiques de Paris, il a
rejoint l’EPFL, où il mène des recherches sur les enjeux sociétaux de la dimension
spatiale des pratiques numériques. Ses travaux portent essentiellement sur les
notions d’hypercentralité (concentration des pratiques au sein d’un nombre limité
d’espaces) et de synchorisation (le processus social par lequel l’interaction est
possible). Il est l’auteur d’Internet, changer l’espace, changer la société et de Les fins
d’Internet, publiés respectivement en 2012 et en 2014 aux Editions FYP.
Laurent Beauguitte
Laurent Beauguitte, docteur en géographie depuis 2011, est chargé de recherche
CNRS à l’UMR IDEES (Rouen) depuis octobre 2014. Spécialiste en analyse
spatiale et en analyse quantitative, il anime un blog scientifique consacré à
l’analyse de réseaux (http://groupefmr.hypotheses.org). Il s’est impliqué dans des
projets de recherche au niveau français (ANR Cartelec 2012-2013, ANR Corpus
Géomédia 2013-2016) et européen (FP7 EuroBroadMap 2009-2011). Ses thèmes
de recherche principaux concernent la géographie politique, l’analyse de réseaux,
l’analyse spatiale et textuelle. Toutes ses publications sont accessibles en ligne.
Dominique Boulier
Dominique Boulier est professeur des universités en sociologie à Sciences Po.
Docteur en sociologie de l’Ecole des hautes études en sciences sociales (EHESS,
1987), diplômé de linguistique (Rennes 2, 1991), HDR en sciences de l’information
et de la communication (Bordeaux 3, 1995). Il a été Professeur des Universités
à l’Université de Technologie de Compiègne (UTC) et directeur de l’unité de
recherches Costech (1997-2005). Il a également été créateur et directeur de l’unité
mixte de services du CNRS LUTIN User Lab à la Cité des Sciences et de l’Industrie
de la Villette (2004-2007). Il a été chef d'entreprise et adjoint au maire de Rennes.
Maryse Carmes
Maryse Carmes est maître de conférences en sciences de l’information et de
la communication, au CNAM Paris et membre du laboratoire Dicen-IDF, co-
fondatrice du Grico et co-responsable de la collection « Territoires numériques »
publiée aux Presses des Mines Paris-Tech. Ses travaux portent sur la construction
262 Traces numériques et territoires
Franck Cormerais
Franck Cormerais est professeur des universités au laboratoire MICA de
l’Université de Bordeaux Montaigne. Docteur en philosophie (Paris 1) et en
science de l’information et de la communication (Paris XIII), il est responsable
de l’axe prioritaire Humanités Digitales de l’université. Ses recherches portent
sur l’anthropologie des techniques et sur les pratiques des TIC. Son programme
comporte deux axes autour de l’innovation. Le premier relie les supports de
l’inscription numérique à l’établissement de nouvelles pratiques en ligne ; le second
s’intéresse à l’industrialisation contemporaine du langage, de la culture, et l’économie
de la connaissance. Il est membre de PEKEA, de la SFSIC et de l’AEIRI. Il a eu
des responsabilités scientifiques récentes dans divers projets : Musée virtuel de la
pensée (2014), Histocom20 (2013), Projet Valeurs, axe spécificité du territoire et
développement culturel (2011-2013). Dernier ouvrage en collaboration avec Pierre
Musso, La société éclatée, le retour de l’objet local, Editions de L’Aube, 2014.
Jos de Mul
Jos de Mul est professeur de philosophie de l’homme et de la culture à la Faculté
de philosophie, Université Erasmus de Rotterdam. Il a également enseigné à
l’Université du Michigan (Ann Arbor) et à l’Université Fudan (Shanghai). Sa
recherche sesitue à l’interface de l’anthropologie philosophique, de l’esthétique, de
la philosophie de la technologie et de l’histoire de la philosophie allemande du 19e
et 20e siècle. Ses publications en anglais comprennent : Romantic Desire in (Post)Modern
Art and Philosophy (State University of New York Press, 1999), The Tragedy of Finitude.
Dilthey’s Hermeneutics of Life (Yale University Press, 2004), Cyberspace Odyssey. Towards
a Virtual Ontology and Anthropology (Cambridge Scholars Publishing, 2010) et Destiny
Domesticated. The Rebirth of Tragedy out of the Spirit of Technology (State University of
New York Press, 2014). Son travail a été traduit dans plus d’une douzaine de langues.
Nicolas Douay
Nicolas Douay est maître de conférences en urbanisme à l’Université Paris-
Diderot (Paris 7) et chercheur au laboratoire Géographie-cités (équipe CRIA).
Après des études de doctorat en cotutelle entre l’Université de Montréal et
Aix-Marseille Université, il a séjourné au Centre d’études français sur la Chine
contemporaine (CEFC – Hong Kong) grâce à une bourse de post-doctorat
Les auteurs 263
Lavoisier. Ses recherches font une large place aux approches comparatives entre
l’Asie (Chine & Hong Kong), l’Europe (France) et l’Amérique du Nord (Canada)
et se focalisent sur le processus de métropolisation particulièrement pour ce qui
a trait aux politiques urbaines, aux processus de planification territoriale et aux
usages du numérique.
Carolin Gerlitz
Carolin Gerlitz est professeur adjoint de nouveaux médias et culture numérique à
l’Université d’Amsterdam et membre de Digital Methods Initiative. Sa recherche
explore les différentes intersections entre les médias numériques, les méthodes et la
sociologie économique, avec un intérêt particulier pour les économies du Web, les
études de plates-formes et logiciels, marques, valeur, topologie, numératie, médias
sociaux, méthodes numériques et la cartographie des enjeux en ligne. Elle a achevé
son doctorat sur « Marques et économies continues » en sociologie à l’Université de
Londres Goldsmiths. Elle a maintenant une bourse NWO Veni de quatre ans pour
le projet « Numbering Life. Measures and Metrics in Digital Media ».
Noortje Marres
Noortje Marres est maître de conférences en sociologie et directeur du Centre
pour l’étude de l’invention et du processus social à l’Université de Londres
Goldsmiths. Elle a étudié la sociologie et la philosophie de la science et de la
technologie à l’Université d’Amsterdam et, pendant son doctorat, a combiné la
téorbe de l’acteur-réseau et le pragmatisme américain pour étudier les problèmes
de la démocratie dans les sociétés technologiques. Elle a développé en outre ce
travail dans son livre Material Participation: Technology, the Environment and Everyday
Publics (Palgrave, 2012) et a également contribué à l’élaboration de la méthodologie
numérique, en particulier la cartographie des enjeux. A Goldsmiths, Noortje
organise le master en sociologie numérique, et elle est sur le point de finir un
ouvrage avec le même titre (Polity, à paraître).
Matthieu Noucher
Matthieu Noucher est chargé de recherche au CNRS au sein du laboratoire ADESS
(CNRS, Université Bordeaux Montaigne, Université de Bordeaux). Après une thèse
soutenue à l’Ecole polytechnique fédérale de Lausanne (EPFL) en 2009, dans
laquelle il a proposé une approche socio-cognitive et systémique de la coproduction
de données géographiques, il travaille désormais sur les nouveaux modes de fabrique
cartographique qui, depuis 2005 et l’émergence du géoweb, complexifient l’offre
en information géographique sur les territoires. Il analyse les mises en cartes
contemporaines sous l’angle des modalités de production et de diffusion des données
géographiques institutionnelles, des données géographiques bénévoles et de leur
264 Traces numériques et territoires
Jean-Max Noyer
Jean-Max Noyer est au laboratoire I3M, Université Sophia-Antipolis, et au
laboratoire Paragraphe, Université Paris 8. Il est co-fondateur du réseau de
recherche sur les devenirs numériques (GRICO), de la revue SOLARIS et
d’ARCHIVESIC (archives ouvertes en Sciences de l’information et de la
communication), co-directeur de la collection « Territoires numériques » aux
Presses des Mines Paris-Tech et « co-editor-in-chief » de la collection « Intellectual
Technologies », ISTE Science Publishing, Wiley, Londres. Ses activités portent
sur les transformations du procès de travail, les technologies intellectuelles
émergentes et les nouvelles formes organisationnelles. Ses recherches portent
aussi sur la production et la circulation médiatique des savoirs, les écritures dans
leurs dimensions pragmatiques et le mouvement « OPEN » en général. Il a dirigé
aux Editions Hermès-Lavoisier, Paris, Guerre numérique et Stratégie, 2002 et (avec B.
Juanals) Technologies de l’Information et Intelligences Collectives, 2010 et publié diverses
études sur les technologies de l’information.
Maryvonne Prévot
Historienne de formation, Maryvonne Prévot est actuellement maître de
conférences habilitée à diriger les recherches en aménagement et urbanisme à
l’Université de Lille. Membre du laboratoire Territoires, villes, environnement et
société (TVES EA 4477), elle est aussi depuis plusieurs années chercheure associée
à l’Ecole nationale supérieure d’architecture et de paysage de Lille (ENSAPL). Ses
recherches portent essentiellement sur la genèse politique et doctrinale des projets
urbains et des politiques d’aménagement aux différentes échelles territoriales, sur
les organismes d’études et d’aménagement parapublics et privés et, surtout, sur
les trajectoires militantes et professionnelles dans les champs de l’urbain, passées
mais aussi présentes, à l’ère du numérique.
Richard Rogers
Richard Rogers est professeur en « nouveaux médias et culture numérique »
et directeur du département d’études des médias à l’Université d’Amsterdam.
Il est directeur de la Fondation Govcom.org et de Digital Methods Initiative,
responsable pour l’Issue Crawler et d’autres outils d’analyse. Rogers est l’auteur
de Information Politics on the Web (MIT Press, 2004), couronné meilleur livre de
l’année par l’American Society of Information Science & Technology ainsi que
de Digital Methods (MIT Press, 2013), qui a reçu l’Outstanding Book Award par
Les auteurs 265
Alberto Romele
Alberto Romele est chercheur en philosophie à l’Université de Porto, boursier de
la Fondation pour la science et la technologie (FCT). Il est actuellement chercheur
en visite au laboratoire COSTECH de l’Université de technologie de Compiègne.
Ses recherches portent sur l’herméneutique philosophique et ses applications dans
le domaine des nouvelles technologies de l’information et de la communication
Marta Severo
Marta Severo est maître de conférences à l’Université de Lille 3 (laboratoire
GERiiCO) en sciences de la communication et de l’information. Elle travaille sur
les thèmes de la communication du territoire et contribue au développement de
nouvelles méthodes numériques pour étudier les données Internet concernant le
territoire. Après un doctorat en gestion et technologies du patrimoine culturel à
l’Ecole des hautes études IMT Lucca (Italie), elle a été chercheuse post-doctorante
à Sciences Po Paris (2010) et au Politecnico de Milan (2009). Pendant deux ans,
elle a été ingénieur de recherche pour le GIS CIST à Paris, dont elle dirige depuis
2012 l’axe de recherche Médias et territoires.
Table des matières
IntroductIon ��������������������������������������������������������������������������������������������������� 7
Marta Severo, Alberto Romele