Vous êtes sur la page 1sur 433

Intelligence Imaginieriale

Comment développer des territoires créatifs, apprenants et adaptatifs évoluant au sein d'environnements complexes

Version du 09 septembre 2015.

Ce document est libéré sous licence Creative Commons CC BY-SA 4.0 International License. http://creativecommons.org/licenses/by-sa/4.0/

Logo Intelligence Imaginieriale : Copyright 2015 Thomas Bonnecarrere – Licence Creative Commons CC BY-SA

L'auteur vous encourage à partager et enrichir ce document, à condition que vous respectiez les termes attribués à sa licence juridique. Pour plus d'informations sur les licences Creative Commons, visitez : http://creativecommons.org

Ce document constitue mon modèle théorique développé dans le cadre de ma thèse intitulée « L'intelligence imaginieriale comme nouveau modèle d'intelligence territoriale pour favoriser l'expression de la créativité et de l'innovation au sein de territoires » effectuée au laboratoire CEREGE de Poitiers.

N'hésitez pas à me faire part de vos remarques, idées d'amélioration, volonté de contribution concernant son expérimentation et mises en évidence de potentiels « bugs » dissimulés dans ce document à cette adresse :

son expérimentation et mises en évidence de potentiels « bugs » dissimulés dans ce document à

La raison, c'est l'intelligence en exercice ; l'imagination c'est l'intelligence en érection.

— Victor Hugo

A une époque de changement drastique, ce sont les apprenants qui héritent de l'avenir. Les savants se trouvent généralement équipés pour vivre dans un monde qui n'existe plus.

— Eric Hoffer

Quelque part, je ne peux pas croire qu'il y ait des hauteurs qui ne peuvent pas être escaladées par un homme qui connaît le secret de la fabrication des rêves. Ce secret spécial, il me semble, peut se résumer en quatre C. Ceux-ci sont la curiosité, la confiance, le courage et la constance, et le plus grand de tous est la confiance. Quand vous croyez en quelque chose, croyez-y tout du long, implicitement et incontestablement.

— Walt Disney

A Walt Disney et Richard Stallman, mes plus grandes sources d'inspiration.

Table des matières

I. Présentation résumée

4

1. Présentation synthétisée de l'intelligence imaginieriale

4

2. Une fusion harmonieuse entre trois processus stratégiques

4

II. Analyse des concepts fondamentaux au cœur de notre modèle

5

1. Intelligence économique et stratégique

5

2. Intelligence

économique

territoriale

8

2.1. Le territoire

8

2.2. Intelligence territoriale

11

2.3. Les trois formes d'expression de la création

19

2.4. L'innovation au cœur de l'intelligence territoriale

20

2.5. Intelligence marketing

21

Intelligence

2.6. inventive

27

2.7. Imaginierie

36

2.7.1. L'émergence imaginative

38

2.7.2. Perspective socio-constructionniste

39

2.7.3. L'artefact de l'imaginierie

41

2.7.4. Le « high concept » au cœur du processus d'imaginierie

42

2.7.5. L'articulation d'un attracteur plus désiré

44

2.7.6. La méthodologie de l'imaginierie

45

2.7.6.1. La méthode Inspiration – Création – Exploration – Organisation

45

2.7.6.2. La méthodologie du Rêve – Réalisme – Critique - Neutre

46

2.8.

Le hacking et la philosophie du Libre

48

2.8.1.Hacking

48

2.8.1.1. La philosophie du Do It Yourself

52

2.8.1.2. L'esprit d'exploration

53

2.8.2 La philosophie du Libre

54

2.8.2.1. Analyse du concept de liberté

54

2.8.2.2. Analyse de la philosophie du Libre

55

2.8.2.3. La capacitation au cœur de la philosophie du Libre

63

2.8.2.3.1. Logiciels privateurs et technologies restrictives

66

2.8.3. Les biens matériels et immatériels et leurs caractéristiques inhérentes par rapport

à la philosophie du Libre

70

2.8.3.1. Ressources dans les mondes physiques et numériques

70

2.8.3.2. L'impression 3D : du bit à l'atome

71

2.8.3.3. Biens rivaux, non-rivaux et anti-rivaux

72

2.8.4. La culture libre et la défense des biens communs communs comme nécessité pour

 

développer des territoires créatifs et réaliser une « utopie concrète »

75

2.8.4.1. La culture libre

75

2.8.4.2. De la nécessité de l’anonymat et de la vie privée pour favoriser la

proposition de nouvelles idées et lutter contre la polarisation des attitudes

81

2.8.5.

La philosophie cypherpunk

83

2.8.5.1. Le chiffrement et la vie privée au cœur de la philosophie Cypherpunk

84

2.8.5.2. Le Datalove

86

2.8.6. Les outils juridiques pour favoriser la créativité et l'innovation

89

2.8.7. Le développement et la préservation des biens communs comme nécessité pour

un territoire créatif

90

2.8.8.

L'utopie concrète comme modèle territorial

95

2.9.

Les objectifs de l'intelligence imaginieriale

102

2.10. L'intelligence imaginieriale comme connexion harmonieuse entre pensée et action pour

2.11. L'intelligence imaginieriale comme appréhension et transformation du territoire selon une approche dialogique 2.12. La créativité comme nouveau moteur de nos sociétés pour faire face aux problèmes complexes

approche dialogique 2.12. La créativité comme nouveau moteur de nos sociétés pour faire face aux problèmes

112

114

III. L'intelligence imaginieriale comme transformation du territoire en expérience immersive

transformationnelle

122

1. L'hybridation de la logique territoriale

122

2. Le territoire imaginieré comme destination vers un univers réectif glocal brandé

126

2.1.

Les différentes dimensions et perspectives de l'intelligence imaginieriale

126

2.1.1. Les perspectives de l'intelligence imaginieriale

126

2.1.2. Les différentes strates du territoire imaginieré

127

2.1.3. Les différentes dimensions du territoire imaginieré

131

2.2.

La transformation du territoire en destination via le game design

137

2.2.1. Le territoire imaginieré comme jouet et jeu

137

2.2.2. Game design et architecture

138

2.2.3. L'organisation de l'espace de jeu au sein du territoire imaginieré

139

2.2.4. La mission et l'espace

152

2.2.5. Les contrôles indirects pour conditionner l'expérience des joueurs tout en préservant

leur sentiment de liberté et leur immersion fictionnelle

154

2.2.6.

Les qualités sans nom au cœur de l'expérience ludo-narrative au sein du territoire

imaginieré

158

2.2.7.

L'univers réectif comme espace de co-création et de partage des connaissances

164

2.2.7.1. La « réection » au cœur de l'intelligence imaginieriale

164

2.2.7.2. Les influences sournoises au service de la création d'un imaginaire

aliénant.

.169

2.2.7.3. Hétérotopie et intelligence imaginieriale

174

2.2.7.3.1. L'hétérotopie comme moyen de « hacker » la réalité ordinaire des acteurs

territoriaux

178

2.2.7.4. Le tiers-lieu comme destination privilégiée vers un univers réectif créatif

192

2.2.7.5. Signes transposables et intelligence imaginieriale

197

2.2.7.5.1. La propriété intellectuelle comme possible frein à la circulation des signes

 

sur la toile

207

 

2.2.7.5.2. Les autres dimensions de transposabilité d'un signe

211

2.2.7.5.3. La transposabilité des signes entre le « territoire créatif magique » et le

« monde réel »

216

2.2.7.6.

Le thème au cœur de l'identité culturelle glocale brandée et de l'expérience

territoriale transformationnelle

219

IV. L'intelligence imaginieriale comme moyen de favoriser le processus de transformation positive des acteurs territoriaux

225

1.

La stratégie d'influence pour favoriser le phénomène d'innovation au sein des territoires

225

1.1. La persuasion au cœur de la stratégie de négociation entre les systèmes territoriaux

225

1.2. L'influence minoritaire pour favoriser l'innovation au sein des territoires

226

1.3. La transformation des acteurs territoriaux évoluant au sein du système imaginierial

232

1.3.1. L'edutainment au cœur de l'intelligence imaginieriale pour optimiser l'apprentissage

du territoire

232

1.3.2. Les règles du système de jeu au sein du territoire imaginieré

242

1.3.3. Le fun au cœur de l'expérience ludique

246

1.3.4. L'optimisation de la narration au sein du jeu

253

1.3.5. Les objectifs du jeu

256

1.3.5.1.

Les objectifs et motivations du joueur

258

1.3.5.1.1.

Joueur « déterminé » et « aberrant »

259

1.3.6.

Les caractères fondamentaux des structures de jeu

264

1.3.6.2.

Les cadres d'expérience

272

1.3.6.2.1. Le cadre primaire / « pour de vrai »

273

1.3.6.2.2. La transformation du cadre : le cadre secondaire / « Faire semblant »

274

1.3.6.3. L'émergence et la progression au sein du jeu

275

1.6.3.4. Le schéma narratif pour favoriser l'engagement volontaire des acteurs au sein

du territoire imaginieré

278

1.4. Les processus d'actualisation, de résolution et d'appréhension de problèmes au cœur de

l'intelligence imaginieriale

280

1.4.1. La perspective de l'énonciation du problème-solution au cœur du game design

282

1.4.2. La pensée créative pour favoriser le processus d'appréhension et de gestion des

problèmes

285

1.4.3. L'holacracy comme moyen de favoriser l'auto-organisation et l'auto-gestion au sein

du territoire

288

1.4.3.1. Le management des antagonismes au cœur du design du système imaginierial

293

1.4.4. Emergence et créativité distribuée comme moyen de gérer les problèmes complexes

 

301

 

1.4.4.1.

La valorisation des échecs pour désinhiber les individus et optimiser le

processus d’innovation

305

1.5.

Le Ba et les communautés stratégiques de connaissance

306

1.5.1. L'artefact au service de la co-création de connaissance

308

1.5.2. Le

Ba ludo-narrativisé

314

1.5.3. Le stock de connaissance comme élément fondamental du ba ludo-narrativisé

317

1.6.

Les compétences acquises au sein du jeu

324

1.6.1.

Compétences réelles et virtuelles

326

V. Le cœur et l'ADN de l'intelligence imaginieriale

330

1. L'esprit collectif évolutif glocal comme cœur de l'intelligence imaginieriale

330

1.1. Historique du concept

330

1.2. Explication sémantique

331

1.3. Le design du système et son fonctionnement

333

 

1.3.1. Le design et

le fonctionnement des groupes

333

1.3.2. Les groupes d'appartenance et les groupes de référence

333

1.3.3. Evaluation, compétition et créativité au sein des groupes

339

1.3.4. Clusters et réseaux

342

1.3.4.1. Clusters

342

1.3.4.2. Les réseaux

345

1.3.5.

Infrastructure physique

349

1.3.5.1.

Territoire

349

1.3.6.

Le code

349

1.3.6.1. Ethique, partage et fun comme valeurs fondamentales

351

1.3.6.2. Hexaptyque de l'esprit collectif évolutif glocal

359

1.3.6.2.1.

Les différentes dimensions de l'éthique de l'intelligence imaginieriale

365

1.3.6.3. Les différentes formes de culture au cœur de l'imaginierie

366

1.3.6.4. Identité superordinale et buts supra-ordonnés

367

1.3.6.5. Culture du réseau et de l'intelligence collective

373

1.3.7.

Les contenus

378

1.3.7.1. Viabilité et pérennité comme enjeux principaux

378

1.3.7.2. L'anticipation d'éventuels abus contre les communs

380

1.3.7.3. Les risques d'enclosure des lieux d'innovation partagés

384

1.3.7.4. La marque ouverte

387

1.3.7.5. Documentation et mémoire pour favoriser l'appropriation symbolique

391

VI.

Perspectives d'évolution de notre modèle

397

Conclusion

398

Annexes

401

Annexe 1

402

Schéma 1.1 : Modèle stratifié de l''intelligence imaginieriale - Perspective intra territoriale - basé

sur Frémont (1976), Major (1999), Schwarz (1997), Bertacchini (2014) et Benkler (2000)

402

Schéma 1.2 : Modèle stratifié de l''intelligence imaginieriale – Perspective inter-territoriale

406

Annexe 2

410

Schéma 2.1.: Territoire local imaginieré

410

Schéma 2.2 : Territoire imaginieré – Zoom in

414

Bibliographie

et sources

417

I. Présentation résumée

1. Présentation synthétisée de l'intelligence imaginieriale

L'intelligence imaginieriale peut être résumée par la définition suivante : L'imaginierie au service du développement territorial centré sur la créativité et l'innovation. De manière plus approfondie, elle vise à optimiser, par le biais de l'imaginierie, de l'intelligence inventive et de l'intelligence économique territoriale (trois processus connectés ensemble pour former cette forme élaborée d' intelligence stratégique) :

- L'appréhension d'un environnement territorial (à l'échelle micro et macro) complexe et incertain afin d'optimiser l'analyse et l'appréhension de problèmes et l'évolution d'un territoire au sein de celui-ci par le biais de l'innovation et basé sur le développement, la protection et la promotion de celui-ci ;

- La transformation du territoire en système créatif, apprenant, adaptatif et auto-géré par le biais de l'inspiration et de l'innovation 1 (influence sur l'environnement complexe via la concrétisation d'idées utopiques reflétant une direction souhaitée par les acteurs territoriaux) reposant sur un principe d'émergence. L'intelligence imagineriale a donc été conçue pour optimiser, par le biais d'une créativité distribuée débridée, le développement économique du territoire ainsi que sa protection et promotion via une stratégie de marketing territorial renforcée par l'imaginierie ;

- Le développement territorial à l'échelle locale et globale, via la constitution d'un système territorial en réseau ouvert et décentralisé composé de multiples territoires locaux autonomes 2 mais interconnectés et interdépendants.

- La stratégie de management, via un leadership centré sur la narration et la complexité et la marque territoriale glocale 3 (selon les analyses d'Uhl-Bien et Marion, 2011, Boal et Schultz, 2007;411) ;

2. Une fusion harmonieuse entre trois processus stratégiques

Avant de justifier notre choix de fusionner ces trois concepts pour donner naissance à un modèle d'intelligence territoriale évolué (voire, pour coller à la thématique de notre travail ancré dans le paradigme de la complexité, évolutif), nous allons les définir brièvement afin de permettre au

1 Au cœur du paradigme de la complexité et de l'imaginierie comme analysé par Nijs (2014).

2 Par autonome nous signifions auto-gérés, auto-organisés et autopoïetiques.

3 Concept que nous analyserons plus tard.

lecteur de développer une meilleure compréhension de notre modèle et des enjeux qu'il tente d'appréhender.

II. Analyse des concepts fondamentaux au cœur de notre modèle

1. Intelligence économique et stratégique

Bernard Besson et Claude Possin (2001), dans leur ouvrage Du renseignement à l'intelligence économique 4 , analysent le concept d'intelligence économique. Selon ces deux auteurs,

L'intelligence économique s'organise autour de la maîtrise stratégique de l'information afin de détecter des menaces et des opportunités de toutes natures. L'intelligence économique est un cycle ininterrompu de questions et de réponses. Chercher à savoir ce que l'on ne sait pas et trouver des moyens d'y répondre est la première attitude à avoir pour conserver une position forte sur son marché. L'intelligence économique s'organise autour de la maîtrise de ses réseaux (identifier l'ensemble des acteurs influant au sein et en dehors de l'entreprise), la mémoire (identifier ce que l'on sait oralement ou à l'écrit) et l'analyse (savoir interpréter les informations pour leur donner un sens utile et prendre des décisions).

Selon Besson et Huhl (2012), elle fournit des informations et valide les concepts générés par la pensée inventive. Selon Nicole d'Almeida,

L’intelligence économique et le système d’information qu’elle mobilise peuvent être compris comme cette intelligence particulière de l’action, comme la forme moderne de la métis grecque, qui engage la recherche du succès dans le domaine de l’action […]. L’intelligence économique n’est pas seulement un art de la gestion de l’information (…), elle est aussi et surtout un art d’une habilité à comprendre finement et globalement un environnement complexe et à prendre la bonne décision.

Marcon et Moinet (2011) complètent ces analyses en soulignant que le management de l’intelligence collective devrait être le « 4ème pôle de la boussole » de l’intelligence économique.

4 BESSON Bernard, POSSIN Jean-Claude, Du renseignement à l'intelligence économique, Paris, Dunod,

2001

Nicolas Moinet souligne la complexité de ce processus. Selon lui, l'intelligence économique est au cœur d’une dynamique dans laquelle se joue le passage de l’information stratégique au savoir, du « savoir pour agir » au « connaître est agir ». Il rejoint ainsi un courant de chercheurs comme Fayard, Jullien, Dumas ou Boyd qui contextualisent systématiquement tout rapport entre information, communication, action et stratégie. La publication du Rapport Martre en 1994 5 est un élément fondateur pour l'intelligence économique en France. Celui-ci définit l'intelligence économique comme « l’ensemble des actions coordonnées de recherche, de traitement et de diffusion des informations utiles aux acteurs économiques. » Moinet défend également une démarche organisationnelle « agile », des dialectiques de déstructuration et de recréation ainsi qu'une organisation en réseau pour optimiser l''efficacité du processus.

Bernard (2015) souligne que Moinet se réclame d’une méthode d’analyse fondée sur la recherche du détail qui change tout et la cinématographie des petits riens qui s’enchaînent contrairement aux prévisions des modèles normatifs. 6 L'approche qu'il adopte s’inscrit ainsi pleinement dans les paradigmes du constructivisme, de la complexité et de la systémique sociale. Ce mode de pensée et d'appréhension du processus analytique, au cœur de l'intelligence économique, peut s'apparenter à celui développé par Diane Nijs (2014). Celle-ci fonde sa méthode d'analyse, au cœur de ses travaux d'imaginierie, sur la pensée complexe (qui s'oppose à la pensée classique fondée sur la linéarité et le mode séquentiel de création de valeur). Ceci afin de mieux comprendre et appréhender les systèmes organisationnels ou sociaux complexes, dynamiques et non-linéaires basés sur l'émergence (au cœur de leur design). Il peut également s'apparenter à celui de l' « effet papillon » (au cœur de l'imaginierie que nous définirons plus tard) où le moindre changement à l'échelle locale peut provoquer un changement global. Bernard Besson (2015) voit dans l'intelligence économique et stratégique une philosophie de la vie permettant aux jeunes générations de comprendre notre monde dans sa rude complexité.

Hervé Juvin (2014) estime quant à lui que, grâce à l'intelligence économique et stratégique, nous pouvons nous extraire du déni permanent des réalités du monde pour le regarder et agir lucidement. Ainsi, les peuples pourront préserver leur identité, leur mode de vie et leur organisation sociale tout en vivant dans une planète interconnectée. Ludovic François (2015) réhabilite le concept d'influence

5 Autrement, n° spécial « Le local dans tous ses états », n° 7, février 1983, p. 197 à 202.

6 Voir notamment cet entretien accordé à Jean-Guy Bernard, Directeur Général de l'Ecole de Management de Normandie à cette adresse : http://www.ecole-management-

2015).

(consulté le 16 février

au profit des territoires, met concrètement en relief ses atouts et plaide pour une conception éthique de l'intelligence économique et stratégique. Face aux enjeux majeurs qui se profilent à l'horizon, il est plus que jamais indispensable que les logiques d'influence soutiennent les objectifs stratégiques des territoires.

La communication joue un rôle essentiel dans le processus d'intelligence économique. Moinet (2014) souligne ainsi que sans la faculté de communiquer, chacun reste enfermé dans sa sphère. Nous communiquons d'ailleurs d'autant mieux que l'on a le sentiment de partager un destin commun sur un territoire commun, avec des enjeux collectifs. Cela suppose un sens des responsabilités communes. Les fondateurs de l'intelligence économique anglo-saxons accordent dès les années soixante une place centrale à la communication. Michael Porter est ainsi le premier à souligner le rôle fondamental de la communication dans les systèmes de « competitive intelligence ». Cependant, Moinet souligne que la culture cartésienne en France nous amène à occulter cette dimension. Nous fonctionnons ainsi sur un mode cloisonné, avec l'idée que l'information c'est le pouvoir. Or, la communication est ce qui fait passer de l'information à la connaissance. La connaissance est ainsi, contrairement à l'information, un concept opératoire. C'est ainsi la connaissance qui permet de prendre des décisions. Il met également en évidence que l'important, lorsque l'on perçoit des signaux, est surtout de savoir les interpréter correctement : c'est donc bien la connaissance qui est stratégique, car nous ne nous trouvons jamais en état de sur-connaissance, alors que nous sommes souvent noyés par la masse d'informations. La communication joue donc un rôle essentiel, car elle permet d'échanger des idées, des approches, et de faire dialoguer les individus. Cette faculté est donc indispensable pour éviter l'isolement et l'enferment des acteurs territoriaux, ce qui induirait le risque de brider et affaiblir l'efficacité des processus analytique et décisionnel.

2. Intelligence économique territoriale

2.1. Le territoire

Selon Pelissier (2009), la littérature économique a longtemps envisagé le territoire comme un espace neutre et relativement malléable, chacun étant supposé être substituable à un autre. Dans cette perspective, les territoires étaient envisagés comme des « réceptacles passifs dont l’organisation spécifique est peu susceptible de sécréter ou d’inhiber du développement » (Greffe, 2000, p. 12). Il souligne que le phénomène de mondialisation, loin d'accentuer cette tendance, a

produit le contraire. Ainsi, selon lui, c’est précisément ce mouvement de globalisation de l’économie contemporaine qui va donner aux ressorts locaux une pertinence inédite. Telle est la thèse défendue par les partisans de cette nouvelle approche du développement local ou territorial. Ceux-ci, comme Loinghi et Spindler (2000), emploient à cet égard le terme de « glocalisation » pour qualifier cette dynamique inédite : « Ce qui est important est de comprendre comment l’économie globale s’enracine dans les structures territoriales historiques, comment le global se nourrit en permanence du local en le transformant » (Longhi et Spindler, 2000, p. 20). Ce concept de « glocal » nous sert actuellement d'inspiration pour nos concept d' « identité glocale » ainsi que d' « œuvre territoriale glocale » que nous développons dans le cadre de nos travaux, car constituant le cœur de notre modèle d'intelligence imaginieriale.

Yoshai Benkler, théoricien en communication d'Harvard, développe dans un article intitulé Communications Infrastructure Regulation and the Distribution of Control Over Content 7 sa célèbre théorie des « trois couches ». Selon lui, un système de communication est nécessairement composé de trois couches distinctes : la couche infrastructure physique, la couche code et la couche contenu. Lawrence Lessig, juriste d'Harvard et créateur des licences juridiques Creative Commons et du Center For Internet Society se base sur cette théorie pour analyser les stratégies de contrôle des système de communication et de censure des contenus mis en ligne sur le réseau internet. Ainsi, il développe dans son ouvrage The Future of Ideas (2002) un tableau analytique incluant plusieurs exemples de systèmes de communication. L'exemple qui nous intéresse ici est le territoire de Madison Square Garden, qui héberge fréquemment des individus donnant des discours publics ou bien jouant à des jeux. Il met ainsi que bien que les couches code et contenu du système soient libres, l'accès au territoire physique ne l'est pas, celui-ci étant la propriété de Madison Square Garden LP, qui a pour habitude de restreindre l'accès au site. Nous approfondirons cette analyse plus tard, en incluant des analyses d'autres chercheurs et spécialistes concernant la « colonisation » et l'« enfermement » des territoires plus tard.

Vidal de la Blache s'oppose à la théorie de Buache du XVIIIème siècle, qui réduisait le territoire à un ensemble de provinces, de départements et de poétique bassin fluvial, en proposant une nouvelle définition de ce concept. Selon lui, c'est « une division fondamentale du sol français ». La

7 Voir Yochai Benkler, « From Consumers to Users: Shifting the Deeper Structures of Regulation », Federal Communications Law Journal 52 (2000 : 561, 562–63 (“These choices occur at all levels of the information environment: the physical infrastructure layer—wires, cable, radio frequency spectrum—the logical

infrastructure layer—software—and the content

.”).

coexistence harmonieuse des modes de vie, habitat et paysage naturel constituent un continuum intégrateur. Le sol est ainsi à considérer de manière systématique au sein d'une même identité.

Gallois (1908), dans son ouvrage intitulé Régions naturelles et noms de pays, offre une référence majeure concernant cette nouvelle posture analytique. Selon lui, la notion de « région, espace vécu » vers le concept de territoire étend les apports de de la Blache en rajoutant les idées d'appartenance à une même culture et de construction d'un objet symbolique partagé (Frémont, 1976). Le pays retrouve alors peu à peu les chemins de l'agora et le lieu virtuel de mise en commun du projet local. Cette analyse sera au cœur de notre modèle d'intelligence imaginieriale.

Pour Michel Godet (1999), le territoire « se risque dans la prospective du présent ». Herbaux (2007) souligne le fait que le territoire géographique se superpose parfois aux territoires symboliques des organisations. Ce chercheur met ainsi en évidence le fait que le territoire est le lieu de communication informelle par excellence combinée d'un non-dit qui rythme les échanges entre les hommes. Il y a capitalisation d'une culture commune dans le meilleur des scénarii, et ce, dans son projet de développement. Ses rites, ses héros, ses symboles et ses valeurs qui en constituent l'histoire, composent le théâtre des signes et des postures » (selon « l'habitus » de Bourdieu, 1994, p. 24) et établit une grammaire de communication qui fonde l'identité du groupe local.

Pour Bailly et al. (1995), le territoire est d’abord « un espace terrestre, réel et concret, (qui) est donné, vécu et perçu ». Il est donné car concret et réel, vécu par la confrontation de son identité avec nos intentionnalités et nos finalités, perçu par le contact de proximité et les dimensions de notre interaction avec lui. La relation au territoire est perçue au travers des rôles assumés par l’acteur. Inversement, le territoire peut être vu comme « un ensemble de construits relationnels, une espèce d’extériorisation spatiale d’un groupe social. » comme le propose Poche (1996). Au travers du jeu social, les acteurs définissent un système humainement construit avec le territoire.

Major (1999), à la suite de Schwarz (1997), propose d’établir un modèle du système « territoire », de nature informationnelle, qui rende compte à la fois de la matérialité des objets territoriaux, des approches cognitives différentes des intervenants qui en effectuent une lecture spécifique, et du sens « territorial » qui transforme l’espace en ressources partagées. Le modèle systémique que ces auteurs ont élaboré, amélioré par Bertacchini (2010), se décompose en trois plans fortement imbriqués et indissociables l’un de l’autre :

- Celui de la matière physique (premier niveau) : les aspects énergétiques et entropiques ;

- Celui de l’information (deuxième niveau) : les aspects relationnels ;

- Celui de l’identité (troisième niveau) : les aspects holistiques.

Ces niveaux sont à considérer comme des ensembles imbriqués, un système complexe, de nature différente. Ce modèle est aussi une représentation de la complexité d’un système. Dans cette perspective, Bertacchini décrit chacun des trois plans et définit leur contenu : objets physiques et concrets au premier plan ; relations et informations, mais aussi agrégation ou composition d’objets dans des concepts au second plan ; enfin, territoire en tant qu’espace porteur de sens pour l’acteur et en tant que lieu d’interactions multiples entre acteurs au troisième plan.

Major & Golay (1998) définissent quant à eux les trois dimensions d'un territoire mettant en évidence la notion des trois niveaux de perception :

- Objets territoriaux (interactions);

- Structure et forme (structures et formes) ;

- Territoire, sens, identité (les acteurs).

Bertacchini (2010) développe les caractéristiques de la territorialité :

TERRITORIALITE

ELEMENTS

PROCESSUS

ACTEURS

 

CONCERNES

Dimension physique

Objet territorial Proximité instrumentale

Individu,

Institutions

Dimension cognitive

Langue,

Représentation

Groupe

social

éléments

des objets

dans

son

d'interprétation

ensemble

Dimension normative et symbolique

Règles,

signes,

Gestion

de

Autorités

par

symboles

l'héritage

délégation

 

Symbolique

(rites)

Herbaux (2007) met en évidence le fait que « si le territoire est un espace de ressources, il est avant tout constitué d''objets d'intérêts qui alimentent un jeu autour de ceux-ci. » Pornon (1997, p. 30) nous précise les liens causaux de cette compétition: « Ces conflits sont provoqués par la rareté des ressources du territoire, mais résultent également de la différenciation dans l'utilisation du territoire ou dans le fonctionnement des systèmes sociaux, et de la nécessité de coordonner les acteurs dans les organisations et sur le territoire. » Pornon (1997) différencie ainsi deux pôles complémentaires (ressources et interactions sociales) qui s'organisent autour de ces objets du territoire. Il en précise la nature des conflits qui les accompagnent : « Ainsi, le jeu de pouvoir porte non seulement sur la capacité d'appropriation des ressources elles-mêmes, mais aussi sur les pratiques territoriales qui font référence à des visions différenciées du monde, enfin sur la délégation d'autorité ou sur la répartition des rôles ». Nous rajouterons que ces ressources territoriales peuvent être, selon les théories économiques que nous analyserons prochainement, de nature rivales, non-rivales (également qualifiées de soustractibles ou non soustractibles selon Hess et Oström, 2006) ou anti- rivales (selon Weber, 2004).

2.2. Intelligence territoriale

C’est dans la thèse de Raison (1998), défendue à Marseille, qu’apparaît pour la première fois le

terme « intelligence territoriale ». Bertacchini se penchait alors sur ces problématiques pour en

proposer une thèse en 2000, intitulée « Information et Veille territoriales : représentation du

complexe local et émergence d’un projet d’intelligence territoriale ». Ce concept nouveau allait par

la suite être développé par différents auteurs au sein de l'Europe. 8 Considérant la place centrale prise

par l’utilisation de l’information au sein de nos sociétés contemporaines, un nouveau concept est né

au carrefour des intérêts pour le développement des territoires : l’intelligence économique

territoriale ou IET (Herbaux, 2007 ; François, 2008). Phillipe Herbaux (2007), dans son ouvrage

Intelligence territoriale : Repères théoriques 9 définit ce concept comme « une évolution de la culture

des organisations basée sur la mutualisation et le traitement des signes en provenance des acteurs

économiques et destinés à fournir au donneur d'ordre, et au moment opportun, l'information

décisive ».

Ce concept récent, fortement attaché à la notion même d’intelligence économique, peut se définir

comme la capacité d’un territoire à anticiper les changements socio-économiques et à gérer les

connaissances qui en découlent (Moinet, 2011). En cela il s’inscrit dans la lignée des conclusions du

rapport Martre (1994) qui prône une gestion de l’information stratégique par et au profit des acteurs

économiques (privés et publics) d’un espace territorial.

Les activités de recherche en intelligence territoriale sont dirigées par des acteurs comme Jean-

Jacques Girardot, Philippe Dumas et Yann Bertacchini. Leurs définitions suivent la même

dynamique et affirment que l’intelligence territoriale :

- Concerne « tout le savoir multidisciplinaire qui améliore la compréhension de la structure et des

dynamiques des territoires » (Girardot, 2002) ;

- Permet « une évolution de la culture du local fondée sur la collecte et la mutualisation entre tous

ses acteurs des signaux et informations, pour fournir au décideur, et au moment opportun,

l’information judicieuse » (Herbaux, 2002) ;

8 Girardot et Masselot ont ainsi expérimenté, avec quelques partenaires européens, un ensemble d’approches empiriques en Belgique, Espagne, Italie et Roumanie.

9 HERBAUX Philippe, Intelligence territoriale : Repères théoriques, L'Harmattan, Paris, 2007, 194 p.

- Rapproche « l’intelligence territoriale en tant que processus cognitif et d’organisation de l’information, et le territoire en tant qu’espace de relations significatives » (Dumas, 2004).

Bertacchini (2004) propose une définition de ce concept. Selon lui, « on peut considérer l'intelligence territoriale comme un processus informationnel et anthropologique régulier et continu, initié par des acteurs locaux physiquement présents et/ou distant qui s'approprient les ressources d'un espace en mobilisant puis en transformant l'énergie du système territorial en capacité de projet. De ce fait, l'intelligence territoriale peut être assimilée à la territorialité qui résulte du phénomène d'appropriation des ressources d'un territoire, puis au transfert des compétences entre des catégories d'acteurs locaux de culture différente. L'objectif de cette démarche est de veiller, au sens propre comme au sens figuré, à doter l'échelon territorial à développer de ce que nous avons nommé le capital formel territorial ».

L'intelligence territoriale, en tant qu'objet et champ scientifique se pose, selon Bertacchini, à la convergence de l’information, de la communication et de la connaissance, traduit une relation « Espace-territoire », succède à la territorialité en tant que phénomène d’appropriation ou de réappropriation des ressources et permet, enfin, l’énoncé du projet territorial lorsque l’échelon territorial arrive à formuler un projet de développement. D’un point de vue épistémologique et méthodologique, l’expression, certes audacieuse, d’intelligence territoriale souligne la construction d’un objet scientifique qui conduit in fine à l’élaboration d’un méta-modèle du système territorial inspiré des travaux de Schwarz (1997).

Selon Moinet (2009), il s’agit d’un ensemble d’actions à conduire de manière concomitante dans huit domaines :

- Vigilance : Mise en place d’un dispositif territorial de veille anticipative. Mutualisation de l’information publique, blanche et grise, au service des acteurs privés et publics du développement. Soutien à la veille stratégique des entreprises ;

- Diagnostic : Diagnostic des ressources propres du territoire, de ses facteurs clés de succès et facteurs critiques d’échec ;

- Coordination de l’action Publique : Politique coordonnée entre les différents niveaux de collectivités territoriales et les représentants de l’État au sein du territoire afin de valoriser des

richesses discriminantes du territoire, via l’innovation ;

- Réseaux : Développement et activation de réseaux d’acteurs concourant au développement, aux niveaux infraterritoriaux, territoriaux et extraterritoriaux, que ce soit au niveau interrégional, national ou transfrontalier ;

- Connaissances et Innovation : Création de dispositifs d’échange de connaissances entre les acteurs privés avec pour objectif de favoriser l’implication territoriale, le maillage des acteurs et l’innovation organisationnelle, technologique, commerciale,… ;

- Influence et Image : Organisation d’un dispositif d’influence et de valorisation de l’image du territoire au niveau national, européen et, plus largement, dans toute région du monde en lien avec les intérêts fondamentaux du territoire ;

- Préservation : Dimension patriotique dans le soutien des acteurs publics aux acteurs privés et politique de sécurité économique vis-à-vis des acteurs clés innovants ;

- Partenariats : Recherche systématique d’un partenariat public-privé dans la recherche fondamentale et appliquée, la formation, la constitution d’espaces économiques coordonnés, innovants, tels que pôles de compétitivité, districts industriels, technopôles,…

Avec Coussi et Krupicka (2014), Moinet identifie le fait que le dispositif d'intelligence économique territoriale résulte de la combinaison des deux fossés culturels déjà relevés par les fondateurs de l’intelligence économique « à la française » : le passage d’une culture fermée à une culture ouverte de l’information, et le passage d’une culture individuelle à une culture collective de l’information (Harbulot, 1992).

Une des premières applications fut le volet expérimental d’intelligence territoriale que certains chercheurs, parmi lesquels Philippe Herbaux, conduisirent dès 2001 dans le Nord de la France. Cette recherche était mandatée par l’État, qui a alors laissé un large champ d’interprétations de moyens et de démarches susceptibles d’en fonder les premiers points d’ancrage. L'équipe développa une démarche méthodologique qui recommandait de considérer comme volet d’action prioritaire le traitement de l’information appliqué à la micro-économie. Cette méthodologie permettait ensuite une extension de la démarche sur différents facteurs de succès propres au territoire. Ils avancèrent

alors qu’un schéma d’intelligence territoriale est dépendant de son volet intelligence économique par la priorité revendiquée au sein du local. Cet intérêt semble être, selon ces chercheurs, le point de levier essentiel pour mobiliser les acteurs dans l'apprentissage des logiques de mutualisation de l'information (Herbaux, 2007).

Selon Ludovic François (2008), l’IT puise ses racines et se déploie, en tant que démarche concrète, dans l’approche du développement territorial présenté ci-dessus. Les représentants de l’IT soulignent, au même titre que les partisans du développement territorial, la nécessité « méthodologique » de faire de l’ensemble des individus insérés dans le territoire les acteurs clés d’une dynamique de développement local réussie. Selon lui, le développement territorial repose sur deux hypothèses fortes :

- La première affirme que le développement territorial doit être endogène, c’est-à-dire secrété par les acteurs eux-mêmes au travers d’initiatives locales prenant la forme de projets ;

- Ces différents projets, aboutissant à l’élaboration de ressources construites, sont le résultat de logiques de coordination qui ne sont ni exclusivement celles du marché ni celle d’une régulation étatique. Telle est l’argument au cœur de la seconde hypothèse.

L’originalité d’une telle posture est, selon François, d’introduire un troisième mode de coordination entre les acteurs du territoire, complémentaire aux deux autres dans sa contribution au développement. Ainsi, comme le souligne Pecqueur, « il s’agit de mettre en évidence une dynamique qui valorise l’efficacité des relations non exclusivement marchandes entre les hommes pour valoriser les richesses dont ils disposent » (2000, p. 13). Ce mode de coordination inédit repose sur les capacités d’apprentissage collectif propres aux acteurs de ce territoire. Xavier Greffe nomme ces acteurs des entrepreneurs civiques : « ces entrepreneurs civiques innovent en contribuant à mettre en place de nouveaux lieux de décision ou de réalisation de projets, ils sont civiques en cherchant à « optimiser » les perspectives d’un développement durable et donc profitable à tous sur le territoire » (2000, p. 35).

Bertacchini (2010) définit les hypothèses de la grammaire territoriale. D’un point de vue des Sciences de l'Information, ce processus informationnel autant qu'anthropologique suppose la conjonction de trois hypothèses :

- Les acteurs échangent de l’information (génération d’énergie à titre individuel et/ou collectif) ;

- Ils accordent du crédit à l’information reçue (captation-échange de l’information) ;

- Le processus de communication ainsi établi, les acteurs établissent les réseaux appropriés et transfèrent leurs compétences (mobilisation et transfert d’énergie : formulation du projet).

Selon lui, lorsque ces hypothèses sont réunies et vérifiées, les gisements potentiels de compétences peuvent être repérés à l’aide d’une action d’information et de communication territoriales puis mobilisés plus tard dans la perspective de l’écriture d’un projet de développement.

Concernant les principes fondateurs de l’IT, François remarque qu’ils confèrent la même importance aux logiques de coordination hors marché. Ils insistent en particulier sur la coopération comme étant la modalité d’interaction devant être privilégiée dans les dynamiques d’apprentissage collectif. Les dynamiques territoriales reposant sur une coopération entre acteurs hétérogènes permettent une mutualisation et donc une valorisation de connaissances jusque-là éparpillées. Comme le souligne l’un des architectes de l’IT, les systèmes communautaires d’IT (SCIT) doivent « favoriser le partage d’informations au sein d’un partenariat de développement territorial », « instrumenter l’analyse coopérative des données et l’interprétation participative des résultats » et enfin « introduire la participation citoyenne dans le processus d’élaboration de la décision » (Girardot, 2007). Ces SCIT peuvent se déployer dans tout projet collectif supposé participer à la dynamique et à la valorisation du territoire. François mentionne comme exemple le domaine de l’urbanisme, les « ateliers de dialogue urbain » mis en œuvre sur le territoire de la communauté d’agglomération de Lyon et dont l’expérience constitue une illustration d’une démarche d’IT visant à promouvoir la démocratie participative et améliorer la qualité des projets publics. Comme le soulignent Bouchet et Bertacchini (2007) qui relatent cette expérience inédite, « pour que le système territorial s’auto-organise dans un processus d’apprentissage social, il est nécessaire d’impliquer la société civile » (2007, p. 4). Lacour – Jousselin et al. mettent en évidence le fait que l’IT peut également servir à définir des stratégies touristiques territoriales inédites, fondées sur l’animation du patrimoine, permettant là aussi de participer à l’émergence d’un capital formel propre au territoire. Ainsi, selon eux, « on reconnaît à cette forme de tourisme [territorial] tournée vers le patrimoine, des retombées locales significatives » (Lacour-Jousselin et al., 2007, p. 3).

L'intelligence territoriale consiste ainsi en de multiples approches dont la prise en compte systémique d'un territoire par la mise en réseau de ses acteurs pour son développement durable,

l'amélioration de son attractivité humaine ou entrepreneuriale. En pratique, cela se traduit, notamment, par des collectes de données complètes sur l'environnement, la confrontation des points de vue des acteurs locaux, la création de grappes d'entreprises, la définition d'une communication territoriale adaptée à l'ensemble du territoire. Elle consiste aussi en une meilleure compréhension du territoire, de ses enjeux, atouts et problèmes qu'ils soient sociaux, écologiques ou économiques. L'intelligence territoriale constitue ainsi une application conjuguée au niveau d'un territoire d'actions d'intelligence économique (veille, protection, influence et lobbying et réseautage), de gestion des connaissances (capitalisation, cartographie, partage et création de connaissances) ou d'autres telles que la prospective, l'innovation ou le marketing. Cette combinaison est proposée par des groupements d'entreprises (grappes/cluster, systèmes productifs locaux, associations et pôles de compétitivité) à leur membres ou bien sert de stimulant à une institution associée à un territoire pour permettre aux entreprises de ce territoire d'être plus compétitives. L'intelligence territoriale peut alors être interprétée d'un point de vue tactique ou stratégique ou encore en termes de gestion bottom-up (logique ascendante) ou top-down (logique descendante). 10

Herbaux (2007) souligne l'importance du modèle systémique pour l'intelligence territoriale. Selon lui, la Systémique est un savoir et une pratique qui permet de traiter les questions difficiles en complétant et en enrichissant le raisonnement causal, déterministe quand il n'est plus adapté à la nature complexe de la situation et qu'il devient réducteur et simpliste. Le champ de l'intelligence territoriale peut ainsi bénéficier de cette approche, parce qu’il met en jeu de nombreux paramètres qui interfèrent les uns avec les autres, créant des redéfinitions de problématiques à l'aune des événements en cours. Ce n'est plus, selon Morin, de la « complication mais de la complexité ». La systémique, en utilisant des outils conceptuels d'observation et d'interprétation des faits, n'extrait pas de leur contexte les objets étudiés, ce qui permet d'en révéler le sens. Son mode d'expérimentation permet des essais non destructifs, et ouvre des voies de solution y compris quand il n'y a pas de solution et qu'il s'agit alors de trouver un plus petit commun multiple entre des résistances en présence. Nijs (2014) place la systémique et la pensée complexe au cœur de l'imaginierie pour appréhender et gérer des problèmes complexes nécessitant une transformation basée sur l'évolution et l'émergence.

10 Source : https://fr.wikipedia.org/wiki/Intelligence_territoriale (consulté le 25 juin 2015).

Schéma de Guesnier et Le Maignan (2014) concernant l'évolution des territoires. 15

Schéma de Guesnier et Le Maignan (2014) concernant l'évolution des territoires.

15

Caractéristiques des différents types de territoire, selon Guesnier et Lemaignan (2014). 2.3. Les trois formes

Caractéristiques des différents types de territoire, selon Guesnier et Lemaignan (2014).

2.3. Les trois formes d'expression de la création

À I'occasion des « Créatlantiques », rencontres réalisées par l''École des projets en 2002 en Poitou- charentes, Guesnier et Lemaignan (2014) découvrent trois formes d'expression de la création, qui rejoignent celles décrites par Hans Joas dans son livre La créativité de I'Agir (1999) :

- L'Être Créateur : L'idée d'expression décrit la créativité avant tout, au monde subjectif de celui qui

agit relativement ;

- L'encastrement social du Créateur : L'idée de production rapporte la créativité au monde objectif,

au monde des objets matériels, comme condition et moyen d'action ;

- L'Individu créateur en Société : L'idée de révolution, enfin, suppose la possibilité d'une créativité

humaine appliquée au monde social, c'est-à-dire, la possibilité de transformer fondamentalement les

institutions sociales qui règlent la vie des hommes.

Ainsi, au-delà d'une réduction à l'esthétique, la création vise un dessein où poètes et artistes, mathématiciens et inventeurs, ingénieurs et ouvriers produisent des réalités nouvelles. Ils essaient ainsi de croiser ces trois formes de création avec les deux types de territoires : celui de projet et celui créatif.

types de territoires : celui de projet et celui créatif. Tableau récapitulatif des caractéristiques des territoires

Tableau récapitulatif des caractéristiques des territoires en lien avec les trois formes de création (Guesnier et Lemaignan (2014).

2.4. L'innovation au cœur de l'intelligence territoriale

L'open innovation (innovation ouverte) a été promu par Henry Chesbrough, Professeur à l'université de Berkeley. Ce terme définit le processus par lequel une entreprise est capable de faire appel à des idées et expertises en dehors de ses propres murs. Elle est ainsi un modèle d’innovation fondé sur le partage des savoirs et des savoir-faire et possède un lien avec les dynamiques d’intelligence collective interne et externe, ainsi qu'avec l'open data (Duval et Speidel, 2014). L'open innovation (ou innovation distribuée) constitue selon Chesbrough un mode d'innovation basé sur le partage, la coopération entre entreprises, à la fois compatible avec une économie de marché (via les brevets et licences) ou d'intelligence économique, mais cette approche permet aussi des

démarches basées sur des alternatives éthiques ou solidaires (économie solidaire) de partage libre des savoirs et savoir-faire modernes ou traditionnels, avec notamment l'utilisation de licences libres dans un esprit dit « ODOSOS » (Open Data, Open Source, Open Standards). Elle peut concerner tous les domaines de la recherche et du développement. Deux modalités issues de l'open innovation peuvent être distinguées (Michelino et al., 2014) : la modalité outside-in (ou inbound) et la modalité inside-out (ou outbound). Lorsqu'elle pratique l'Open Innovation outside-in, une entreprise cherche à trouver des connaissances, méthodes ou technologies à l'extérieur de l'entreprise pour enrichir ses propres processus d'innovation. Lorsqu'elle pratique l'Open Innovation inside-out, elle cherche à mieux valoriser sa propriété intellectuelle à l'extérieur, la plupart du temps sous forme de licences.

Akrich, Callon et Latour (1988), considèrent l’innovation comme un processus complexe et non linéaire à l’avenir incertain. Sa conception adopte un processus tourbillonnaire engendré par un réseau d’actants (pour reprendre le terme de Callon, 1986 qui englobe les acteurs humains et non humains) en interaction où ajustements et jeux de pouvoir permettent de faire évoluer le projet sous l’effet de porte-paroles. Ainsi, qu’elle soit initiée par une ou plusieurs organisations, l’innovation est nécessairement conçue en collaboration et en considération d’autres actants socialement et institutionnellement situés (Krupicka et Coussi, 2015). L'innovation ouverte est ancrée dans le paradigme de la « wikinomie » que nous présenterons prochainement. L'open innovation est ainsi intrinsèquement liée au mouvement du libre, et plus précisément (dans une approche corporate), à l'open-source. 11

2.5. Intelligence marketing

Le marketing territorial est intrinsèquement lié à l'intelligence économique. Ainsi, le rapport de l’ADIT (agence pour la diffusion de l’information stratégique) intitulé « Le management stratégique des régions en Europe » (Prager, 2005) énonce clairement les liens existant entre l’intelligence économique et le marketing territorial. Pour Vincent Gollain, « le marketing territorial est l'effort collectif de valorisation et d'adaptation des territoires à des marchés concurrentiels pour influencer, en leur faveur, le comportement des publics visés par une offre différente et attractive dont la valeur perçue est durablement supérieure à celles des concurrents. Cette approche cherche à trouver le

11 L'open-source constitue une « adaptation » du discours libriste concernant l'ouverture du code source des technologies, opérant une transition de la « liberté » à la « commodité » (Stalllman, 2002), séduisant les entreprises via cette dimension fonctionnelle et pragmatique (Kauffman, 2012). Nous analyserons la philosophie du Libre et ce conflit idéologique prochainement.

meilleur équilibre entre le marketing de l’offre de la destination promue et le marketing de la demande fondée sur une excellente connaissance des clients. Enfin, le marketing territorial constitue une boîte à outils basée sur des méthodes, techniques, outils et analyses de pratiques menées à travers le monde. »

Le terme « marketing intelligence » remonte à 1961 et a été développé par William T. Kelley (1965), afin d'aider les top-managers des entreprises américaines à mieux gérer les informations potentiellement stratégiques pour évoluer sur leurs marchés. Il s’agit de répondre à un besoin de sélectionner, prioriser, mettre en valeur et surtout donner du sens à des informations efficientes, parmi pléthore d’informations issues de diverses sources qu’elles soient ouvertes, blanches, grises ou noires dans de rares cas.

Le Portail de l'Intelligence Economique (2013) définit l’intelligence marketing comme la collecte et l’analyse des informations utiles à l’entreprise dans un but de prise de décision optimale et de performance économique. L’Intelligence Marketing vise principalement à déterminer des opportunités de marché, à développer des stratégies de pénétration de marchés et d’outils aptes à mesurer, de façon complémentaires aux outils traditionnels du marketing, les comportements actuels ou à venir des individus et organisations constituant l’environnement de l’entreprise :

clients, fournisseurs, alliés, concurrents,

Selon lui, l’analyse d’informations stratégiques dans un but de connaissance de l'environnement, et surtout de prise de décision constitue l’objectif premier de l’intelligence économique. Dans le cadre de la fonction Marketing, l’intelligence économique répondra principalement aux questions suivant 12 :

- Identification du marché global d’une entreprise : cartographie approfondie des acteurs du marché ;

- Identification des forces et des faiblesses de l’entreprise sur ce marché ;

- Compréhension de la nature et du positionnement des produits et des services proposés dans le secteur ;

- Identification des nouvelles tendances du secteur d’activité ;

12 Source : http://www.portail-ie.fr/article/643/Marketing (consulté le 16 mai 2015).

- Identification des mouvements stratégiques de la concurrence (nouvel entrant, nouveaux produits et services, etc.) ;

- Étude et action sur les perceptions des consommateurs vis-à-vis des produits et des services ;

- Minimisation des risques d’investissement, en particulier dans des environnements hautement compétitifs.

Pierre Morgat (2015) souligne qu'il y a presque autant de définitions de l’intelligence marketing que d’acteurs. Il propose ainsi une définition sous un angle business à l’anglo-saxonne :

L’intelligence Marketing consiste à gérer l’information pertinente pour l’entreprise en la stockant et l’analysant, afin de favoriser la prise de décision. Ainsi il est possible d’élaborer une stratégie de développement en intégrant des données telles que les opportunités de marché, les parts de marché, ou encore le degré de maturité des marchés. Il y a donc une véritable complémentarité entre Business Intelligence et Marketing Intelligence qui recouvrent les données externes et internes.

Selon Ed Crowley, l’intelligence marketing sert notamment à comprendre les concurrents d’une part et le marché d’autre part. Les aspects concurrentiels recouvrent l’organisation, les investissements, la stratégie des concurrents et l’intelligence des produits (pricing, lancements, promotions). Pour leur part, les aspects inhérents au marché concernent sa compréhension globale (parts de marché, opportunités à venir, analyses de marché) et la compréhension du consommateur (définition des produits, comportement, satisfaction et fidélité).

De manière plus schématique, Morgat résume les apports de l’intelligence marketing comme suit ;

- Connaître

consommateur ;

et

comprendre

:

Tant

les

caractéristiques

du

marché

que

le

comportement

du

- Prévoir et anticiper : La dimension temporelle est essentielle. Ainsi des données historiques ou encore obtenues en temps réel sont exploitées afin de prévoir des tendances de marché ou l’évolution des besoins des clients ou consommateurs. Les trois dimensions temporelles (passé, présent et futur) doivent donc être intégrées ;

- Agir et piloter : Idéalement liés à un gestionnaire de campagnes relationnelles, les outils

d’intelligence marketing permettent de piloter des campagnes de promotion, des contre-offensives

vis-à-vis d’actions concurrentes, etc. ;

- Rentabiliser et économiser : A la lumière des données collectées, analysées, la prise de décision est plus rapide, plus efficace et permet donc d’optimiser le ROI des campagnes relationnelles, mais aussi d’économiser en ciblant mieux et en dépensant moins ;

- Apprendre et s’améliorer en permanence : La connaissance acquise forme un véritable « thésaurus » sur lequel il faut capitaliser. Ceci permet de s’inscrire dans une perspective de recherche de l’excellence en continu et de Knowledge Management.

Jean-Paul Aimetti et Jean-Michel Raicovitch (2013), analysent l'intelligence marketing dans leur

ouvrage Intelligence marketing : Innovation, digitalisation, cross canal

recommandations pour relever les nouveaux défis. Selon eux, l’intelligence marketing revêt différents intérêts pour l’organisation qui sait la maîtriser. Tout d’abord, en mettant en place un tel système, l’entreprise met son client au cœur de son projet. L’objectif étant de mieux le comprendre pour mieux le satisfaire et donc le fidéliser. L’intelligence marketing permet donc de multiplier les sources de connaissances des cibles de clientèles afin d’obtenir un maximum d’informations sur celles-ci, notamment grâce à différents outils de collecte de données. 13

- Repères et

Hélène Mainet (2011), dans un article intitulé Les petites villes françaises en quête d’identité. Ambiguïté du positionnement ou image tactiquement combinée ? 14 souligne que pour étudier comment les acteurs des petites villes identifient leur territoire, il est intéressant d’observer l’image qu’ils ont et qu’ils donnent d’elles à travers leurs discours et leurs actions. Chacune des villes propose une sorte de carte d’identité faite à la fois d’image et de réalité. C’est effectivement un des enjeux du marketing territorial, pour construire et favoriser le sentiment d’appartenance, de travailler simultanément sur les deux registres. Il n’est pas aisé, selon Mainet, de définir une petite ville. C’est une ville de petite taille, mais la question des seuils se pose. Les études portant sur la petite ville n’adoptent pas toutes les mêmes limites démographiques. Si la limite inférieure de 2000 habitants semble acquise – officiellement, puisque c’est le seuil statistique de l’urbain en France –, elle est loin d’être adoptée par tous les chercheurs. La promotion territoriale passe largement par les nouveaux canaux liés au numérique. Dans un premier temps, les institutions municipales sont

13 Jean-Paul Aimetti, Jean-Michel Raicovitch : Intelligence marketing: Innovation, digitalisation, cross canal 14 Hélène Mainet, « Les petites villes françaises en quête d’identité. Ambiguïté du positionnement ou image tactiquement combinée ? », Mots. Les langages du politique [En ligne], 97 | 2011.

restées assez frileuses par rapport au développement de sites internet. Ce n’est que vers la fin des années quatre-vingt-dix qu’ils se sont généralisés et se sont articulés avec d’autres pratiques numériques municipales émergentes telles que l’e-démocratie ou, plus prosaïquement, le déplacement d’une partie des relations administratives vers un support internet. Ainsi, sites internet, blogs, supports multimédias ou médias sociaux sont-ils développés comme nouveaux « canaux » de la communication publique territoriale : blogs, chats, alertes SMS, liste de diffusion de newsletter, forums (Bailleul, 2006 ; Barabelbaill, 2010). Les chargés de communication sont aujourd’hui très orientés vers des missions de mobilisation de la population locale et d’animation du territoire. Si la promotion extraterritoriale a fait l’objet d’actions phares dans les années quatre-vingt, actuellement se développe surtout la communication de proximité (Houllier-Guibert, 2008).

Marc Giget, Professeur associé au CNAM, fondateur et président de l’EICSI (European Institute for Creative Strategies and Innovation) analyse les dynamiques historiques de l’innovation de la Renaissance à la sortie de crise. Selon lui, la Renaissance est une synthèse entre le passé (Rome et autres civilisations), le présent dans sa diversité, avec l’intégration de toutes les connaissances du monde connu (venues de Chine, d’Inde, du Monde arabe, de l’Empire byzantin – qui transfère tout son acquis avant d’être conquis –, de tous les pays d’Europe), et la préparation du futur. Il rajoute que la question se pose également de la façon de garder l’acquis de grandes avancées de la Renaissance tout en allant plus loin : au-delà du livre, au-delà des universités, au-delà des outils financiers conçus à cette époque, au-delà du brevet, au-delà de l’entreprise, etc. Ce paradigme sied parfaitement à notre modèle d'intelligence imaginieriale, qui vise à marier harmonieusement ces trois dimensions au service d'un processus de créativité et d'innovation optimisé, basé sur un dépassement des modèles économiques actuels reposant sur la privatisation des biens immatériels anti-rivaux tels que les idées et la connaissance.

Moinet et Krupicka (2015), analysent le rôle de l'intelligence marketing et son rôle au service de la co-innovation dans un article intitulé L'intelligence marketing au service de la co-innovation : le rôle clé des communautés stratégiques de connaissance. Ces deux chercheurs mettent en avant le fait que cette notion de partage et de création de connaissance constitue un élément fondamental en intelligence économique, notamment au travers des communautés stratégiques de connaissance. Ils soulignent que l'intelligence marketing peut se définir comme l'interaction entre le marketing et l'intelligence économique. Ces deux approches se complètent ainsi bien pour donner une vision plus systémique des marchés, de ses acteurs et des moyens d’interagir avec eux. En effet, ce qui

caractérise l’intelligence économique est tout d’abord son approche conceptuelle, car si elle part d’un besoin d’information bien défini, il s’agit plutôt selon eux de rechercher des concepts avec une certaine sérendipité. Ce système a donc pour enjeu la conception d’une stratégie marketing efficace car adaptée à l’environnement, mais aussi de déterminer les circonstances qui la rendront efficiente lors de sa mise en application.

Joël Le Bon explique que « Ne pouvant intégrer et gérer tous les flux d'information nécessaires aux décideurs, les systèmes d'information de management se composent en fait de sous-systèmes propres aux différentes fonctions de l'entreprise (marketing, finance…). » L’intelligence marketing est donc un sous-ensemble de l'intelligence économique. Pour ces deux chercheurs, la clé de succès d'un dispositif d’intelligence marketing réside dans la création de communautés stratégiques de connaissance (Fayard, 2006) en interaction.

Selon Moinet et Krupicka, ce qui apparaît comme déterminant dans la réussite d'une démarche de conception de l’innovation est donc la création de communautés stratégiques de connaissance. Ce mode de fonctionnement tend ainsi à abattre les frontières de l’organisation au bénéfice des projets collaboratifs où interagissent acteurs, compétences et sources d’information sur un front de création de connaissances opérationnelles. Cette porosité dynamique de l’organisation apparaît comme une condition essentielle de l’agilité stratégique. Seule une démarche réfléchie de communication permet ainsi la constitution d’une communauté stratégique de connaissance (explicite comme implicite) nécessairement orientée vers l’action.

Ces deux chercheurs prônent ainsi un passage d’un management de l’intelligence économique à un management par l’intelligence économique. Celui-ci implique que la dynamique d’intelligence économique se diffuse (sans se dissoudre) dans les pratiques managériales et l’organisation : ce n’est alors plus la logique planificatrice qui prévaut ni la vision technique du renseignement, mais bien celle de l’apprentissage organisationnel et du « sensemaking ».

Ils rajoutent que

Dans des environnements toujours plus incertains et turbulents, la vieille organisation pyramidale s’efface au profit de l’organisation en réseau : le contrat l’emporte sur la contrainte, la responsabilité sur l’obéissance, le désordre sur l’ordre, le risque partagé sur la limitation du hasard, le projet sur la discipline, l’enjeu sur l’objectif quantifié,

enfin l’information co-élaborée et échangée sur l’information diffusée et contrôlée. L’organisation pyramidale reposait sur un système d’information également pyramidal conçu pour contrôler la mise en œuvre de la planification. Redessinée sous forme de réseau, l’organisation s’insère dans un tissu de relations entre acteurs et environnement qu’elle transforme tout en étant elle-même transformée.

2.6. Intelligence inventive

L'intelligence de l'invention est un concept développé par Bernard Besson, expert en intelligence compétitive et Renaud Uhl, spécialiste de la résolution de problèmes techniques via des méthodes formalisées. Elle peut être résumée comme la combinaison de l'intelligence stratégique et de la créativité. Il est intéressant de remarquer que ce concept est né de la rencontre de ces deux experts et de la synergie entre leurs connaissances et compétences complémentaires. Pour Besson et Uhl (2010), « L'intelligence économique fournit à la pensée inventive des questions, des informations et des connaissances sur la base d'une organisation en réseau. L'intelligence inventive transforme en profit l'ignorance. » Ils définissent l'invention comme « l'actualisation d'un acte créateur » et présentent également le rôle des deux autres concepts fondamentaux au cœur de l'intelligence inventive : l'intelligence économique et la pensée inventive :

L'intelligence économique est organisée autour du contrôle stratégique de l'information dans le but de détecter les menaces et les possibilités de toutes sortes. Il est un cycle continu de questions et réponses. Découvrir ce que nous ne savons pas et les moyens d'y répondre, est la première attitude à avoir pour maintenir une position forte. Elle est également organisée autour de la maîtrise de ses réseaux (via l'identification de tous les acteurs influençant l'intérieur et l'extérieur de l'organisation), la mémoire (via l'identification de ce qui est connu oralement ou par écrit) et l'analyse (comment interpréter les informations et leur donner du contenu significatif pour prendre des décisions).

La pensée inventive constitue, selon Besson et Uhl, l'ensemble des moyens créatifs mis en œuvre par l'entreprise pour répondre à des besoins ou des questions. La pensée inventive ne relève pas de la seule inspiration. Elle s'organise autour de la synergie (créer un climat de confiance), de processus (avoir un protocole inventif adopté par tous), la connaissance (s’appuyer sur des bases de

données), l’abstraction (permettre de prendre du recul vis à vis d’une situation donnée) et l’imagination. L'intelligence économique s'organise autour de la maîtrise stratégique de l'information afin de détecter des menaces et des opportunités de toutes natures. La pensée inventive valorise les idées et l'intelligence économique s'assure de les transformer en innovation à succès à travers l'utilisation de l'ensemble des leviers à disposition de l'entreprise. La pensée inventive s'organise ainsi autour d'un processus, l'intelligence économique identifie et fédère l'ensemble des acteurs de l'innovation, qu'ils soient dans l'entreprise ou en dehors de celle-ci. L'intelligence inventive, au travers de l'association de ces deux approches, fournit au chef d'entreprise une méthode d'identification des freins à l'innovation, une vision claire du processus d'innovation associée à des outils simples et efficaces.

Besson et Uhl (2012) mettent en évidence quelques points-clé concernant l'intelligence inventive :

- L''innovation ne peut vivre sans l'association de l'intelligence stratégique et la pensée inventive. L'intelligence stratégique fournit des informations et valide les concepts générés par la pensée inventive ;

- La pensée inventive favorise les idées, l'intelligence stratégique assure leur transformation en innovation réussie grâce à l'utilisation de tous les leviers disponibles de l'organisation ;

- La pensée inventive est organisée autour d'un processus : L'intelligence économique identifie et

rassemble tous les acteurs de l'innovation, que ce soit à l'intérieur ou à l'extérieur de l'organisation ;

- L'intelligence inventive, grâce à la combinaison de ces deux approches fournit à l'entrepreneur une

identification des obstacles à la méthode de l'innovation, une vision claire de l'innovation associée avec le processus d'outils simples et efficaces ;

- L'innovation ne se limite pas à avoir des idées ou à recueillir de bonnes informations : elle est un tout.

Voici les phases essentielles du concept de l'intelligence inventive que Besson (2010) souligne et définit :

- Démystification : L'organisation doit développer une pensée propice à une activité inventive. La

pensée inventive démontre que les innovations, qu'elles soient petites ou grandes, existent dans tout domaine et peuvent être produites par quiconque. Cette phase vise ainsi à favoriser la désinhibition des individus afin de libérer leurs pensées créatives et inventives ;

- Motivation : L'organisation développe un affect collectif, un rythme, une imagination, une

reconnaissance/récompense des contributions des acteurs. L'appropriation collective sera la première phase de sa promotion. Autour d'une idée d'abord exprimée par des mots, l'organisation fédère toutes ses équipes autour de dessins, puis modélise afin de partager une vision collective du projet 15 . « L'idée est un être qui a besoin d'être nourri et dont la pérennité doit être assurée » . Cette phase met en évidence l'importance d'inclure les personnes dans le processus d'intelligence collective, sans aucune discrimination, ainsi que la participation libre et volontaire des acteurs au sein des processus créatifs et inventifs. La motivation intrinsèque (Rose, 2011) sera le noyau de cette stratégie ;

- Organisation : L'organisation innove en développant un système de veille concurrentielle afin

d'optimiser la pensée inventive. L'organisation invente des questions et des réponses valides. Le

processus global d'innovation est alimenté par l'intelligence économique et ses trois dimensions coordonnées : la mémoire, l'analyse et le réseau ;

- Reformulation : L'organisation reformule ses problèmes ou projets. La demande initiale est

souvent une source perçue de solution à un problème différent. Cette analyse met l'accent sur la nécessité de « recadrer » (Nussbaum, 2012) et à « penser en dehors de la boîte » afin de développer une pensée globale et latérale envers les différents problèmes analysés, avec des interconnexions entre eux dans le but de favoriser la découverte potentielle de liens et corrélations inattendues. Ce processus est également au cœur de l'imaginierie ;

- Observation : L'organisation observe son environnement immédiat dans tous les domaines afin de

résoudre ses problèmes avec les moyens possédés, à faible coût. Des solutions simples et peu coûteuses sont toujours exploitables. La bonne idée est souvent une idée proche. Cette analyse met

15 Nous intégrons dans cette analyse l'importance pour l'imaginierie telle que pratiquée par Walt Disney de « high concepts » représentés par des storyboards.

en évidence l'importance de l'intelligence économique dans la détermination du cadre créatif (selon Ancel, 2006) et l'optimisation du processus de résolution de problème ;

- Anticipation : L'organisation anticipe les évolutions technologiques. Elle interroge le passé et l'avenir des techniques afin d'anticiper les tendances futures. Ce processus concernera, dans notre processus d'intelligence imaginieriale, l'anticipation de l'évolution du cadre créatif (dans ses dimensions sociales, techniques, juridiques et financières) afin d'éclairer les décisions actuelles. Par exemple, la décision de reporter le processus de réalisation d'un « high concept » dans l'attente d'un contexte favorable futur ;

- Modélisation : L'organisation modélise ses problèmes afin de faire des liens entre les connaissances et les compétences. Ces méthodes permettent de faire des liens entre les différents mondes de connaissance (par exemple, la nature et l'industrie). Cette phase met l'accent sur l'optimisation du processus de création par l'intermédiaire de l'« hybridation de la connaissance » (Marcon, 2009) ;

- Fécondation : L'organisation explore les sources d'innovation externe et favorise les nouvelles perspectives offertes par ses compétences. Il valorise les nouvelles idées pour surmonter les réticences et inquiétudes. Une idée est comme un flocon de neige dans une main : vulnérable. La fécondation aide à transformer le flocon de neige en boule de neige, elle renforce l'idée. Ce processus vise donc à optimiser, par l'intermédiaire du processus d'interprétation collective, la transformation et l'expression de l'idée (comme « bien anti-rival ») l'alimentant avec le processus de lecture collective au cœur de l'IE. Elle visera également à développer un environnement libre et capacitant favorable à sa transformation optimale et à son évolution future dans le cadre du contexte (Seemel, 2013) pour de futures créations/inventions. Cette analyse peut se rapprocher de la définition que donne André Brouchet (président fondateur du club Eco Business Angels) de la créativité. Selon lui, « la créativité devient de plus en plus de l’action au delà des idées créatives. Celles-ci sont le ferment, mais si rien n’est fait pour l’insérer dans une « pâte » compatible avec ses qualités de levure, le dit ferment tombera dans l’oubli. »

- Promotion : L'organisation exploite ses réseaux et les capacités de son intelligence économique pour protéger et valoriser son innovation. Cette phase, enfin, souligne l'importance du processus

d'intelligence collective dans l'assurance de la viabilité et de la durabilité de l'innovation. Dans notre analyse, l'objectif sera de protéger les créations/inventions contre un potentiel risque d'enclosure et d'appropriation sournoise par des entités privées 16 . La communication à ce sujet doit donc impliquer une large communauté de membres afin d'optimiser la visibilité et la popularité des inventions/innovations.

la visibilité et la popularité des inventions/innovations. Modèle de l'intelligence inventive selon Besson et Uhl

Modèle de l'intelligence inventive selon Besson et Uhl (2012).

L'analyse de l'intelligence inventive par Besson et Uhl fait donc ressortir une idée fondamentale : la nécessité de l'intégration et de la gestion de l'intelligence économique pour optimiser le processus d'innovation. Le développement et l'exploitation efficace de la mémoire, de l'analyse et du réseau, la

16 Voir l' analyse sur la privatisation des biens communs culturels issus du domaine public par Maurel

(2014).

gestion des informations, des connaissances et des ignorances permettront ainsi d'optimiser l'intelligence collective, au cœur de l'innovation. L'intelligence (i.e, la gestion de l'information) est, selon Moinet (2009), une véritable culture qui doit être nourrie et exploitée afin d'optimiser la compréhension de l'environnement et de prendre des décisions éclairées. Ce processus partage quelques similitudes importantes avec le hacking et le librisme, tels que :

- L'intégration complète et la gestion de l'incertitude : Via le cycle vertueux de question - réponse pour stimuler la pensée créative et l'innovation ;

- La stratégie d'inclusion sociale dans le processus d'intelligence collective : Tout le monde peut

faire partie de celui-ci, quels que soient son statut social, ses connaissances ou ses compétences ;

- L'importance d'une observation et interprétation riches basées sur la compréhension profonde de

l'environnement (micro et macro) dans lequel les individus évoluent, afin d'exercer leur liberté 17 ;

- Une volonté d'influencer cet environnement afin d'exercer un contrôle sur lui (optimisé par

l'information et les connaissances nécessaires pour prendre des décisions éclairées et de recadrer

l'engagement avec lui).

La gestion efficace des informations, des connaissances et des ignorances constitue ainsi le « pouvoir » principal de l'organisation ou du territoire optimisant leur exercice de la liberté sur l'environnement dans lequel ils évoluent. Cette liberté sera d'autant plus grande que le système social est autonome (voir notre modèle de l'esprit collectif évolutif glocal que nous analyserons prochainement).

Thomas Durand, Professeur à l’École centrale Paris, tente d'aller au-delà de l'analyse de l'innovation par la R&D et la technologie pour analyser les autres formes d’innovation. Il fait une distinction très claire entre les concepts fondamentaux suivants :

- La découverte : Relève de l’activité scientifique qui tente d’observer, de décrire et de modéliser le monde qui nous entoure et qui consiste à mettre à jour un phénomène, un objet, une espèce qui

17 Nous analyserons prochainement ce concept complexe.

préexistait à son auteur et que celui-ci repère, identifie, montre ou décrit, mais sans l'avoir confectionné ;

- L'invention : Caractérise l’activité humaine d’imagination, de création et de confection d’objets nouveaux. L’invention consiste ainsi à créer ce qui n’existait pas. L’inventeur peut naturellement tirer profit d’une découverte et plus généralement des connaissances scientifiques disponibles mais en y apportant une valeur ajoutée ;

- L'innovation : L’innovation est une invention industrialisée et mise sur le marché. L’invention relève de l’idée, l’innovation nécessite sa réalisation concrète au service d’utilisateurs et de clients. Il est d’ailleurs un nombre considérable d’inventions qui ne se transformeront jamais en innovations parce qu’elles sont parfaitement inutiles et totalement inadaptées aux besoins véritables des clients potentiels : divers concours fournissent périodiquement l’occasion de constater le génie créatif des inventeurs mais aussi leur manque fréquent de réalisme quant à l’utilité du fruit de leur imagination.

Son analyse reflète parfaitement la « spirale de l'innovation », qui place la culture, l'art, le rêve, l'imagination, la découverte et la décentralisation des pouvoirs au cœur du processus créatif.

Schéma représentant la spirale de l'innovation. 1 8 Durand indique que s’il est des liens

Schéma représentant la spirale de l'innovation. 18

Durand indique que s’il est des liens indiscutables entre recherche, découverte, invention et innovation, ces liens ne sont ni linéaires ni automatiques mais complexes, itératifs, multiples et inattendus. C’est bien, selon lui, que l’invention n’est pas l’apanage de la seule fonction « Recherche » mais nécessite de mobiliser la capacité inventive du plus grand nombre. C’est d'ailleurs un des points clés de l’approche dite de l’innovation ouverte, consistant à mobiliser les sources d’idées les plus diverses, au-delà de l’écosystème traditionnel de l’organisation, par

(consulté

le

18

exemple via Internet. Il rajoute que le chemin est parfois long entre l’idée et sa réalisation, entre l’invention et l’innovation, et que c’est bien d’innovation dont l’économie a besoin.

Il rajoute que l’innovation n'est pas que technologique mais peut aussi être organisationnelle :

Federal Express et ses concurrents ont introduit un service nouveau, celui du courrier rapide, sans pour autant mettre en œuvre de technologie révolutionnaire mais en se dotant d’une organisation logistique très pointue. Et il y a aussi des innovations sociales ou sociétales, comme le covoiturage pour lutter contre les embouteillages à l’entrée et à la sortie des grands centres urbains le matin et le soir. En fait, l’innovation est le plus souvent mixte : c’est par exemple le cas de la mise en place d’une machine nouvelle qui modifie le process, qui remet en cause l’organisation du travail dans l’atelier et affecte souvent le produit lui-même, indirectement. Ainsi l’innovation combine en général à la fois un aspect technologique (produit et process) et organisationnel ou social.

Il analyse enfin l’intensité de l’innovation, de l’incrémental au radical. Selon lui, il est des innovations révolutionnaires, comme par exemple le lancement d’un réseau dense de satellites pour offrir un service mondial de téléphonie mobile qui a été une tentative de rupture dans la concurrence du radiotéléphone, comme l’avion à réaction a pu révolutionner le transport aérien. Ces innovations très intenses sont également baptisées innovations radicales, ou de rupture. À l’opposé, il est des innovations dites incrémentales, dont on ne parle pas parce que chacune d’entre elles est tellement modeste qu’elle passe inaperçue. Par exemple, un opérateur qui améliore jour après jour le réglage particulier d’une machine d’extrusion ou un vendeur qui constate les besoins particuliers de certains utilisateurs d’un produit et qui obtient un aménagement de détail pour les satisfaire. L’ampleur du pas à franchir pour de tels changements est, selon Durand, minime. Pourtant dans ces actions quotidiennes d’amélioration, il existe clairement une mise en œuvre de la nouveauté. Il y a innovation, même si celle-ci n’est qu’incrémentale.

Une autre distinction utile, selon Tushman et Anderson, est celle qui identifie, d’une part, la destruction créatrice de Schumpeter, par laquelle le nouveau doit détruire l’ancien pour émerger, et, d’autre part, le renforcement de l’existant (l’amélioration consolide plus qu’elle ne remet en cause). C’est bien que l’innovation recouvre cette dualité « remise en cause qui détruit » et/ou « amélioration qui renforce dans la continuité". Ainsi, entre la rupture et l’incrémental, s’étend un vaste continuum d’intensité de l’innovation. Entre ces deux extrêmes, des innovations d’intensité intermédiaire (qualifiée par Durand de micro-ruptures) renforcent à la fois une partie de

l’expérience accumulée par les acteurs et rendent obsolète une autre partie de leurs compétences.

Le quart des innovations provient des autres acteurs de l’entreprise, au sein desquels figure naturellement la R&D dont l’importance en matière de génération d’innovations est ainsi relativisée. Néanmoins, selon Kline et Rosenberg (1986), le rôle des équipes recherche est déterminant pour la résolution des problèmes rencontrés tout au long du processus d’innovation, quelle qu’ait été l’origine du changement. En d’autres termes, la compétence des chercheurs est clé non pas tant pour générer des innovations que pour contribuer à les faire aboutir. Il analyse également l'open innovation. Selon lui,

Une vogue récente a systématisé cette idée de s’alimenter aux différentes sources d’idées et de compétences accessibles de par le monde pour innover. C’est ce que recouvre le principe de l’innovation ouverte. Au-delà des acteurs internes et des acteurs « connus » de l’écosystème traditionnel de l’organisation, il s’agit dans le cadre de ce processus d’aller chercher des idées et des compétences en s’efforçant de mobiliser l’intelligence, l’inventivité et la connaissance humaine d’où qu’elles viennent. L’outil Internet permet en particulier de soumettre des problèmes à résoudre ou des domaines d’intérêt pour susciter et collecter les idées de ceux qui, via les sites Web, choisissent de contribuer. Au-delà, les tenants de l’innovation ouverte recommandent aux acteurs d’accepter de céder une partie de leurs innovations et de leurs compétences pour se faire accepter dans ce nouveau jeu d’échange planétaire. Se pose alors la question du partage des rôles dans le travail en commun des co-innovations et du partage de la propriété intellectuelle et industrielle sur les résultats. (Durand, 2010).

2.7. Imaginierie

L'origine du mot « imagineering » semblerait provenir, selon Nijs (2014) de l'entreprise Alcoa, Aluminium Corporation of America. 19 A la fin de la seconde guerre mondiale, Alcoa réalisa que l'entreprise devait inventer un nouveau futur au-delà de la fabrication de matériel de guerre (ce domaine ne semblant plus viable à l'organisation pour un futur pérenne). Alors qu'une réorientation majeure était indispensable pour assurer le futur de l'organisation, un « projet imaginierial » (le

19 Nous soulignerons toutefois que d'autres sources font remonter l'origine à l'artiste Arthur C. Radebaugh, qui l'a utilisé pour décrire son travail, et qui a été mentionné dans l'article « Black Light Magic » paru dans le Portsmouth Times dans les années 1940.

néologisme « imagineering » est composé de la fusion entre les mots « imaginaire » « ingénierie » et utilisant le sens du mot « engine », moteur pour encadrer le projet) fut organisé. L'ensemble des employés (ingénieurs, scientifiques et personnel administratif,…) fut ainsi convié à utiliser leur imagination pour considérer de nouvelles possibilités d'application à l'aluminium. Ainsi, l'entreprise Alcoa (1942) définit l'imaginierie comme « le fait de laisser l'imagination s'envoler pour ensuite la ramener sur Terre grâce à l'ingénierie ».

L'entreprise Walt Disney, via sa filiale WED Enterprise, fut l'un des premiers clients d'Alcoa après la seconde guerre mondiale. Elle a également vu ce mot comme exprimant le noyau de l'industrie du divertissement, en tant que « conception pour les procédés émergents », qui résultent de la création et de la gestion de la créativité collective, que cette créativité collective soit orientée vers la réalisation de nouveaux produits de loisirs (problème compliqué ) ou vers l'optimisation des futurs sociétaux ou organisationnels basée sur un mode d'émergence (problème complexe). Walt Disney définit l'imaginierie en ces termes : « Il n'y a vraiment pas de secret à propos de notre approche. Nous continuons à aller de l'avant - ouvrant de nouvelles portes et faisant de nouvelles choses parce que nous sommes curieux. Et la curiosité ne cesse de nous mener vers de nouvelles voies. Nous sommes toujours en train d'explorer et d'expérimenter. Nous appelons cela l'imaginierie : le mélange de l'imagination créative et du savoir-faire technique. »

Kevin Rafferty (2010), WDI Senior Concept Writer and Director, souligne que « fabriquer du faire- croire est la chose la plus importante qu'un imagineer puisse faire ». Cette analyse est enrichie par Cockerell, dans son analyse de la magie, mettant en avant que celle-ci se situe dans la manière dont les « Cast Members » (i.e., employés) des sites Disney travaillent qui donne l'impression de magie provenant de ces territoires « imaginierés ».

Selon Nijs (2014), la gestion « top-down » a gouverné les industries pendant une longue période. La société d'aujourd'hui est plus connectée, les individus sont habitués à s'exprimer, ce qui catalyse le désir de changement; un changement que l'on souhaite collectivement. Celle-ci pose, dans ses travaux concernant l'imaginierie adaptée au développement organisationnel, la question suivante :

« Que faire si le pouvoir est donné aux masses ? » En d'autres mots : « Et si, au lieu de la logique « top-down », nous explorions la logique de bottom-up ? »

L'imaginierie est une méthode de design qui exploite la puissance de la stratégie bottom-up, qui puise dans l'imaginaire collectif et qui crée le changement souhaité par une communion collective. La méthode fonctionne en concevant un élément petit qui va causer l'émergence d'un élément large.

Chaque individu utilise son imagination afin de produire un petit acte. Au total, cela se traduit par l'émergence d'un nouvel ordre ou d'une nouvelle réalité. Au lieu de concevoir une solution, l'imaginierie est la conception de l'évolution. Ceci nécessite l'utilisation d'un langage au-delà du rationnel, i.e., la langue poétique et narrative que nous partageons tous les jours (Nijs, 2014). Certaines organisations font l'expérience de luttes organisationnelles qu'elles trouvent difficiles à expliquer ou à résoudre avec des méthodes qu'elles ont l'habitude d'utiliser. Les chercheurs expliquent ce phénomène comme étant le résultat d'une société en mutation rapide en raison de :

- La mondialisation ;

- La propagation de l'Internet et des avancées technologiques.

En conséquence, les besoins et les comportements des consommateurs changent également : les gens apprécient maintenant la liberté d'expression individuelle et sont plus disposés à participer à des efforts avec des organisations (Zuboff & Maxmin, 2002). La prochaine organisation qui est capable de saisir cette transition sera, selon Nijs, celle qui opère une évolution collective au fil du temps. 20

2.7.1. L'émergence imaginative

Pendant très longtemps, l'imagination a été négligée dans la théorie économique étant donné qu'elle est difficile à modéliser et qu'elle n'a pas été considérée comme très importante (Wentzel, 2006 ; Loasb, 2007). Ayant opté pour la suprématie de la raison, la théorie économique s'est elle-même coupée de la faculté humaine la plus superbe et ascendante, l'imagination (Nijs, 2014). Celle-ci est pourtant la source de la nouveauté, la base de la demande des hommes à être responsables et non de simples exécutants de l'histoire (Manille, 1972 : Loasby, 2007: 2). Alors que l'économie devient de plus en plus fondée sur la connaissance, il devient plus important de « regarder plus profondément dans la dynamique de l'imaginierie : la dynamique de l'invention, de l'innovation et de l'esprit d'entreprise » (Wentzel 2006: 13). Selon Nijs, l'auto-organisation dans les systèmes sociaux diffère fondamentalement de l'auto-organisation dans la nature. Elle est ainsi « l'action humaine intelligente, l'imagination et une connaissance en croissance qui soutient le processus » (Witt, 1997: 506). Arguant de l'évolution de l'économie, les économistes évolutionnistes observent les processus macro-économiques comme des structures dissipatives qui sont généralement différentes des processus de la nature, étant influencés par des agents individuels intelligents et

20 En anglais « that moves together with times » (notre traduction).

imaginatifs en interaction avec d'autres.

Au vu de ces analyses, nous soulignerons que l'imaginierie constitue un outil très puissant de :

- Développement organisationnel : Via une méthodologie d'analyse et d'appréhension de l'environnement optimisée par l'imagination et la pensée narrative et le point de vue sur le monde émergent ;

- Développement territorial : Composé de multiples organisations imaginierées interconnectées en son sein le nourrissant et le transformant via une émergence favorisée par l'autonomie, la capacitation et interopérabilité de ces entités (via le partage d'un même code définissant leur identité superordinale, et leur engagement commun dans un processus d'appréhension de problèmes complexes au coeur de leurs buts supra-ordonnés favorisant la cohésion territoriale et, par extension, la crédibilité, l'attractivité et la légitimité du territoire, au coeur du processus d'intelligence imaginieriale.

L'imaginierie, telle qu'appliquée par l'entreprise Walt Disney, vise à créer des expériences transformationnelles attractives favorisant le processus d'immersion fictionnelle et d'apprentissage (via les différentes compétences-clé que nous répertorions plus loin) par le biais du divertissement et de la narration en trois dimensions « enveloppant » un territoire. Les principes et pratiques de ce processus peuvent également être appliqués à d'autres disciplines nécessitant la créativité, comme :

- Le marketing (selon les analyses de Nijs, 2014 et Walt Disney, 1952) ;

- Le design instructionnel (selon Prosperi, 2014) ;

- Le développement organisationnel (selon Nijs, 2014) ;

- Le développement territorial (selon la stratégie de la Walt Disney Company).

2.7.2. Perspective socio-constructionniste

L'imaginierie prend la position du constructivisme social, où les significations sont socialement construites grâce à la coordination relationnelle des individus. En période de transformation sociale, cette perspective offre un moyen de se renseigner et de comprendre la construction des significations derrière un phénomène social. La position réflexive du constructivisme social défie le statu quo et stimule la construction, la déconstruction et la reconstruction de nouvelles

significations, mettant l'accent sur la co-création, et donc, de nouvelles façons d'évoluer ensemble vers l'avenir (Nijs, 2014). Cette perspective reflète parfaitement notre modèle social de l'esprit collectif évolutif glocal, qui intègre en son sein les pratiques de co-construction des connaissances ludifié (au coeur du « Ba ludo-narrativisé » que nous analyserons plus tard) ainsi que la philosophie du hacking sémiotique 21 , qui vise à débrider les pratiques créatives des individus (et, par extension, l'émergence et l'innovation) au sein d'une organisation ou d'un territoire via une co-construction capacitée des connaissances en leur sein pour optimiser les processus :

- D'intelligence créative : Via l'actualisation permanente de nouvelles idées ;

- D'intelligence économique : Via l'actualisation permanente de nouvelles questions et de problèmes, stimulant les cycles vertueux de question – réponse et de problème – solution ;

- D'innovation : Via une synergie optimisée entre différents membres d'une organisation ou d'entités sociales différentes au sein d'un territoire, stimulant le dynamisme entre ces acteurs ainsi que les processus d'intelligence inventive et territoriale.

Analyser les micro-processus concernant la façon dont le changement se produit dans les organisations amène à observer que de nouveaux modèles qui tiennent compte des dynamique du changement non-linéaires auto-organisants (Dooley, 1997) se concentrent sur la génération de nouvel ordre comme étant un débit de conversation et de coordination auto-ajustant. Selon Ferdig et Ludema (2005: 172- 173), générer un nouvel ordre est « un processus continu et évolutif créé à chaque instant dans les interactions au niveau micro entre les membres de l'organisation à tous les niveaux à travers le système organisationnel. » Selon ces auteurs, le fait que de nombreuses applications des théories de la complexité proviennent de la complexité font qu'elles « restent enfermées dans une vision mécaniste du changement ». Ainsi, ce que ces perspectives ne prennent pas en compte est la caractéristique propre à l'homme de donner un sens à travers le langage ». Les êtres humains changent ainsi leur monde et façonnent leur réalité organisationnelle à travers le langage (Zandee, 2011). C'est sur ce point que le constructionnisme social apporte une contribution à la littérature sur le changement organisationnel dans les systèmes complexes car il place au centre la dynamique de communication, considérant celle-ci comme le principal moyen par lequel le

21 Philosophie créative que nous avons développé en 2014.

changement est généré. Le constructionnisme social suggère ainsi que « les changements dans la manière dont les gens se parlent les uns les autres (normes et processus conversationnel, contenu conversationnel, etc) crée des changements dans la façon dont les gens agissent » (Gergen, 1994a, b et Shotter, 1993 ; Ferdig et Ludema, 2005: 173). Selon les constructionnistes sociaux, ce sont les qualités de la conversation que nous incarnons qui déterminent la manière dont nous créons conjointement la transformation des réalités auxquelles nous aspirons. En conséquence, il est nécessaire de changer les qualités de la conversation, y compris qui parle à qui, quand, où, pourquoi et à quel sujet, et de quelle manière ce changement peut être effectué de manière durable. C'est par ces « interactions transformationnelles » (Ferdig et Ludema, 2005) que le changement transformateur peut être réalisé.

2.7.3. L'artefact de l'imaginierie

L'imaginierie s'inspire également de l'enquête d'appréciation et de la co-création. Considérant ces deux concepts ensemble, elle devient un « instrument de la stratégie qui relie les compétences de l'entreprise avec les clients dans le contexte ». Ceci est orchestrée par « la création et l'utilisation d'un artefact qui initie et dirige simultanément un dialogue transformateur parmi les individus, qui fait appel à l' « entrepreneuriat co-créatif » 22 via l'intégration de toutes sortes de parties prenantes au sein du réseau de valeur » (Nijs, 2014, p 5). L'artefact est une construction verbale / mentale conçue pour être attrayante afin d'avancer la bonne compréhension et d'évoquer le comportement recherché » (Nijs, 2014, p 14). Cet artefact verbal / mental aidera l'organisation à voir le monde d'une autre manière, qui est aussi la manière souhaitée. Sa tâche est de déclencher l'imagination et la créativité des intervenants vers un objectif commun via une infinité de moyens. En tant que tel, l'artefact doit être « aussi sous-designé 23 que possible » (Nijs, 2014, p. 13) et présente les caractéristiques suivantes :

- Anime : Il stimule la participation de toutes les parties prenantes ;

- Stimule : Il stimule l'imagination des participants.

L''artefact constitue donc une petite construction possédant la capacité transformative de mettre quelque chose de grand en mouvement et l'ouverture de nouvelles possibilités jamais imaginées.

22 « Co-creative entrepreneurship » (notre traduction).

23 En anglais « as under-designed as possible » (notre traduction).

2.7.4. Le « high concept » au cœur du processus d'imaginierie

Le processus créatif au cœur de l'imaginierie démarre toujours par la formulation d'un « high concept » (Nijs, 2014). Un high concept est une histoire courte, facile à communiquer qui lie les potentiels esthétiques et commerciaux (Wyatt, 2003) afin d'apporter une nouvelle vision « fascinante » à la société. Il initie un processus d'émergence d'action créative, qui est géré consécutivement de manière à encourager la créativité collective nécessaire. Peter Guber, Président de Columbia Pictures Entertainment, le définit comme une histoire très simple, facilement communicable et facilement compréhensible. Michael Eisner, ex-Creative Executive chez Paramount devenu par la suite PDG de Disney, le définit comme « une idée unique dont l'originalité peut être transportée facilement ». Ce « high concept » sera également fondamental pour stimuler l'intérêt et la motivation des acteurs territoriaux à s'impliquer volontairement au sein des processus créatif et inventif, i.e., innovationnel du territoire, via leur narrativisation. Selon Wyatt (1994), « Un high concept possède le look des images, l'accroche du marketing, et le récit réduit 24 . Le « high concept » est, selon Nijs (2014), le départ à partir duquel le « business peut émerger » :

Les gens commencent à concevoir le film, la commercialisation, la marchandise et d'autres extensions du business (comme une promenade dans un parc ou un livre et un jeu). Dans certains cas, le « high concept » peut entraîner des années de travail pour beaucoup de gens. À la société Disney Imagineering, le « noyau » du département au cœur de l'entreprise est le développement de « high concepts ». L'un des défis principaux de ce département est d'arrêter le développement de concepts qui ne marcheront pas, des concepts qui peuvent être créatifs, mais manquer de puissance associative ».

Nijs a appelé cette compétence « imaginierie », car les artefacts qui réussissent son ceux qui « touchent » les gens en faisant appel à leur imagination pour les faire réfléchir, participer ou co-créer dans les paramètres envisagés de l'industrie créative. Un « high concept » ou un « récit imaginatif » enflamme et encadre ainsi un monde expérientiel en réinitialisant la « normalité », autorisant l'interprétation créative (créativité collective) par des équipes d'employés dans une direction envisagée. Dans la société connectée ce mécanisme d'allumage encadrant la créativité collective en concevant des perspectives dans le mode narratif, pourrait

24 De la définition de Wyatt (1994) « The look, the hook and the book » (notre traduction).

être étendu en dehors de l'organisation afin de permettre également aux parties prenantes externes de penser, participer ou co-créer quand ils jugent pertinent de le faire. Avec la complexité croissante dans la société et le déplacement de la logique de création de valeur, Nijs affirme que certaines entreprises qui opéraient comme des systèmes trop fermés sont devenues dysfonctionnelles et ont commencé à rechercher une nouvelle logique organisationnelle. Nijs met en avant son expérience au sein des industries créatives pour défendre le fait de rendre la création de valeur plus pertinente et plus participative comme une approche alternative à la logique actuelle de « l'échange », avec son orientation conventionnelle rarement interrogée portant sur la valeur actionnariale. En expérimentant la refonte de la conception de l'entreprise à partir de cette perspective de pertinence et des relations et en intégrant cette conception de l'entreprise redessinée de façon attrayante au cœur de l'identité de l'organisation, elle a découvert qu'il a inspiré, en premier lieu, la pensée créative chez les employés. Elle a également découvert qu'il est devenu peu de temps après évident qu'il a également inspiré des idées de co-création chez les parties prenantes externes. Nijs suggère, pour résumer, que le « high concept » fonctionne comme une tension adaptative dans le développement de l'émergence dans les systèmes humains en stimulant la créativité collective. Elle considère que ce sont ces « créations conceptuelles magiques » qui sont essentielles pour l'émergence de l'industrie créative car elles établissent de nouvelles perspectives dans la société. Cette suggestion matérialise la thèse de Potts (2011: 5), gagnant du Prix Schumpeter en 2000 (avec Brian Loasby), sur l'importance des industries créatives du point de vue de l'économie évolutionniste.

Justin Wyatt voit les films de type « high concepts » comme une part importante de la « nouvelle » industrie cinématographique d'Hollywood. Les films basés sur ce principe sont ainsi conçus pour être hautement marketables, et donc hautement profitables, tout en étant visuellement époustouflants et hautement innovants d'un point de vue stylistique. Charles Perraton (2003), dans une proposition de recherche intitulée « Du cinéma à la ville chez Disney : Dispositifs, hétérotopies et représentations chez Disney », analyse l'exposition du 17 juin au 28 septembre 1997,organisée par le Centre Canadien d’Architecture concernant les parcs thématiques de Disney et l'« architecture du réconfort », différents mythes de Disneyland et l’étude de ses différentes modalités de réalisation.

Perraton souligne que l'introduction massive du happy end, le cinéma des années trente et quarante,

(aux Etats-Unis d'abord, en Occident ensuite) renouvelait l'imaginaire contemporain en rapprochant le héros de la vie quotidienne et en mettant le bonheur à l'ordre du jour. Il rajoute qu'à partir de 1955, le cinéma cesse d'être l'articulation principale de la culture de masse qui fait passer de l'euphorie à la problématique de la vie privée (Edgar Morin, L'esprit du temps).

Tony Baxter, vice-président, développement créatif à Walt Disney Imagineering, met en avant le fait que l'imaginierie consiste à rassembler, stocker et recombiner l'information : «Tout le monde passe par un processus de collecte, de stockage et de recombinaison de l'information avec les autres pensées pour produire quelque chose de nouveau. » Les principes et pratiques de l'imaginierie peuvent également être, selon Prosperi (2014) appliquée à d'autres efforts créatifs et disciplines, comme :

- Le marketing/publicité ;

- La conception et le développement de produit ;

- Le game design ;

- Le développement informationnel ;

- L'architecture et design de l'information ;

- La Conception pédagogique ;

Nous rajouterons, au vu des analyses de Nijs (2014), le développement organisationnel centré sur la créativité distribuée et décentralisée reposant sur l'émergence et l'évolution, ainsi que l'intelligence économique territoriale selon notre modèle de l'intelligence imaginieriale.

2.7.5. L'articulation d'un attracteur plus désiré

Selon Nijs (2014), les designers se basant sur la pensée complexe n'essaient pas d'atteindre un état final. Ils essaient plutôt de transformer le système en l'amenant hors de sa « zone de confort » /du bassin actuel d'attraction, en articulant un attracteur plus efficace afin de générer un nouvel ordre. La génération d'un nouvel ordre est pérennisée par des boucles de feed-back positives et négatives 25 ,

25 Un feed-back positif amplifie le phénomène (le système s'alimente lui-même comme dans le cas d'une explosion) tandis que le négatif le réduit et provoque un amortissement qui permet une régulation.

et ceux-ci réduisent la stabilité des attracteurs non-désirés. Ce changement d'attracteurs transforme l'état actuel du système vers un modèle comportement plus désiré. Nous analyserons dans le cadre de notre modèle le changement des comportements des acteurs territoriaux vers un modèle comportemental « plus désiré » (et le changement d'attitude affilé en faveur de la créativité) via leur engagement volontaire au sein du processus d'IET nourri par l'intelligence imaginieriale. Cet engagement sera favorisé par la mise en avant au sein du territoire d'artefacts et de high concepts stimulants et inspirants.

2.7.6. La méthodologie de l'imaginierie

2. 7 .6.1. La méthode Inspiration – Création – Exploration – Organisation

La méthodologie de l'imaginierie se compose, selon Nijs (2014), en quatre phases :

- Inspiration: L'imagineer est inspiré par l'exploration et la compréhension des différents aspects du sujet de recherche, tels que l'organisation, le marché, les intervenants, les concurrents, les employés, les valeurs de l'entreprise, les réalités, etc. Cela se fait grâce à des recherches variées reposant sur différents modes d'entretiens et d'observations ;

- Création: Les données recueillies à partir de la première phase sont analysées à travers un processus de création avec un accent sur l'imagination, le sens, sa production et sa construction. Cela se traduit par la création d'un artefact qui communique l'idéologie et l'identité de l'organisation, et invite en même temps les parties prenantes à participer à la nouvelle expérience économique ;

- Exploration : Ici, l'artefact créé dans la deuxième phase sera exploré sur des plate-formes expérimentales au sein de l'organisation, révélant celle qui peut soutenir la transformation. Pour cela, de nouveaux modèles économiques sont conçus pour la nouvelle expérience ;

- Organisation ; Le processus continu d'interaction avec les nouveaux concepts expérimentaux appelle à de nouvelles façons d'organiser. Dans cette phase, la société est éclairée sur la façon d'embrasser la nouvelle culture à travers des éléments cruciaux tels que le leadership et la communication. Un guide inspirationnel est créé pour aider l'organisation à effectuer les premiers pas vers la transformation.

L'imaginierie est une méthodologie ancrée dans les valeurs du paradigme émergent au sein de nos sociétés et notre monde en mutation. Elle cherche à analyser les réalités entourant l'organisation à propos d'un sujet important, via un mode narratif et appréciatif. A travers le processus, l'artefact

verbal / mental est créée qui vise à engager et inspirer tous les acteurs vers l'émergence imaginative ouvrant de nouvelles possibilités, jamais imaginées, pour l'avenir.

2. 7 .6.2. La méthodologie du Rêve – Réalisme – Critique - Neutre

Robert Dilts (1991) a étudié Disney dans des ouvrages de référence sur la créativité et l'inventivité 26 et a développé un modèle détaillé de la « stratégie Disney », qui constitue un outil très utile et puissant pour développer l'émergence de la créativité pour les groupes ou les individus.

Michael Michalko, expert en pensée créative et auteur de Thinkertoys (2006) et Cracking Creativity (2001) met en évidence que l’imaginierie, comme développée par Walt Disney, implique la coordination de trois processus impliquant chacun un rôle particulier:

- Rêveur : Vise à voir son avenir en termes de nouvelles alternatives et de nouveaux choix en faisant appel à toute son imagination et sa créativité : c’est le domaine des idées. Un rêveur fait émerger d'innombrables fantasmes, désirs, intuitions scandaleuses et idées audacieuses et absurdes sans limite ni jugement. Rien n'est censuré, car rien n'est trop absurde ou ridicule. Tout est possible pour le rêveur. Pour être rêveur, il est nécessaire de se poser la question suivante : « Si je pouvais d'une baguette magique faire ce que je veux, qu'est-ce que je créerai ? A quoi cela ressemblerait ? Que pourrais-je faire avec ? Comment cela me ferait-il sentir ? Quelle est l'idée la plus absurde que je puisse concevoir ? Le rêveur est subjectivement orienté et enthousiaste, se tient toutefois à un jugement pratique, à une idée ou à une analyse. Nous enrichirons cette analyse par celle de Tisseron (2012) qui distingue dans son ouvrage Rêver, fantasmer, virtualiser 27 la rêvasserie, la rêverie et l’imagination qui sont trois réponses distinctes à une même situation. La rêvasserie a été analysée par Winnicott dans Jeu et réalité (ibid., p. 69). Elle prend du temps et de l’énergie mais ne participe pas à la vie réelle du sujet. À l’inverse, la rêverie participe activement à l’édification des constructions mentales du sujet (p. 16). Enfin, l’imagination est une orientation volontaire de l’esprit, elle vise à résoudre un problème ou anticiper un événement soit redouté, soit désiré ; elle est un projet qui peut s’actualiser (ibid.). La « rêverie » telle que définie par Michako se rapproche donc ici clairement de la dimension »imagination » de Tisseron.

26 Les deux ouvrages majeurs utilisés étant :

- CSIKSZENTMIHALYI Mihalyi, Creativity : flow and the psychology of discovery and invention, Harper Collins, 2013, 480 p. ; et - DILTS Robert W., DILTS Robert B., EPSTEIN Todd, Tools for dreamers : strategies for creativity and the structure of innovation. Meta Publications, 1991, 396 p. 27 Serge TISSERON, Rêver, fantasmer, virtualiser. Du virtuel psychique au virtuel numérique, Paris, Dunod, coll. Psychismes, 2012, 192 p.

- Réaliste : Vise à transformer les idées en un plan ou un produit viable : c’est le domaine de

l’action (ou de l’implémentation). Le réaliste concrétise les idées du rêveur en quelque chose de

réaliste et réalisable. Il est intéressant d'essayer de comprendre comment faire des idées de travail,

puis les trier dans un ordre significatif. Pour être réaliste, il est nécessaire de se poser la question

suivante : Comment puis-je y arriver ? Quelles sont les caractéristiques et les aspects de l'idée ?

Puis-je construire les idées des caractéristiques ou des aspects ? Quelle est l'essence de l'idée? Puis-

je extraire le principe de l'idée? Puis-je faire des connexions analogiques métaphoriques avec le

principe énoncé et quelque chose de différent pour créer quelque chose de tangible ? Comment

puis-je conserver l'essence de l'idée tout en la concrétisant en quelque chose de plus réaliste ? Le

Réaliste prend un point de vue pragmatico-pratique, développe des plans d'activité et examine les

étapes de travail nécessaires ;

- Critique : Evalue le plan ou le projet proposé et identifie les problèmes potentiels (ou qui risquent

de surgir) et les chaînons manquants. Le critique passe en revue toutes les idées et tente de percer

des trous en elles en jouant l'avocat du diable. Le critique nécessite de se poser la question

suivante : Comment me sens-je réellement à propos de ça ? Est-ce le meilleur que je puisse faire ?

Que puis-je faire de mieux? Est-ce que ça a du sens? Comment est-ce perçu par un client ? Un

expert ? Un utilisateur ? Est-ce utile que je passe mon temps à travailler sur cette idée ? Puis-je

l'améliorer ? L'objectif est une critique constructive et positive qui aide à identifier les sources

d'erreurs possibles.

Cette méthodologie peut être, selon Michalko, appliquée aussi bien à un individu qu'à des groupes.

Elle est particulièrement utile s'il s'agit de concrétiser et d'organiser des objectifs et des visions. Le

nom de la méthode se réfère à Robert B. Dilts (1994), qui a écrit à propos de Walt Disney : « il y

avait en réalité trois Walts : le Rêveur, le Réaliste et le mauvais bougre

28 ».

Martin et al. (2000) mettent cependant en évidence que cette technique fonctionne mieux avec

l'adoption successive par les imagineers de quatre rôles:

- Le Rêveur : Visionnaire et créatif ;

- Le Réaliste : Réaliste et pragmatique ;

28 « There were actually three different Walts : the dreamer, the realist, and the spoiler

1994).

» (Dilts,

- Le Critique : Directeur qualité et questionneur ;

- Le Neutre : Observateur et conseiller.

Quatre chaises sont ainsi marquées avec ces rôles, afin que chacun puisse toujours reconnaître le rôle des autres. Le processus méthodologique démarre avec le positionnement et l'analyse du problème. Les imagineers se déplacent ensuite sur l'une des autres positions, jouent le nouveau rôle et argumentent selon cette nouvelle perspective. Les positions sont modifiées autant de fois que nécessaire, jusqu'à ce que le développement de l'idée ait atteint un état suffisamment bon. La dernière position occupée doit cependant être la neutre. Le fait que les acteurs impliqués dans ce jeu de rôle occupent l'ensemble des différentes positions durant le processus les amène à examiner un problème selon tous ces point de vue bien spécifiques et complémentaires.

En résumé, nous soulignerons que l'imaginierie consiste à :

- Raconter de manière idéalisée le passé (nostalgie et architecture du « réconfort » 29 ) ;

- Optimiser le processus d'analyse et décisionnel présent ;

- Favoriser l'appréhension du futur, via son invention dans le présent.

2.8. Le hacking et la philosophie du Libre

2.8.1.Hacking

Les principales définitions littérales du verbe « pirater » sont 30 :

- Couper ou hacher avec des coups répétés et irréguliers ;

- Briser la surface.

Richard Stallman (2002), créateur du système d'exploitation GNU, fondateur de la Free Software Foundation et l'un des premiers hackers du MIT, définit cette philosophie :

29 KARAL Ann Marling, HARRIS Neil et al., Designing Disney's Theme Parks: The Architecture of Reassurance, Flammarion, 1998, 221 p. 30 Source: http://www.thefreedictionary.com/hack (consulté le 21 mai 2015).

Il est difficile d'écrire une définition simple de quelque chose d'aussi varié que le hacking, mais je pense que ce que ces activités ont en commun est l'espièglerie, l'intelligence et l'exploration. En d'autres termes, l'exploration des limites de ce qui est possible, dans un esprit d'intelligence espiègle. Les activités qui affichent de l'intelligence espiègle ont donc des « valeurs de hack ».

Pour lui, le hacking est une idée de ce qui fait sens à la vie. Il ajoute que le premier hacking opéré par un grand nombre de personnes a consisté à marcher dans la mauvaise direction sur un escalator. « Ce n'est pas la manière dont il a été prévu pour fonctionner, mais est-il possible de la faire fonctionner de cette manière ? » (Stallman, 2002). Pour Müller-Maguhn (2013), le hacking signifie « ne pas suivre les règles officielles d'un système et tenter de comprendre ses principes afin de construire quelque chose de nouveau avec lui ». Stallman souligne les faits historiques à l'origine de cette philosophie :

Les hackers avaient généralement peu de respect pour les règles idiotes que les administrateurs aiment à imposer, de sorte qu'ils ont cherché des moyens détournés. Par exemple, lorsque les ordinateurs du MIT ont commencé à posséder des mesures de sécurité (qui constituent des restrictions sur ce que les utilisateurs pourraient faire), certains hackers ont trouvé des moyens ingénieux pour contourner celles-ci, en partie afin qu'ils puissent utiliser les ordinateurs librement, et en partie juste pour le plaisir d'habileté (le hacking n'a pas besoin besoin d'être utile).

Il opère cependant une distinction claire entre le hacking et le « cracking », qui se réfère au piratage de systèmes de sécurité informatique. 31 Ce terme peut être utile pour corriger l'amalgame récurrent. Jérémie Zimmerman (2014), co-fondateur du groupe d'advocacy La Quadrature du Net spécialisé dans la défense des libertés individuelles dans notre société numérique, confirme cette distinction, déclarant que « les hackeurs sont des constructeurs, pas des destructeurs ». Il définit également la culture des hackers en ces termes : « La culture hacker est le pouvoir que les humains ont sur leur création. ». La communauté Mothership Hacker Moms (communauté des mères californiennes partageant des « valeurs de hack ») définissent le hacking en ces termes :

31 « I coined the term "cracker" in the early 80s when I saw journalists were equating "hacker" with "security breaker". »

Le hacking est un terme général qui signifie la modification d'un objet ou une idée pour répondre à vos propres besoins. Vous pouvez hacker une recette, un programme d'ordinateur ou dans notre cas, nous avons hacké un hackerspace afin de répondre aux besoins des mères.

Interrogées sur la définition des hackerspaces, elles déclarent :

Nous sommes un espace créatif basé sur l'adhésion à une communauté, où les bricoleurs partagent des outils, de l'intelligence et du lien social. La culture et les valeurs Hacker soutiennent l'open source, l'apprentissage entre pairs, l'amateurisme sans honte, le dilletantisme, l'expérimentation et les échecs sains. 32

La conscience d'un Hacker (aussi connu comme Le Manifeste Hacker ) est un court écrit le 8 Janvier 1986 par Looyd Blankenship, alias The Mentor. Il indique que les hackers choisissent de hacker car il constitue un moyen pour eux d'apprendre, et parce qu'ils sont souvent frustrés et ennuyés par les limitations de nos sociétés standardisées. Pour Harvey (1986) 33 , le mot « hacker » est généralement utilisé chez les étudiants du MIT et se réfère non pas à des pirates informatiques mais à des constructeurs, des personnes qui explorent les toits et les tunnels où ils ne sont pas censés être. Ils rajoutent qu'« un hacker informatique est quelqu'un qui vit et respire les ordinateurs, qui sait tout sur les ordinateurs, qui peut obtenir d'un ordinateur de faire n'importe quoi. Tout aussi important, cependant, est l'attitude du hacker. La programmation informatique doit être un passe-temps, quelque chose effectué pour le plaisir, pas pour le sens du devoir ou de l'argent. Un hacker est ainsi un esthète. »

Cette attitude, qualifiée par Stallman d' « intelligence espiègle », fait toujours référence dans ses discours au hacking éthique. Il souligne le fait que quelqu'un qui aime hacker ne veut pas dire qu'il a un engagement moral à traiter d'autres personnes correctement. Certains hackers se soucient de l'éthique, mais cela ne fait pas intrinsèquement partie de cette attitude et pratique, il est un trait distinct. Le hacking tend cependant à mener un nombre significatif de hackers à considérer les questions éthiques d'une certaine manière. Stallman ne souhaite ainsi pas rejeter totalement les relations entre hacking et éthique. L'éthique hacker se réfère au sentiment de

32 Source: http://mothership.hackermoms.org/about/faq/ (consulté le 21 mai 2015).

33 Source: http://www.cs.berkeley.edu/~bh/hacker.html (consulté le 21 mai 2015).

bien et de mal, aux idées éthiques que partageant les membres de cette communauté – que les connaissances devraient être partagées et que les ressources importantes devraient être utilisées plutôt que gâchées. 34 Cette analyse rejoint celles sur la protection des biens commun que nous analyserons prochainement. Stallman estime ainsi que l'éthique constitue quelque chose de vraiment important pour les communautés, en pensant à des questions éthiques en ces termes : « La façon dont j'atteins mes conclusions sur les questions concernant quelles libertés sont essentielles pour l'utilisation de logiciels, et quels types de conditions de licence sont acceptables, est en pensant au fait qu'elles interféreraient ou non avec les types d'utilisation du logiciel qui sont nécessaires pour avoir une communauté fonctionnelle. »

L'éthique constitue un élément fondamental de notre modèle, car nous considérons que son intégration dans les pensées créatives et inventives optimise leurs processus affiliés ainsi que la maîtrise de l'intelligence collective, qui est un processus fondamental pour les irriguer.

Mitch Altman, co-fondateur du hackerspace de San Francisco Noisebridge, met en avant que tout peut être hacké car tout peut être amélioré, y compris la société et la planète qui nécessite une sérieuse amélioration. Cette philosophie, au cœur de notre modèle de l'esprit collectif évolutif glocal que nous allons analyser, colle donc parfaitement avec notre volonté de développer un modèle optimal de territoire créatif apprenant et adaptatif, qui nécessite un enrichissement et une évolution permanente au sein d'un environnement complexe.

Jean Marc Manach (2012), journaliste spécialisé dans les technologies de l'Internet et du numérique, affirme que l'un des principes de base de la philosophie du hacking est d' « agir sans demander la permission ».

Tous ces différents concepts tels que le goût pour la désobéissance à des règles officielles afin d'explorer de nouvelles voies créatives susceptibles de générer de nouvelles opportunités et de conduire à des découvertes potentiellement inattendues / involontaires, ainsi que la dimension esthétique, seront fondamentaux dans notre analyse de la créativité et de l'innovation tels que nous les concevons dans notre modèle d'intelligence imaginieriale.

La

philosophie

de

hacking

repose,

pour

résumer,

sur

la

culture

de

l'amateurisme

et

de

34 Source: http://memex.org/meme2-04.html (consulté le 21 mai 2015).

l'apprentissage par l'expérience et les échecs pour nourrir la connaissance et la liberté sur un système observé et manipulé. Les textes clés qui structurent les principes d'Internet et de la philosophie du hacking sont le Manifeste du Hacker (1986) de The Mentor, La cathédrale et le bazar d'Eric S. Raymond (2000), la déclaration d'indépendance du cyberespace par John Perry Barlow (1996) et Code :Version 2.0 de Lawrence Lessig (2006).

2.8.1.1. La philosophie du Do It Yourself

Selon Wolf & McQuitty (2011), le Do It Yourself est la méthode de construction, de modification de quelque chose sans l'aide d'experts ou de professionnels. Ils décrivent le bricolage comme des comportements où « les individus s'engagent dans un rapport avec des matières premières, semi- premières et des composants afin de produire, transformer, ou reconstruire les biens matériels, y compris ceux tirés de l'environnement naturel (par exemple, l'aménagement paysager) ». Un comportement de DIY peut être déclenché par des motivations diverses précédemment classées comme motivations du marché (avantages économiques, manque de disponibilité du produit, manque de qualité des produits, besoin de personnalisation), et l'amélioration de l'identité (artisanat, autonomisation, recherche communautaire, unicité). Selon Wikipedia 35 ,

L' éthique du DIY se réfère à l'éthique de l'autosuffisance grâce à l'exécution des tâches sans l'aide d'un expert rémunéré. Elle promeut l'idée que tout le monde est capable d'effectuer une variété de tâches plutôt que de compter sur des spécialistes payés, exige que l'individu cherche les connaissances nécessaires pour accomplir une tâche donnée. Centrale à cette éthique est l'autonomisation des individus et des communautés, encourageant l'emploi d'approches alternatives lorsqu'ils sont confrontés à des obstacles bureaucratiques ou sociétaux freinant l'atteinte de leurs objectifs.

Les philosophies du hacking et du DIY partagent ainsi de nombreux points communs :

- La recherche de la créativité alimentée par la responsabilisation, l'autonomie par l'intermédiaire de l'autosuffisance et de l'indépendance vis-à-vis d' entités privées susceptibles d'exercer un contrôle centralisé sur les individus et leurs usages d'outils et de technologies ;

- Un sens de l'initiative similaire à l' « action sans demander la permission » ainsi que d'une approche décomplexée à propos de l'exploration et des processus créatifs et inventifs ;

- Elles se développent toutes les deux de manière optimale au sein d'un cadre créatif favorable 36 , à savoir dans l'ouverture et la liberté. Les technologies libres et les biens communs (constituant des parties essentielles de la philosophie du Libre que nous allons analyser) sont ainsi considérés par les hackeurs et les « DIYers » comme un bon moyen de favoriser l'autonomie et l'indépendance (auto- suffisance) et de favoriser l'exercice individuel ou collectif de la liberté liée à la créativité et à l'inventivité. Elles contribuent également toutes les deux à stimuler les pensées créatives et inventives des individus.

2.8.1.2. L'esprit d'exploration

Patrice Franceschi (2013), explorateur et aventurier français, définit l'esprit d'exploration. Pour lui, ce qui le définit sont le goût de la liberté et de la connaissance, une volonté de non-conformisme et une capacité à prendre des risques (qui induit intrinsèquement, de notre point de vue, la capacité à endosser et accepter leur responsabilité). Cet esprit peut animer des philosophes, comme Kant qui n'a jamais quitté sa ville de Königsberg mais qui a opéré une révolution copernicienne de la pensée en écrivant sa Critique de la raison pure. L'esprit d'aventure n'est donc pas synonyme d'exotisme. Il met également en avant le concept d'arêté 37 , intrinsèquement lié à l'esprit d'aventure et d'exploration, dont les valeurs sont le goût de la liberté et de la connaissance, une volonté de non- conformité et une capacité de prise de risque. Réunies, elles définissent l'esprit d'aventure qui anime à la fois les marins, les alpinistes ou les philosophes. Enfin, il déclare que dans la Grèce antique, le potentiel humain le plus élevé étaient la connaissance et la sagesse. Toutes les autres capacités humaines dérivent de celle-ci. Ainsi, si le plus haut degré de l'arêté est la connaissance et l'étude, la plus haute connaissance humaine est la connaissance de soi. Dans ce contexte, l'étude théorique de la connaissance humaine, qu'Aristote appelait « contemplation », est la capacité humaine la plus élevée et les moyens d'atteindre le plus haut degré de bonheur.

L'esprit d'aventure et d'exploration s'inscrit donc parfaitement dans la philosophie du hacking telle que définie par Stallman, fondée sur l'amour de l'exploration du possible, de l'incertitude et de

36 Nous analyserons ce concept prochainement.

37 Du mot grec ἀρετή, la vertu.

l'originalité. Nous considérons ainsi que la connaissance est absolument nécessaire pour véritablement exercer sa liberté au sein des processus créatifs et inventifs. Analysons maintenant la philosophie du Libre Stallman se réfère quand il parle de «piratage éthique». 38 ,

2.8.2 La philosophie du Libre

La liberté a deux ennemis : l'oppression et le confort. Le deuxième est le plus dangereux. - Pierre Bellanger

2.8.2.1. Analyse du concept de liberté

La liberté fera référence, dans notre travail, à plusieurs définitions provenant de différents domaines de connaissance :

- La philosophie du Libre : Initiée dans le domaine informatique par Richard Stallman, à partir de 1983 avec le développement du mouvement du logiciel libre ;

- La psychologie sociale : Robert-Vincent Joule (2003), co-inventeur de la théorie de la « soumission librement consentie », affirme que le savoir psychosocial nous apprend que 39 :

- Les sujets déclarés « libres » se comportent de la même façon que les sujets qui n’ont pas été déclarés libres ou qui ont été déclarés « contraints » (des recherches très récentes montrent même que cette fameuse « déclaration de liberté » augmente significativement la probabilité de voir les sujets se « soumettre » aux exigences de l’expérimentateur, au laboratoire comme dans la rue ;

- Les effets de rationalisation (ajustement a posteriori des idées aux actes) et d’engagement (résistance au changement, fuite en avant…) sont plus marqués chez les sujets déclarés libres que chez les autres. La plupart du temps ces effets ne sont d’ailleurs pas observés chez les sujets qui n’ont pas été confrontés à cette déclaration de liberté.

Selon lui, « de là

à penser qu’une des fonctions importantes de la liberté dans nos sociétés est de

38 Source : The Hacker Community and Ethics: An Interview with Richard M. Stallman, 2002 (consulté le 28 mai 2015). 39 Source: http://www.psychologie-sociale.eu/?p=203 (consulté le 02 juin 2015).

nous permettre de mieux rationaliser les comportements requis par le fonctionnement social, il n’y a qu’un pas que nos connaissances en psychologie sociale nous invitent à franchir. Il rajoute cependant que ces connaissances ne nous éclairent pas sur ce qu’est ou n’est pas la Liberté : elles nous éclairent seulement sur les effets cognitifs et comportementaux qu’un appel à la liberté peut avoir. Jean-Léon Beauvois (2011) affirme quant à lui que la seule liberté dont on dispose dans la vie n'est pas celle de dire oui, mais celle de dire non.

- L'information – communication : Julian Assange (2014), dans un article intitulé « L'information comme flux et pouvoir » déclare :

Pour l'autodétermination - soit en tant que groupe ou à titre individuel - vous avez besoin d'informations vraies. Le processus de l'être et devenir libre est le processus d'apprentissage collectif et individuel de nouvelles informations sur le monde et d'action sur lui. Le même processus est l'un des fondements de la civilisation. Dans les communautés, cela signifie que nous devons être en mesure de communiquer entre nous - de transmettre nos connaissances et de recevoir celle des autres. L'information est fondamentale pour notre position de force sur le monde autour de nous. Un public bien informé est un public capacité et, par extension, un public libre.

Ce paradigme sera complémentaire à la philosophie du Libre qui repose sur l''autonomisation cognitive, technique et juridique, l'intelligence collective et l'exercice de la liberté afin de transformer positivement le monde.

Enfin, Noam Chomski (1990) stipule que la liberté exige nécessairement des opportunités qui doivent être prises. Nous allons ainsi, en réponse à cette analyse, essayer de proposer dans le cadre de notre travail des moyens possibles pour créer de nouvelles opportunités permettant aux acteurs territoriaux de jouir de leur liberté et de l'exercer effectivement.

2.8.2.2. Analyse de la philosophie du Libre

Sébastien Broca (2014), qui travaille sur les communs comme projet politique, analyse dans son ouvrage Utopie du logiciel libre : du bricolage informatique à la réinvention sociale la révolution sociale opérée par Richard Stallman avec la création des logiciels libres (en réponse à la tendance à l'enfermement des technologies dans des « boîtes noires » privatrices pour les utilisateurs et les

empêchant de pouvoir analyser leur « recette » ainsi que de les réparer si défectueuses) et la licence GNU GPL visant à libérer les « œuvres fonctionnelles ». Selon lui, le logiciel libre a révolutionné les pratiques de collaboration. Il rajoute que le Libre, né aux États-Unis sous l’appellation free software, est dès son origine un mouvement social, comme l'a toujours qualifié Richard Stallman. Il s’est créé au début des années 1980 en réaction aux bouleversements profonds connus par le monde de l’informatique suite à l’apparition de l’ordinateur personnel et à la naissance de l'industrie du logiciel. Ses objectifs étaient alors de défendre le partage et la collaboration entre développeurs, la possibilité pour les utilisateurs de contrôler leur informatique et la production de technologies socialement utiles. En parallèle, le hacker est devenu depuis quelques années une figure médiatique et un nouvel acteur dans le champ politique.

Selon le site Internet1 gnu.org 40 , le logiciel libre désigne un logiciel qui respecte la liberté des utilisateurs et de la communauté. Cela signifie donc que les utilisateurs ont la liberté d'exécuter, de copier, de distribuer, d'étudier, de modifier et d'améliorer le logiciel. Ainsi, le « ibre » est une question de liberté (« libre comme liberté d'expression ») et pas de prix (« libre comme bière gratuite »). Selon Matt Lee (2011), campaign manager de la Free Software Foundation (FSF) , « le modèle de Stallman pour la liberté des logiciels était le AI 41 Lab du MIT des années 1970. Le contrat social de ce laboratoire incarnait ainsi les principes et les avantages de l'utilisation et du développement de logiciels libres. Il est important de reconnaître que ceci constitue l'émergence historique d'un modèle (approximativement) idéal plutôt que d'un accident de l'histoire. Il est également important de reconnaître que le logiciel libre constitue une réforme avec un modèle précis en tête plutôt qu'un radicalisme avec une trajectoire inconnue. » Stallman fait une distinction claire entre les concepts de « libre » et d'« open source », qu'il considère comme un conflit idéologique. Ainsi, tandis que le logiciel open-source fait référence au choix de l'individu pour la commodité (à travers la possibilité pour toute personne d'améliorer et de corriger le logiciel afin de bénéficier de l'intelligence collective de sa communauté ouverte de développeurs), le logiciel libre fait référence au choix de l'individu de la liberté sur la commodité. En d'autres termes, la liberté est ici une question de principe, une « idéologie personnelle ». Un défenseur des logiciels libre préférera ainsi toujours un programme libre à un « privateur », tandis qu'un défenseur de l'open- source préférera utiliser un programme ne respectant pas ses libertés fondamentales si celui-ci est plus complet et performant. Lee (2011), analysant ce concept de « libre », affirme : « Une fois que

40 Source : https://www.gnu.org/philosophy/free-sw.en.html (consulté le 28 mai 2015).

41 Artificial Intelligence

vous avez entendu qu'il se réfère à la liberté plutôt qu'au prix, il vient naturellement à l'esprit. Le mot ouvert ne se réfère jamais à la liberté. »

Stallman résume la philosophie du Libre en utilisant la célèbre devise de la France : « Liberté, égalité, fraternité » :

- Liberté: Via l'autonomisation / capacitation cognitive, technique et juridique des individus à transformer les programmes qu'ils utilisent ;

- Egalité : La FSF indique que « les développeurs de logiciels libres garantissent à tous des droits égaux à l'égard de leurs programmes.» Cette égalité est assurée par leur nature « universelle » i.e., qui offre à tous le même potentiel d'accès, via la possibilité de faire partie de sa communauté ouverte nourrissant un processus d'intelligence collectif ouvert et décentralisé. Leur développement repose donc sur une philosophie inclusive : n'importe quelle compétence peut être utile à la communauté gravitant autour du programme ;

- Fraternité : Via la solidarité au cœur du développement collaboratif communautaire. Alexis Kauffman (2013), co-fondateur de la communauté Framasoft dédiée à la promotion de la philosophie du Libre dans les pays francophones souligne ainsi que, conformément à cette philosophie, un individu en utilisant un logiciel libre devient de facto un membre de la communauté gravitant autour du projet. La conception intrinsèque d'un programme libre encourage ainsi la solidarité et le partage sans restriction de la connaissance.

Stallman affirme que les quatre libertés accordées par un logiciel libre sont fondamentales pour exercer sa liberté sur ces biens. Elles sont donc nécessaires pour l'autonomisation des individus, via un contrôle illimité permettant de prévenir les abus et l'aliénation des individus à une source centralisée et fermée détenue par une entité privée. Ce contrôle peut être exercé librement à la fois individuellement et collectivement. La communauté d'utilisateurs et de développeurs est ainsi encouragée à travailler ensemble pour contrôler les programmes qu'ils utilisent. Ce contrôle collectif, ouvert et décentralisé est nécessaire pour permettre à la communauté d''assurer et maintenir la viabilité et la pérennité du programme. Stallman met en évidence certaines limitations à l'exercice individuel de contrôle sur les programmes libres. Ainsi, la plupart des personnes ne

savent pas comment programmer et les programmeurs n'ont pas le temps d'étudier le code source de tous les programmes qu'ils utilisent. Ils ont donc besoin d'un contrôle collectif non-restreint afin de favoriser l'exercice de la liberté sur eux. Les deux premières libertés responsabilisent ainsi les personnes ayant le droit d'exercer un contrôle individuel sur les programmes, et les deux dernières leur donnent les moyens avec le droit d'exercer un contrôle collectif sur lui.

La philosophie du logiciel libre repose donc en grande partie sur la confiance dans une communauté : si un individu ou un groupe ne possède pas les compétences cognitives pour exercer pleinement un contrôle sur un programme (par exemple, le pouvoir de lire et analyser un code source), il peut faire confiance aux autres individus qui possèdent cette compétence pour contrôler et,pérenniser la viabilité du programme. Le processus d'intelligence collective ouvert et décentralisé autour du programme permet donc de développer une « régulation sociale » à l'échelle mondiale. Etant donné que tout le monde peut potentiellement lire le code source du programme, il est possible grâce à cette transparence totale de prévenir plus facilement les éventuelles tentatives d'abus (e.g., tentative d'intégrer des fonctionnalités malveillantes dans le code). Les influences sociales permettent ainsi de pérenniser la viabilité du processus de développement du programme. En outre, la possibilité de copier, partager et « forker » 42 le programme à tout moment rend la tentative de contrôle par une entité privée inefficace et inutile.

Mohit Kumar (2014), fondateur et rédacteur en chef de « The Hacker News », analyste en cyber- sécurité et chercheur en sécurité de l'information, donne l'exemple du logiciel Firefox : « Firefox est complètement open source, ce qui signifie que son code source est disponible à tout le monde et tout le monde peut le vérifier et détecter ses défauts. Tout le monde peut vérifier l'exécutable officiel Firefox (disponible au téléchargement sur le site) en le comparant avec la version exécutable compilée à partir du code source d'origine (également disponible au téléchargement). 43 Brendan Eich (2013), inventeur du langage Javascript et ex - CEO de la Fondation Mozilla, déclare que « Grâce à la collaboration internationale d'entités indépendantes, nous pouvons donner aux utilisateurs la garantie que Firefox ne peut pas être perverti sans que le monde s'en aperçoive, et leur offrir un navigateur vérifiable qui répond à leurs attentes de vie privée. »

42 Le forking est une pratique courante dans le logiciel libre. Elle consiste à copier le code-source d'un programme informatique pour développer un nouveau logiciel à partir de lui, qui suivra alors sa propre évolution parallèle tout en demeurant interopérable avec le système initial. 43 Source: http://thehackernews.com/2014/01/Firefox-open-source-browser-nsa-surveillance.html (consulté le 18 mai 2015).

Broca (2014) met en évidence l'ethos du Libre, composé des trois principes fondamentaux suivants :

- L'autonomie dans le travail ;

- La créativité technique ;

- La libre circulation de l’information.

L'ethos des libristes est notamment centré sur la promotion d’un rapport actif aux technologies. Selon lui, ces valeurs se sont incarnées, construites et affermies dans un va-et-vient constant avec des pratiques : écrire du code, rédiger des licences, organiser le travail collaboratif, militer contre des textes législatifs. La signification culturelle et politique du Libre excède toutefois les pratiques propres au milieu hacker. D’une part, les valeurs en jeu sont le fruit d’histoires techniques et sociales bien plus larges. De surcroît, il est désormais évident que l’ethos des libristes possède un pouvoir d’attraction qui s’étend hors du cercle des passionnés d'informatiques.

Broca souligne le fait que

Les libristes se définissent du reste dans leur grande majorité comme hackers, et certains d’entre-eux participent parfois à titre individuel aux actions menées par les Anonymous ou d’autres groupes plus ou moins informels. On peut donc considérer les libristes comme un sous-groupe, au sein de l’ensemble plus vaste des hackers. Si ceux-ci ont étendu leur champ d’intervention, l’intérêt pour le Libre s’est réciproquement développé dans d’autres domaines. Les formes de collaboration par Internet expérimentées dans les grands projets de développement logiciel ont inspiré l’encyclopédie Wikipédia. Les licences libres ont servi de modèles à de nouveaux outils juridiques, comme les licences Creative Commons et Art Libre. Les principes et les pratiques du Libre ont été transposés à d’autres champs technologiques et scientifiques, avec le développement du mouvement DIY (Do It Yourself ). De nombreux intellectuels ont aussi témoigné d’un intérêt soutenu pour le mouvement initié par Richard Stallman, jusqu’à l’ériger parfois en symbole de nouvelles possibilités d’émancipation.

Le logiciel libre constitue, toujours selon Broca, un bon objet pour penser. En économie ou en informatique, en anthropologie ou en design, en sociologie ou dans le champ de l’éducation, le logiciel libre constitue depuis plus de vingt ans un terrain d’investigation, d’enthousiasme et de

critique. Il est pourtant rare de voir un intellectuel prendre au sérieux le phénomène, le traiter non comme une énigme à résoudre en s’appuyant sur les théories existantes ou comme une simple illustration des transformations en cours, mais l’étudier pour lui- même, comme un objet singulier digne de réflexions et de concepts spécifiques ou susceptible d’étendre et de mettre à l’épreuve les concepts existants. Broca, par son approche, rejoint ainsi une poignée de chercheurs qui se sont attachés à saisir les aspects techniques, légaux, économiques et socioculturels de ce phénomène 44 . Il met en avant le fait que le logiciel libre n’est pas simplement du logiciel, ni une idéologie parmi d’autres. Il est une concentration particulière de pratiques devenues centrales dans l’« économie de l’information » ou la « société en réseau ». Il défend le fait que le logiciel libre unit ingéniosité juridique, habileté technique et organisation coopérative comme peu d’autres activités le font. Cependant, ces pratiques ne se limitent pas à la réalisation de logiciels. Nombre de ceux qui se sont confrontés au logiciel libre en reviennent avec des idées nouvelles pour changer le monde qui les entoure, qu’ils soient entrepreneurs dans l’industrie musicale ou animateurs de mouvements sociaux (Broca, 2014). Pour notre part, nous avons naturellement connecté, au sein de notre modèle de l'esprit collectif évolutif glocal, la philosophie du Libre (avec ses valeurs fondamentales et la philosophie du hacking sous-jacente) aux processus d'intelligence économique territoriale et d'imaginierie, optimisés par une collaboration des acteurs au sein du processus de management de l'information, des connaissances et des ignorances (similaire à l'écriture d'un système libre) ainsi que par une participation libre et capacitée basée sur l'interoperabilité des connaissances au sein d'un projet socio-collectif mondial.

Enfin, Broca qualifie le logiciel libre d' « utopie concrète ». Selon lui, la proposition « il n’y a pas d’alternative » (au coeur des discours néolibéraux) n’est ainsi valide « qu’à l’intérieur d’un certain cadre, et sous la prémisse implicite de ne pas toucher à ce cadre ». Or il existe, selon Lordon

44 Malgré le fait que les travaux sur le logiciel libre sont nombreux, seuls quelques spécialistes l’ont véritablement étudié en profondeur. On peut citer notamment : Enid Gabriella Coleman, Coding Freedom. The Ethics and Aesthetics of Hacking, Princeton, Princeton University Press, 2012 ; Jelena Karanovic, Sharing Publics. Democracy, Cooperation and Free Software Advocacy in France, thèse de doctorat, New York University, 2008 ; Samir Chopra et Scott D. Dexter, Decoding Liberation. The Promise of Free and Open Source Software, New York, Routledge, 2008 ; Johan Söderberg, Hacking Capitalism. The Free and Open Source Software Movement, New York, Routledge, 2008 ; Steven Weber, The Success of Open Source Software, Cambridge, Harvard University Press, 2004 ; Anita Say Chan, Networking Peripheries. Technological Futures and the Myth of Digital Universalism, Cambridge, MIT Press, 2013 ; David Berry, Copy, Rip, Burn : The politics of Copyleft and Open Source, Londres, Pluto Press, 2008 ; Yuri Takhteyev, Coding Places. Software Practice in a South American City, Cambridge, MIT Press, 2012 ; Nicolas Auray, « Le sens du juste dans un noyau d’experts : Debian et le puritanisme civique », in Bernard Conein, Françoise Massit-Folléa et Serge Proulx (dir.), Internet, une utopie limitée. Nouvelles régulations, nouvelles solidarités, Québec, Presses de l’Université de Laval, 2005.

(2013), « toujours la solution de sortir du cadre. Et de le refaire » 45 . Voilà ce que propose l’utopie en tant que pas de côté par rapport à l’ordre social existant (Abensour, 2010). 46 L’utopie concrète est donc étroitement liée au présent, et ce dans ses trois dimensions :

- En tant que critique, elle fait ressortir des aspects du monde social qui sont d’autant plus inacceptables qu’ils ne sont pas irrémédiables ;

- En tant qu’ensemble de pratiques, elle s’incarne dans des actions et des mouvements ;

- En tant que vision positive, elle témoigne de certaines aspirations propres à une époque donnée.

Chopa & Dexter (2007) analysent le phénomène du logiciel libre en ces termes :

Le phénomène des logiciels libres fait l'objet de nombreuses études politiques, économiques, sociologiques, toutes réagissant au potentiel de changement radical qu'il

incarne. (

logiciels, et représente un nouveau mode de production – basé sur les biens communs selon une structure en peer-to-peer (Benkler, 2002). Il constitue également une critique des lois, des contrats et des pratiques commerciales en vigueur avec le potentiel de changer de façon explicite la structure politique et économique de la société (Kelty, 2002). Par conséquent, il est soutenu par de nouvelles dynamiques microéconomiques, politiques et personnelles qui pourraient faire la lumière sur d'autres domaines de la productivité économique et de modes de collaboration. Ce nouveau mode de production sert de base pour l'examen de ses antécédents historiques, parallèles à d'autres sous- cultures, et à l'application éventuelle à d'autres domaines comme la production

)

culturelle et scientifique (Ghosh, 2005). (

Le logiciel libre constitue une nouvelle technologie pour la production de

)

Du point de vue de l'ingénierie logicielle ,

les partisans du logiciel libre vantent la supériorité de son modèle de développement en « bazar » sur le mode rigide « cathédrale » employé par les entreprises d'édition de

logiciels propriétaires (Raymond, 2000).

45 Frédéric Lordon, « Présidentielle J – 51 : la campagne vue par Frédéric Lordon », Télérama, 29/02/2012, en ligne : http://www.telerama.fr/idees/presidentielle-j-51-la-campagne-vue- par-frederic-lordon,78502.php (consulté le 12/09/2013). 46 ABENSOUR Miguel, L’homme est un animal utopique, (Utopiques II), Arles, Les Éditions de la Nuit, 2010, p. 248.

Pour Zimermann (2014), les technologies libres constituent des « biens communs de l'humanité » fondamentaux et sont faits pour durer grâce à des normes ouvertes, un code source ouvert favorisant l'amélioration permanente et la création de versions dérivées, contrairement aux programmes fermés/ privateurs qui sont conçus pour être obsolètes afin de favoriser la consommation et la dépendance de leurs utilisateurs. Maîtriser les technologies (chose uniquement possible avec le logiciel libre) implique la maîtrise de notre destin (non contrôlé par des entités privées) dans le monde numérique. Cette philosophie repose sur la « pérennité des connaissances » possédées par les individus à l'égard des programmes qu'ils utilisent. Zimmermann ajoute que la conception durable d'un logiciel libre permet à ses utilisateurs de développer une expérience riche (favorisée par l'utilisation non restreinte) et de maintenir leur utilisation et enrichissement de cette connaissance. Il décrit ainsi son expérience personnelle, en disant qu'il a commencé à utiliser GNU / Linux comme système d'exploitation dans les années 90 et que les différentes commandes classiques (inputs) entrées dans le terminal afin de « donner des ordres » au système afin d' obtenir des « sorties » spécifiques (outputs) sont toujours les mêmes et n'ont jamais été changées. Cette durabilité permet ainsi de se sentir « gratifié », car la connaissance utile acquise dans le cadre d'une expérience passée avec le système est toujours valable aujourd'hui. En outre, l'interopérabilité entre les systèmes d'exploitation basés sur GNU / Linux permet aux utilisateurs de passer d'un système à un autre et de continuer à exploiter leurs connaissances acquises avec l'utilisation d'un système spécifique. La capacitation et sa pérennité constituent donc des aspects fondamentaux du Libre. Analysons maintenant ce concept.

Bernard Stiegler (2014), philosophe et directeur de l'Institut de recherche et d'innovation (IRI), voit le logiciel libre comme la matrice de l'économie de la contribution. Il constitue en effet une activité industrielle qui ne prive pas les gens de leurs connaissances, mais développe plutôt des connaissances individuelles et collectives. Toutefois, cette matrice peut être appliquée dans presque

toutes les activités industrielles à l'avenir : les réseaux d'énergie intelligents où nous ne sommes plus

les consommateurs, mais les curateurs, la re-matérialisations (impression 3D,

47 Stallman (2002) souligne que grâce à l'informatique et le web, il

(AMAP, Open Source Ecology

l'agriculture

),

).

est beaucoup plus facile de travailler en collaboration tout en continuant à améliorer les publications. Il suppose aussi que ce sera encore plus vrai dans l'avenir, au fur et à mesure que les

gens développent de meilleures façons de le faire.

2.8.2.3. La capacitation au cœur de la philosophie du Libre

Yochai Benkler, dans La richesse des réseaux (2007) stipule qu'internet conduit à une autonomisation des citoyens. Cette opinion est partagée par Benjamin Bayart (2007) qui stipule « qu'alors que l'impression a permis aux gens de lire, Internet leur permet d'écrire. » Rick Falkvinge, fondateur du Parti Pirate (mouvement politique mondial engagé dans la défense des libertés fondamentales dans nos sociétés numériques) stipule que « la capacitation ne consiste pas à donner du pouvoir aux gens. Les gens ont déjà beaucoup de pouvoir résidant dans la richesse de leurs connaissances et de leur motivation à faire leur travail magnifiquement. Nous définissons la capacitation comme le fait de laisser sortir ce pouvoir. » Nous allons ainsi distinguer plusieurs dimensions interconnectées de ce concept :

- Cognitive et comportementale : « entrée et sortie du flux informationnel » (selon Paley, 2013) via la capacité d'accéder à l'information et la connaissance et de l'enrichir par des interprétations personnelles, ainsi que de bénéficier d'une intelligence collective ouverte et décentralisée. Pour Bayart, Internet forme de vrais citoyens, capables de faire valoir et de défendre des points de vue personnels et de signaler les erreurs commises par d'autres. Dans le même temps, sa nature intrinsèque favorise le développement de l'humilité, vu que son ouverture et sa décentralisation peuvent donner à quiconque la possibilité de copier, partager et archiver des données, e.g., potentiellement tout ce qu'un individu peut faire et dire au sein des espaces publics en ligne tels que des forums ou des blogs. Ce pouvoir peut être utilisé contre la personne critiquée, qui peut voir ses interventions publiques en ligne précédentes re-émerger et être exploitées pour être contredites avec de nouvelles expressions et actions publiques produites. Internet et le monde numérique en général (en corrélation avec le développement d'outils de création puissants) génèrent ainsi de nouvelles possibilités d'expression, que ce soit à travers l'écriture, la création d’œuvres originales ou la transformation d’œuvres existantes artistiques ou fonctionnelles. En d'autres termes, ces technologies favorisent le développement d'une nouvelle forme de culture : la culture du remix (Lessig, 2008). Enfin, Stallman (2011) stipule que les logiciels libres, en accordant aux individus les quatre libertés fondamentales, sont conçus pour lui permettre de les modifier sans nécessiter une autorisation préalable 48 ;

– Social: Avec la possibilité pour quiconque de « mener »avec des initiatives personnelles (philosophie DIY) et la possibilité pour toute personne d'entrer, quitter et réintégrer le processus communautaire à tout moment sans altérer le fonctionnement global du système en réseau (structure de peer-to-peer). Les individus peuvent ainsi, par l'intermédiaire de ces nouvelles configurations sociales, changer de position sans compromettre la stabilité et la durabilité de la structure sociale, et adopter une nouvelle identité en utilisant des pseudos ou des avatars susceptibles de favoriser leur désinhibition via l'anonymisation de leurs identités et de leurs actions produites en ligne. Ces spécificités sont susceptibles d' « élargir le système cognitif » des individus en leur permettant d'envisager de nouvelles possibilités comportementales, sociales et cognitives (e.g., perspective d'observation via la pensée latérale, connexion entre plusieurs idées stimulant la pensée créative, Cette désinhibition sera également alimentée par des phénomènes tels que le soutien et la reconnaissance sociale (favorisée par la nature ouverte, décentralisée et universelle du réseau Internet offrant la possibilité pour quiconque de trouver facilement d'autres individus, groupes ou communautés qui partagent les mêmes intérêts), la capacité d'accéder à l'information et la connaissance et l'enrichir par des interprétations personnelles, ainsi que de bénéficier d'une intelligence collective ouverte et décentralisée.

- Technologique : Via la liberté d'accéder au code-source des programmes et outils, et de les modifier sans restriction ;

- Juridique : Via des licences légales encadrant les ressources qui accordent aux individus les quatre libertés fondamentales nécessaires pour exercer leur créativité, inventivité et contrôle sur les programmes utilisés et favorisant leur désinhibition afin d'optimiser la phase d' « expression » du flux d'information ;

- Responsabilité : Intrinsèquement induite par la liberté et la nécessité de préserver les libertés des autres (par exemple, via le terme Share-Alike des licences Creative Commons favorisant une pérennisation de la nature libre des ressources et empêchant leur potentielle enclosure).

Toutes ces dimensions qui composent la philosophie du Libre sont intrinsèquement liées (par exemple, la dimension de l'autonomisation technique nécessite un cadre juridique spécifique et contribue à agrandir le système cognitif des individus en rendant leur réalité psychique virtuelle plus riche, plus vaste et plus complexe).

La diversité (avec les choix qu'elle induit) et l'autonomisation sont également au cœur de cette

philosophie. Ces valeurs fondamentales encouragent ainsi fortement la divergence d'opinion susceptible d'induire un conflit cognitif (via une expression publique favorisée) et donc l'innovation, ainsi que la possibilité de choisir entre différents programmes libres afin de permettre à quiconque de choisir un système adapté à ses propres envies et besoins. Par exemple, un individu appréciant l'utilisation du programme Ubuntu se voit offrit un large choix entre une grande variété de « versions dérivées » comme Kubuntu, Lubuntu (pour les vieux ordinateurs ne disposant que de peu de ressources), Ubuntu Studio (pour les tâches multimédias ), etc.

Le choix, nécessaire pour exercer la liberté, est donc fondamental car il capacite les individus et les amène à décider quel programme est le plus adapté à leurs besoins et valeurs personnelles. Par exemple, un individu peut choisir le système d'exploitation mobile Replicant (administré par une communauté de développeurs bénévoles) à la place d'Android (administré par Google), LibreOffice (administré par une fondation) à la place d'OpenOffice (administré par une société), Firefox (Mozilla Foundation) au lieu de Chrome (Google), etc.

Benkler (1996) met l'accent sur deux concepts-clés qui constituent des pièces essentielles de la philosophie du Libre :

- La « production en peer-to-peer basée sur les communs 49 » :Définie comme les efforts de collaboration basés sur le partage d'information 50 ;

- L'« économie de l'information en réseau » pour décrire un « système de production, de distribution et de consommation de ressources informationnelles caractérisées par l'action individuelle décentralisée effectuées à travers des moyens largement distribués qui ne dépendent pas des stratégies de marché. »

Michie, chercheur en intelligence artificielle, souligne l'importance de l'éthique et de la culture libre dans le contrôle des ordinateurs : « Les ordinateurs constituent des assistants de plus en plus

Nous comprenons le passé pour comprendre le présent. Nous

puissants et polyvalents. (

Le passé est la clé de l'avenir. Cette

comprenons le présent pour comprendre l'avenir. (

révolution de l'information et culturelle possède des racines dans la culture libre et des mouvements informatiques de ces dernières décennies. Quelques hommes dévoués avaient eu la clairvoyance de

comprendre les capacités des machines qu'ils construisaient. Grâce à leur héritage d'un cadre

)

).

49 Nous analyserons ce modèle économique plus tard.

le 28 mai 2015).

éthique pour l'informatique, nous nous trouvons dans cette position capacitante.

Lorsqu'on l'interroge sur la mondialisation, Stallman considère que « la communauté du logiciel libre dans le monde entier est un exemple de mondialisation bénéfique : les gens partagent leurs connaissances avec le monde entier. » Il ajoute que son objectif est que « nous nous nous aidions tous à mieux vivre ensemble. Faire progresser la connaissance humaine en nous assurant qu'elle soit accessible à tous en constitue une partie. Encourager l'esprit de coopération en constitue une partie. Ces objectifs sont applicables à différentes parties de la vie, mais dans le domaine des logiciels ils dirigent vers le logiciel libre. » Joi Ito définit quant à lui « l'économie de partage », dans laquelle des individus non apparentés, situés souvent dans des régions éloignées du monde, travaillent ensemble pour produire des biens privés et collectifs.

2.8.2.3.1. Logiciels privateurs et technologies restrictives

Les DRMs échouent complètement pour empêcher la copie, mais ils sont brillants pour empêcher l'innovation - Cory Doctorow

Le mouvement du logiciel libre s'oppose aux logiciels non-libres ou « privateurs », i.e., des programmes propriétaires dont le code source n'est pas accessible et dont la licence légale n'accorde pas à ses utilisateurs les quatre libertés fondamentales pour exercer un contrôle sur eux. Ces logiciels fermés et privateurs interdisent à leurs utilisateurs d'exercer un contrôle sur la technologie qu'ils utilisent et rendent donc impossible (d'un point de vue juridique) un audit ou une modification de leur code source. Okhin (2013), hacker et membre du collectif Telecomix, stipule donc que ces programmes exigent pour leurs utilisateurs une « confiance aveugle » pour les utiliser (car non audités de manière ouverte et documentée), ce qui fait que l'on ne peut pas leur faire confiance. Cette opinion à propos des logiciels fermés/privateurs est largement partagée entre les hackers et les communautés de logiciels libres.

Stallman souligne une raison importante pour ce manque de confiance envers ces programmes privateurs : ils peuvent intégrer dans leur code source des DRM, pour « Digital Rights Management ». Cependant, il préfère parler de « Digital Restrictions Management »,, car ces « technologies malveillantes » sont conçues pour restreindre et contrôler l'expérience des utilisateurs sans qu'ils soient au courant de leur présence dans le code source fermé. Pour lui, les DRM constituent ainsi une pratique qui consiste à imposer des restrictions technologiques qui contrôlent ce que les utilisateurs peuvent faire avec les médias numériques :

Quand un programme est conçu pour vous empêcher de copier ou partager une chanson, la lecture d'un ebook sur un autre appareil, ou jouer à un jeu solo sans connexion Internet, vous êtes limité par des DRM. En d'autres termes, les DRM créent un bien endommagé ; ils vous empêchent ainsi de faire ce qu'il serait possible sans eux. Ils concentrent le contrôle sur la production et la distribution de médias, donnant à leurs colporteurs le pouvoir de mener des autodafés massifs de livres numériques et d'effectuer la surveillance à grande échelle sur les habitudes de consommation de médias des citoyens. 51

Stallman qualifie ces programmes de « défectueux par design » ainsi que de « traîtres » 52 , car ils restreignent l'expérience des utilisateurs et leurs concepteurs exploitent la nécessaire « confiance aveugle » envers ces « outils de pouvoir » pour exercer un contrôle sur eux (par exemple, via la surveillance ou la censure de contenu). Il analyse également les principaux problèmes induits par cette « soumission librement consentie » à l'égard des programmes sournois, qui peuvent être considérés comme des « menottes numériques » contrôlant leurs utilisateurs, et comme une « menace pour l'innovation dans les médias, la vie privée des lecteurs, et la liberté. » Selon lui, le DRM ne fonctionne que si le programme « Je ne peux pas vous laisser faire ça, Dave » reste un secret.

Stallman parle d'« informatique déloyale » afin de court-circuiter les stratégies marketing qui mettent l'accent sur le terme d' « informatique sécurisée » visant à favoriser des relations de confiance envers leurs systèmes fermés et privateurs. Pour lui, cela constitue le nom de promotion d'un projet de reconception des ordinateurs afin que les développeurs d'applications puissent faire confiance à notre ordinateur au lieu de nous obéir à nous. Ils sont ainsi « dignes de confiance » de leur point de vue, tandis qu'ils constituent des « traîtres » du notre. Le matériel fermé et privateur n'est ainsi pas sécurisé pour son utilisateur (design officiel) mais contre lui (design officieux). 53

Ces « caractéristiques malveillantes » intégrées dans les programmes fermés et privateurs peuvent ainsi être utilisées pour espionner leurs utilisateurs, les limiter ou même les attaquer avec la présence de « bakdoors » (portes dérobées). Les backdoors intégrés dans un programme peuvent permettre aux créateurs / ayant-droits du programme d'exercer un contrôle total à distance sur lui.

juin 2015).

52 Source : http://www.gnu.org/philosophy/can-you-trust.html (consulté le 03 juin 2015).

53 Source : http://www.gnu.org/philosophy/can-you-trust.html (consulté le 03 juin 2015).

(consulté

le

03

Tous les dispositifs malveillants qui ne sont pas déjà intégrés dans le programme d'aujourd'hui peuvent donc être potentiellement intégrés demain. La Free Software Foundation (2006) utilise des exemples clairs pour décrire les questions soulevées par les DRM : « Iriez-vous dans une librairie, un magasin de vidéos ou de musique qui vous réclamerait la permission d'envoyer à votre domicile des employés pour reprendre vos films, romans ou CD, pour n'importe quelle raison ? Achèteriez- vous quelque chose qui se casserait quand vous tenteriez de le partager avec quelqu'un d'autre ? »

Doctorow (2013) analyse les DRM intégrés dans les produits Apple :

Apple, s'étant lui-même engagé à empêcher les utilisateurs d'utiliser leurs ordinateurs à certains égards, doit maintenant s'engager encore plus loin dans le développement d'un ensemble de restrictions allant dans ce sens – le verrouillage des API 54 , des mises à jour qui affaiblissent le logiciel et qui exposent la vie privée de l'utilisateur, en cassant des outils de développement de base. Pas de fin en vue - pas jusqu'à ce qu'Apple décide que ce que vous faites avec votre ordinateur est votre propre affaire.

Maurel (2014) décrit les DRM non seulement comme des « menottes numériques », mais aussi comme des systèmes de mise en application automatisée du droit. Ces programmes permettent ainsi la privatisation et potentiellement la censure abusive, avec des erreurs possibles (par exemple la ContentID de Youtube et ses plusieurs censures arbitraires). En d'autres termes, ils constituent une menace majeure pour les droits fondamentaux des individus comme la lecture ou l'écriture. Pour Ertzscheid (2013), le DRM est l'acceptation d'un droit de contrôle (i.e., inspection et potentielle coercition) par la machine.

Lessig (2001) met l'accent sur la révolution que le réseau Internet a produit pour la créativité et l'innovation grâce à sa conception intrinsèque :

La révolution de l'Internet a produit une contre-révolution à la puissance et l'effet dévastateur. L'explosion de l'innovation que nous avons vu dans l'environnement de l'Internet n'a pas été invoquée de quelque nouvelle magie technologique inimaginable auparavant. Au lieu de ça, elle est venue d'un idéal aussi vieux que la nation. La créativité a fleuri à cet endroit parce que l'Internet a protégé un bien commun de l'innovation. La conception même de l'Internet a construit une plate-forme neutre sur

54 L'interface de programmation d'application (API) est un ensemble de routines, de protocoles et d'outils pour construire des applications logicielles.

laquelle le plus large éventail de créateurs peut expérimenter. L'architecture juridique qui l'entoure a protégé cet espace libre pour que la culture et l'information, les idées de notre ère puissent circuler librement et inspirent une ampleur sans précédent d'expression. Mais cette conception structurelle est en train de changer à la fois juridiquement et techniquement.

La propriété intellectuelle peut donc constituer, si appliquée de manière trop rigide et coercitive, une menace majeure dans le développement et la circulation des biens communs dans le monde numérique. Stallman a ainsi créé, afin de « hacker » celle-ci la licence GNU GPL, fondée sur la possibilité de bénéficier des quatre libertés fondamentales mais forçant également les utilisateurs à ne pas priver les autres de ces même libertés (terme Share-Alike). Celle-ci stipule que

Les Etats ne devraient pas autoriser les brevets pour restreindre le développement et l'utilisation de logiciels sur les ordinateurs à usage général, mais dans ceux qui le font, nous souhaitons éviter le danger particulier que les brevets appliqués à un programme libre puissent le rendre effectivement propriétaire.ment, chaque programme est constamment menacé par les brevets logiciels. Pour éviter cela, la GPL assure que les brevets ne peuvent être utilisés pour rendre le programme non-libre.

Comme nous l'avons vu, les logiciels libres rendent, par essence, ces tentatives de corruption / privatisation très difficiles. Leur conception permet ainsi à leurs communautés respectives de les protéger contre des attaques potentielles provenant d'entités privées, désireuses d'exercer un contrôle sur ces biens communs nécessaires à l'innovation. Comme le déclare le site gnu.org,

Parce qu'il est transparent, le logiciel libre est difficile à utiliser pour la surveillance. Cela constitue une défense essentielle contre les invasions de la vie privée par la NSA et des grandes entreprises de l'Internet et de télécommunications dans le monde. La FSF construit un mouvement visant à développer et étendre la bibliothèque existante d'outils libres que tout le monde peut utiliser pour rendre le travail de la NSA plus difficile. En outre, nous continuons à développer le travail que nous avons fait depuis presque trente ans pour promouvoir et défendre tous les logiciels libres.

Un célèbre paradigme technologique, toujours mis en évidence par des militants du logiciel libre,

est « Soit vous contrôlez la

technologie, soit vous être contrôlé par elle ». Plus précisément, les

individus peuvent choisir d'exercer leur liberté par l'intermédiaire de technologies libres ou se « soumettre librement » aux technologies fermées, privatrices, trompeuses et défectueuses par design. Pour Zimmermann (2014), nous nous trouvons actuellement à la croisée des chemins, avec deux scenari possibles impliquant le choix entre le paradigme de la technologie libre ou celui de la privatrice. Ces scénari sont déjà définis par notre cadre technologique et juridique actuel et augurent soit :

- Une société techno-totalitaire où la technologie est utilisée pour contrôler les individus ; ou

- Une société libre (utopie concrète), basée sur la capacitation et la liberté des individus via l'utilisation et la maîtrise des technologies libres qui respectent leurs quatre libertés fondamentales pour exercer la créativité et l'inventivité sans restriction de manière ouverte et décentralisée.

2.8.3. Les biens matériels et immatériels et leurs caractéristiques inhérentes par rapport à la philosophie du Libre

2.8.3.1. Ressources dans les mondes physiques et numériques

Soudoplatoff souligne le principe fondamental de l'univers numérique : « Lorsque nous partageons un bien matériel, il se divise, mais lorsque nous partageons un bien immatériel, il se multiplie ». Schneier (2010) confirme cette analyse en déclarant : « Essayer de rendre des fichiers numériques incopiables est comme essayer de rendre l'eau non humide ». Le monde physique possède cependant des contraintes inhérentes qui rendent un bien physique très difficile à être de nature non-rivale. Les contraintes physiques rendent ainsi les actes de copie et de modification des produits difficile, voire impossible (par exemple, si la structure du bien est complexe et si celui-ci est constitué d'éléments rares).

Selon Stallman (2012), un bien numérique, contrairement à un physique, est facile à modifier si la personne connaît les langues utilisées pour le coder. Les seuls obstacles susceptibles de limiter / empêcher cette action sont l'enclosure technique du code et une licence de droit d'auteur privatrice. Maurel (2012) stipule qu'un bien physique (de nature rivale) entre, une fois numérisé, dans une logique de non-rivalité et d' « économie d'abondance ». Toutefois, les restrictions techniques intégrées dans le code de ces biens (telles que les DRM) peuvent contribuer à recréer de la rareté à leur égard.

Un bien physique est généralement possédé par son utilisateur. Son concepteur ne peut donc guère restreindre l'expérience de ses personnes (par exemple, un fabricant de stylo ne peut pas empêcher

un individu ayant acheté un de ses produits d'écrire ce qu'il veut avec). D'autres contraintes s'appliquent cependant à ce type de bien : un partage décentralisé et simultané est totalement impossible pour les contraintes physiques (caractéristique des atomes), alors que cela est totalement possible dans le monde numérique (composé de bits). Il analyse ensuite la différence entre les biens numériques et physiques, conformément à la philosophie du logiciel libre et de ses quatre libertés fondamentales :

- La liberté 0 (liberté d'utiliser le bien) est généralement possédée par des objets physiques, via leurs caractéristiques intrinsèques ;

- La liberté 1 (liberté d'analyser la composition du bien) dépend de la structure du bien (par

exemple, ouvert ou fermé / libre ou privateur). La possibilité de « rétro-ingénierer » le bien afin d'analyser sa structure et sa constitution est toutefois généralement respectée ;

- La liberté 2 (liberté de modifier le bien) n'est pas facile à exercer car les biens physiques ne

possèdent pas de code source. Ils possèdent toutefois une « constitution » ou « recette » spécifique, mais celle-ci peut ne pas être facile à modifier si l'architecture et la composition du bien est complexe. En outre, certains objets, comme un chips, ne sont pas transformables sans être détruits. Cette caractéristique ne provient pas nécessairement, contrairement aux biens numériques, de la malveillance ou de la faute d'un individu, mais à des contraintes pratiques inhérentes aux caractéristiques du monde physique ;

- La liberté 3 (liberté de copier le bien) n'a pas de sens pour les biens physiques car l'acte de les copier est impossible (en raison des contraintes inhérentes au monde physique), même si il a été modifié avec succès.

2.8.3.2. L'impression 3D : du bit à l'atome

La numérisation d'un bien physique à trait à la transformation des atomes en bits (faisant entrer le bien dans la logique de l'abondance et de l'anti-rivalité) tandis que l'impression 3D vise à transformer des bits en atomes. Un fichier numérique CAM 55 peut donc être librement partagé et copié (sauf s'il est conçu pour ne pas l'être via un DRM) et être potentiellement imprimé partout dans le monde, tant que le cadre créatif est favorable (par exemple, une imprimante 3D capable d'imprimer un bien complexe en respectant l'ensemble de ses caractéristiques 56 ). Le fichier

55 Computer-Aided Manufacturing 56 Nous citerons par exemple le Free Universal Construction Kit (voir analyse dans ce document) qui nécessite, du fait de sa structure complexe, un matériel d'impression performant.

numérique peut donc être considérée comme un bien commun anti-rival (surtout s'il possède un licence légale libre et un format ouvert), mais les fichiers physiques imprimés constitueront nécessairement de nouveaux biens rivaux (en raison de leurs contraintes inhérentes).

2.8.3.3. Biens rivaux, non-rivaux et anti-rivaux

Samuelson (1954), dans La théorie pure des dépenses publiques, définit un bien public, ou comme il l'appelle un « bien de consommation collectif » comme suit :

Les biens dont tout le monde peut jouir en commun en ce sens que la consommation de chaque individu d'un tel bien ne conduit à aucune soustraction de la consommation de toute autre personne consommatrice de ce bien.

En d'autres termes, il est à la fois non-exclusif et non-rival en ce que les individus ne peuvent être effectivement exclus de l'utilisation et que l'usage par un individu ne réduit pas la disponibilité pour les autres.

La rivalité est un paradigme économique décrivant les caractéristiques d'un bien. Un bien peut être placé le long d'un continuum allant de rival à non-rival. La même caractéristique est parfois appelée soustractible ou non soustractible (Ess et Ostrom, 2006). Un bien rival est ainsi un bien dont la consommation par un consommateur empêche la consommation simultanée par d'autres consommateurs (Weimer & Vinning). Un bien est donc considéré comme non-rival si, pour tout niveau de production, le coût de fourniture à un individu marginal (supplémentaire) est égal à zéro (Cornes et Sandler, 1986). La non-rivalité ne signifie pas que les coûts totaux de production sont faibles, mais que les coûts marginaux de production sont nuls.

Un bien public constitue, en sciences économiques, un bien ou un service dont l’utilisation est non- rivale et non-exclusive. On parle de bien commun public mondial (ou bien public global), pour des biens publics très étendus (par exemple : la qualité de l'air, la biodiversité, la situation climatique mondiale ou le réseau internet). Cette notion fait cependant l'objet de critiques virulentes et loin d'être stabilisée et unifiée 57 . Concrètement, cela signifie qu'il y a pour les utilisateurs intéressés par un tel bien une situation particulière doublement caractérisée :

- Non-rivalité : La consommation du bien par un agent n'a aucun effet sur la quantité disponible de ce bien pour les autres individus (par exemple, le fait que je respire ne prive pas les autres d'air) ;

57 Source : https://fr.wikipedia.org/wiki/Bien_public (consulté le 29 mai 2015).

- Non-exclusion : Une fois que le bien public est produit, tout le monde peut en profiter. Par exemple, le fait qu'un automobiliste regarde un panneau de circulation n'empêche pas un autre de le faire. Un exemple d'exclusion est un territoire privé, dont le prix demandé pour y accéder peut exclure ceux qui ne peuvent pas payer. 58

Crouzet (2014) analyse les biens communs. Selon lui, ils sont divisés en deux grandes catégories 59 :

- Les ressources limitées dont la propriété est égale à une spoliation à travers l'espace et le temps (e.g., si l'on brûle du pétrole, nous en privons les générations futures tout en imposant de la pollution) ;

- Les ressources presque illimitées dont la propriété est dénuée de sens en raison de leur nature abondante (e.g., nous déclarer propriétaire de l'air dans une bouteille n'a pas de sens car tout le monde peut nous imiter).

Les biens physiques (i.e., tangibles), en raison des contraintes inhérentes au monde physique que nous avons défini constituent des biens rivaux et peuvent être soit durables (e.g. un marteau) ou non durables (e.g., de la nourriture). Plus globalement, les établissements privés (qui induisent intrinsèquement une propriété, i.e., un potentiel vol) peuvent être considérés comme des biens rivaux, même dans le monde numérique. Par exemple, certains biens numériques tels que les noms de domaine peuvent également être considérés comme rivaux et induisent des techniques telles que le cyber-squatting.

Seulement quelques biens sont ainsi complètement non-rivaux, étant donné que la rivalité peut émerger à certains niveaux. Par exemple, l'utilisation d'une route ou le réseau Internet est non-rivale jusqu'à une certaine capacité. En cas de surcharge, son utilisation par de nouveaux individus peut donc diminuer la vitesse pour les autres. La rivalité est donc maintenant de plus en plus considérée comme un continuum, et non comme une catégorie binaire (Fuster Morell, 2010), où de nombreux biens se situent quelque part entre les deux extrêmes de la rivalité et de la non-rivalité complètes.

Fuster Morell (2010) propose une définition des communs numériques comme des « ressources d'information et de connaissances qui sont collectivement créées, détenues ou partagées entre ou parmi une communauté, en d'autres termes qui sont (en général) librement disponibles à des tiers. Ainsi, ils sont orientés pour favoriser leur utilisation et réutilisation, plutôt que pour être échangés

58 Ces différents exemples seront utiles pour comprendre le processus d'imaginierie d'un territoire tel que nous l'analyserons dans ce document. 59 Source: http://blog.tcrouzet.com/2013/11/26/amis-commonistes/ (consulté le 29 mai 2015).

comme une marchandise. En outre, la communauté de personnes les construisant peut intervenir dans la gouvernance de leurs processus d'interaction et de leurs ressources partagées. »

Wikipedia et les logiciels libres peuvent donc être considérés comme des biens communs numériques. L'Internet est également souvent qualifié de « patrimoine mondial » 60 tandis que le cyberespace a été qualifié comme « territoire indépendant » par des personnalités influentes comme John Perry Barrlow (1996). 61 Toutefois, Maurel (2014) affirme que l'intégration des restrictions techniques dans la couche « code » du réseau a tendance à menacer cette nature, la nature libre des langages informatiques utilisés pour générer son contenu étant nécessaire pour le considérer comme un bien commun. Nous allons analyser ce paradigme « la loi est le code » plus loin dans ce document. Pour Raymond (2012), « L'Internet est techniquement rival dans le sens que les réseaux informatiques dont il dépend (sa « couche physique ») accueillent une quantité finie de trafic. Aux heures de pointe d'utilisation, en particulier dans les sections encombrées du réseau, les utilisateurs peuvent recevoir une expérience dégradée. Une utilisation intensive de la bande passante utilisée par un grand nombre d'utilisateurs peut signifier que beaucoup reçoivent un service de qualité inférieure. » Un bien commun numérique libre peut donc être considéré, en raison de ses caractéristiques techniques et juridiques, comme anti-rival et abondant (i.e., évoluant dans l'économie de l'abondance) et peut être librement utilisé, possédé, copié, modifié et partagé de manière illimitée sans être altéré.

Les DRM ne se content ainsi pas d'endommager des biens numériques (selon l'analyse de Stallman) mais les pervertissent également en transformant leur nature intrinsèque non-rivale ancrés dans l'économie de l'abondance en biens privés ancrés dans l'économie de la rareté, pour que son véritable ayant-droit puise « artificiellement » exercer les mêmes règles s'appliquant dans le monde physique.

Weber a développé le concept de bien anti-rival, qui se réfère à l'opposé d'un bien rival : plus les

61 John Perry Barlow (1996), co-fondateur de l'Electronic Frontier Foundation, est l'auteur de la célèbre Déclaration d'indépendance du cyberespace. Il soutient dans ce texte qu'aucun gouvernement (ou qu'aucune autre forme de pouvoir) ne peut s'imposer et s'approprier le réseau internet. Il a été écrit en partie en réponse à l'adoption de la Loi sur les télécommunications de 1996 aux Etats-Unis. Barlow y affirme que les États- Unis n'ont pas eu le « consentement des gouvernés » pour appliquer leurs lois sur internet, et que l'internet est à l'extérieur des frontières de n'importe quel pays. Il précise que le réseau se régule lui-même, avec ses propres codes et langages sociaux, basé sur l'éthique de réciprocité. Bien que le document mentionne la loi sur les télécommunications, il accuse également la Chine, l'Allemagne, la France, la Russie, Singapour et l'Italie d'étouffer l'Internet. Ce texte a connu un très grand succès dès sa parution, et est régulièrement présenté comme faisant parti des textes fondateurs de la culture internet.

individus partagent un bien anti-rival, plus d'utilité est reçue par les personnes. Un bien anti-rival

peut être considéré comme un bien public car il est librement accessible à tous (non exclusif) et non

rival (sa consommation par une personne ne réduit pas la quantité disponible pour les autres). Selon

Lessig (2006), une langue naturelle particulière répond aux critères que le langage est un bien anti-

rival 62 . Les logiciels libres peuvent également être considérés comme des biens communs anti-

rivaux car plus ils sont partagés, utilisés et étudiés (par l'intermédiaire d'une audition collective de

leur code source), plus ils deviennent valuatifs pour ses utilisateurs. Ainsi, se développe

naturellement par le biais de son utilisation sur une base inclusive un processus d'intelligence

collective ouverte et décentralisée enrichissant à la fois sa nature intrinsèque (par exemple, via

l'écriture de code,

) et son « background documentaire » (via la production de connaissances à son

propos enrichissant la documentation favorisant son appropriation et utilisation par les individus).

Nous considérerons également, dans le cadre de ce type de bien et compte tenu de sa caractéristique

communautaire inclusive, que plus de personnes utilisent ce bien, plus sa communauté augmente

(selon l'analyse de Kauffman, 2013). Ces deux parties sont donc fondamentales pour la philosophie

du logiciel libre (Okhin, 2013) et ne peuvent être optimales que via une large utilisation ouverte,

décentralisée et capacitante. Par exemple, l'équipe centrale de développement du logiciel Krita

(logiciel libre de dessin) affirme au sujet de la contribution par la communauté Krita et de son rôle

dans l'audit du code source pour traquer et corriger les bugs du programme via un audit ouvert et

décentralisé : « Ce travail est un processus continu et grâce à vos rapports de bugs nous passons

moins de temps sur eux et plus de temps à polir et à créer de nouvelles fonctionnalités. »

2.8.4. La culture libre et la défense des biens communs communs comme nécessité pour développer des territoires créatifs et réaliser une « utopie concrète »

2.8.4.1. La culture libre

Pour Adam Smith, la culture est un bien « public » car elle contribue essentiellement à l’éducation,

thème qu’il mobilisera longuement dans son analyse comparative des systèmes éducatifs anglais et

écossais. L’exemple américain des entreprises culturelles constitue un exemple intéressant. Ainsi,

de nombreuses entreprises culturelles étaient créées dans les domaines du patrimoine (musée)

comme du spectacle vivant (société de concerts, théâtres, etc.). Or la très grande majorité de ces

institutions fit faillite dès la fin du 19ème siècle, laissant la place à des fondations, associations ou

toute autre forme d’organisation à but non lucratif. La mise en faillite des entreprises les

62 Source : http://www.lrb.co.uk/v27/n16/lawrence-lessig/do-you-floss (consulté le 18 avril 2015).

conduisirent à rechercher d'autres ressources que le « box office » notamment du coté des mécènes ou de donateurs au « raz du sol ». Cet exemple corrobore celui des logiciels libres (liés au développement d’œuvres fonctionnelles). Ainsi, deux logiciels (Blender et Synfig) étaient développés par deux entreprises ayant fait faillite pour cause de non rentabilité de leur produit. Le logiciel Blender a été libéré par son créateur en tant que logiciel libre. Celui-ci a décidé de créer une fondation pour chapeauter son développement ouvert. Le logiciel Synfig a quant à lui été racheté par la communauté d'utilisateurs, afin de le libérer sous licence libre et poursuivre son développement en tant que bien commun de l'humanité. Ces deux logiciels sont aujourd'hui activement développés par une communauté de développeurs, et sont devenus aussi riches et complets que beaucoup de leurs produits concurrents propriétaires, démontrant encore une fois la force du modèle du libre dans notre économie numérique.

La culture libre est un concept essentiellement défini par Lawrence Lessig (2004) dans son livre Culture Libre : Comment les gros médias utilisent la technologie et la loi pour confisquer la culture et contrôler la créativité. Ce paradigme culturel et juridique s'oppose à la « culture de la permission ». Ces deux paradigmes culturels et juridiques (ainsi que la philosophie du Libre que avons analysé) sont ancrés dans le droit d'auteur. Selon le United States Patent and Trademark Office (USPTO), « un droit d'auteur protège les œuvres de l'auteur telles que les écrits, la musique et les œuvres d'art qui ont été concrètement exprimées. » 63 Betsy Rosenblatt (1998), de la Harvard Law School, affirme que

Le droit d'auteur sur une œuvre appartient à l'origine à l'auteur (s) de l'œuvre. L'auteur (s) peut transférer le droit d'auteur à une autre partie si elle (ils) choisit(ssent) de le faire. Sous réserve de certaines limitations, le propriétaire du droit d'auteur a le droit exclusif d'autoriser la reproduction de l'œuvre, la création d'une œuvre dérivée de la sienne, la distribution d'exemplaires de l'œuvre, ou l'exécution publique ou l'affichage du travail. Ce droit dure pour la vie de l'auteur plus cinquante ans ; ou dans le cas d'un copyright détenu par une entité, pour soixante-quinze ans. 64

(consulté le 29

mai 2015). Il est important de souligner que cette durée est plus longue en France, les droits perdurant jusqu'à 70 ans après la mort de l'auteur, avec la possibilité d'être rallongée si l'auteur est considéré comme mort pour la Nation. Nous citerons l'exemple d'Antoine de Saint Exupéry, dont son œuvre Le Petit Prince s'est « élevée » dans le domaine public dans le monde entier, sauf en France. Nous rajouterons que cette

œuvre fait également l'objet d'une tentative d'enclosure par le biais du droit des marques (voir cet article :

Stallman (2012) met l'accent sur trois grandes catégories d’œuvres, qui contribuent à la société à certains égards ainsi que ses opinions personnelles sur ce que leur nature juridique devrait être :

- Les œuvre que l'on peut utiliser pour effectuer des tâches pratiques (« œuvres fonctionnelles ») :

Elles peuvent être esthétiques, mais cet aspect est secondaire. Elles comprennent des programmes, des recettes, des œuvres éducatives, des polices de texte, des modèles pour les imprimantes 3D pour

faire des objets utiles, fondamentales) ;

Ces ressources doivent être libres (i.e., respecter les quatre libertés

- Les œuvres qui expriment les pensées, les opinions ou les témoignages de certains personnes :

Celles-ci ne doivent pas nécessairement être libres, car elles ne sont pas utilisées pour faire un travail pratique, mais pour bénéficier de la pensée de certaines personnes. Publier une version modifiée sans la permission de l'auteur peut dénaturer sa pensée (à moins de faire en sorte qu'il représente son opinion de manière précise ;

- Les œuvres artistiques et de divertissement : Leur principale fonction est esthétique. Il affirme qu'il existe des arguments valables à la fois sur le droit d'auteur et le copyleft. Ainsi, l'intégrité artistique (par exemple, le droit moral) est susceptible d'être menacée par la modification de l'œuvre. D'autre part, la modification peut être une contribution à l'art (par exemple, « la culture du remix »), si l'auteur fait une distinction claire entre sa version dérivée et l'œuvre originale. Par exemple, le travail de Shakespeare et Mozart aurait été interdit avec nos lois actuelles. Ses opinions à propos du droit d'auteur concernant les « œuvres d'opinion » et les « œuvres artistiques » ont cependant été critiquées par Masutti et Jean (2013). Selon eux,

Jamais une licence libre (qui ne traite que du droit d'auteur - l'expression, la forme) n'autorise un changement mis en œuvre pour que ce changement affecte l'intégrité de l'œuvre et, par extension, de son auteur. Dans le cadre d'une œuvre conçue par son auteur comme ouverte et collaborative, la modification par un contributeur est entièrement respectueuse de l'intégrité de l'œuvre. Cependant, si le travail a porté sur une modification nettement abusive à la représentation de son auteur, il serait tout à fait valable pour un auteur de l'arrêter sur la base de son droit moral (de la même façon qu''il pouvait le faire en l'absence de licence libre), surtout si le travail a été utilisé pour

le-droit-des-marques/; consulté le 18 avril 2015).

transmettre des messages clairement contraires à l'intention de l'auteur.

Ainsi, selon Rosenblatt (1998), le droit moral protège le droit de tout créateur à être correctement interprété par le public comme l'auteur de l'œuvre et à ne pas être compromis dans son honneur et sa réputation par une modification « nocive ». Il protège contre les mauvaises identifications de l'auteur de l'œuvre et des altérations de celle-ci susceptibles d'être interprétées comme le reflet de la personnalité et des opinions de celui-ci. L'utilisation d'une licence juridique privatrice concernant les œuvres d'opinion semble donc dénuée de sens, car le droit d'auteur protège déjà l'intégrité des créateurs par le biais du droit moral fondamental et inaliénable.

Lionel Maurel (2014), juriste et bibliothécaire, analyse dans un article l'importance fondamentale d'un public « capacité » pour faire vivre une œuvre et la faire accéder au statut de mythe :

C’est le cas par exemple de J.K. Rowling, l’auteur de Harry Potter, qui accepte assez largement les fanfictions s’inscrivant dans son univers et reprenant ses personnages. Elle a posé des limites, comme le fait de ne pas faire d’usage commercial ou de mettre en scène ses personnages dans des situations pornographiques, mais en dehors de ces restrictions, les créations dérivées réalisées par les amateurs foisonnent sur Internet et forment des communautés d'écriture et de partage (fandoms). Cela signifie donc que Rowling accepte qu’Harry Potter ait des milliers d’auteurs partout dans le monde, dès maintenant de son vivant, sans attendre le passage de l’œuvre dans le domaine public. Elle accepte aussi que l’univers dont elle a planté le décor s’enrichisse de nouveaux personnages, de nouveaux lieux, de nouvelles histoires, qui s’inscrivent dans les « creux » qu’elle a pu laisser. L’univers d’Harry Potter se développe ainsi, en dehors de son auteur, d’une manière qui rappelle beaucoup la génération des mythes. 65

Cet enrichissement, fruit de l'intelligence collective nourrie par un processus créatif ouvert et débridé, peut être optimisé par le développement de communautés d'écriture et de partage et les communautés stratégiques de connaissance. La culture libre comme nécessité pour optimiser le processus créatif, via un cadre créatif favorable à la création par le biais du remix.

L'affaiblissement de la créativité et de l'innovation par le biais de la propriété intellectuelle via la

colonisation des territoires physiques, digitaux et cognitifs a été analysée notamment par Naomi Klein (2000) dans son livre No Logo. Elle met ainsi en avant la colonisation de l'espace public par les marques, nuisant à la liberté des citoyens et détruisant peu à peu leurs symboles territoriaux. La colonisation de l'imaginaire des individus nuit ainsi fortement au phénomène de créativité et d'innovation via notamment des stratégies de « copyright/trademark policy » induisant une aliénation des individus à la culture de la permission 66 (Paley, 2011 ; Seemel, 2011). La privatisation de l'exercice coercitif visant à censurer les pratiques créatives des individus au sein de l'espace public trouve un exemple très clair dans celui des Jeux Olympiques 2012 de Londres inaugurant, selon l'expression de Maurel (2012), une « dystopie cyberpunk ». 67

Xavier Greffe (2010), dans un article intitulé L'économie de la culture est-elle particulière ? 68 , analyse l'économie de ce secteur bien particulier et son rapport avec le développement territorial. Selon lui, la contribution d’Allen Scott sur le rôle de la culture dans les villes créatives permet à la fois d’illustrer ces différents thèmes dans le cadre territorial qui s’impose aujourd’hui à l’ensemble des activités culturelles, à savoir le cadre urbain. On constate ainsi le changement de statut dont les activités culturelles font aujourd’hui l’enjeu. Elles ne sont plus seulement un élément dans l’attractivité des territoires, susceptibles par là même de justifier l’importance des ressources qu’on leur alloue, mais deviennent l’un des leviers les plus prometteurs de leur créativité et de leur développement.

Des chercheurs issus de toutes disciplines, fédérés autour de la Revue du Mauss (mouvement antiutilitariste dans les sciences sociales), poursuivent une analyse critique de l'économie marchande et de la doctrine utilitariste. Ils y opposent la logique du don contre don développée par l'anthropologue Marcel Mauss. Ce mouvement, initié par Alain Caillé, est l'un des principaux promoteurs du revenu minimum garanti. Ainsi, « La vraie réforme de la protection sociale ne passe pas par la liquidation des acquis sociaux, mais par une reformulation complète de ce que l’État doit aux citoyens. Débarrassons-nous des stages et politiques spécifiques pour les chômeurs et, à la place, créons un système dans lequel chaque citoyen français se voit garantir le revenu de base. Après, à chacun de jouer ». D'autres courants militent, dans des idées similaires, en faveur de nouvelles formes d'échange. Ainsi, les initiatives en faveur des SEL (systèmes d'échange locaux)

66 Cette problématique sera au cœur de notre projet d'expérimentation que nous mènerons pour concrétiser notre modèle d'intelligence imaginieriale. 67 Nous analyserons cet exemple plus en détail prochainement. 68 Xavier Greffe, « Introduction : L'économie de la culture est-elle particulière ? », Revue d'économie politique 2010/1 (Vol. 120), p. 1-34. DOI 10.3917/redp.201.0001

reposent sur la critique d'une économie fondée sur la concurrence. Les SEL sont nés à Vancouver au Canada en 1976, et sont arrivés en France dans les Pyrénées en 1994. Ils prennent la forme d'associations dont le but est l'échange entre les différents membres de biens et services de nature très variée (cours de langue contre travail de plomberie, entretien d'un jardin contre apprentissage de la cuisine,…). La particularité est le calcul des dettes de chacun : un membre de l'association n'a ainsi pas de dettes vis-à-vis des autres membres mais vis-à-vis de la communauté. Ainsi, une compatibilité informatique est tenue et un système de compensation est mis en place, qui permettra à X de rendre à Z un service qu'il lui avait rendu.

L'anthropologue Marcel Mauss (1924), dans son Essai sur le don. Forme et raison de l'échange dans les sociétés archaïques affirme que le don repose sur la triple obligation de « donner, recevoir, et échanger ». Le don fonctionne grâce au pouvoir quasi spirituel qui est propre à l'objet donné, unilatéralement offert dans le cadre d'une relation. Sans la croyance en cette force par les donataires, le don n'existe pas ou ne peut-être perçu comme tel par ceux qui le reçoivent.

Pour l'économiste François Perroux (1965), l'échange peut consister en 69 :

- Don pour donner : Je donne sans contrepartie exigée ou attendue explicitement par le donateur ;

- Pseudo-don » : Je donne pour gagner ultérieurement, dans le cadre d'une offre supposant une obligation de contrepartie, immédiate ou différée, sous forme de dette ou de prestation.

Le savoir et l'information, au cœur des concepts de « société du savoir » ou « société de l'information » que nous avons présenté précédemment, constituent des cas particuliers de par leur nature anti-rivale. Ainsi, comme nous l'avons vu, le détenteur d'un savoir ou d'une information ne la perd pas quand il la partage avec autrui et son coût de transmission est bas, voire négligeable. Cela rend ainsi ce type de biens particulièrement apte aux dons. De plus, la valeur d'une information est difficile à faire mesurer par autrui sans la lui donner, ce qui la rend peu apte au troc et aux échanges.

Analysons maintenant l'opposition entre la culture libre et la culture de la permission. La culture de la permission est un paradigme culturel reposant sur le droit d'auteur, où l'autorisation des titulaires des droits est nécessaire chaque fois qu'une personne souhaite partager ou modifier une œuvre protégée. Cela peut conduire à de graves restrictions exercées sur les créateurs potentiels et à un « bridage » fort de leur créativité, en « coupant le processus créatif » (selon Seemel, 2014).

Analysant la culture de la permission, Lessig (2004) affirme que l'Internet a ouvert la voie à sa

69 BARRE Raymond, Traité d'économie Politique, TII, p.739, Paris, Thémis, 1965.

disparition et, poussée par les gros médias, la loi affecte désormais ce réseau :

Pour la première fois dans notre tradition, les moyens habituels par lesquels les

individus créent et partagent leur culture tombent sous le coup de la réglementation de

la loi, qui a été élargie pour attirer sous son contrôle une grande quantité de la culture et

de la créativité qu'elle n'a jamais atteint auparavant. La technologie qui a préservé

l'équilibre de notre histoire - entre les utilisations de notre culture qui était libre et celles

de notre culture qui étaient seulement sur permission a été annulée.

Le droit d'auteur conduit ainsi, pour Stallman (2012), à une « guerre contre le partage ». Cette

déclaration est partagée par des juristes tels que Maurel ou Lessig. Selon lui, la copie et le partage

est facile, mais ils [les titulaires de droits] veulent que les gens arrêtent de le faire, en proposant de

nombreuses méthodes restrictives telles que les DRM et les procès. Cela constitue, selon lui, un

pouvoir horizontal et centralisé injuste. Le partage doit ainsi doit être légalisé pour mettre fin à cette

guerre.

Davis Guggenheim, réalisateur, déclare ainsi pour illustrer les conséquences de la culture de la

permission sur la création :

Je voudrais dire à une personne de 18 ans : vous êtes totalement libre de faire ce que

vous voulez. Mais, et puis je lui donnerais une longue liste de toutes les choses qu'il ne

pourrait pas inclure dans son film parce qu'il ne serait pas légalement autorisé. Qu'il

aurait à payer pour elles. Donc, la liberté ? Voici la liberté : Vous êtes totalement libre de

faire un film dans une salle vide, avec vos deux amis.

2.8.4.2. De la nécessité de l’anonymat et de la vie privée pour favoriser la proposition de nouvelles idées et lutter contre la polarisation des attitudes

La possibilité de s’exprimer et de proposer de nouvelles idées de manière anonyme est nécessaire

pour favoriser l'expression de la créativité, et par extension l’innovation. Sans l’imposer, il est

indispensable que les acteurs territoriaux puissent proposer de nouvelles idées sans dévoiler leur

identité. Ceci est très important pour éviter que la peur (qui génère l’auto-censure), liée à la prise de

position personnelle (s’engager fait nécessairement prendre des « risques »), du jugement des autres

ou de la remise en cause de l’existant qui pourrait engendrer l’exclusion sociale, ne vienne brider

les pensées. Les chances d''un territoire d’imaginer d’autres futurs et remettre en cause sa « réalité

sociale » en seraient ainsi diminuées. Les acteurs territoriaux doivent ainsi avoir la possibilité de

s’isoler et de disposer d’une réelle intimité dans le cadre de leurs réflexions concernant l’avenir
s’isoler et de disposer d’une réelle intimité dans le cadre de leurs réflexions concernant l’avenir de
leur groupe ou territoire. Un individu peut ainsi avoir besoin de se retirer momentanément d’un
environnement social pour produire des réflexions et des pensées qui ne soient pas influencées
consciemment
ou
inconsciemment
par celui-ci. Selon
les
études
menées
notamment
par
Zajonc
sur
la
facilitation
sociale 70 ,
drive
la
simple
présence d'autres personnes 71
génère
chez
un
individu
un
stimulus
(aussi appelé «
») qui a pour particularité d’induire chez lui un sur-investissement dans ses
actions.
Ce
stimulus
peut
être
bénéfique
dans
le
cadre
de
comportements
«
dominants
»,
c’est-à-dire

les plus fréquents ou probables. Cependant, il peut aussi brider ses facultés intellectuelles et

») et ainsi

inhiber ses capacités intellectuelles et imaginatives. Il est donc indispensable de permettre aux individus de produire de nouvelles idées et actions de manière anonyme pour favoriser leur désinhibition et les amener à adopter de nouveaux comportements n’allant pas forcément dans le

réflexives, par la pression consciente subie par l’individu (appelée «

la pression consciente subie par l’individu (appelée « drive secondaire que la des ». sens anonyme

drive secondaire

que la
que
la

des

».
».

sens

anonyme permet d’éviter deux écueils

individuelles (

son

«

dominants

).

Libaert

et à la
et
à la

d’Almeida (2009) rajoutent

manière

: celui du filtre de l’encadrement et celui des craintes

proposition

d’idées

de

Ils rajoutent que «

par

un

la direction (

de

)

escompte via ce travail une amélioration de

chaque

salarié

».

fonctionnement

créativité

recours

problème

donné peut lui donner une meilleure capacité d’analyse de la situation en étant plus à même de porter un jugement critique et réflexif sur celle-ci. C’est pourquoi un individu qui évolue en permanence sous la pression sociale via le regard des autres ne peut véritablement produire des idées « personnelles », car soumis à un conflit et une pression intérieure résultant de cette sensation constante de jugement en provenance du groupe.

De

plus,

le

fait

qu’un

individu

puisse

s’extraire

De plus, le fait qu’un individu puisse s’extraire momentanément d’une situation d’un ou Donner la

momentanément

d’une

situation

d’un

ou

Donner la possibilité de s’isoler et de produire des réflexions et décisions individuelles et intimes (et non soumises en permanence à la pression sociale et l’effet de groupe) permet également de lutter contre le phénomène de polarisation des attitudes. Ce concept étudié par Doise, Moscovici et Zavalloni met en évidence que les individus sont plus susceptibles d’adopter en groupe des positions plus extrêmes que celles qu’ils adoptent de manière individuelle. Ainsi, le groupe produit un effet sur l’individu l’amenant à radicaliser sa propre attitude après interaction et prise de décision

70 Étudiée initialement par Triplett. Selon lui, « autrui apparaît comme un élément facilitateur et stimule la performance

individuelle ».

71

tâche que le sujet donc actifs).

Qu’elles soient en état d’« audience » (simples spectateurs donc passifs) ou de « coaction » (effectuent la même

avec les autres membres.

Doise et Moscovici soulignent que l’effet de polarisation du groupe « s’effectue vers la norme, le Zeitgeist (esprit du temps) de la culture ou de la société dans laquelle les membres évoluent ». Ceux-ci seront plus susceptibles d’adopter, après consensus (discussion et décision collective) une attitude plus extrême allant dans le sens des cognitions partagées par le groupe (par exemple, si le groupe possédait un point de vue négatif sur un sujet donné, alors celui-ci adoptera plus facilement après consensus une attitude encore plus négative à son égard). L’individu, en situation de postconsensus (nouveau jugement individuel) sera lui aussi plus susceptible de radicaliser son attitude de manière négative à l’égard du sujet. Il est donc fondamental d’encourager au sein des groupes et des territoires créatifs les différences d’opinion et de croyances, afin de limiter contre ce phénomène naturel de radicalisation attitudinale collective.

La difficulté majeure pour les territoires réside ainsi dans le fait de trouver un bon compromis entre valeurs, culture collective, buts supra-ordonnés (nécessaires à la cohésion sociale) et culture de la diversité idéologique et cognitive indispensable à l’intelligence collective, la créativité et l’innovation. Il est nécessaire que les individus puissent produire leurs propres réflexions, indépendantes de toute influence sociale (consciente ou inconsciente), afin de les amener à soutenir plus facilement et « sincèrement » les discours ou idées proposés par d’autres, qui s’accorderaient avec leurs propres convictions personnelles « intimes » en dépit de celles collectivement partagées. Ainsi, comme le souligne Moscovici, dans le processus d’innovation une partie de la majorité est sensible aux arguments d’un individu seul ou d’une minorité, soit parce que le discours correspond à celui auquel elle a pu penser en privé, soit parce que celui-ci chahute les convictions existantes, soit parce qu’elle est attirée par ceux qui osent braver les idées en place. La solidarité et la collaboration entre les individus doit donc toujours s’effectuer dans le respect du besoin naturel d’intimité de chacun. Nous allons maintenant analyser une philosophie ancrée dans le paradigme du Libre et du réseau internet centrée sur la protection de la vie privée des individus pour favoriser leur expression créative : la philosophie Cypherpunk.

2.8.5. La philosophie cypherpunk

La philosophie est intrinsèquement liée à celle du librisme. Eric Hughes (1993) définit les idées de

base la composant dans A Cypherpunk's Manifesto :

- La vie privée est nécessaire pour une société ouverte dans l'ère électronique ;

- Nous ne pouvons pas attendre des gouvernements, des entreprises, des multinationales ou d'autres organisations sans visage qu'ils protègent notre vie privée ;

- Nous devons défendre notre propre vie privée si nous voulons en avoir une ;

- Les cypherpunks écrivent du code. Nous savons que quelqu'un doit écrire des programmes informatiques pour défendre notre vie privée, et… nous allons le faire ;

Selon Assange (2013), ce mouvement couvre de nombreux domaines, de la réforme du droit d'auteur au partage de l'information : « Les cypherpunks pensaient la plupart de ces problèmes dans les années 1990 par la fixation tôt d'un objectif visant à empêcher les États de surveiller les communications entre les individus. A cette époque, le mouvement était encore à ses balbutiements et ne semblait guère significatif. Aujourd'hui, l'internet a fusionné avec notre société, au point de devenir son système nerveux. Ce mouvement est pris très au sérieux. » Pour Hughes (1993), le « punk » du terme indique une attitude : « Nous ne nous préoccupons pas beaucoup de savoir si vous n'êtes pas d'accord avec les logiciels que nous écrivons. Nous savons que le logiciel ne peut pas être détruit et qu'un système largement dispersé ne peut pas être fermé 72 . »

2.8.5.1. Le chiffrement et la vie privée au cœur de la philosophie Cypherpunk

Le chiffrement des communications constitue, pour les Cypherpunks, une nécessité pour préserver la vie privée et l'exercice de la liberté des individus. Pour Assange (2012),

Un algorithme mathématique bien défini peut chiffrer quelque chose rapidement, mais

pour le décrypter cela prendrait des milliards d'années - ou des trillions de dollars d'électricité pour faire fonctionner l'ordinateur. La cryptographie constitue ainsi

Il n'y a pas

l'élément essentiel de l'indépendance pour les organisations Internet (

d'autre moyen pour que notre vie intellectuelle puisse accéder à l'indépendance adéquate des gardes de sécurité du monde, les gens qui contrôlent la réalité physique. 73

).

72 Source : http://www.activism.net/cypherpunk/manifesto.html (consulté le 13 juin 2015).

juin 2015).

Les Cypherpunks défendent également vigoureusement l'utilisation des technologies libres, car elles sont les seules en qui nous pouvons réellement faire confiance, grâce à leur vérification possible par n'importe qui et à tout moment. Zimmermann (2014) souligne que les mathématiques (nécessaires pour développer des algorithmes de chiffrement) possèdent les caractéristiques d'un bien commun, car aucun droit d'auteur ou de marque ne peuvent être déposés sur une quelconque théorie ou langage. Cette particularité, couplée avec le développement de logiciels de chiffrement libres telles que GnuPGP constitue, pour Zimmermann, une « lueur d'espoir » au sein de la société de surveillance globalisée. 74

Nous soulignerons le fait que la philosophie Cypherpunk partage de solides liens avec la philosophie du Libre et celle du hacking. Ainsi, l'un de ses principes de base est de comprendre comment le réseau fonctionne et quelles sont ses faiblesses afin d'optimiser la protection des données personnelles des individus. 75 Sa principale attitude est également basée sur la désobéissance aux règles officielles et sur la création en tant que forme d'expression et de protestation.

Selon Okhin (2012), le chiffrement est nécessaire car il constitue la seule façon de garantir des communications sécurisées en garantissant que seul l'émetteur et le récepteur puissent ouvrir un message et savoir qu'il en constitue un (au lieu de nombres aléatoires observés par une personne externe, qui n'a pas la possibilité de l'interpréter de façon significative). Il souligne ainsi la nécessité de chiffrer les communications et d'utiliser des protocoles ouverts et documentés (i.e., des technologies et standards libres) afin d'être sûrs de ce que les programmes que nous utilisons peuvent faire. Il donne ensuite des exemples clairs soulignant la nécessité fondamentale de chiffrer afin de protéger la vie privée des individus : de nombreux dissidents politiques de pays comme la Syrie ont été arrêtés par les autorités après avoir utilisé des logiciels fermés / privateurs tels que Skype pour communiquer avec des journalistes étrangers. La seule façon dont nous pouvons faire confiance à un programme est donc de savoir clairement ce qu'il est et ce qu'il peut faire. Seul un logiciel libre peut garantir cette possibilité.

Zimmermann souligne également l'importance du chiffrement pour la liberté d'expression et l'exercice du hacking. Le niveau d'intimité accordée par son utilisation peut donc favoriser les

tout-debut-de-laffaire-snowden (consulté le 14 juin 2015).

75 Source: http://owni.fr/2012/03/04/hackers-forment-journalistes/ (consulté le 14 juin 2015).

expérimentations désinhibées des individus au sein du cyberespace, et atténuer les influences sociales susceptibles de brider et conditionner leurs comportements. Il donne l'exemple d'un musicien débutant, qui n'oserait pas expérimenter de nouveaux morceaux s'il se sentait surveillé, car ayant peur de faire des erreurs devant d'autres personnes. Le fait de se sentir isolé peut ainsi lui permettre d'expérimenter sans peur et développer de potentiels nouveaux chefs d’œuvre issus de ce processus initial d'apprentissage créatif basé sur l'essai et l'erreur. En outre, l'utilisation du chiffrement peut également permettre aux individus de perturber / court-circuiter le modèle économique du système numérique basé sur la « soumission librement consentie » envers la production de données personnelles (par exemple, les métadonnées et autres traces numérique laissées inconsciemment), conformément au paradigme économique de la « donnée comme valeur ». Il peut donc diminuer le risque de contrôle abusif potentiel sur ses activités et expériences en ligne par des entités privées ou des gouvernements. Le chiffrement constitue donc une réelle nécessité pour les individus afin qu'ils puissent exercer véritablement leur liberté en ligne et libérer leur créativité, via une expression désinhibée dans le cyberespace nécessitant pour être optimale un réseau internet neutre.

2.8.5.2. Le Datalove

Le Datalove est un concept défini par Telecomix. Voici la définition que le collectif donne 76 :

Le Datalove est l'amour de la communication. Peu importe quel genre de communication. « Laissez les données circuler » ne constitue rien d'autre que « Maintenez en vie la communication ».

Le Datalove est tellement excitant ! Il traite de la disponibilité des données. Ce que les gens font avec elle n'est pas la question. Le point est : Les gens ont besoin de données. Besoin de les obtenir. Besoin de les donner. Besoin de les partager. Besoin de faire des choses avec elles, par ce moyen.

Le Datalove consiste à se préoccuper de ce qui rend les choses possibles. Après cela - voici venir les difficultés. Et les possibilités. Le Datalove embrasse l'incertain.

Malheureusement, les vieilles fausses idées et les intérêts rivalisants existent et cherchent à entraver le flux de communication, et donc le datalove.

76 Source : http://datalove.me/about.html (consulté le 15 juin 2015).

Le Datalove a trait à la satisfaction d'être en mesure de comprendre, de percevoir et traiter des données ensemble pour le plaisir et le progrès de tous les êtres sensibles.

Le Datalove crée la paix et la connaissance qui a jusqu'à présent été entravée par l'obstruction de la communication. Le Datalove est la liberté en pratique.

Le Datalove induit la liberté et aucune restriction (donc pas de discrimination ni censure) des données. Cela signifie dans le monde numérique la circulation libre et non restreinte de l'information et de la communication, quelle que soit leur nature.

Le collectif souligne ainsi le credo du Datalove :

Les données ne sont ni bonnes ni mauvaises.

Il n'y a pas de données illégales

Les données sont libres

Les données ne peuvent pas être appropriées

Aucun homme, machine ou système ne doivent interrompre le flux de données

Le verrouillage des données est un crime contre le datanity

Aimez les données

Zimmermann (2014) stipule que le datalove pourrait être défini comme « l'amour pour le réseau » et son caractère universel. Telecomix souligne que ce concept met l'accent sur l'importance de respecter la nature intrinsèque neutre et anarchique d'Internet, conformément à sa conception initiale. Il affirme ainsi que

C'est un concept stimulé par les données. Il a trait au flux de données qui est libéré dans la nature sauvage du réseau. Si les données de toute nature sont exposées sur Internet, elles doivent être traitées de manière égale à partir de ce moment. Si certaines données

sont censées être privées, elles ne devraient pas atteindre l'Internet en premier lieu. Il n'y

a aucune fonction de suppression dans l'Internet. Cela ne peut pas être modifié. Cela n'a

rien à voir avec le datalove.

est d'être un support neutre au lieu de juger et

sélectionner les données en question. Certains d'entre nous à un niveau individuel peuvent ne pas aimer un type particulier d'informations, de médias ou d'idées, mais ils comprennent le fait que la restriction de la circulation de tout morceau de données mène inévitablement à la restriction de la circulation de tout cela 77 . Ils soulignent également un problème majeur induit par l'application de la propriété intellectuelle dans le cyberespace : « il est également important de comprendre que la « propriété intellectuelle » est un concept illégitime et immoral. Parler de la propriété intellectuelle est une tentative de forcer une substance intrinsèquement acorporelle (les données) à se comporter et être contrôlées à la manière des objets physiques. Cela ne peut pas fonctionner, et chaque fois que cela est tenté, la répression et le fascisme sont les résultats logiques et tout à fait prévisibles Dans un monde de datalove, ceci est inacceptable ».

Selon Telecomix, « Un principe important (

)

Bayart (2013) met l'accent sur le devoir pour un fournisseur d'accès Internet de respecter cette neutralité du net:

La légalité du contenu ne doit pas être traitée sur le réseau, car cela est trop dangereux. Car cela conduit à des solutions de police automatisée, car elle conduit inévitablement à des abus de pouvoir. Parceque cela constitue la porte d'entrée vers l'inversion de la charge de la preuve. Enfin, parce que cela reconsidère la liberté d'expression.

Il ajoute que la valeur de l'information en passant par les tuyaux est énorme, comme en témoigne la capitalisation actuelle de Google, Facebook ou Apple. La tentation est donc grande pour tous ceux qui possèdent ces tuyaux de jeter un œil à ce qui se passe. Ou prioriser des contenus particuliers contre rémunération. 78

Jérémie Zimmermann (2014), qui a contribué à l'élaboration des principes du datalove, préfère parler d' « universalité du net » au lieu de « neutralité », car ce mot est plus significatif pour les individus. Ainsi, il définit l'universalité du net comme étant la même potentialité d'accès et de participation au réseau Internet. Si la neutralité du réseau (point de vue technique) est préservée, alors tout le monde peut potentiellement accéder aux contenus en ligne (à moins que la censure soit

77 Cette analyse est importante à prendre en compte dans la circulation des signes transposables dans le cyberespace, « remodelant » un territoire physique sur la toile (voir les analyses de Le Bechec et Bouillier, 2013 que nous analyserons prochainement). 78 Source: http://www.bastamag.net/Jetez-votre-box-connectez-vous-a-l (consulté le 05 juin 2015).

appliquée en raison de la violation au droit d'auteur) et en produire de nouveaux, i.e., pour enrichir les processus collectifs créatifs et inventifs et des biens communs de la connaissance tels que Wikipedia.

Il ajoute que le devoir des hackers est de préserver l'Internet comme un bien commun, par l'intermédiaire de la défense de cette universalité du net et des principes du datalove.

La philosophie du datalove souligne ainsi les questions fondamentales inhérentes au réseau Internet et son évolution :

- La nécessité d'un réseau Internet neutre / universel, et les dangers de sa violation par la discrimination des données en ligne en faveur d'autres ;

- Les questions de propriété intellectuelle que nous avons analysés susceptibles de menacer la nature commune du réseau (couche code) et l'exercice de la censure dans le cyberespace (couche contenu).

La philosophie Cypherpunk défend ainsi des concepts qui sont fondamentaux pour l'exercice de la liberté et de la créativité dans le cyberespace. La vie privée et la même potentialité d'accès et de participation à l'élaboration d'un bien commun universel sont donc nécessaires pour l'optimisation des processus d'intelligence collective ouvert et décentralisé. En résumé, nous résumerons le « combat » de ce mouvement à la défense et la protection du droit fondamental de « lecture et écriture » anonyme dans le monde digital, par le recours à des moyens techniques libres.

2.8.6. Les outils juridiques pour favoriser la créativité et l'innovation

Considérant cette menace sérieuse pour l'avenir de la créativité et de l'innovation, Lessig a co-fondé en 2004, avec Elric Eldred, les licences Creative Commons. Selon le site Internet officiel 79 , les Creative Commons permettent le partage et l'utilisation de la créativité et des connaissances grâce à des outils juridiques libres.

Les licences de droit d'auteur libres et faciles à utiliser offrent un moyen simple et standardisé pour donner la permission publique de partager et d'utiliser le travail créatif - selon les conditions de votre choix. Les licences CC vous permettent de modifier facilement vos termes de droit d'auteur à partir de la valeur par défaut du « tout droits réservés » à « certains droits réservés ».

79 Source : http://creativecommons.org/about (consulté le 06 juin 2015).

L'organisation explicite cependant le fait que leurs licences ne constituent pas une alternative au droit d'auteur : elles travaillent aux côtés des créateurs et permettent de modifier leurs conditions d'utilisation de leurs œuvres, pour mieux répondre à leurs besoins. Elle rajoute que ces licences s'ancrent dans l'utopie concrète offerte par internet : « Nous aidons à réaliser le plein potentiel d'Internet – l'accès universel à la recherche et à l'éducation, la pleine participation à la culture – afin de conduire une nouvelle ère de croissance, de développement, et de productivité. »

Les licences Creative Commons n'ont ainsi pas pour but de reconsidérer fondamentalement celui-ci, mais plutôt de le « hacker » afin de proposer des outils complémentaires nécessaires pour autonomiser les créateurs et stimuler leur créativité et l'innovation tout en soutenant « l'avenir des idées. » Il tente ainsi de développer un nouveau type d'économie « hybride », où les droits d'auteur et le copyleft cohabitent harmonieusement. Lessig affirme, à propos de la culture libre :

La culture libre que je défends est un équilibre entre l'anarchie et le contrôle. Une culture libre, comme un marché libre, est constitué de propriétés. Il est rempli avec des règles de propriété et de contrat que doit faire respecter l'état. Mais tout comme un marché libre est perverti quand sa propriété devient féodale, une culture libre peut aussi être dévoyée par un extrémisme des droits de propriété qui la définissent.

La culture libre, basée sur des licences légales libres accordant les quatre libertés fondamentales, vise donc à capaciter les individus et « veille à ce que toute personne soit capable de créer sans restrictions du passé » (Lessig, 2004). Le mouvement de la culture libre, ainsi que la philosophie du logiciel libre, visent ainsi tous deux à « hacker » la propriété intellectuelle afin de donner plus de liberté aux individus afin de favoriser leur expression créative et inventive.

2.8 .7 . Le développement et la préservation des biens communs comme nécessité pour un territoire créatif

Benni Bärman souligne la nature universelle des biens communs :

Les biens communs plairont aux conservateurs par leur dimension de préservation et de communauté, aux libéraux par la mise à distance de l’État et l’absence d’incompatibilité avec le marché, aux anarchistes par la mise en avant de l’auto-organisation, et aux socialistes et communistes par l’idée de propriété commune sous contrôle collectif.

Serge Latouche analyse le concept de décroissance. Selon lui, les mouvements liés à la décroissance visent à « décoloniser l'imaginaire ». Cette analyse enrichit notre réflexion concernant ce phénomène de colonisation, qui structure le cœur de notre modèle d'intelligence imaginieriale. Selon lui, la décroissance pourrait s'organiser autour de trois niveaux :

- La simplicité volontaire : Ce premier stade va bien au-delà du discours des « petits gestes » qui sauvent la planète. Il est ici question de sortir de la sphère de la consommation. L'objectif est de vivre frugalement et de manière autonome par la récupération et l'autoproduction. On retrouve là encore des connexions avec les mouvements émergents citoyens basés sur le DIY. Ce changement doit, selon Latouche, intervenir maintenant et ne plus attendre le grand soir tant espéré ou annoncé par les rébellions passées ;

- Les expérimentations collectives : Le premier niveau atteint, il s'agit de le transposer à l'ensemble de la société et de rendre aux usagers la maîtrise de l'action. On peut citer par exemple le projet Cyclane, débuté en 2005, lancé afin de créer des lieux de vie sans voiture. Ce projet est présenté comme solution pour développer des économies de proximité et une démocratie locale, comme un laboratoire de la décroissance :

- La constitution d'un projet politique : Ce sujet divise profondément le « milieu » de la décroissance. Une fraction importante refuse ainsi toute participation électorale au nom du refus de la démocratie représentative et des appareils partisans qui lui sont associés, tandis qu'une autre souhaite investir le champ politique et gagner pour faire vaincre leurs idées.

Silke Helfrich (2009), analyse les biens communs en soulignant le fait que

Ce que l’on appelait traditionnellement res communes – les choses qui nous appartiennent en commun – a été sinon oublié, du moins supplanté par les res privatae organisées par le marché, ainsi que par les res publicae mises à disposition par l’État. Elles sont dès lors traitées comme des res nullius, c’est-à-dire des « choses de personne ».

Dyer-Whiteford (2011), à l'origine du concept de « commonisme », souligne que la référence initiale aux « biens communs » provient des terres collectives « enfermées » par le capitalisme dans un processus d'accumulation primitive allant du Moyen Age à nos jours. Ces terres agraires

communes sont toujours un point d'éclair de la lutte dans de nombreux endroits de la planète. Mais aujourd'hui, les communs dénotent également la possibilité la propriété collective et non privée dans d'autres domaines : un bien commun écologique (de l'eau, l'atmosphère, les pêches et les forêts), un bien commun social (de dispositions publiques pour le bien-être, la santé, l'éducation, etc), un bien commun réseau (réseau d'accès aux moyens de communication). Dyer-Whiteford met ainsi en évidence à la fois la différence et l'interrelation/interdépendance des « biens communs sociaux », des « biens communs réseaux » et des « biens communs écologiques », en définissant un modèle micro de circulation des biens communs. Ainsi, une institution de l'éducation publique (bien commun social) produit des logiciels et des réseaux qui sont disponibles pour un collectif ouvert (bien commun en réseau), qui crée des logiciels libres utilisés par une coopérative agricole pour suivre sa consommation d'eau et d'électricité (bien commun écologique).

Helfriech et al. (2009), dans leur ouvrage Biens communs, La prospérité par le partage 80 , défendent le fait que les biens communs sont nécessaires à notre vie économ