Vous êtes sur la page 1sur 25

Communication

La communication est l'action de communiquer, d'tablir une relation avec autrui, de transmettre quelque chose quelqu'un. Elle peut aussi dsigner l'ensemble des moyens et techniques permettant la diffusion d'un message auprs d'une audience plus ou moins vaste et htrogne ou l'action pour quelqu'un ou une organisation d'informer et de promouvoir son activit auprs d'autrui, d'entretenir son image, par tout procd mdiatique. Elle concerne aussi bien l'tre humain (communication interpersonnelle, groupale), l'animal, la plante (communication intra- ou inter- espces) ou la machine (tlcommunications, nouvelles technologies), ainsi que leurs hybrides : homme-animal; hommes-technologies C'est en fait, une science partage par plusieurs disciplines qui ne rpond pas une dfinition unique. Comme le constate Daniel Bougnoux Nulle part ni pour personne n'existe LA communication. Ce terme recouvre trop de pratiques, ncessairement disparates, indfiniment ouvertes et non dnombrables 1. Et si tout le monde s'accorde pour la dfinir minima comme un processus, les points de vue divergent lorsqu'il s'agit de la qualifier. 1. Les Sciences de l'information et de la communication , proposent une approche de la communication centre sur la transmission d'informations. Dans ce cadre, la communication tudie aussi bien l'interaction homme-machine que les processus psychiques de transmission de connaissances (avec l'appui des sciences cognitives). 2. La psychosociologie s'intresse essentiellement la communication interpersonnelle (duelle, triadique ou groupale). La communication -vue comme un systme complexe- concerne tout ce qui se passe lorsque des individus entrent en interaction. Les processus cognitifs, affectifs et inconscients sont pris en compte. Dans cette optique, les informations transmises sont toujours multiples, que la transmission d'informations n'est qu'une partie du processus de communication et que diffrents niveaux de sens circulent simultanment. 3. La psychanalyse traite de la communication intra-psychique.
Sommaire
[masquer]

1 tymologie 2 Principaux Domaines de la communication

o o o

2.1 La Communication inter-personnelle 2.2 La Communication de groupe 2.3 La Communication de masse

3 Concept de communication

o o o o o o

3.1 Un besoin d'identit 3.2 Un besoin de souverainet 3.3 Une dynamique des territoires 3.4 Le besoin d'une langue 3.5 Une mise en rseau avec les outils de tlcommunication 3.6 Un message transmettre

4 Les sciences de l'information et de la communication

o o o

4.1 La distinction entre l'information et la communication 4.2 La distinction entre communication verbale et communication non verbale 4.3 Les contextes de communication

4.3.1 Les rseaux 4.3.2 La temporalit 4.3.3 La localisation 4.3.4 Le code 4.3.5 La transmission 4.3.6 Le protocole de communication 4.3.7 La rtroaction

5 Modles de communication

o o o o o o

5.1 Modle de Shannon et Weaver 5.2 Modle de Lasswell 5.3 Modle de Jakobson 5.4 Modle de Gerbner 5.5 Modle de Newcomb 5.6 Modle de Matilda et John Riley

6 Notes et rfrences 7 Voir aussi

o o o

7.1 Outil de recherche 7.2 Articles connexes 7.3 Bibliographie

tymologie[modifier]
En franais (Oresme en 13612), le terme signifie d'abord mettre en commun, puis tre en relation avec. Communication provient de la mme racine latine qui a donn commun (communis), communiquer (communicare, au sens d'tre en relation avec, s'associer, partager ), et communication communicatio (le fait d'tre en relation avec).

Principaux Domaines de la communication[modifier]


Entre humains, la pratique de la communication est indissociable de la vie en socit. La science de la communication - en tant qu'tude de cette pratique - englobe un champ trs vaste que l'on peut diviser en plusieurs niveaux :

La Communication inter-personnelle[modifier]
Article dtaill : Communication interpersonnelle.

Communication du type metteur - message - receveur

Cette forme de communication n'a t formalise qu'aux cours des deux derniers sicles. La communication interpersonnelle est fonde sur l'change de personne personne, chacune tant tour de rle l'metteur et/ou le rcepteur dans une relation de face face : la rtroaction est cense tre facilite sinon quasi-systmatique. On dit parfois que la communication est holistique , c'est--dire qu'elle fait intervenir le tout de l'homme (communication verbale et non verbale), ainsi que l'environnement (possibilit d'interfrences environnementales dans la communication). Pour l'cole de Palo Alto, la communication est fondamentale et essentielle pour l'homme : on ne peut pas ne pas communiquer . Que l'on se taise ou que l'on parle, tout est communication. Nos gestes, notre posture, nos mimiques, notre faon d'tre, notre faon de dire, notre faon de ne pas dire, toutes ces choses parlent notre rcepteur. La communication est aussi une forme de manipulation. Quand bien mme notre intention premire voire dlibre n'est pas de manipuler, nous communiquons souvent dans l'intention d'influencer ou de modifier l'environnement ou le comportement d'autrui.

La Communication de groupe[modifier]
La communication de groupe part de plus d'un metteur s'adressant une catgorie d'individus bien dfinis, par un message (communication) cibl sur leur comprhension et leur culture propre. C'est celle qui est apparue avec les formes modernes de culture, souvent axes sur la culture de masse (socit de consommation), dont la publicit cible est la plus rcente et la plus manifeste. Les effets de la communication de groupe se situent entre ceux de la communication interpersonnelle et ceux de la communication de masse. La communication de groupe est aussi complexe et multiple car elle est lie la taille du groupe, la fonction du groupe et la personnalit des membres qui le compose. On peut galement intgrer cette notion dans la communication interne une entit. Les groupes peuvent alors tre des catgories de personnels, des individus au sein d'un mme service, etc. On peut aussi intgrer cette notion une communication externe cible vers certains partenaires ou parties prenantes de l'entit.

La Communication de masse[modifier]
Article dtaill : Communication de masse.

Dans la communication de masse, un metteur (communication) (ou un ensemble d'metteurs lis entre eux) s'adresse un ensemble de rcepteur (communication) disponibles plus ou moins bien

cibls. L, la comprhension est considre comme la moins bonne, car le bruit est fort, mais les rcepteurs bien plus nombreux. Elle dispose rarement d'une rtroaction, ou alors trs lente (on a vu des campagnes juges agaantes par des consommateurs, couches pour bb par exemple, conduire des baisses de ventes du produit vant). Ce type de communication merge avec : la massification des socits : production, consommation, distribution dites de masse , la hausse du pouvoir d'achat, la gnralisation de la vente en libre-service, l'intrusion entre le producteur et le consommateur de professionnels et d'enseignes de distribution, les mdias de masse ou MassMedia dont la radio et la tlvision. L'absence de rponse possible en fait un outil idal de la Propagande, ce que souligne plusieurs reprises Georges Bernanos.

Aujourd'hui, les NTIC et en particulier Internet abaissent un niveau sans prcdent le cot de communication et au surplus rendent la rtroaction possible. En France, l'tat lie significativement Culture et Communication en les confiant un mme ministre. Psychologie des foules (1895) du psychopathologue Gustave Le Bon est un ouvrage considr comme fondateur de la notion de masse , bien qu'il soit contestable sur son contenu et son objectivit. La persuasion clandestine , ouvrage de Vance Packard, montre ce sujet que la science de la manipulation tait dj bien avance en 1957. Retour au meilleur des mondes d'Aldous Huxleyva dans le mme sens.

Concept de communication[modifier]
Un besoin d'identit[modifier]
L'image que nous donnons doit tre confirme par autrui. Le fait que le rle, le statut et la place des acteurs soient bien identifis permet aux interlocuteurs de se reconnatre dans une position sociale, d'viter les malentendus, les conflits, et d'assurer la crdibilit. L'identit situationnelle du locuteur est reprable dans l'nonciation. Pour une entreprise, l'image de marque correspond l'identit de l'entreprise perue par ses parties prenantes. Toute atteinte l'image de marque est un risque de rputation, prjudiciable la bonne marche de l'entreprise, sa crdibilit et la confiance que lui accordent ses clients.

Un besoin de souverainet[modifier]
Une communication habile peut faciliter les processus d'influence, lgaux ou non. Le phnomne de dveloppement des ONG dans le contexte de mondialisation est rvlateur cet gard. La souverainet et l'indpendance des tats peut tre menace par la prolifration de messages non contrls en source ouverte. La communication est une composante essentielle de la diplomatie et de l'exercice de la souverainet d'un tat. Lorsqu'un chef d'tat ou un reprsentant d'un gouvernement s'exprime lors d'une runion internationale, d'un sommet de la Terre, d'une confrence internationale sur un sujet d'intrt mondial (commerce international, gestion de l'eau, sant, biodiversit), la communication est essentielle sur le plan de la perception de l'autorit.

L'utilisation du franais ou de l'anglais est notamment un enjeu quotidien au sein de la relation Qubec-Canada. De plus, il est souvent reconnu que l'influence culturelle et conomique d'un pays se peroit par l'influence et l'utilisation de sa langue. On notera donc l'influence forte de l'anglais et du chinois actuellement. Mais au temps de Louis XIV, la langue de la diplomatie et de la noblesse tait le franais.

Une dynamique des territoires[modifier]


L'espace physique et psychique (intime) doit tre protg. Dans toute organisation, chacun dfend son espace et vite les intrusions injustifies. Dans la vie conomique territoriale, pour l'organisation de ples de comptence par exemple, la communication s'tablit entre des organisations trs diffrentes : services dconcentrs des tats en rgions (Lnder), conseils rgionaux, directions rgionales de groupes industriels, petites et moyennes entreprises, chambres de commerce et d'industrie, universits et grandes coles, centre d'tudes et de recherches. Afin de se comprendre avec toutes les prcisions du langage, il est souvent prfrable, au niveau rgional ou local en tous cas, d'utiliser la langue maternelle, quitte employer une langue vhiculaire lors des sjours internationaux.

Le besoin d'une langue[modifier]


On a vu au cours de l'Histoire, l'importance que prit la langue dans la communication. Les traductions en plusieurs langues vernaculaires du Livre des merveilles du monde de Jean de Mandeville eurent e e un impact considrable au XV et au X sicle sur les explorateurs (notamment Christophe Colomb), peut-tre davantage que le Devisement du monde qui relatait les voyages de Marco Polo. L'dit de er Villers-Cotterts (Franois I , 1539) permit au souverain de diffuser les actes administratifs et juridiques dans une nouvelle langue officielle de communication. On a vu aussi l'impact considrable qu'eurent, au XVII sicle, certaines uvres crites en franais, dans des domaines qui restaient encore rservs au latin : l'Utopia de Thomas More, le Discours de la e e mthode de Descartes (1637), les Provinciales de Pascal (1656). Au XVIII et XIX sicles, la Bible de e Sacy eut un impact considrable sur la littrature. Au XVIII sicle, les cours europennes communiquaient en franais. L'anglais aujourd'hui est largement employ pour la communication dans de nombreux domaines (informatique, affaires, sciences essentiellement). Les langues ont des statuts de communication trs diffrents : les six langues officielles des Nations unies sont l'anglais, l'espagnol, le franais, le russe, l'arabe et le chinois. Nanmoins, les langues maternelles restent les langues de communication localement, en particulier en Europe, qui a dfini une politique sur ce point. Les langues ne sont pas forcment parles. Elles peuvent aussi tre gestuelles. La Langue des signes franaise permet par exemple de communiquer entre et avec les malentendants et les nonentendant. C'est une langue part entire, et qui connat sa propre volution. Au Qubec il s'agit de la langue des signes qubcoise. Se rfrer la Langue des signes, au Braille et la Convention relative aux droits des personnes handicapes (article 2).
e

Une mise en rseau avec les outils de tlcommunication[modifier]


La communication est le passage oblig pour entrer en relation avec autrui. ce stade, il faut noter l'importance des moyens de tlcommunication bass sur des techniques optiques, lectriques et lectroniques. Au fur et mesure de l'apparition de ce dernier type de mdias depuis le XIX sicle, et l'exception du tlgraphe lectrique ( partir de1838) et du tlphone (rseau lmentaire metteur-rcepteur), les mdias fonds sur les techniques lectroniques (radiodiffusion,tlvision), employs depuis la Seconde Guerre mondiale, n'offraient pas de possibilits de rtroaction importantes. Avec les dernires gnrations d'outils de tlcommunications lectroniques, la rtroaction devient plus aise, et les messages se sont beaucoup enrichis (documents, images). Les messageries lectroniques, l'internet permettent d'atteindre des groupes de personnes, et de faire une vritable communication de groupe.
e

Un message transmettre[modifier]
Les aspects techniques de la communication doivent cacher l'essentiel : la communication a pour objectif de faire passer un message. L'avnement de l'internet depuis les annes 1960 a suscit diverses tudes de la part de philosophes et de sociologues. Parmi ces tudes, on retiendra celles de Pierre Musso et de Philippe Breton, qui, sous des arguments un peu diffrents, portent le mme diagnostic : la communication a tendance tre instrumentalise par les outils de tlcommunication et les technologies de l'information. L'ide est qu'il existe une croyance selon laquelle on communique bien parce que l'on dispose de moyens techniques sophistiqus (dernire version du logiciel, mobile, ). Pierre Musso note que cette croyance serait fonde sur la philosophie des rseaux, sorte de pseudo-"religion" qui serait la rsurgence de la philosophie de Saint-Simon (voir Claude Henri de Rouvroy, comte de Saint-Simon), fonde sur le principe de gravitation universelle. En ralit, sur le fond, la communication cherche bien rpondre l'un des objectifs suivants : faire passer une information, une connaissance, ou une motion ; crer une norme commune pour se comprendre ; crer une relation pour dialoguer frquemment, ou relancer le dialogue ; obtenir une influence pour inciter l'autre agir selon sa volont ; donner son identit, sa personnalit au tiers, pour tre connu.

On parle alors d'enjeux de la communication. Ces enjeux sont lis aux diffrentes fonctions du message (voir les concepts de Roman Jakobson). On voit qu'une communication trop axe sur des moyens techniques peut faire oublier les risques inhrents la communication.

Les sciences de l'information et de la communication[modifier]


Article dtaill : Sciences de l'information et de la communication.

Concernant la communication en tant que science, certaines notions ont t dgages par les diffrents modles de communication explicits plus bas. Durant les annes 1980, S.H. Chaffee et C.R. Berger proposrent une dfinition gnraliste qui reste de nos jours une base connue des sciences de la communication : "La science de la communication

cherche comprendre la production, le traitement et les effets des symboles et des systmes de signes par des thories analysables, contenant des gnralisations lgitimes permettant d'expliquer les phnomnes associs la production, aux traitements et aux effets." (traduit de l'anglais)

La distinction entre l'information et la communication[modifier]


Pour le chercheur Dominique Wolton, spcialiste de la communication3, la "croissance de l'information et sa multiplication, comme l'htrognit des rcepteurs rendent finalement visible cette dissociation entre information et communication". Pendant des sicles la raret de l'information, et la difficult de sa transmission taient telles "que l'on croyait de bonne foi que l'information crait de la communication", explique-t-il. Inversement, dans un message reliant deux tres humains, l'information n'est qu'une toute petite partie de la communication, d'o la frquence des malentendus 4, selon Irne Lautier, directrice de la Facult des Sciences du sport de l'Universit Lille II. Finalement, malgr son dveloppement, "non seulement la communication ne rapproche pas forcment des points de vue, mais elle peut mme amplifier l'incommunication", observe Dominique Wolton, selon qui le mot "information" fut "d'abord li une revendication politique : la libert d'information comme condition de la dmocratie et le complment de la libert de conscience" puis "le symbole de la presse" et du "droit de savoir ce qu'il se passe", avant d'tre repris dans l'informatique, pour parler de "systme d'information"5 d'une entreprise. Le dveloppement d'Internet a encore modifi la donne, avec l'explosion des communications sous forme de blogs et de mailing, o la part d'information vrifie et codifie fut ds le dpart trs modeste et beaucoup plus faible que dans les "systmes d'information" des entreprises. Cette masse croissance de communication a suscit une demande de journalisme plus indpendant, capable de la trier, recouper, hirarchiser, pour transformer de simples metteurs de message en sources d'information, en allant jusqu' assurer la protection de l'anonymat quand c'est ncessaire, afin de rtablir une relative hirarchie entre les diffrents metteurs de message, base plus sur la comptence et la fiabilit que sur la puissance et la motivation. La protection des sources d'information des journalistes permet par ailleurs de vrifier auprs des institutions et entreprises que la communication affiche l'extrieur par le porte-parole officiel correspond bien la ralit vcue l'intrieur.

La distinction entre communication verbale et communication non verbale[modifier]


Une communication verbale est faite de signes linguistiques. Ces signes confrent un corpus appel langue, ou plus gnralement langage, mais les linguistes viennent distinguer langue et langage. L'criture, la langue des signes, la voix sont des mdias, des moyens de communiquer. L'art de conceptualiser ce message dans un langage afin de minimiser les interfrences est appel la rhtorique. Aristote et Cicron taient des thoriciens de rhtorique, qui devint l'un des sept arts libraux dans le haut Moyen ge. Est dite non verbale une communication base sur la comprhension implicite de signes non exprims par un langage : l'art, la musique, la kinesthsie, les couleurs, voire les vtements ou les odeurs. Ces signes, leur assemblage et leur comprhension ou leur interprtation sont dans leur grande majorit dpendants de la culture. La communication non verbale peut ainsi tre ambigu (Adler, 2013). Par exemple, un clin d'oeil peut tre interprt diffremment d'un individu l'autre. Pour certains, il pourra s'agir d'un signe de remerciement, alors que pour d'autres, il pourra s'agir d'un manque d'assurance.

Mais on dfinit en premier lieu la communication non verbale travers le corps, la posture, les gestes ou encore les diffrentes expressions du visage. Cette distinction verbale / non verbale n'est pas toujours aise faire. Le mot verbal peut galement tre compris comme exprim de vive voix (Petit Larousse). On parlera alors de communication orale, par opposition la communication crite. Mais la communication n'est pas qu'orale. Elle est aussi non verbale (voir plus bas). La communication passe donc aussi par le corps. Ainsi elle sera non verbale ou plutt non verbalise. La communication non verbale peut tre para-verbale, c'est--dire qui accompagne la vocalisation. Ainsi lorsque le locuteur explique qu'il faut aller droite et qu'il bouge sa main dans cette direction, c'est un cas de communication para verbale. Croiser les bras dans un signe de protection est aussi une communication non verbale. Mais ici ce sera pour dire que : je me retranche derrire mes ides laissez-moi tranquille . Mimiques et posture font partie de la communication. Ce qui fait dire Alain Astouric dans, Russir vos interventions de formation, Chronique Sociale, 2007 http://astouric.icioula.org/ que la non-communication nexiste pas. Par exemple, dans un groupe, une personne qui se tait longtemps communique un message. Reste savoir lequel : timidit, fatigue, indiffrence, bouderie, contrarit ? Des gestes risquent de faire passer un message comme plus fort, plus prononc que ce que l'on dit. Le ton d'un message est aussi une forme de non-verbal. C'est cette base, le non-verbal, qui dfinit par exemple ce qu'on appelle le jeu d'un acteur, au thtre.

Les contextes de communication[modifier]


Une communication est grave dans un contexte. Elle peut avoir lieu un instant donn, dans un lieu donn, et vis--vis d'une situation, d'un vnement donn. Tout cet environnement, qui ne fait pas partie de la communication proprement parler, mais qui accompagne cette communication, est appel contexte. L'environnement peut gnrer du bruit, ou tre source d'interfrences. La philosophie du langage s'intresse au contexte, et la linguistique prcise le contexte d'une phrase : voir contexte (linguistique). Le contexte intervient dans les enjeux cits plus haut : culture, changement de mdias, langue, souverainet, identit, dynamisme des territoires, mise en rseau.

Les rseaux[modifier]
On nomme rseau un ensemble d'acteurs, d'agents conomiques, de nuds, ou lieux de communication grce auxquels les messages circulent. L'information se concentre et se redistribue ainsi. Rseaux sociaux Ce sont les rseaux d'anciens lves de grandes coles, d'universits, d'associations, d'ONG, de centres de recherche, d'organismes publics ou simplement d'individus possdant des intrts communs. Voir dans le cas d'entreprises : Entreprise tendue. Sur le plan technique Des rseaux de transport (routes, canaux, chemins de fer), des rseaux de tlcommunications et informatiques (tlgraphe, tlphonie, web) se sont dvelopps considrablement depuis deux sicles.

Voir aussi sur ce sujet : tlcommunications, smaphore, tlgraphie, tlphonie. Interactions informelles On dcouvrit dans les annes 1960 que la gnralisation des ascenseurs automatiques, qui supprimait les garons d'ascenseur, supprimait un nud important de communication in formelle entre les tages d'une entreprise (car le garon d'ascenseur connaissait tout le monde et tout le monde lui parlait). Ce rle a t partiellement remplac par les coins caf considrs aujourd'hui comme indispensables dans les bureaux, et lieux d'changes informels souvent importants.

La temporalit[modifier]
Une communication qui peut durer dans le temps (le message n'est pas supprim au moment o il est envoy) est dite intemporelle . Par exemple, un message rdig dans un livre est intemporel. Cette notion est lie au contact entre les entits qui communiquent. Un message phmre, lui, est dit temporel . Par exemple, une discussion orale est phmre, temporelle. La communication est notamment enseigne dans les coles d'ingnieurs.

La localisation[modifier]
Dans l'espace, une communication peut tre : localise (concentre un endroit), telle une discussion ; alocalise (disponible de n'importe quel endroit) - par exemple internet, extranet ; dlocalise (le lieu d'mission est loin du lieu de rception), c'est le cas d'une discussion tlphonique.

Cette notion est lie l'expression du contact entre les entits qui communiquent.

Le code[modifier]
Le code (information) est un concept souvent mis en avant dans la vision mcaniste de la communication. Il est pourtant rarement adquat, ne s'appliquant bien qu'aux seules situations hirarchiques et autoritaires : interface homme-machine, relations homme-animal, etc. Par extension et d'une manire pessimiste, la notion de code est souvent employe pour l'tude des relations humaines. Dans ce cadre simplifi, pour communiquer, l'metteur et le rcepteur doivent disposer d'un code commun. La communication se caractrise alors surtout par l'utilisation d'un code tablissant les correspondances entre un signe et son sens qui doit tre commun aux interlocuteurs. L'absence de code commun entre metteur et rcepteur est l'une des sources d'checs de la communication, chacun pouvant supposer que l'autre comprend son code, sans que ce soit le cas : Un chef de projet amricain est choqu de voir son quipe franaise exiger du matriel pour son travail. Elucidation faite, cette quipe ne voulait que demander ce matriel (or to demand signifie exiger). Le mme s'tonne de voir, aprs avoir stigmatis le peu de temps dont on dispose pour un petit projet, de voir des membres europens se demander pourquoi au contraire on dispose d'une telle marge. Elucidation : quand il crivait sur son tableau 6/6 pour la date de dbut et 6/12 pour la date de fin, il pensait pour cette dernire au 12 juin et l'quipe europenne a compris 6 dcembre !

Un collgue japonais dsirant montrer le grand respect qu'il prouve pour la famille d'un collgue europen l'invitant dner apporte la matresse de maison une fleur considre comme l'une des plus belles au Japon : un chrysanthme. Gne garantie chez celle-ci, pour qui cette fleur est symbole de cimetire.

Dans tous ces exemples, la notion de code explique l'incomprhension entre les tres humains; mais la notion n'explique pas pour autant la comprhension. Or les situations sont courantes o le dfaut de code n'apporte pas de catastrophe, au contraire: relations sourd-entendant, relations aveuglevoyant, relations entre trangers sans mots communs, etc. Entre humains, on peut toujours essayer de se faire comprendre; essayez donc de vous "faire comprendre" d'un ordinateur qui dtecte une faute de syntaxe dans l'ordre envoy. Non, dcidment, le code est une notion trop vidente pour tre utilise sans pincettes.

La transmission[modifier]
La communication consiste transmettre un message afin d'tablir un contact. L'tablissement du contact comporte certains risques, notamment lors de "l'ouverture" et "fermeture" de la communication. Les risques d'intrusion, de non rponse, de blocage et d'abandon existent rellement. Ce point fait l'objet de la confidentialit en scurit de l'information, on l'appelle le message.

Le protocole de communication[modifier]
On dsigne sous ce terme tout ce qui rend la communication possible ou plus aise sans rapport avec le contenu de la communication elle-mme. Attendre une tonalit pour numroter, demander l'interlocuteur de se rpter, peler son nom, s'entendre tacitement sur le moment o une communication sera considre comme termine font partie des protocoles. La mise en uvre d'un protocole demande la dfinition de normes labores. Voir aussi : Diplomatie, Norme, Internet.

La rtroaction[modifier]
Le message de Rtroaction (ou Feedback en anglais), est le message, verbal ou non, renvoy sous forme de raction par le rcepteur, l'metteur. La possibilit d'obtenir et de traiter une telle rponse ouvre la voie la communication bidirectionnelle. Selon les cas, le feed-back consiste confirmer ou infirmer la rception du message, demander des prcisions, relancer ou terminer la discussion. La notion de rtroaction (feed-back) est issue des travaux de Norbert Wiener dans les annes 1950 sur la cyberntique 6. Elle correspond au saut technologique du passage de la mcanographie l'informatique, et l'apparition des premiers ordinateurs bass sur des technologies lectroniques. Cette notion montre qu'il existe ct de la vision linaire (unidirectionnelle) de la communication la possibilit et l'intrt de crer et d'entretenir un processus circulaire (bidirectionnelle) avec trois formes de Feed-Back : Le Feed-back positif, qui conduit accentuer un phnomne, avec un effet possible de boule de neige (hausse de la tension entre les communicants, nervement croissant entre deux personnes).

Le Feed-back ngatif peut tre considr comme un phnomne de rgulation, qui en amoindrissant la communication, l'quilibre et la stabilise grce la reformulation ou au questionnement. L'absence de Feed-back (rponse nant) rvle une panne de communication. Non seulement aucune information n'est renvoye, mais on ne sait mme pas si le message mis a t reu ou pas.

La boucle de rtroaction a conduit dfinir des modles thoriques et systmiques de systme d'information (niveaux oprationnel, organisationnel, dcisionnel).

Modles de communication[modifier]
De nombreux thoriciens de la communication ont cherch conceptualiser le processus de communication . La liste prsente ci-aprs ne peut prtendre tre exhaustive, tant les modles sont nombreux et complmentaires. L'objectif est de fournir un aperu de l'volution gnrale en explicitant les modles les plus connus ainsi que leurs apports.

Modle de Shannon et Weaver[modifier]


Article dtaill : Claude Shannon.

Modle de Shannon et Weaver

Le modle de Claude Shannon et Weaver7 dsigne un modle linaire simple de la communication : cette dernire y est rduite sa plus simple expression, la transmission d'un message. On peut rsumer ce modle en : Un metteur, grce un codage, envoie un message un rcepteur qui effectue ledcodage dans un contexte perturb de bruit. Apparu dans Thorie mathmatique de la communication (1948), ce schma sert deux mathmaticiens Claude Shannon (pre entre autres de nombreux concepts informatiquesmodernes) et Warren Weaver (scientifique vers tant dans la vulgarisation que la direction de grands instituts), illustrer le travail de mesure de l'information entrepris pendant la Seconde Guerre mondiale par Claude Shannon (ce dernier a t embauch par Weaver l'Office of Scientific Research and Development pour dcouvrir, dans le code ennemi, les partieschiffres du signal au milieu du brouillage). l'origine, les recherches de Shannon ne concernent pas la communication, mais bien lerenseignement militaire. C'est Weaver qui a "traduit" la notion de brouillage par celle de "bruit", la notion de signal par "message", la notion de codeur par "metteur", la notion de dcodeur par "rcepteur" Jusqu' la fin de sa vie, Claude Shannon se dfendra contre la reprise du soi-disant modle pour autre chose que des considrations mathmatiques.

Le modle dit de Shannon et Weaver n'a en effet de prtention qu'illustrative. Mais il a souvent t pris au pied de la lettre, rvlant alors la forte influence bhavioriste du modle de Pavlov (stimulus-rponse). Ce modle, malgr son immense popularit (on le trouve cit souvent comme le modle [rf. souhaite] canonique de la communication ), ne s'applique pas toutes les situations de communication et prsente de trs nombreux dfauts : et s'il y a plusieurs rcepteurs ? et si le message prend du temps pour leur parvenir ? et si la ralit dcrite n'existe pas ailleurs que chez le premier locuteur ? et s'il y a plusieurs messages (au besoin contradictoires) qui sont prononcs en mme temps? et s'il y a un lapsus ? et si sont mis en jeu des moyens de sduction, de menace ou de coercition ? et si le message comporte des symboles nouveaux ou des jeux de mots ?

En sus de sa linarit, le modle de Shannon et Weaver considre que le rcepteur est passif : toutes les recherches en Sciences de l'information et de la communication montrent que cela est simpliste, ou faux.

Modle de Lasswell[modifier]
Article dtaill : Harold Dwight Lasswell.

Harold Dwight Lasswell, politologue et psychiatre amricain, s'est fait un nom en modlisant la communication de masse travers les questions : Qui, dit quoi, par quel canal, qui et avec quel effet ? . Questions reprises de la mthode que Quintilien, pdagogue latin du I sicle, enseignait ses apprentis rhteurs.

Qui parle ? :

correspond l'tude sociologique du ou des milieux et organismes metteurs

Pour dire quoi ? :

Se rapporte l'nonc du contenu du message, son analyse

Par quel mdia oucanal ? :

description et valuation des techniques utilises pour diffuser l'information un instant donn vers une cible donne

S'adresse qui ? :

vise l'auditoire, ou audience. Soit la dfinition, la mesure, la localisation des publics rcepteurs

Avec quel effet ? :

Il s'agit d'analyser et d'valuer les influences

qualitatives et quantitatives du message sur l'audience.

Ce modle conoit la communication comme tant un processus d'influence et de persuasion, trs proche de la publicit. Ce modle dpasse la simple transmission du message (mme s'il y reste centr) et envisage notamment les notions d'tapes de communication, la capacit de pluralit des metteurs et des rcepteurs et de finalit d'une communication (ses enjeux). Pourtant il est critiquable, sur la mme base que les critiques mises contre le modle de Claude Shannon et Weaver. En effet il envisage la communication comme une relation d'autorit et de persuasion. Et il nglige le message de rtroaction, ainsi que les notions de psychologie et de sociologie de part et d'autre de la relation de communication. Le rcepteur est toujours considr comme passif, ce qui est encore inexact, car il existe en gnral interaction entre l'metteur et le rcepteur, ce qui n'est pas pris en compte dans ce modle. L'un de ses ouvrages majeurs - Propaganda Technique in the World War (1927) - fait partie des ouvrages de rfrence dans l'usage de la propagande dans la Seconde Guerre mondiale. Sa vision autoritaire, voire autoritariste de la communication, lui vaut de nombreux ennemis, encore aujourd'hui. Ce modle est lier par antithse aux travaux du clbre Marshall McLuhan (La Galaxie Gutenberg, 1967) et Rgis Debray (Trait de mdiologie, 1991)

Modle de Jakobson[modifier]
Articles dtaills : Roman Jakobson et Schma de Jakobson.

Cet autre modle, fond sur la linguistique, est propos par Roman Jakobson (1896-1982). Ce linguiste russe dveloppe un point de vue centr non plus sur la transmission d'un message, mais sur le message lui-mme, vitant ainsi les dangers d'instrumentalisation technique (voir sur ce point philosophie des rseaux). Il est compos de six facteurs. chacun de ces facteurs est li une fonction du message, explicite par Jakobson. 1. Le destinateur, li la fonction expressive du message, 2. Le message, li la fonction potique du message, 3. Le destinataire, li la fonction conative du message, 4. Le contexte, l'ensemble des conditions (conomiques, sociales et environnementales principalement) extrieures aux messages et qui influence sa comprhension, li la fonction rfrentielle du message, 5. Le code, symbolisme utilis pour la transmission du message, li la fonction mtalinguistique du message, 6. Le contact, liaison physique, psychologique et sociologique entre metteur et rcepteur, li la fonction phatique du message. On notera l'apparition ou la rapparition des trois dernires notions (contexte, code, contact) qui compltent normment la vision d'ensemble sur ce qu'est une communication. Certains facteurs peuvent tre considrs comme des agents de communication (destinataire) Sur le contexte, voir l'article perception de l'environnement. Ces travaux sont lier l'impulsion linguistique de Ferdinand de Saussure, conceptuelle de Shannon et Weaver, et philosophique deJohn L. Austin.

Modle de Gerbner[modifier]
Article dtaill : George Gerbner.

George Gerbner, sociologue des annes 1950, avait l'ambition de formuler un modle gnral de la communication. Il prsente en 1956 un modle beaucoup plus complexe que les prcdents. Son modle s'articule autour de deux propositions essentielles : Il lie le message au contexte, ainsi il permet de le renseigner sur la signification dumessage. Il dcrit le processus de communication comme un ensemble deux dimensions : une perceptive et une autre dimension pour le contrle.

Le trait particulier de ce modle est qu'on peut l'appliquer aux diffrentes formes de communication en fonction du contexte. Il convient un acte de communication interpersonnelle entre deux personnes mais aussi au processus plus complexe de lacommunication de masse.

Modle de Newcomb[modifier]
Theodore M. Newcomb, 1953, prsente le modle ABX triangulaire et devient le premier introduire le rle de communication dans la relation sociale. Newcomb relve dans les relations sociales deux dimensions. L'attitude, qui est la qualit du lien affectif, et l'union qui est la spcificit du lien. travers ces deux grilles d'analyse, il va s'intresser l'quilibre ou le dsquilibre d'une relation sociale. Une relation est dite quilibre lorsque les attitudes ont la mme orientation. Son hypothse est que nous sommes tous la recherche d'un quilibre dans la situation de communication. S'il n'est pas atteint, nous souhaiterons alors soit rduire ce dsquilibre, soit rompre la relation . Newcomb s'intresse donc la notion de similarit, leur possession, leur association ou leur contraire. Il nous fait galement remarquer que les relations se nouent gnralement autour d'un objet (thme de conversation, une personne, une passion commune). Il exposera par la suite 8 schmas de relation, dont 4 modles quilibrs et 4 modles dsquilibrs. Le modle de Newcomb soulve donc des faits essentiels selon quoi toute situation de communication met en prsence des individus caractriss par des attitudes, des motivations et que toute situation de communication peut tre un moyen de faire voluer une relation. La communication est donc ici apprhende comme un phnomne dynamique et complexe et non mcanique.

Modle de Matilda et John Riley[modifier]


Dans ce modle est considr en premier lieu l'appartenance des individus humains des groupes. L'metteur rebaptis communicateur, et le rcepteur sont donc distribus dans des groupes primaires (familles, communaut, petits groupes, ) sociologiques. Ces groupes influeraient la faon de voir, de penser et de juger de leurs membres. Et ces groupes voluent dans un contexte social dont ils dpendent. Ce modle de Matilda White Riley et de John White Riley introduit de nouvelles notions, notamment celle de contexte et d'appartenance un groupe, lies la sociologie. De plus ce modle est le premier prendre en compte la notion d'une boucle de rtroaction, entre l'metteur et le rcepteur. Cela montre qu'il y a rciprocit et inter-influence entre les individus. Ce modle est l'origine des travaux sur la communication de groupe.

Thorie de la communication
Dfinition : La thorie communicative moderne dfinit les modles denrichissements optimaux entre un metteur et un rcepteur, en faisant natre au sein des sciences humaines une discipline d'appropriation du subconscient par le conscient, afin, chez l'humain, de recalibrer la prdation en des changes planifis, rflchis et fructueux.(1) L'expression thorie de la communication est parfois employe pour dsigner le concept de thorie de l'information. La thorie de la communication est apparue dans les annes 1945-1950, en mme temps que la thorie de l'information. Elle avait alors pour objectif de formaliser et de modliser la relation homme-machine entre les ordinateurs naissants et leurs utilisateurs, en thorisant et en conceptualisant la communication afin de l' inculquer aux ordinateurs. C'est une base de la cyberntique qui, pour faire ressortir cet lment de communication, utilise le concept de bote noire, ce qui permet de le dissocier de l'lment metteur ou rcepteur. Il y a communication lorsque l'on met ou que l'on reoit un message et lorsque l'on donne une signification au message, aux signaux, ce qui permet de le comprendre. Celle-ci peut-tre dforme par des parasites sonores ou environnementaux, ce qui gne l'attention et donc la comprhension. La rtroaction ou feedback est un outil utilis des fins de reconnaissance, ce qui signifie que l'on a compris le message mis. Elle peut tre positive ou ngative, et renvoie au fait de comprendre ou non le message. N'a ni de commencement, ni de fin. L'tre humain a une ducation, une psychologie, des codes, des valeurs, un humour qui lui sont propres. La comprhension du message va tre fonction de tous ces lments. Il existe quatre facteurs de communication interdisciplinaire : -physique : selon l'endroit dans lequel on se trouve, on ne communique pas de la mme faon -culturel : selon le style de vie, les croyances et les valeurs -socio-psychologique:relations de statuts des interlocuteurs -temporel : selon le moment o nous nous exprimons (exemple : enterrement diffrent d'un mariage). Toute communication comporte une mtacommunication: en fonction du ton de la voix, le message est diffrent. Les enjeux de la communication selon Mucchielli : information, positionnement social, mobilisation (persuasion), relationnel (favorise la prise de contact et les relations)et normatif (ritualisation, normes ducatives, politesse).

Il existe 4 types de communication: -libre : tre l'coute de soi, de ses dsirs et de ses instincts -expressive corporelle : tre rceptif, prise de recul, rgulation des motions par la respiration, tre l'coute de son corps... -rciproque : pour tre un bon rcepteur il faut tre l'coute de l'autre, s'ouvrir ses besoins, faire preuve de considration et prendre en compte la ralit de l'autre (faire preuve d'empathie) -efficace : rechercher l'objectivit, l'exactitude, se rendre intelligible (tre clair et compris) et ne pas supposer. Les objectifs de la communication: pour crer un lien avec l'autre -persuader : modifier des attitudes et les comportements de l'autre dcouvrir : apprendre sur l'autre et le monde extrieur -jouer : se distraire La transmission de la communication L'metteur est celui qui va coder un message, l'encodage tant l'acte de produire ce message par la traduction de la pense et des sentiments. Ce-dernier doit prendre en compte le canal qui est le support physique du message. Le traitement de l'information se fait par le dcodage du message. Dcoder est l'acte de recevoir et d'interprter le message. Le dcodeur ne peut tre passif. Les filtres sont les lments qui interviennent dans la slection d'un message. La surcharge cognitive est un filtre qui intervient aprs une grande quantit d'informations. Le Knowlegde Gap est la distance qui existe entre le niveau de culture de l'metteur et celui du rcepteur. La parole perdue est ce qu'il y a entre le cerveau et l'expression finale de l'information. La potence et l'clair La potence : l'metteur communique uniquement la conclusion de sa pense. L'information est donc inutile car elle n'est pas comprise par le rcepteur. Elle fonctionne seulement si l'metteur exerce un type d'ascendant hirarchique, si l'metteur est au courant des informations qui viennent avant la conclusion (est au courant du raisonnement) ou si le rcepteur acquiesce sans comprendre. L'clair: l'metteur prend la peine de revenir en arrire depuis le dbut pour que le rcepteur comprenne la conclusion. La dmarche ESPRIT E : entre en matire S : situation du problme P : le problme (quel est-il?) R : rsolution du principe I : informations dtailles pour rsoudre le problme T : terminaison/conclusion Les codes de PALO ALTO Axiomatiques de base de la communication : -on ne peut pas ne pas communiquer -toute communication comporte deux aspects : le contenu et la relation (la relation englobe de contenu et devient une mtacommunication) -la nature d'une relation dpend de la ponctuation des squences de la communication -deux modes de communication: digitale (signes et paroles) et analogique (gestes et postures) -deux types d'interaction : symtrique (galit culturelle des partenaires) et complmentaires (diffrence de connaissances des partenaires) Les neuf fonctions essentielles la comprhension de toutes les formes et de toutes les fonctions de la communication : -la communication est un ensemble de signaux -la communication est un processus d'ajustements -la communication comporte un contenu (informations) et des aspects relationnels (mtacommunication) -la communication comporte des transactions de relations symtriques et complmentaires -les squences de communication sont ponctues des fins d'interprtation -la communication est un processus transactionnel: tous les lments de la communication sont interrelis et toujours en mouvement -la communication est invitable

Thorie de l'information

La thorie de l'information, sans prcision, est le nom usuel dsignant la thorie de l'information de Shannon, qui est une thorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatiquesatisfait une distribution statistique prcise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le pre fondateur avec son article A Mathematical Theory of Communications publi en 1948. Parmi les branches importantes de la thorie de l'information de Shannon, on peut citer : le codage de l'information, la mesure quantitative de redondance d'un texte, la compression de donnes, la cryptographie.

Dans un sens plus gnral, une thorie de l'information est une thorie visant quantifier et qualifier la notion de contenu en informationprsent dans un ensemble de donnes. ce titre, il existe une autre thorie de l'information : la thorie algorithmique de l'information, cre par Kolmogorov, Solomonov et Chaitin au dbut des annes 1960.
Sommaire
[masquer]

1 L'information selon Shannon, un concept de la physique mathmatique 2 Le statut physique de la thorie de linformation 3 Dveloppement de la thorie mathmatique de l'information 4 Exemples d'information

o o o

4.1 Premier exemple 4.2 Second exemple 4.3 Information imparfaite

5 Contenu d'information et contexte 6 Mesure de la quantit d'information

o o o o

6.1 Quantit d'information : cas lmentaire 6.2 Quantit d'information relative un vnement 6.3 Entropie, formule de Shannon 6.4 Codage de l'information

7 Limites de cette thorie 8 Notes et rfrences 9 Voir aussi

o o o

9.1 Articles connexes 9.2 Liens externes 9.3 Bibliographie

L'information selon Shannon, un concept de la physique mathmatique[modifier]


L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept thorique d'information a t introduit partir de recherches thoriques sur les systmes de tlcommunication. L'origine de ces recherches remonte aux tudes entreprises ds la fin e du XIX sicle, en physique et en mathmatique par Boltzmann et Markov sur la notion de probabilit d'un vnement et les possibilits de mesure de cette probabilit. Plus rcemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues la collaboration des mathmaticiens et des ingnieurs des tlcommunications, qui ont t amens envisager les proprits thoriques de tout systme de signaux utilis par les tres, vivants ou techniques, des fins decommunication.

Modle de la communication de Shannon et Weaver

la suite des travaux de Hartley (1928), Shannon dtermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre matresse de la thorie de la communication qu'il labore avec Warren Weaver1. Cette thorie est ne de proccupations techniques pratiques. La socit Bell cherche transmettre les messages de la faon la fois la plus conomique et la plus fiable. Aussi le cadre originel de la thorie est celui d'un systme de communications o un metteur transmet un message un rcepteur travers un canal matriel/nergtique donn. metteur et rcepteur ont par hypothse un rpertoire commun, un code qui contient les catgories de signaux utilisables. Ainsi le message cod est transmis, de l'metteur au rcepteur travers le canal, sous forme de signes ou signaux ports par de la matire/nergie. Ainsi, le concept d'information a t l'objet d'une thorie, appele thorie de l'information . C'tait une thorie mathmatique applique aux techniques de la tlcommunication. Elle a t labore plus spcialement par Claude Shannon, ingnieur la Compagnie des Tlphones Bell et reste jusqu' nos jours la base du concept dit scientifique d'information. Cependant cette dfinition mathmatique de l'information ne pourrait s'appuyer ni sur la forme matrielle/nergtique, ni sur le contenu cognitif des messages mis : leur contenu smantique est laiss de ct, de mme que leur contenant physique, pour ne s'intresser qu'aux aspects mathmatiques. Dans sa conception originale, la thorie de l'information de Shannon s'est limite analyser les moyens mettre en uvre dans les techniques de tlcommunication pour transmettre l'information le plus rapidement possible et avec le maximum de scurit. Elle s'est donc efforce de dvelopper des mthodes susceptibles de minimiser la probabilit d'erreur dans la reconnaissance du message. Une notion fondamentale sera ncessaire pour dvelopper ces mthodes : la mesure de l'information, au sens mathmatique du terme.

Pour Shannon, l'information prsente un caractre essentiellement alatoire. Un vnement alatoire est par dfinition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement dfinie par sa probabilit (I = - log p). Donc l'information est la mesure de l'incertitude calcule partir de la probabilit de l'vnement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette dfinition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'ide, plus une information est incertaine, plus elle est intressante, et un vnement certain ne contient aucune information. En thorie de l'information de Shannon, il s'agit donc de raisonner en probabilit et non en logique pure. L'information se mesure en units d'information dites bits. Le bit peut tre dfini comme un vnement qui dnoue l'incertitude d'un rcepteur plac devant une alternative dont les deux issues sont pour lui quiprobables. Plus les ventualits que peut envisager ce rcepteur sont nombreuses, plus le message comporte d'vnements informatifs, plus s'accrot la quantit de bits transmis. Il est clair que nul rcepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de tlcommunication qui a besoin de la thorie, et mesure l'information en bit pour rendre la transmission de message la plus conomique et la plus fiable. La notion d'information d'aprs Shannon est ncessairement associe la notion de redondance et celle de bruit . Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles la transmission de l'information. La thorie de Shannon appelle redondance tout ce qui dans le message apparat comme en surplus. Aussi est-il conomique de ne pas transmettre la redondance. L'information chemine travers un canal matriel/nergtique : fil tlphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitu par les perturbations alatoires de toutes sortes qui surgissent dans le canal de transmission et tendent brouiller le message. Le problme de la dgradation de l'information par le bruit est donc un problme inhrent sa communication. Ici, l'ide de redondance prsente une face nouvelle ; alors qu'elle apparat comme un surplus inutile sous l'angle conomique, elle devient, sous l'angle de la fiabilit de la transmission un fortifiant contre le bruit, un prventif contre les risques d'ambigut et d'erreur la rception.

Le statut physique de la thorie de linformation[modifier]


Trs vite de multiples applications de la thorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modles mathmatiques labors ont permis de prciser certains concepts utiliss couramment dans les analyses linguistiques structurales, en mme temps qu'ils faisaient apparatre les limites inhrentes ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se dveloppait un champ scientifique nouveau : lacyberntique3. Cependant, une caractristique majeure de la thorie shannonienne est de donner la notion d'information (telle que dfinie par cette thorie) un statut physique part entire. Effectivement, l'information acquiert les caractres fondamentaux de toute ralit physique organise : abandonne elle-mme, elle ne peut voluer que dans le sens de sa dsorganisation, c'est--dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, dcodage, etc..), l'effet irrversible et croissant de la dgradation. Par consquent Shannon dfinit comme entropie d'information la mesure H ( H = - K log p). De faon tonnante, l'quation par laquelle Shannon dfinit l'entropie de l'information concide, mais de signe inverse, avec l'quation de Boltzmann-Gibbs dfinissant l'entropie S en thermodynamique (S = K log p).

Certains, comme Couffignal4, ont soutenu avec raison que la concidence est sans signification : l'application de la fonction de Shannon la thermodynamique et l'information est un hasard de rencontre de l'application d'une mme formule mathmatique, sans plus. Certes, il peut y avoir rencontre de deux quations de probabilit provenant d'univers diffrents. Toutefois Brillouin prtendait tablir une relation logique entre le H de Shannon et le S de Boltzmann. Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualit dans le concept d'information reliant l'information la matire/nergie vhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathmatiques, mais sans qu'on puisse la rduire aux matres-concepts de la physique classique, masse et nergie. Comme le dit Wiener : l'information n'est ni la masse, ni l'nergie, l'information est l'information.

Dveloppement de la thorie mathmatique de l'information[modifier]


La thorie mathmatique de l'Information rsulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, dfinit formellement l'information comme gale la valeur moyenne du carr de la drive du logarithme de la loi de probabilit tudie.

partir de l'ingalit de Cramer, on dduit que la valeur d'une telle information est proportionnelle la faible variabilit des conclusions rsultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal tlvis par la phrase Bonsoir , ce mot, qui prsente une forte probabilit, n'apporte que peu d'information. En revanche, si la premire phrase est, par exemple La France a peur , sa faible probabilit fera que l'auditeur apprendra qu'il s'est pass quelque chose, et, partant, sera plus l'coute. D'autres modles mathmatiques ont complt et tendu de faon formelle la dfinition de l'information. Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingnieurs en tlcommunication et se proccupent de mesurer l'information pour en dduire les fondamentaux de la Communication (et non une thorie de l'information). Dans Thorie Mathmatique de la Communication en 1948, ils modlisent l'information pour tudier les lois correspondantes : bruit, entropie et chaos, par analogie gnrale aux lois d'nergtique et de thermodynamique. Leurs travaux compltant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la thorie du signal et des Sciences de l'Information . Pour une source comportant symboles, un symbole l'entropie de la source est dfinie comme : ayant une probabilit d'apparatre,

C'est au dpart le logarithme naturel qui est utilis. On le remplacera pour commodit par le logarithme base 2, correspondant une information qui est le bit. Les considrations d'entropie maximale (MAXENT) permettront l'infrence baysienne de dfinir de faon rationnelle ses distributions a priori.

L'informatique constituera une dclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation Technologies de l'Information et de la Communication recouvre les diffrents aspects (systmes de traitements, rseaux, etc.) de l'informatique au sens large. Les sciences de l'information dgagent du sens depuis des donnes en s'appuyant sur des questions de corrlation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant elles, s'occupent de la faon de concevoir, implmenter et dployer des solutions pour rpondre des besoins identifis. Adrian Mc Donough dans Information economics dfinit l'information comme la rencontre d'une donne (data) et d'un problme. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un systme de traitement de l'information est le quotient entre le nombre de bits du rservoir de donnes et celui de l'information extraite. Les data sont le cost side du systme, l'information, le value side. Il en rsulte que lorsqu'un informaticien calcule la productivit de son systme par le rapport entre la quantit de donnes produites et le cot financier, il commet une erreur, car les deux termes de l'quation ngligent la quantit d'information rellement produite. Cette remarque prend tout son sens la lumire du grand principe de Russel Ackoff qui postule qu'au-del d'une certaine masse de donnes, la quantit d'information baisse et qu' la limite elle devient nulle. Ceci correspond l'adage trop d'information dtruit l'information . Ce constat est aggrav lorsque le rcepteur du systme est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la slection opre par l'attention, et par l'intervention de donnes affectives, motionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le rcepteur humain, mme si elle est acceptable pour un robot. Une information charge de sens mais non irrigue par une nergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chane qui mne de la donne l'action (donnes information connaissance sens motivation), seules les deux premires transformations sont prises en compte par la thorie de l'information classique et par la smiologie. Kevin Bronstein remarque que l'automate ne dfinit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des smes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, dsir, rpulsion, etc. qui donnent vie l'information psychologique.

Exemples d'information[modifier]
Une information dsigne, parmi un ensemble d'vnements, un ou plusieurs vnements possibles. En thorie, l'information diminue l'incertitude. En thorie de la dcision, on considre mme qu'il ne faut appeler information que ce qui est susceptible d'avoir un effet sur nos dcisions (peu de choses dans un journal sont ce compte des informations) En pratique, l'excs d'information, tel qu'il se prsente dans les systmes de messagerie lectronique, peut aboutir une saturation, et empcher la prise de dcision.

Premier exemple[modifier]
Soit une source pouvant produire des tensions entires de 1 10 volts et un rcepteur qui va mesurer cette tension. Avant l'envoi du courant lectrique par la source, le rcepteur n'a aucune ide de la tension qui sera dlivre par la source. En revanche, une fois le courant mis et reu, l'incertitude sur le courant mis diminue. La thorie de l'information considre que le rcepteur possde une incertitude de 10 tats.

Second exemple[modifier]
Une bibliothque possde un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la thorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littrature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions prcis que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplmentaire (nous cherchons un livre), qui rduira encore le temps de notre recherche.

Information imparfaite[modifier]
Soit un ralisateur dont j'aime deux films sur trois. Un critique que je connais bien reinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est l la question centrale de l'infrence baysienne, qui se quantifie aussi en bits.

Contenu d'information et contexte[modifier]


Il faut moins de bits pour crire chien que mammifre . Pourtant l'indication Mdor est un chien contient bien plus d'information que l'indication Mdor est un mammifre : le contenu d'information smantique d'un message dpend du contexte. En fait, c'est le couple message + contexte qui constitue le vritable porteur d'information, et jamais le message seul (voir paradoxe du compresseur).

Mesure de la quantit d'information[modifier]


Quantit d'information : cas lmentaire[modifier]
Considrons botes numrotes de 1 . Un individu A a cach au hasard un objet dans une de ces botes. Un individu B doit trouver le numro de la bote o est cach l'objet. Pour cela, il a le droit de poser des questions l'individu A auxquelles celui-ci doit rpondre sans mentir par OUI ou NON. Mais chaque question pose reprsente un cot payer par l'individu B (par exemple un euro). Un individu C sait dans quelle bote est cach l'objet. Il a la possibilit de vendre cette information l'individu B. B n'acceptera ce march que si le prix de C est infrieur ou gal au cot moyen que B devrait dpenser pour trouver la bote en posant des questions A. L'information dtenue par C a donc un certain prix. Ce prix reprsente la quantit d'information reprsente par la connaissance de la bonne bote : c'est le nombre moyen de questions poser pour identifier cette bote. Nous la noterons I. EXEMPLE : Si , . Il n'y a qu'une seule bote. Aucune question n'est ncessaire.

Si , . On demande si la bonne bote est la bote n1. La rponse OUI ou NON dtermine alors sans ambigut quelle est la bote cherche. Si , . On demande si la bote porte le n1 ou 2. La rponse permet alors d'liminer deux des botes et il suffit d'une dernire question pour trouver quelle est la bonne bote parmi les deux restantes. Si , . On crit les numros des botes en base 2. Les numros ont au plus chiffres binaires, et pour chacun des rangs de ces chiffres, on demande si la bote cherche possde le chiffre 0 ou le chiffre 1. En questions, on a dtermin tous les chiffres binaires de la bonne bote. Cela

revient galement poser questions, chaque question ayant pour but de diviser successivement le nombre de botes considres par 2 (mthode de dichotomie). On est donc amen poser de vnements quiprobables. , mais cette configuration ne se produit que dans le cas

Quantit d'information relative un vnement[modifier]


Supposons maintenant que les botes soient colores, et qu'il y ait botes rouges. Supposons galement que C sache que la bote o est cach l'objet est rouge. Quel est le prix de cette information ? Sans cette information, le prix payer est payer n'est plus que donc . Muni de cette information, le prix

. Le prix de l'information la bote cherche est rouge est .

On dfinit ainsi la quantit d'information comme une fonction croissante de le nombre d'vnements possibles le nombre d'lments du sous-ensemble dlimit par l'information

avec :

Afin de mesurer cette quantit d'information, on pose : est exprim en bit (ou logon , unit introduite par Shannon , de laquelle, dans les faits, bit est devenu un synonyme), ou bien en nat si on utilise le logarithme naturel la place du logarithme de base 2. Cette dfinition se justifie, car l'on veut les proprits suivantes : 1. l'information est comprise entre 0 et ; 2. un vnement avec peu de probabilit reprsente beaucoup d'information (exemple : Il neige en janvier contient beaucoup moins d'information que Il neige en aot pour peu que l'on soit dans l'hmisphre nord) ; 3. l'information doit tre additive. Remarque : lorsqu'on dispose de plusieurs informations, la quantit d'information globale n'est pas la somme des quantits d'information. Ceci est d la prsence du logarithme. Voir aussi : information mutuelle, information commune deux messages, qui, dans l'ide, explique cette sous-additivit de l'information.
[citation ncessaire]

Entropie, formule de Shannon[modifier]


Article dtaill : entropie de Shannon.

Supposons maintenant que les botes soient de diverses couleurs : n1 botes de couleur C1, n2 botes de couleur C2, , nk botes de couleurs Ck, avec n1 + n2 + + nk = N. La personne C sait de quelle couleur est la bote recherche. Quel est le prix de cette information ? L'information la bote est de couleur C1 vaut log N/n1, et cette ventualit a une probabilit n1/N. L'information la bote est de couleur C2 vaut log N/n2, et cette ventualit a une probabilit n2/N Le prix moyen de l'information est donc n1/N log N/n1 + n2/N log N/n2 + + nk/N log N/nk. Plus gnralement, si on considre kvnements disjoints de probabilits respectives p1, p2,

, pk avec p1 + p2 + + pk = 1, alors la quantit d'information correspondant cette distribution de probabilit est p1 log 1/p1 + + pk log 1/pk. Cette quantit s'appelle entropie de la distribution de probabilit. L'entropie permet donc de mesurer la quantit d'information moyenne d'un ensemble d'vnements (en particulier de messages) et de mesurer son incertitude. On la note :

avec

la probabilit associe l'apparition de l'vnement .

Codage de l'information[modifier]
On considre une suite de symboles. Chaque symbole peut prendre deux valeurs s1 et s2 avec des probabilits respectivement p1 = 0,8 et p2 = 0,2. La quantit d'information contenue dans un symbole est :

Si chaque symbole est indpendant du suivant, alors un message de N symboles contient en moyenne une quantit d'information gale 0,72N. Si le symbole s1 est cod 0 et le symbole s2 est cod 1, alors le message a une longueur de N, ce qui est une perte par rapport la quantit d'information qu'il porte. Les thormes de Shannon noncent qu'il est impossible de trouver un code dont la longueur moyenne soit infrieure 0,72N, mais qu'il est possible de coder le message de faon ce que le message cod ait en moyenne une longueur aussi proche que l'on veut de 0,72N lorsque N augmente. Par exemple, on regroupe les symboles trois par trois et on les code comme suit :

symboles coder probabilit du triplet codage du triplet longueur du code

s1s1s1

0,8 = 0,512

s1s1s2

0,8 0,2 = 0,128

100

s1s2s1

0,8 0,2 = 0,128

101

s2s1s1

0,8 0,2 = 0,128

110

s1s2s2

0,2 0,8 = 0,032

11100

s2s1s2

0,2 0,8 = 0,032

11101

s2s2s1

0,2 0,8 = 0,032

11110

s2s2s2

0,2 = 0,008

11111

Le message s1s1s1s1s1s2s2s2s1 sera cod 010011110. La longueur moyenne du code d'un message de N symboles est :
Article dtaill : thorie des codes.

Limites de cette thorie[modifier]


L'une des caractristiques fondamentales de cette thorie est l'exclusion de la smantique. La thorie de l'information est indiffrente la signification des messages. Le sens d'un message peut pourtant tre considr comme essentiel dans la caractrisation de l'information. Mais le point de vue de la thorie de l'information se limite celui d'un messager dont la fonction est de transfrer un objet 5 . La thorie de l'information de Shannon est toujours relative un ensemble de donnes, une famille de chaines de caractres, caractrise par une loi de distribution bien prcise. Elle donne donc un contenu en information en moyenne, ce qui en fait une thorieprobabiliste, particulirement bien adapte au contexte de la transmission de donne, et dans ce cadre cette thorie a produit des rsultats importants. En revanche, elle n'est pas en mesure de quantifier le contenu en information d'une chaine prise isolment, un brin d'ADN par exemple, alors que la thorie algorithmique de l'information en est capable jusqu' un certain point. Mais cette dernire thorie possde galement ses propres limitations. C'est pourquoi il ne faut pas considrer que la notion d'information est entirement cerne par la thorie de l'information de Shannon, ou la thorie algorithmique de l'information, mais que cette notion a besoin d'une varit de modlisation formelles pour s'exprimer 6. L'information de Fisher semble ainsi parfois avantageusement remplacer l'information de Shannon dans la mesure o elle est une quantification locale et non globale de l'information contenue dans une distribution 7. Cela dit, les deux notions sont lies8 et peuvent dans diverses applications mener aux mmes rsultats.

Vous aimerez peut-être aussi