Académique Documents
Professionnel Documents
Culture Documents
Application la physique
par
Jacques CLAVIER
Ingnieur gnral de larmement (CR)
Ancien lve de lcole polytechnique
Ingnieur de lcole Nationale Suprieure de lAronautique
et de lcole Suprieure dlectricit
1.
1.1
1.2
1.3
1.4
E 3 084 - 2
2.
2.1
2.2
2.3
6
6
6
6
3.
3.1
3.2
Information et civilisation.....................................................................
Une formule dvolution .............................................................................
Discussion ....................................................................................................
7
7
7
4.
4.1
4.2
8
8
9
5.
5.1
5.2
5.3
9
9
9
10
6.
Conclusion .................................................................................................
11
Doc. E 3 085
et article est le dernier consacr la thorie de linformation. Les deux prcdents en ont jet les bases et examin les dveloppements, tout en limitant le concept son acceptation quantitative et probabiliste, et le domaine
celui des tlcommunications. Cet article traite le champ dapplication, certes
la physique et ses lois, mais aussi la sociologie et lhistoire. Il esquisse surtout une approche qualitative de linformation en liant limportance quelle revt
une notion mesurable de valeur.
On examine successivement :
les rapports de linformation la physique, plus prcisment la thermodynamique, puis lexprience au sens scientifique du terme ;
ces mmes rapports lexpression des lois naturelles ;
les liens de linformation avec la civilisation, grante du capital informatique disposition de ses membres ;
sa dynamique dans lhistoire, son importance et lide de valeur laquelle
elle conduit.
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 1
THORIE DE LINFORMATION
_____________________________________________________________________________________________________________
On peut stonner que lon ne traite pas le sujet de linformation et la vie, plus
prcisment de la biologie. Sil est certain que la structure chimico-spatiale de la
molcule dADN contient une information capitale, ncessaire au dveloppement du vivant, il est douteux, aujourdhui, quelle soit suffisante ; bien dautres
facteurs porteurs dinformations interviennent environnement, ducation...
pour aboutir ltre dans sa plnitude et sa dynamique. Ces considrations,
complexes, nont pas leur place dans cet article.
1. Linformation
et la physique
T
DW
----------- = 1 -----1- = rendement maximal dans le cas
D Q1
T2
rversible ( D S = 0 ).
Le lecteur vrifie sans peine les trois proprits prcdemment
nonces (figure 1).
Source S1
T1
--Q1
Machine M
+ Q2
1.2 Lentropie
Lentropie, notion fondamentale en thermodynamique, a dabord
t dfinie comme le cot, en temprature, auquel schangent les
quantits de chaleur.
Si un systme reoit la quantit de chaleur DQ leve la temprature T, son entropie saccrot de :
DQ
D S = -------T
E 3 084 - 2
W
S1 fournit --Q1
M fournit +W
S2 absorbe +Q2
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
Source S2
T2
S = k <n P
S
entropie en J/K,
k
constante de Boltzmann (1,38 1023 J/K)
P nombre de configurations appeles complexions qui concourent raliser ltat considr du systme.
Or, par dfinition, la probabilit de ltat considr est proportionnelle au nombre de ses complexions : le principe de Carnot
( DS > 0 ) est simplement lexpression de la tendance statistique des
systmes voluer vers les structures les plus probables. Mais,
attention, derrire cette vidence se cache un redoutable pige qui
fonctionne encore. On fait dire au 2e principe quil conduit lvolution des systmes isols vers un dsordre croissant. Lordre et
dsordre sont des notions subjectives qui se rapportent lobservateur, lequel tient le plus souvent pour ordonn un tat particulier qui
lui convient et dsordonns tous les autres videmment beaucoup
plus nombreux donc plus probables. Ainsi on dclare justement
ordonne la suite des nombres entiers et dsordonnes toutes les
autres, ceci prs quune suite quelconque est aussi (peu) probable
que la suite naturelle.
Exemple : une urne contient N /2 boules rouges et N /2 boules
blanches, initialement spares dans deux compartiments communiquant par un trou. On agite violemment. Quelle est lentropie du systme dans ltat o il y a R boules rouges et B boules blanches dans
un compartiment ?
Ltat considr sobtient en choisissant R boules rouges parmi les
N /2 et B blanches parmi les N /2.
avec
S = k <n n
N
Elle est maximale quand n lest, donc R = B = ---- .
4
Cest videmment le cas le plus probable parce que ralisable de
multiples faons.
Si, par contre, on numrote les boules et que lobservateur appelle
maintenant tat le fait que le compartiment comporte R boules rouges
et B blanches identifies, cet tat, alors, ne sobtient que dune seule
1
faon. Il est aussi (peu) probable p = -----que ltat qui rassemble tou
2N
tes les boules dun seul ct et quil aurait tendance nommer
ordonn.
1.3 Lexprience
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 3
THORIE DE LINFORMATION
_____________________________________________________________________________________________________________
E 3 084 - 4
1er bilan :
E E
D S 1 = --- ----- > 0 conformment au 2e principe.
T T
Pour intervenir, le dmon doit avoir capt au moins 1 quantum,
do accroissement de lentropie du dmon.
2e bilan :
hn
D S 2 = ------ = l k
T
( > 1 puisque h > kT, le quantum doit tre distingu du bruit thermique).
Le dmon, dsormais averti, peut agir pour diminuer lentropie du
gaz.
Il y avait P0 complexions du gaz, il y en a maintenant P0 P0 , do
le 3e bilan.
3e bilan :
D P0
D S 3 = k [ <n ( P 0 D P 0 ) <n P 0 ] k ---------P0
Par addition des bilans partiels :
DP
E E
DS = DS 1 + DS 2 + DS 3 = --- ----- + k l ---------0- > 0
T T
P0
Au total, lentropie du systme gaz + dmon + lampe a augment
mais lanalyse des postes du bilan est instructive :
la lampe a perdu de lentropie ;
le dmon en a gagn, plus que nen a perdu la lampe, mais il a pu,
en mme temps, obtenir de linformation ;
laquelle lui a permis de diminuer lentropie du gaz.
Pour obtenir de linformation, le sous-systme dmon + lampe
a d finalement accrotre son entropie, ou, comme on dit, dpenser de lentropie ngative ou nguentropie.
Pour diminuer son entropie, le sous-systme gaz a d recevoir
de linformation.
Il y a eu double conversion : nguentropie information nguentropie.
DI
r = -------- < 1
DS
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
Il existe galement :
une perturbation par le bruit ;
une incertitude de lobservation.
Sans trop entrer dans le dtail, on admet que toute exprience
ncessite de dpenser un peu dnergie E dont le niveau soit suffisant pour tre distingu du bruit de fond, quil soit thermique ou
quantique. la fin, E se dissipe en tout ou partie en chaleur do
laugmentation de lentropie.
On distingue ainsi deux grandes classes dexpriences :
les expriences macroscopiques, celles o le bruit thermique
lemporte sur les quanta (classe 1) kT >> h temprature ordinaire
on a > 30 m ;
les expriences microscopiques, celles o le bruit quantique
est nettement suprieur kT (classe 2) h >> kT.
Dans les deux cas, la probabilit dobserver un niveau naturel de
bruit > e scrit :
p (bruit > e) = exp( e /kT )
avec e = nh dans le cas quantique.
a eu lieu : p
na pas eu lieu :
Ip
a eu lieu : p
na pas eu lieu :
Ip
tat naturel
du rcepteur
tat observ
du rcepteur
niveau > S E
niveau > S
SE
P = exp --------------
kT
SE
P = p exp --------------
kT
niveau > S
niveau > S
S
P = exp -------
kT
S
P = exp -------
kT
niveau < S E
SE
P = I --------------
kT
niveau < S
S
P = ( 1 p ) exp -------
kT
niveau < S
niveau < S
P = (1 p)
S
P = I -------
kT
S
1 exp -------
kT
SE
exp -------------- = Y
kT
On observera dans le rcepteur :
ltat 1 avec la probabilit pY ;
ltat 2 avec la probabilit (1 p) X ;
ltat 3 avec la probabilit p (1 Y ) ;
ltat 4 avec la probabilit (1 p)(1 X ).
pY + (1 p)(1 X )
Elle est maximale pour Y = 1 et X = 0, p tant donn.
Ce cas correspond la double condition :
le seuil S est fix E ;
le seuil S, donc E, est lev.
Ce rsultat na rien pour surprendre. Si lnergie utilise pour
observer est importante, il y a toutes chances que, si on constate
dans le rcepteur une nergie quivalente ou suprieure, elle soit
due au phnomne.
La probabilit que lnergie reue, suprieure ou gale E, soit
uniquement due aux bruits est :
I
M = ---- = exp ( E / kT )
C
do :
avec
Cas
E
LC = ------kT
C
certitude de lobservation
On a C > 2, cest--dire M < 50 % sinon il faut prendre une dcision contraire. Si, dans le pire des cas, lnergie E sest dissipe en
chaleur, lobservation a pour cot une augmentation dentropie de
E
D S = --- et le rendement de lexprience vaut :
T
DT
k <n2
<n2
r = -------- = -------------- = ---------DS
k LC
LC
1
dans le cas simple o le phnomne avait a priori la chance p = --2
de se produire.
Dans le meilleur des cas, = 1. Lexprience donne un rsultat
avec 50 % de chances derreur (C = 2). Avec E = 4 kT, la certitude
atteint 54, cest--dire que lon est sr 98 % du rsultat.
On est toujours conduit distinguer :
le cas macroscopique h << kT o on peut sans difficult choisir lnergie de E de faon obtenir E = k <n 2 soit = 0,7 kT et atteindre le rendement optimal ;
le cas microscopique h >> kT o E est limit infrieurement
<n2
h. Le rendement ne peut dpasser ---------- kT . Par contre, la certihn
tude augmente.
La figure 3 reprend ces rsultats o apparaissent les variations de
lnergie minimale Wn ncessaire une observation et le rendement correspondant 1 en fonction de hn.
En rsum :
les expriences macroscopiques peuvent atteindre un rendement excellent, mais parfois avec un doute lev cause des perturbations dues lagitation thermique ;
les expriences microscopiques sont peu douteuses car peu
perturbes. Mais elles ont un mauvais rendement ;
si on sintresse la mesure des longueurs L, donc la mesure
de lespace, ce quoi se rsume une grande partie des expriences,
on remarque quil faut disposer dune nergie DE. Si la longueur
donde associe , elle permet en principe dobserver une position
avec la prcision DL = /2.
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 5
THORIE DE LINFORMATION
_____________________________________________________________________________________________________________
Wmin
Wmin
0,7 kT
2.2 Dfinition
45
kT
vitesse de la lumire,
1,4
hc
D L 0 = ------- = -------- 10 2 m.
T
kT
DL0 se nomme longueur caractristique et une autre manire de
distinguer les deux cas dexprience est quelles se droulent en
dea ou au-del de DL0.
On a toujours :
hc
hc
D E > hn = ------- = ----------2D L
l
do :
hc
D E D L > ------- = 10 25 N
2
2. Information contenue
dans une loi physique
2.1 Constatations
Lon Brillouin sest pos le problme dvaluer la quantit dinformation contenue dans une loi physique, quelle quelle soit.
Il remarque dabord que toutes les lois sont exprimentales : leur
expression mathmatique rigoureuse nest quapparence, ce sont
des modles utilisant un langage conventionnel. Ainsi pour la chute
des corps : avec des instruments ordinaires on trouve une parabole.
Au fur et mesure que loutil devient subtil on passe lellipse (loi
de Newton) dj perturbe par la rsistance de lair. On sait expliquer lanomalie, mais si on opre sur des corps rapides, le modle
relativiste est meilleur. O est la ralit ? Nulle part que dans
lensemble des mesures que le physicien a effectues ; la matire
nobit rien, elle nest point cause finalire comme et dit Voltaire. De ces conceptions rsulte ce fait capital quune loi physique
nest dfinissable que dans un domaine born. Lintervalle de variation de la grandeur mesure est fini. Donc :
premire constatation : une loi deux variables (cest le minimum vident) est reprsente par quelque chose dans un rectangle, qui en dfinit le domaine de validit (figure 4) ;
E 3 084 - 6
La quantit dinformation contenue dans une loi nest pas distincte de linformation apporte par les expriences qui ont permis
de ltablir.
A priori, on peut penser que la loi peut avoir une forme quelconque dans le domaine de validit de surface S. A posteriori, on trouve
que la loi est enferme dans la surface s de la ligne paisse.
Linformation est donc simplement :
I = log2 (S / s) = log2 S log2 s
On remarquera la simplicit de cette dfinition. Linformation crot
naturellement avec le domaine de validit et la prcision des mesures. Il y a ainsi, normalement, plus dinformation dans la relativit
gnrale que dans la loi de Newton. Remarquons quon vient de
dire par l quEinstein nous en a appris davantage mais pas du
tout que Newton avait tort. La nature a horreur du vide tait une
loi de tout ou rien, toujours vraie, du moins jusque vers les 10 m,
mais peu nuance. Elle contient peu dinformation. Le lecteur philosophe saisit limportance de toutes ces remarques qui nont presque
pas t explicites jusqualors et combien parat satisfaisante sur le
plan de lhistoire humaine la thorie de linformation.
2.3 Gnralisation
Cette dfinition se gnralise aisment au cas o la loi comporte
n variables x1, x2 ... xn dont lacquisition dapprciation ne
dpasse pas dx1, dx2 ... dxn et dont les intervalles opratoires sont
X1, X2 ... Xn.
Linformation contenue par une relation f (x1, x2 ... xn) = 0 qui dfinit la loi peut tre mesure par le logarithme du rapport des volumes soit :
X 1 X 2 ... X n
V
log -------------------------------- = log ---v
d x ... d x n
Les cas examins font lhypothse tacite que, les points
pais de la loi pourraient se situer a priori partout dans le
rectangle de la figure 5 ou dans le volume V. Il est en rarement
ainsi, au moins parce que les contraintes classiques rgularit
des courbes, nergie temps, masses, largeur de bandes, etc.,
finies ou les connaissances partielles dj acquises font quil
existe une densit a priori non uniforme de la prsence des
points reprsentatifs. Il faut donc pondrer les informations I.
Cela ne pose aucun problme de fond, autre quune difficult de
calcul.
y
ymax
Loi physique
ymin
xmin
xmax
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
y2
Y2
Rectangle dincertitude
Zone de restriction du fait
de la loi <1 (surface s2 )
Lieu de f (x1 x2) (surface s2)
X2
x2
X Y
Ancienne information : I2 = log 2 2
s2
s 2
Nouvelle information : I2 = log s
2
Figure 5 Rectangle dincertitude
voquons le cas dune thorie, celui qui met un peu non pas une
mais un ensemble de lois Ii (i = 1 n). Si ces lois sont indpendantes
et contiennent les informations Ii (i de 1 n) la thorie T contient
n
linformation I =
Ii .
1
Si tel nest pas le cas, on dira que la connaissance de la loi lk sp quelle contient
cifie dj un peu la loi lm donc que linformation I m
est moindre quauparavant :
DIh = K T2 ih
<I
Im
m
do :
I =
Ii + R
1
R reprsente une redondance ou une information de corrlation entre les lois <.
Exemple : une thorie deux lois fait que la premire < 1 spcifie
partiellement la seconde < 2 . Les possibilits de < 2 suppose deux
variables au lieu de sexprimer dans son rectangle dincertitude
est restreinte une surface ou zone plus petite comme le montre la
figure 5.
coefficient dducation
T1 + T2 + T3
avec
facteur de civilisation
Il vient finalement :
3. Information et civilisation
3.1 Une formule dvolution
Linformation nat de lexprience et le rle du cerveau est de la
stocker, de lpurer (la rendre peu redondante) aussi bien que de
crer de linformation fictive ou virtuelle (thories) que lon soumettra aux faits, le moment venu.
Une civilisation, cest--dire un groupe dhommes formant un
systme ou socit relativement ferm peut donc tre caractrise,
en autres paramtres, par la quantit dinformation dont elle dispose et la loi dvolution I(t ) de cette information.
Considrons un individu quelconque h appartenant une
socit S. On peut distinguer trois phases dans la vie de cet individu, tant prcis quelles peuvent se chevaucher ou tre rparties
le long de la vie.
T1 T2
m t = I 0 exp ( Ct )
I = I 0 exp NlKa ------------------------------
T1 + T2 + T3
3.2 Discussion
Cette formule, obtenue partir dhypothses trs simplifies
contient nanmoins les grandes lois de lvolution des civilisations :
1) lvolution est exponentielle ; ce fait est ressorti, dans notre
sicle, comme vident ;
2) le facteur de civilisation peut tre presque nul ou ngatif. On
connat encore aujourdhui des exemples de socits primitives qui
ne se dveloppent pas ou sont en voie dextinction. Pour ces gens
et a sont petits et grand, mais surtout N est petit ainsi que la longvit V (voir discussion en 3). Il existe ainsi une population critique
Nc en dessous de laquelle aucun progrs nest possible ;
T1 T2
3) la dure de vie moyenne intervient par le facteur ------------------------------- .
T1 + T2 + T3
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 7
THORIE DE LINFORMATION
Posons :
_____________________________________________________________________________________________________________
T1 = V,
T2 = V,
a + b < 1,
le facteur vaut V. Ds lors que pour des raisons sociales et mdicales T3 est fixe, V est maximal lorsque = .
Il est donc souhaitable dquilibrer les dures dapprentissage et
dactivit. Nous remarquons que cest ce qui est pratiquement ralis dans les socits modernes.
Retenons que V joue le mme rle que N, , K ou a.
tats-Unis :
V = 70 ans (30, 30, 10) = 3/7 = 4/7 V = 13
Pays pauvre :
V = 35 ans (15, 20, 0) = 3/7 = 4/7 V = 8,5
Pour conclure, nous dirons que cette application de la thorie de
linformation reste tre tudie avec soin, les hypothses que
nous avons faites tant simplistes. On peut esprer, par les connaissances de lhistoire actuelle et passe des socits, dterminer
exprimentalement les coefficients des formules.
4. Circulation
de linformation
4.1 Vie de linformation
Que linformation disparaisse est chose certaine. Il nest qu songer aux livres uniques dtruits, aux transmissions dfectueuses, aux
messages perdus.
Linformation circule et se propage. Cette caractristique est
celle de la grandeur physique qui la supporte (champ lectromagntique, son...) donne tout son intrt au concept qui, sans elle, serait
purement abstrait et peut-tre sans aucun objet.
Alors la question se pose : linformation prend-elle sa source
quelque part ? Y a-t-il une naissance, une vie, une mort de
linformation ? Ici le terrain est trs mouvant, peu explor. Essayons
seulement de dgager quelques traits.
Lexistence de linformation est insparable de celle des tres anims et de lhomme en particulier.
Les vnements naturels non provoqus ne sont nullement porteurs dinformation moins que lhomme prcisment ne leur attribue une signification. En ce sens, une source dinformation serait
donc lexprience dont on a vu dailleurs quelle implique toujours
une augmentation dentropie.
Voici comment une chane informationnelle peut samorcer
(figure 6) : un chimiste met en prsence deux corps dont il sait quils
ont une certaine probabilit 1/2 de ragir. La raction a lieu. Il y a naissance dune unit dinformation qui, si lon veut, rsulte de la combinaison de lintelligence et de lvnement. Cette connaissance est
alors stocke, mise en mmoire dans le cerveau du chimiste. Puis un
Lois naturelles
+
intelligence
Information
Stockage
(cerveau)
Manuscrit
Impression
Exprience
Conservation
Indiffrence
Perte-destruction
Oubli
E 3 084 - 8
Diffusion
Figure 6 Circulation de linformation
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
Il reste examiner avec plus de soin le phnomne de la naissance de linformation. Elle sopre, avons-nous dit, par lapplication de lintelligence lvnement.
Les deux entres principales sont lil et loue qui peroivent les
rayonnements et les vibrations de lair.
Cest le fait notamment de se rendre compte que le cadre du galvanomtre tourne et non le fait brut quil tourne effectivement (a-t-il
seulement un sens ?) qui constitue linformation. Elle natrait donc
lorsque par lintermdiaire de lorgane dtecteur, on tablit une correspondance stricte entre lvnement et un tat local du cerveau.
Nous disons correspondance stricte, car celle-ci est obligatoirement
trs vague chez le nouveau-n qui comme on le sait peroit, mais ne
voit pas, entend, mais ne comprend pas et finalement tire trs
peu dinformation l, do lhomme duqu retire le maximum.
4.2 Conclusion
Pour rsumer il semble bien que lon puisse dire :
1) lunique source de linformation est lexprience dans laquelle la
combinaison de lvnement lintelligence grce aux organes
dtecteurs qui sont les sens, tablit une correspondance entre le
monde extrieur et ltat du cerveau. Linformation est mise en
mmoire ;
2) le traitement de linformation ainsi stocke seffectue par le travail de la pense. La faon doprer est sans doute ce que lon
nomme logique. Celle-ci doit pour une part la constitution de notre
cerveau et aux ractions qui sy produisent, mais aussi lobservation des effets extrieurs (comportement) de rsultats de trituration
de linformation, par une sorte de boucle asservie que lon nomme
dans certains cas rflexes. Cette manipulation de linformation
conduit gnralement un classement, une mise en ordre, bref un
meilleur codage liminant en partie la redondance. Elle ne conduit
pas la formation dinformation nouvelle, sauf arbitraire, par le jeu
de limagination ;
3) par la parole, lcriture, limage, linformation est communique, diffuse, stocke, et lacquit essentiel est dfinitivement
assur en dpit de la mort. Lhomme, au contraire de la mer, nest
jamais recommenc.
En admettant donc quil y ait peu de pertes, le capital information
de lhumanit saccrot sans cesse par lexprience.
On peut comparer lhistoire de lhomme celle dune vaste entreprise. Le physicien exprimentateur (physiciens, chimistes, biologistes,...) est charg de lapprovisionnement en marchandises qui
sont les informations dexprience. Les thoriciens mettent lordre
dans la maison, ils se servent de rgles commodes tablies par les
mathmaticiens. Ltablissement fabrique et ne produit pas autre
chose, sous dautres formes que ce qui est rentr dans ses murs.
5. Valeur de linformation
5.1 Retour sur la dfinition
de linformation
Tel quil a t crit le premier article (E 3 080) a prsent une dfinition qualitative de linformation, littraire en quelque sorte. En
introduisant le signal support et son accessibilit la mesure, le
deuxime article (E 3 082) en a donn une dfinition physique.
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 9
THORIE DE LINFORMATION
_____________________________________________________________________________________________________________
E peut tre :
une nergie quelconque ou particulire ;
une variation dentropie ;
tout effet particulier recherch : organisation, discipline de
groupes sociaux, rendement de travaux, etc.
On dira que pour obtenir un effet E, on doit disposer dune quantit dinformation I.
E
La valeur attribue au shannon est fonction de --- .
I
Si E est seulement probable et se compose deffets Ei , chacun
avec la probabilit pi davoir lieu, on pourra crire :
Sp i E i
V = f -------------I
Il est en effet lgitime de pondrer leffet par la chance quil a
dintervenir. Cela est commode sinon discutable et suppose que
linformation I est cause directe de E.
E o = 64 63 C 62 C 60 C 58 C 56
exprimant les faons diffrentes de ranger roi, reine, fous, cavaliers,
tours et pions.
Notons en passant que la configuration le jeu est rang , quon dit
ordonn, a mme probabilit quune configuration donne mais dsordonne.
Quand donc on parle dordre et de dsordre on compare une seule
configuration toutes celles quon range dans le sac dsordre !
En consquence, linformation contenue dans la constatation que le
jeu est bien rang est :
I = log2 (Eo /E1)
avec E1 = 1
soit 75 bits environ.
2) Inversement, il faudrait dpenser 75 sh soit 75 bits sils sont quiprobables pour ranger le jeu. cet effet, chaque pice possde son
numro de code. Il y en a 6 types diffrents, do en fait 3 digits par
pice. Le matre rangeur ordonnera un esclave (homme ignorant le
jeu ou machine) de placer la pice P en position xy (6 digits par position). Le matre devrait donc envoyer :
a homme ignare
b maon
16 (3 + 6) = 144 bits
Nous dirons que la valeur de cette information est 75/144 = 0,52.
Sil a fallu 144 bits alors que 75 taient suffisants, cest que le message tait mal cod, donc redondant, et la valeur, infrieure 1,
mesure cette redondance.
3) On peut par exemple demander la machine de ne pas changer
de ligne sans ordre. On enverrait alors :
E 3 084 - 10
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
6. Conclusion
lissue de ce voyage informatique et la fin dun parcours assur
dans les espaces mathmatiques, plus incertain sur les terrains de la
physique et des sciences de la vie, quelle conclusion tirer ?
Dabord qu la base de la thorie de linformation se trouvent
deux proprits fondamentales du monde dans lequel nous vivons :
la facilit de la propagation distance des tats physiques
comme D. Gabor lavait dj remarqu.
En dautres termes, laisance avec laquelle la configuration la
forme des objets peut tre perue dans le temps et dans lespace.
La facult que possde le cerveau des tres anims dtre aisment dforms par cette perception.
En dautres termes, cette mallabilit qui fait de la configuration
dun cerveau son tat physico-chimique un rcepteur ultra sensible vis--vis du monde qui lentoure.
partir de ces deux proprits un processus senclenche qui
dure et se perfectionne toujours :
le monde des objets anims ou pas volue selon ses lois propres. Il est dfini par les formes quil revt, dans le temps et dans
lespace ;
ces formes sont perues pour autant quelles sont
distinctes par la matire vivante, disons par le cerveau, aprs
avoir t transmises ;
selon le cas, le cerveau est, pas, peu, ou beaucoup modifi,
dform ;
selon le cas, et sous limpulsion du cerveau, ltre anim ragit, cest--dire modifie son tour les formes du monde de son environnement.
Cest un processus boucl par les quatre tapes que lon vient de
dcrire.
La relation entre les objets et les tres anims apparat ainsi
comme un immense systme asservi dont le lien fluide est linformation, comme llectricit lest des systmes lectriques et lhuile
des systmes hydrauliques.
La figure 9 schmatise ces considrations.
Calculs
Construisez
un barrage
I1
Ingnieurs
I2
Contrematres
I3
Barrage
Ouvriers
Elle est exprime dans une suite de langages plus ou moins bien
traduits les uns dans les autres. Ainsi, les diffrentes formes dun
objet, les mots employs pour le dcrire, les messages pour le faire
connatre, les photons utiliss dans la lecture, linflux envoy par les
yeux, les modifications probablement dynamiques des zones du
cerveau rserves la vision, linflux moteur en raction pour le
saisir ou aller le voir, sont traduits dans les langages successifs de la
chane rgule de la connaissance.
Ltablissement des relations entre les quatre tapes ci-avant se
fait petit petit, par apprentissage rflexe, sans quon sache encore
bien ce qui a t appris avant et ce qui va ltre, cest--dire sans
ligne de partage bien claire entre inn et acquis.
Lois naturelles
Perception
Modification du cerveau
Raction
Formation (formes)
IN-formation
D-formation
TRANS-formation
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait lectronique
E 3 084 - 11
P
O
U
R
Thorie de linformation
Application la physique
par
E
N
Jacques CLAVIER
Ingnieur gnral de larmement (CR)
Ancien lve de lcole polytechnique
Ingnieur de lcole Nationale Suprieure de lAronautique
et de lcole Suprieure dlectricit
Rfrences bibliographiques
[1]
[2]
[3]
[4]
[5]
[6]
[7]
S
A
V
O
I
R
P
L
U
S
Doc. E 3 085 1