Vous êtes sur la page 1sur 35

Retrouver ce titre sur Numilog.

com
Retrouver ce titre sur Numilog.com

LA SCIENCE ET LA THÉORIE
DE L'INFORMATION
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

Léon BRILLOUIN

LA SCIENCE
ET
LATHÉORIE
DE
L'INFORMATION

ÉDITIONS
JACQUES GABAY
Retrouver ce titre sur Numilog.com

Réimpression autorisée de l'édition originale de la traduction française, @Masson,


1959.
@ 1988, Éditions Jacques Gabay
25, rue du Dr Roux 92330 Sceaux
Tousdroits réservés. Aucunextrait decelivre nepeut-être reproduit, sous quelque formeou
quelque procédé que ce soit, sans le consentement préalable de l'Éditeur.
ISBN 2-87647-036-5
Retrouver ce titre sur Numilog.com

LA SCIENCE
ET LA
THÉORIE
DE L'INFORMATION
LÉON BRILLOUIN
Professeur honoraire au Collège de France, Membre de la National
Academy of Sciences (Washington, U.S.A.)

MASSON ET 0e, ÉDITEURS


120, BOULEVARD SAINT-GERMAIN, PARIS, VIe
1959
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

PRÉFACE A L'ÉDITION FRANÇAISE

L ETITRE de ce livre a déconcerté quelques lecteurs; son sens est double: théorie
t scientifique de l'information d'une part, mais aussi: application de la théorie
de l'information à desproblèmes de sciencepure. En somme, action et réaction entre
Science et Information. Ces deux aspects réciproques sont tous deux essentiels. Il
fallait commencerpar rappeler les origines, techniques et trèspratiques, de la théorie
et ses surprenants succès dans le domaine des télécommunications. Ceci dit, le but
essentiel était d'étendre ces méthodes et ces raisonnements à desproblèmes purement
scientifiques. Le champ nouveau d'application couvre surtout la thermodynamique
statistique. Unenouvelleprésentation d'ensemble en résulte, etjette des clartés impré-
vues sur une grande variété deproblèmes.
Je dois toutparticulièrement remercier monamiM. Parodipour le soin et l'atten-
tion qu'il a apportés à cette traduction; je dois aussiremercier Madame M. Serruys
qui a collaboré à ce travail. Le livre anglais paru en 1956 a rapidement connu un
gros succès etj'espère que les lecteursfrançais apprécieront cet ouvrage.J'ai profité
del'occasion pour apporter de nombreuses corrections etajouter diverscompléments
dans les chapitres terminaux.
Paris, Novembre 1958.
L. BRILLOUIN.
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com

INTRODUCTION

Le développement récent de la théorie de l'information a ouvert à la science


de nouveaux domaines; de nouveaux champs d'observation ont été découverts
qui ont immédiatement attiré des pionniers et des explorateurs. C'est, dans l'histoire
des sciences, un phénomène qui mérite d'être retenu et ce soudain développement
d'un domaine de recherche scientifique vaut d'être étudié avec soin. Comment
cela est-il arrivé? Quelle en fut la portée? Jusqu'où peut-on encore aller? S'agit-il
d'une invasion par la science d'un domaine traditionnellement réservé à la philo-
sophie ou de la découverte d'une nouvelle contrée, d'une sorte de «no man's land »,
ayant jusqu'à présent échappé aux explorateurs? Toutes ces questions demandent
examen et méritent une réponse précise.
Tout d'abord, qu'est-ce que l'information? Le dictionnaire de Wesbter donne
la définition : « Communication ou réception de renseignements. Faits, tout prêts
à être communiqués, et que l'on doit distinguer de ceux relevant de la pensée ou
deceuxincorporésdansunethéorie ou un corps dedoctrine. Données, faits nouveaux,
renseignements, connaissances résultant de l'étude d'une observation ». On peut
poser que l'information est le matériau brut et qu'elle consiste en une collection
de données, tandis que la « connaissance », la science demandent une certaine
réflexion, un effort de la pensée et l'organisation de cet ensemble de données par
comparaison et classification. Ce n'est que dans une étape ultérieure que l'on par-
vient à la connaissance scientifique et à la formulation scientifique des lois.
Comment est-il possible de construire une théorie scientifique de l'information ?
Il faut d'abord partir d'une définition scientifique de cette dernière. La science
commence là où la signification des mots est étroitement précisée. On peut choisir
des mots dans le vocabulaire existant ou bien en fabriquer de nouveaux, mais ils
doivent tous avoir une signification telle qu'elle ne conduise à aucun malentendu,
à aucune ambiguïté dans les chapitres de la science où on les utilise. Il est évident
que le même mot peut être utilisé avec un sens différent dans deux branches dis-
tinctes de la recherche scientifique; ainsi le mot « racine » a un sens parfaitement
clair pour celui qui étudie l'algèbre et un sens tout différent, également précis,
pour le botaniste, toutefois le risque de confusion est faible lorsque l'on envisage
des domaines aussi nettement différents. Les «racines » de l'algébriste nepeuvent
pousser et les « racines » du botaniste ne peuvent devenir imaginaires! L'unicité
de la signification d'un mot est caractéristique de la méthode scientifique. Puisque
des définitions analogues ont été posées par les scientifiques de tous les pays, la
traduction se fait facilement par une correspondance mot à mot entre vocabulaires
Retrouver ce titre sur Numilog.com

scientifiques. Si une telle circonstance se présentait couramment dans la vie, la


compréhension entre peuples serait particulièrement aisée!
Le profane ressent une sensation désagréable lorsque des mots courants sont
utilisés avec de nouvelles définitions scientifiques et il est tenté, de qualifier une telle
façon de faire de «jargon scientifique ». Mais ce «jargon » est de règle dans tout
domaine spécialisé —en théologie et même en philosophie —comme dans l'art
de l'ingénieur. Le profane ne peut pas comprendre le langage des spécialistes
parce qu'il ne connait pas le sujet que l'on étudie.
La définition précise d'un mot dans le parler scientifique repose, habituellement,
sur deux méthodes distinctes. En mathématiques, les définitions reposent sur l'intro-
duction de postulats nettement précisés; on en déduit des entités plus complexes
qui se trouvent définies en fonction de ces postulats. Les nouvelles définitions se
réduisent à la traduction verbale de formules exprimées par dessymboles et reposant
sur ces postulats. Les sciences expérimentales ont introduit un autre typede défini-
tions, souvent appelées « opérationnelles ». La force, la masse, la vitesse etc...,
sont définies par une brève description du mode d'expérience que demande leur
mesure. Le point de vue opérationnel a été chaudement recommandé, dans les
sciences expérimentales, par de nombreux savants éminents et le nom de
P. W. Bridgman a été souvent cité à ce propos. En règle générale, il a été jugé
convenable de n'introduire dans le parler scientifique que des quantités qui peuvent
être définies opérationnellement. Lesmots qui nesont pas susceptibles d'une défini-
tion opérationnelle ont, souvent, été considérés comme sans signification scien-
tifique et ont été éliminés du vocabulaire. Souvenons-nous, par exemple, du mot
« éther » et comment la théorie de la relativité l'a dépouillé de toute signification.
Revenant à la théorie de l'information, on doit partir d'une définition précise
du mot « information ». Envisageons un problème qui comporte un certain nombre
de réponses possibles lorsque l'on ne possède pas d'informations particulières
sur la situation présente. Si l'on parvient à obtenir quelque information sur le pro-
blème, le nombre des réponses possibles se trouve diminué et une information
totale peut même conduire à une seule réponse possible. L'information est une
fonction du rapport des réponses possibles après et avant qu'on l'ait reçue; on a
choisi une loi logarithmique afin de pouvoir additionner les informations qui corres-
pondent à des situations indépendantes. Ces problèmes et les définitions corres-
pondantes sont étudiés au premier chapitre; ils constituent le point de départ
de la nouvelle théorie.
Les méthodes de cette théorie peuvent être appliquées avec succès à divers
problèmes concernant l'information : codage, télécommunication, machines à
à calculer mécaniques etc... Dans tous ces problèmes, on transforme véritablement
l'information ou on la transmet d'un point à un autre et la présente théorie trouve
son extrême utilité en posant les règles, en introduisant les limites exactes qui pré-
cisent dans quelles circonstances cela peut être fait ou non. Mais, il est impossible
de décrire le mécanisme de la pensée, impossible aussi, pour l'instant, de faire
intervenir la valeur humaine de l'information. L'élimination de l'élément humain se
présente comme très sérieuse limitation, mais elle correspond, en fait, au prix
inévitable que comporte la fondation d'une doctrine scientifique. Les restrictions
ainsi introduites permettent de donner une définition quantitative de l'information
Retrouver ce titre sur Numilog.com

et de traiter l'information comme une grandeur mesurable. Cette définition ne


permet pas, toutefois, de distinguer une information ayant une grande importance,
d'une information secondaire n'ayant guère de valeur pour celui qui la reçoit.
Une telle définition parait artificielle à première vue, mais, en fait, elle est pra-
tique et scientifique. Elle reposesur la connaissance, pour chaque problème à étudier,
d'un ensemble de données statistiques qui, une fois obtenues, sont les mêmes pour
tous les observateurs. Ainsi notre définition de l'information est tout à fait objective,
indépendante de l'observateur. A côté de celà, la « valeur » de l'information
est évidemment subjective, relative à l'observateur. L'information contenue dans
une phrase peut être très importante pour moi et sans intérêt pour mon voisin.
De même, un journal peut être lu avec intérêt par maints lecteurs, alors qu'un
théorème d'Einstein qui force l'attention des physiciens, n'a pas de valeur pour
un profane.
Tous ces éléments, relatifs à la valeur humaine de l'information sortent du cadre
de la présente théorie. Ceci ne veut pas dire qu'on doive les négliger définitivement,
mais seulement que, pour le moment, il n'a pas été possible de les étudier sérieuse-
ment et de les classer. Ces problèmes feront, à n'en pas douter, l'objet des recherches
à venir, et il est à souhaiter qu'ils soient étudiés suivant des méthodes scientifiques.
La présente théorie s'étend sur le « no mans' land » de l'information absolue,
sur un ensemble de problèmes que ni les scientifiques, ni les philosophes n'avaient
jusqu'à présent étudiés. Si nous pouvons l'étendre jusqu'à des problèmes de valeur,
nous empiéterons sur un domaine réservé à la philosophie. Pourrons-nous un jour
traverser cette frontière et reporter les limites de la science dans cette direction?
C'est à l'avenir de nous répondre!
La définition de l'information absolue est d'une grande importance pratique.
L'élimination de l'élément humain permet précisément de répondre à un ensemble
de questions. L'ingénieur qui élabore un système téléphonique ne doit pas se soucier
de la manière dont on se propose de l'utiliser pour transmettre des bavardages,
des cotations en bourse ou des messages diplomatiques. Le problème technique
est toujours le même, transmettre, quelle qu'elle soit, l'information avec exactitude
et correctement. La constructeur d'une machine à calculer ne doit pas sepréoccuper
de savoir si elle sera utilisée pour élaborer des tables astronomiques ou calculer
des chèques bancaires. Ignorer la valeur humaine de l'information est la seule
façon de l'étudier scientifiquement, sans se laisser influencer par des préjugés
ou des considérations émotionnelles.
La description physique a conduit à découvrir un lien remarquable entre l'infor-
mation et l'entropie. Cette similitude a été signalée il y a longtemps par L. Szilard
dansunepublication déjà ancienne, datant de 1929; il s'y révêle comme un précur-
seur de la théorie actuelle. Dans ce travail, Szilard fait figure de pionnier dans cette
contrée inconnue que nous avons explorée dans toutes les directions. Il étudie le
problème du démon de Maxwell, problème qui est une des questions importantes
étudiées dans cet ouvrage. La relation entre l'information et l'entropie a été redé-
couverte par C. Shannon dans l'étude d'une grande variété de problèmes et nous
consacrons plusieurs chapitres à cette question. Nous montrons que l'information
doit être considérée comme un terme négatif figurant dans l'entropie d'un système;
en bref, l information est de la néguentropie. L'entropie d'un système physique
Retrouver ce titre sur Numilog.com

est souvent considérée comme une mesure de l'incertitude où l'on se trouve sur la
structure de ce dernier. Nous pouvons parvenir à ce résultat par deux chemins
peu différents.
Tout système physique est incomplètement défini. Nous connaissons seulement
les valeurs de quelques variables macroscopiques et nous sommes incapables de
définir les positions exactes ainsi que les vitesses de toutes les molécules intérieures
au système. Nous ne possédons qu'une information limitée et partielle sur notre
système et il nous manque la plus grande partie de l'information relative à sa struc-
ture intime. L'entropie mesure le manque d'information; elle nous donne la quan-
tité totale d'information qui fait défaut et qui est relative à la structure ultra-
microscopique du système.
Cette façon de voir est exprimée par le principe de néguentropie de l'information
qui se présente comme une généralisation immédiate du second principe de la
thermodynamique puisque l'entropie et l'information doivent être étudiées de
pair et ne peuvent être envisagées séparément. Le principe de néguentropie de
l'information se trouve vérifié dans un grand nombre d'exemples variés, tirés de
la physique théorique, dans son état actuel. Le point fondamental est de montrer
que toute observation ou expérience effectuée sur un système physique conduit
automatiquement à un accroissement de l'entropie du laboratoire. Il est alors
possible de comparer la perte de néguentropie (accroissement de l'entropie du
laboratoire) à la quantité d'information obtenue. Le rendement d'une expérience
peut être défini comme le rapport de l'information obtenue à l'accroissement
concomitant de l'entropie. Ce rendement est toujours inférieur à l'unité conformé-
ment au principe de Carnot généralisé. Des exemples montrent qu'il ne peut être
voisin de l'unité que dans quelques cas particuliers; dans les autres cas il est très
petit.
Cette méthode d'étude est très utile pour comparer les expériences fondamentales
sur lesquelles repose la science, et plus particulièrement la physique. Elle conduit
à de nouvelles recherches sur le rendement des diverses méthodes d'observation
ainsi que sur leur coût et leur précision.
Une intéressante extension de cette discussion permet de conclure que la mesure
des très petites dimensions est physiquement impossible. Le mathématicien définit
l'infiniment petit, mais le physicien est tout à fait incapable de mesurer des dimen-
sions dans ce domaine; l'infiniment petit est une pure abstraction, un rêve n'ayant
aucune signification physique. Si l'on adopte le point de vue opérationnel, on peut
convenir d'éliminer l'infiniment petit des théories physiques, et nous indiquons à
la fin du chapitre xvi comment conduire une tentative de ce genre.
On peut espérer que la théorie scientifique de l'information constitue le point
de départ d'un nouveau et important chapitre de la recherche scientifique, plus
particulièrement en physique et en biologie. Il est déjà acquis que cette nouvelle
théorie permet de rassembler et de regrouper un très grand nombre de faits épars,
spécialement sur les définitions et mesures essentielles de la physique. La théorie
nouvelle présente aussi l'avantage de consolider la position de la thermodynamique
statistique et d'éliminer un bon nombrede paradoxes, commele démonde Maxwell.
Retrouver ce titre sur Numilog.com

CHAPITRE PREMIER
DÉFINITION DE L'INFORMATION
1° Définition de l'information.
Ces dernières années a été développée la théorie de l'information qui a trouvé
de nombreuses applications dans différents domaines : les télécommunications,
le calcul, la physique pure et le processus fondamental de l'observation scientifique.
On peut définir une certaine expression qui mesure la quantité d'information
fournie par une opération donnée et nous montrerons que la grandeur ainsi intro-
duite s'apparente de très près à la notion physique d'entropie classique en thermo-
dynamique.
La définition de l'information dérive de considérations statistiques. Examinons
d'abord un exemple simple.
Considérons un système susceptible de prendre différents états au nombre de P0,
sous réserve que ces P, états possibles soient également probables a priori. Telle
est la position initiale du problème si nous ne possédons pas d'informations parti-
culières concernant le système considéré. Si nous obtenons des informations supplé-
mentaires sur le problème, nous pourrons spécifier que l'un seulement des Po états
est effectivement réalisé. Plus grande est l'incertitude du problème initial, plus
grand sera P, et plus grande sera la quantité d'information nécessaire pour faire
la sélection.
En résumé, nous avons :
—État initial : l0 = o, avec P, états également probables.
—État final : It ≠ o, avec Pl —i c'est-à-dire un seul état sélectionné.
Le symbole / représente l'information qui est définie par la relation
(1.1)
dans laquelle Kest une constante et le symbole In représente un logarithme népérien.
L'emploi du logarithme dans la formule (i-i) résulte du fait que l'on désire
que l'information possède la propriété d'additivité. Considérons en effet deux
problèmes indépendants, le premier possédant P01 solutions également probables
à priori et le second P02. Chaque solution du premier problème peut être couplée
Retrouver ce titre sur Numilog.com

avec toute solution du second. Il en résulte que le nombre total d'états initiaux est
Po = P01· P02
ce qui donne
(1.2)
avec
I = K In POl et 112 = K2In P02.
La quantité totale d'information demandée pour la résolution des deux pro-
blèmes est précisément la somme des deux informations individuelles /n et l .

2° Systèmes d'unitès.
Avant de poursuivre, il convient d'étudier la question des unités. On convient
habituellement, en théorie de l'information, de considérer cette dernière, I, comme
une grandeur sans dimensions (un nombre pur) et il en résulte que la constante K
est également un nombre pur. Le système d'unités qui paraît le mieux adapté est
basé sur la considération d'unités binaires ou digits (en abrégé « bits »). Illustrons
cela par un exemple. Considérons un problème comportant n états possibles indé-
pendants, chacun de ces états correspondant au choix binaire : o ou i.
Le nombre total des possibilités est
P = 2n
et de l'équation (i.i) résulte l'information
1 = Kin P = Kn ln 2.
Si nous convenons de représenter I par n, nombre d'unités binaires, nous devons
prendre
(1. 3a)
Dans ces conditions l'expression en bits de l'information est
(I.3b)
Considérons, par exemple, un paquet de 32 cartes différentes dans lequel on
doit en choisir une. Il résulte de l'équation (1. 3b) que l'on a
7=5 bits, puisque 32 = 25.
Considérons maintenant deux paquets distincts de cartes, chacun d'eux conte-
nant 32 cartes différentes. Si nous choisissons deux cartes, une dans chaque paquet,
nous pensons pouvoir dire que nous avons deux fois plus d'information que dans
le cas précédent. Le nombre total des possibilités P est
P = P1P2 avec P, = P2 = 32 = 264,
par suite
P = 210.
De la relation (1. 1) il résulte
1 = Kin P = JTln (Pl, Pt) = Kln Pl + Kln P2,
Retrouver ce titre sur Numilog.com

donc
1 = 10 bits.
Ainsi la définition logarithmique de l'information paraît valable.
Un autre système d'unités peut être introduit pour comparer « l'information »
avec « l'entropie » thermodynamique et permettre de mesurer ces deux grandeurs
avec les mêmes unités. L'entropie (voir chapitre ix) a les dimensions d'une énergie
divisée par une température. Dans le système c.g.s d'unités complété par le degré
centigrade, l'entropie est mesurée en ergs par degré. D'autre part, il est pour
l'entropie une formule tout à fait semblable à l'équation (1.2), dite formule de
Boltzmann, qui renferme le coefficient
(1-4)
La constante k est connue sous le nom de constante de Boltzmann [Eq. (9.15)].
Si l'on utilise la constante k à la place de K dans l'équation (1.1) l'information
est alors mesurée en unités d'entropie.
Nous pouvons aller plus loin et décider de choisir les unités de manière que
l'entropie et l'information soient des grandeurs sans dimensions et par suite repré-
sentées par des nombres purs (1). On peut y parvenir en mesurant la température
en unités d'énergie. L'échelle centigrade usuelle s'applique lorsque Aa la valeur
numérique donnée par l'équation (1.4) et est considéré comme un nombre pur.
Lorsque l'on procède ainsi, le rapport entre les unités des deux systèmes et le
nombre pur
(1.4 a)
Cette valeur numérique joue un rôle important dans toutes les applications
de la théorie.

3° Généralisation et exemples.
La définition de la mesure de l'information peut être étendue pour comprendre
le cas où il existe P, possibilités dans l'état initial et où l'état final comporte encore Pl
possibilités.
—État initial : 10= o avec P, cas également probables.
—État final : Il o avec P, cas également probables.
Dans une situation semblable, nous posons :
(1.5)
Cette définition (1. 5) se réduit, lorsque P, = 1, à celle qui résulte de l'équation
(1. 1) et la généralise manifestement.
Considérons un exemple numérique dans lequel on suppose que tous les chiffres
sont également probables; soit G leur nombre dans la base N. En général
(1.6)

(1) D. E. BELL. J. Appl. Phys. 23, 372, (1952).


Retrouver ce titre sur Numilog.com

Si nous écrivons cette équation en bits, nous obtenons

(1.7)
puisque

Ainsi, si N = 2, nous aurons 2e possibilités différentes et


(1.8)
Il est facile de montrer que l'on obtient la même valeur pour l'information
lorsque l'on change la base Net que l'on détermine par suite le nombre de chiffres.
Faisons choix, par exemple, d'une base N' = 8, le nombre considéré demandera
seulement G' —— G
3 digits pour le représenter et
(1.9)
ce qui est conforme à (1. 8).
Dans le système décimal considérons un nombre de G10chiffres :
(1.10)
Un nombre décimal fournit 3.32 bits d'information et la représentation binaire
d'un nombre exige 3.32 fois plus de chiffres que le représentation décimale.

40 Information utilisant l'alphabet.


Le langage est le mode de transmission de la part la plus importante de l'infor-
mation. Dans le langage parlé, les symboles élémentaires sont les sons fondamentaux
(souvent appelés phonèmes) alors que le langage écrit consiste en mots qui s'épèlent
en lettres. Envisageons le problème du calcul de la quantité d'information que
contient une phrase écrite. Ce problème, d'une importance pratique très grande,
est compliqué; il a été étudié dans le détail par C.E. Shannon (1) et par de nombreux
autres auteurs. Comme nous le verrons, le manque de données statistiques complètes
concernant le langage n'a pas permis de parvenir à une solution rigoureuse et
complète de la question.
On doit considérer les lettres comme des symboles que l'on a choisis pour construire
les phrases. En fait, un alphabet complet comporte 27 symboles : les 26 lettres
usuelles plus les « blancs » ou espaces entre les mots. Si ces 27 symboles étaient
également probables a priori, nous pourrions dire que l'information contenue dans
une phrase de G lettres a pour expression
(1.11)
ou encore
i = log2 27 bits par lettre.

(1) C. E. SHANNON et W. WEAVER, « The Mathematical Theory of Communication »,


p. 7, U. of Illinois Press, Urbana, III, 1949.
Retrouver ce titre sur Numilog.com

Ce résultat correspond à l'application directe de la formule (i. 7). Cependant


le résultat obtenu n'est pas satisfaisant, puisque les différentes lettres ne se pré-
sentent pas, dans le langage, avecla même probabilité a priori. Un tableau de ces
probabilités a été dressé pour la langue anglaise; il est reproduit ci-dessous
(tableau 1.1).
TABLEAU 1.1
Probabilités de présence, p, et valeur de —log10 p pour les lettres de la langue anglaise.

Soit pj la probabilité à priori de la jeme lettre (j = 1, 2, ... 27) donnée au


tableau (1.1). Selon Shannon, l'information moyenne par lettre peut s'écrire

(1.12)
Nous allons discuter la validité de cette formule.

5° Information contenue dans un ensemble de symboles


avec différentes probabilités à priori.
Supposons que nous utilisions M symboles différents 1, 2, ... j ... M qui ont
respectivement les probabilités apriori P1,P2, ... pj ... pM en n'introduisant aucune
autre condition ou contrainte en ce qui concerne leur emploi.
Il résulte de l'équation (1. 12) de Shannon, qu'une phrase comportant G
symboles, contient l'information

(1.13)
où i est l'information moyenne par symbole, avec

Étudions d'abord un problème simple qu'il sera facile degénéraliser ensuite.


Retrouver ce titre sur Numilog.com

Considérons un alphabet de deux « lettres », point et trait, comme en télé-


graphie, notées o et i. Considérons G cases et supposons que No de ces
cases contiennent o et que NI contiennent i : No+ Nt = G. Toutes les cases sont
remplies. La probabilité pour qu'une case contienne o s'écrit
(1.14)
et celle pour qu'elle contienne i ressort à
(1.15)
avec
(1.16)
la probabilité pour qu'elle contienne soit o, soit i, étant l'unité.
Déterminons maintenant le nombre de manières de remplir chacune desG
cases soit avec o, soit avec i, mais jamais avec les deux. C'est exactement le pro-
blème que pose la statistique de Fermi. Le nombre de manières qui permet de
remplir les Gcases sera égal au nombre de manières de remplir No cases avec o,
puisque, une fois que nous aurons distribué les No lettres o, les NI cases restantes
devront contenir chacune le symbole i. Or, le nombre de manières de remplir No
cases avec o est précisément égal au nombre des combinaisons de G objets
pris No à N0:
(1.17)
C'est le nombre de « messages » de G symboles lorsque l'un des symboles
d'un alphabet de deux lettres est utilisé Nofois, l'autre Ni fois. Si nous choisissons
un de ces messages, il apparaît par l'équation (i. i) que l'information a pour expres-
sion
(1.18)
Si le message est long et Gls Noet Nj suffisamment grand, on peut exprimer
les logarithmes des factorielles au moyen de la formule de Stirling
(1.19)
Cette formule donne une très bonne approximation, ainsi qu'il est connu,
pour Q> ioo. Si donc G » i, No$> i et i, alors
/ s* K [G(tnG- 1)- N.(tn N0- 1)- ln NI - 1)],
soit, en tenant compte de la relation G= No+ Nl,
(1.20)
En utilisant à nouveau la formule G= No+ Ni, la formule (1.20) peut aussi
s'écrire
(1.21)
Retrouver ce titre sur Numilog.com

En tenant compte des équations (1.14) et (1.15) et en divisant par G, la relation


précédente donne
(1.22)
i étant l'information par syrpbole du message.
On retrouve exactement, dans ce problème ne portant que sur deux symboles,
la formule (1.13) de Shannon. Notons queP, et étant tousdeuxinférieurs à l'unité,
leurs logarithmes sont négatifs et la formule (1.22) conduit à une valeur positive
pour i.
La généralisation au cas de plus de deux symboles est facile. Désignons
par Nlf N2, ... Nj ... V
i M les nombres de M symboles distincts qui sont utilisés et
choisissons un nombre G de cases

(1.23)
Dans le jtme symbole, la probabilité est

donc

(1.25)
Le nombre total, P, des messages qui peuvent être obtenus en distribuant au
hasard lessymbolesdans les G cases (chaque case ne contenant jamais plus d'un
symbole) est

(1.26)
et cette formule est la généralisation immédiate de la relation (1.17). L'information
contenue dans un message particulier a alors pour expression

(1.27)

Les relations (1.27) correspondent aux équations (1.18) (1.19), et (1.20) dans
la mesure où les nombres Get Nj sont assez grands pour que l'on puisse utiliser la
formule de Stirling. La méthode utilisée pour obtenir les équations (1.21) et (1.22)
conduit ainsi à la formule

(1.28)
C'est précisément la formule de Shannon.
Retrouver ce titre sur Numilog.com

A titre d'exemple, considérons 10 ooo messages construits avec des lettres


prises parmi les 27 lettres de l'alphabet, choisies au hasard avec d'égales probabilités
a priori. On a
(1-29)
donc
(1.29a)

Si, par contre, nous choisissons des lettres pour former un message de même
longueur, en prenant en considération les probabilités a priori des lettres prises
une à une, nous pouvons recourir à la relation (1.28) et il vient

(1.30)
cette dernière valeur pouvant être facilement obtenue en utilisant les données du
tableau 1.1.
Une analyse plus poussée de la structure du langage sera faite dans un chapitre
ultérieur. Elle montrera que la valeur précédente de i est une limite supérieure et
que la quantité véritable d'information par lettre lui est très inférieure, sa valeur
étant comprise entre un et deux bits.

6° Remarques générales.
Une remarque générale s'impose dès à présent. Chaque mode de contrainte,
chaque condition supplémentaire imposée à la liberté de choix possible conduit
immédiatement à une diminution d'information. Examinons ce qui se passe pour
un système dans lequel se présentent P possibilités distinctes lorsque toutes les
variables sont libres. Lorsque l'on impose des contraintes qui restreignent la liberté
de choix pour les variables, ces dernières éliminent certaines des possibilités qui
étaient acceptables auparavant. Le nouveau nombre de possibilités, P', dans le
cas de contraintes, doit manifestement être inférieur au nombre initial P, et il
en résulte que l'on doit avoir une nouvelle valeur /' de l'information inférieure
à I: I' < I :
— ■sans contrainte : P cas et I = KIn P
—avec contraintes : P' cas avec P' < P et
l' = Kln P' < 1.
Cette remarque se trouve illustrée par l'exemple traité au paragraphe précédent
relatif à l'emploi de lettres. Lorsque les lettres sont utilisées librement (probabilités
apriori égales) l'information par lettre ressort à 4.76 bits; si par contre, nous impo-
sons des contraintes correspondant au tableau 1.1 et si nous prenons en considéra-
tion les probabilités à priori des différentes lettres, l'information par lettre tombe
à 4.03 bits. Des contrainte supplémentaires en réduiraient encore la valeur. Une
autre façon d'expliquer ce résultat général est de penser que la contrainte est une
Retrouver ce titre sur Numilog.com

certaine connaissance anticipée de l'information, le, relative au message que l'on


a choisi; ainsi
I' = I—Ic
représente la quantité d'information que l'on obtient lorsque le est connu.
Quelques précisions sont maintenant nécessaires sur notre façon de procéder
et pour en montrer les limites. Pour établir l'équation (i.i) nous avons choisi une
définition statistique du mot,information. Cette définition mathématique est très
utile pour l'étude de nombreux problèmes scientifiques et techniques et elle permet
de parvenir à des conclusions d'ensemble de réelle valeur pratique et d'une grande
généralité. Cependant cette définition très précise conduit à des limitations : pour
l'obtenir nous avons été obligé d'exclure et d'ignorer de nombreuses significations
courantes du mot « information ».
Nous avons défini l'« information » comme le résultat d'un choix; nous ne
la considérerons pas comme le point de départ d'une prévision, comme un résultat
permettant de faire un autre choix. Nous laissons de côté la valeur humaine de
l'information. Nous attribuons une certaine valeur d'information à un ensemble
de 100 lettres sans chercher si cet ensemble a un sens en langue anglaise et si, cela
étant, la phrase obtenue a une quelconque importance pratique. Selon notre défini-
tion, nous donnerons la même valeur d'information à 100 lettres prises au hasard
(selon les lois du tableau i.i) et à une phrase de 100 lettres tirée d'un journal,
d'une pièce de Shakespeare ou d'un théorème d'Einstein. En d'autres termes, nous
définissons l'« information » indépendamment de la « connaissance » à laquelle
nous ne pouvons attribuer de valeur numérique.
Nous ne faisons pas de distinction entre l'information utile et l'information
inutile, préférant ignorer complètement la valeur de l'information. Notre défini-
tion statistique de l'information n'est basée que sur la rareté. Si une situation est
rare, elle contient une information; que cette information soit ou non dénuée
de valeur, cela ne nous préoccupe pas. L'idée de « valeur » se réfère à son emploi
possible par un observateur vivant; cet aspect du problème dépasse notre théorie;
nous somme incapables de discuter le cheminement de la pensée ou tout autre
problème relatif à l'emploi de l'information par des êtres vivants.
Notre définition de l'information est cependant extrêmement utile et pratique;
elle correspond parfaitement à la situation d'un ingénieur des télécommunications
qui doit pouvoir transmettre toute information contenue dans un télégramme
donné sans se préoccuper de la valeur que revêt cette dernière pour la personne
à laquelle le télégramme est destiné.
L'information est une grandeur absolue qui a la même valeur numérique pour
tout observateur; sa valeur humaine est par contre, nécessairement, une grandeur
relative qui aura des valeurs différentes suivant l'observateur, selon que celui-ci
aura la possibilité de la comprendre et de l'utiliser ultérieurement. Un théorème
d'Einstein aura probablement une bien plus grande valeur pour un mathématicien
qu'un article de journal, par contre, pour un lecteur profane, l'article aura plus
ou moins de valeur, mais le théorème n'en aura certainement pas.
Pour donner un exemple trivial, revenons à l'information obtenue en choisissant
une carte dans un paquet de 32 cartes; elle vaut 5 bits (voir paragraphe 2). Elle
Retrouver ce titre sur Numilog.com

a toujours cette valeur que la carte soit un as, un sept ou un roi. Les valeurs de ces
cartes dépendent cependant des règles du jeu que l'on pratique.
D'après notre définition, l'information est toujours mesurée par une quantité
positive. Cependant, dans certains cas, la valeur de l'information peut et doit
être regardée comme négative : supposons un professeur donnant une longue
conférence et découvrant, tout à coup, qu'il a fait une erreur; il conclut « Excusez-
moi, tout ce que je viens de dire était faux ». Cette dernière phrase a une valeur
négative et détruit toute la valeur de l'information précédente.
Ces exemples montrent clairement les limites de la présente théorie et elles
doivent être présentes à l'esprit dans les applications de cette dernière.
Retrouver ce titre sur Numilog.com

CHAPITRE II
APPLICATION DES DÉFINITIONS
ET DISCUSSION GÉNÉRALE
1° Définitions.
Nous avons montré, au premier chapitre, que la mesure de l'information
basée sur l'incertitude préexistant à un choix, était précise, mais nécessairement
restrictive. C'est ainsi, que la « valeur » d'une information ne pouvait être comprise
dans une telle mesure.
Nous avons également montré que s'il existe des probabilités a priori inégales
pour les choix possibles, ces probabilités a priori peuvent être regardées comme des
contraintes, ce qui conduit à une diminution de la quantité d'information.
C'est ainsi que si les probabilités a priori sont Pl' P2, ... pj ..., pour les symboles
(1), (2), ... (j )... respectivement, la quantité d'information par symbole a pour
valeur, ainsi que nous l'avons vu [Cf. eq. (1.12)],
(2.1)
Cette équation était en effet obtenue à partir de la formule donnant l'informa-
tion par symbole, dans l'hypothèse d'un choix sans contrainte,
(2.2)
appliquée aux msymboles distincts également probables, Gétant le nombre total
des symboles utilisés. [Nous avons remplacé ici la lettre M du § 5 du chapitre 1,
par « m»]. De ce fait nous avons pris pour point départ l'équation (2.2) qui dérive
de (2.1). Par contre, différents auteurs, et en particulier Shannon, sont partis de
l'équation (2.1). L'équation (2.2) en découle immédiatement. Supposons en effet,
que nous ayons msymboles différents, chacun d'eux ayant la même probabilité
a priori; dans ces conditions
(2.3)
et de l'équation (2.1) il résulte
(2.4)
qui est précisément la formule (2.2).
Passons maintenant en revue quelques propriétés de l'équation (2.1).
Retrouver ce titre sur Numilog.com

2° Propriété A.
Si un choix résulte de deux choix successifs, l'information qui lui correspond doit
être prise égale à la somme pondérée des informations partielles. Précisons cela
sur un exemple. Ainsi que l'illustre le schémade la figure 2.1, supposons queles pro-
babilités pour aller du point 0 aux points A, Bet Csoient respectivement égales

FIG. 2.1. FIG. 2.2.

à —, — et —. Envisageons maintenant le schéma 2.2 où figure un point inter-


2 3 6
médiaire M et posons que la probabilité pour aller de 0 en M est —
2 l Il en résulte
que la probabilité pour aller de M en B doit être de — puisque la probabilité initiale
pour aller de 0 en B est - • De la même manière on voit que la probabilité
3. 1
pour aller de M en C s'établit à - .
3
Nous représenterons l'information correspondant à la figure 2.1 par le symbole
—, — Pour le schéma 2.2, l'information relative aux chemins OA et
\ 2 3 6/ 1 1\
OM sera représentée par I ( —, — ) et celle relative aux chemins MB et MC par
2
2@
3
Les informations relatives aux figures 2.1 et 2.2 doivent être les mêmes :

Pour le schéma 2.1 nous avons


(2.5)
ce que l'on peut écrire

(2.6)
Retrouver ce titre sur Numilog.com

En développant et en regroupant, on obtient

(2.7)
La seconde écriture correspond à la figure 2.2 pour laquelle l'information
apparait comme la somme pondérée des informations afférentes aux chemins
OA, OM et MB, MC. Ce résultat est général et résulte du fait que l'information
est une fonction logarithmique.
3° Propriété B.
La propriété B consiste en une inégalité dont il sera fait usage par la suite.
Pour l'établir, considérons la fonction

dans laquelle pj est la probabilité du choix de rangj, les qj représentant un autre


ensemble de probabilités; on a manifestement
(2.8)
Posons

il apparait queles ujsatisfont à la relation


(2.9)
Portons les valeurs précédentes des qj dans la fonction V nous obtenons

(2.10)

En comparant les courbes représentatives de ln ( i + —


P J\ et de—
P tracées en fonc-
tion de —
pM(Fig. 2.3) on voit que
(2.11)

partout où In i + PU) a un sens.


Retrouver ce titre sur Numilog.com

Tenant compte de (2.11) dans (2.10), il vient

(2.12)
Finalement, compte tenu de (2.9) on obtient :
(2.13)

FIG. 2.3.

soit, en multipliant les deux membres par — K,


(2.14)

4° Propriété C.
L'information I est maximum lorsque les mprobabilités sont égales
(2.15)
Pour l'établir, remarquons que l'information n'est fonction que de (m—1)
variables indépendantes puisque

(2.16)

Soient donc P, P, les (m- 1) variables indépendantes. Les conditions (1)


pour que l'information I (plt p2, ... pm-i) soit maximum sont, en premier lieu,
quelesdérivéespartielles du premier ordre de/ soient nulles et, ensecondlieu, queIu
(1) Voir, par exemple, W. F. OSGOOD « Différential and Intégral Calculus », p. 342,
Mac Millan, N. Y., 1911.
Retrouver ce titre sur Numilog.com

ainsi que les mineurs principaux du déterminant

(2.17)

soient de signes alternés, avec la convention

ces quantités étant évaluées aux points définis par la première condition.
De la seconde écriture de l'équation (2.16) on tire

et, par suite,


∂I/∂p, = - K(ln P, + 1- ln pm- 1) = - K ln(p;/pm).
De la première condition résulte que nous aurons un maximum si
pj = Pm' j = I,2, ••• (m — I)
. d'où, par (2.16),

Les dérivées partielles secondes de I évaluées en ces points ont pour expressions

Le déterminant envisagé s'écrit alors

et la seconde condition implique que tous les déterminants de ce type d'ordres


1, 2, ... (m—1) soient de signes alternés à mesure que leur degré croît. Ceci est
précisémentlecas, puisque la valeur d'un déterminant de degré n, dutypeprécédent,
. est
(- Km), (n + 1).
La propriété C est donc établie.
Notons que cette dernière peut être établie graphiquement dans des cas simples.
. Dans l'hypothèse de deux possibilités, avec pt + P2 = 1, on a
(2.18)
Sur la figure 2.4 ou a porté les valeurs de I en fonction de p1 (ou de P2). I eSt
Retrouver ce titre sur Numilog.com

nul pour Pl = o et Pl = i. Il en résulte, par symétrie, que I doit être maximum

FIG. 2.4. —L'information en fonction de pi = 1—p2. Le maximum correspond à

et a pour valeur KIn 2 K = 1bit.


pour Pl = —
2 = P2 et que la valeur de ce maximum est

Dans le cas de trois possibilités


(2.19)

on construit le diagramme à deux dimensions de la figure 2.5; un tel diagramme,


à deux dimensions, est suffisant puisque seulement deux des trois grandeurs

. FIG. 2.5. —Représentation depi p2etP3 dans un diagramme à deux dimensions; cela est
possible seulement parce que deux des trois probabilités sont indépendantes :
Pl + P2 + P3 = 1.
Pu Pi et P3 sont indépendantes. Dans un plan considérons trois directions faisant
entre elles des anglesde 2—
3 . Prenons unelongueurpl suivant lapremière direction,
une longueur p2 suivant la seconde, enfin une longueur Pa suivant la troisième;
nous définissons ainsi un point M et la condition (2.19) implique que ce
Retrouver ce titre sur Numilog.com

point demeure à l'intérieur du triangle équilatéral A1A2A3. Le point Al est obtenu,


par exemple, en faisant pi —1, P2 —Pa —o; la droite AlA2 correspond à
Pl + P2 = Pa —o.
Ceci se voit facilement en utilisant des coordonnées rectangulaires dans le plan
et en projetant le contour Opp2p3 Md'abord sur l'axe des x, puis sur l'axe desy.
Les coordonnées du point M sont

(2.20)

L'équation de Al A, est y —- — 2 puisque, compte tenu de (2.20), elle donne


Pa = o et aussi p1 + P2 —1. Des résultats analogues se retrouvent, par symétrie,
pour les autres cotés du triangle.
Dans ces conditions, nous pouvons prendre le triangle AlA2A3 comme base.
Chaque point situé à l'intérieur du triangle correspond à un groupe de nombres
p,p2 et p satisfaisant aux relations (2.19). Nous pouvons alors porter l'information I

FIG. 2.6. —Surface d'information 1 tracée en fonction de pi pi et p;¡ avec


pl + P2 + Pt —I. Le maximum de 1 se produit pour Pl —P2 = p = —-
et a pour valeur K In 3 = (ln 3)/(In 2) bits. 3

suivant une perpendiculaire au plan du triangle ce qui conduit à la figure pers-


pective 2.6. Le maximum de cette surface correspond aux valeurs

il se situe donc sur la perpendiculaire menée par le centre du triangle.

5° Cas de couplage.
Nous allons maintenant considérer le problème des « cas de couplage ». Suppo-
sons que l'on ait deux variables x ety pouvant prendre les valeurs :
x = 1, 2, 3, ..., i, ..., m,
y = 1, 2,3, ..., i, ..., n
et qu'à un instant donné, nous choisissions une valeur pour chacune des deux
variables: aussi, au temps t, nous pouvons avoir x = i, ety = j. Soit p (i,j) la pro-
Retrouver ce titre sur Numilog.com

babilité pour qu'à un même moment, on ait x = i et y = j ; dans ces conditions :


(2.21)

Désignons par pi la probabilité pour que x = i (sans se préoccuper de la valeur


de y), on a

(2.22)

De même la probabilité pour que l'on aitjy —j, sans tenir compte de la valeur
de x, s'écrit

(2.23)
Nous avons manifestement les relations

(2.24)

Formons maintenant les quantités d'information qui correspondent aux diverses


probabilités que nous venons d'envisager.
L'information de couplage a pour expression

(2.25)
Celle relative à x seul s'écrit

(2.26)

Quant à l'information relative ày seul, elle est de la forme


(2.27)

Comparons la somme I (x) + I (y) à 1(x, y).


De (2.26) et (2.27) résulte
(2.28)

et, en tenant compte de la propriété B, on voit facilement que


(2.29)
Retrouver ce titre sur Numilog.com

Il suffit pour cela de remplacer dans l'équation (2.14) qj par P,. Pj; il vient
ainsi

Il est manifeste que l'existence de la probabilité de couplagep(i,j) implique une


contrainte qui, ainsi que nous l'avons signalé au premier chapitre, conduit à une
diminution de la quantité d'information. L'égalité ne peut se rencontrer que si
p (i,j) = ph pj ce qui signifie que les deux cas sont indépendants.

6° Information conditionnelle.
Dans ses tentatives pour parvenir à une égalité, Shannon a introduit le concept
d'« information conditionnelle » en envisageant une autre sorte de probabilité,
pi (j), qui est la probabilité pour quey —j sachant que x = i. La quantité pi (j)
est la « probabilité conditionnelle ».
Il est manifeste que
(2.30)
L'information conditionnelle est celle qui est associée à la probabilité pt (j)
et on la représente par Ix (y) ; elle est définie par la relation
(2.31)
Il est facile de montrer que I (x, y) = / (x) + I (y) ; en effet, en développant
le membre de droite de l'équation précédente, on obtient, compte tenu de (2.30),

(2.32)
En combinant (2.29) et (2.32), on obtient
l(x) + l(y) > l(x, y) = l(x) + l(y),
soit
(2.33)
L'information Ix(y) est celle relative à y lorsque l'on suppose x connu. Le fait
de connaître x impose une contrainte qui a pour effet de diminuer la quantité
. d'information dans le choix de y. L'égalité ne se rencontre que si x et y sont des
cas indépendants.
Retrouver ce titre sur Numilog.com

CHAPITRE III

REDONDANCE DANS LA LANGUE ANGLAISE


1° Corrélation et cas de couplage.
Avant d'introduire la notion de corrélation, revenons sur le problème des cas
de couplage.
Nous avons considéré deux variables x ety qui pouvaient prendre, par exemple,
les valeurs
x = 1,2, ..., i, ... m
y = 1)2, ..., j, ... n
et défini la probabilité p (i,j) pour qu'à un instant donné, t, on ait x = i ety = j.
A cette probabilité nous avons associé l'information I (x,y). Nous avons, d'autre
part, défini d'autres probabilités :
pi = ^p (i,j) = probabilité pour que x = i pour toute valeur de y, et à cette
toutj
probabilité nous avons associé l'information I (x).
p j =toΣutiP (i,j) probabilité pour que y = j pour toute valeur de x, l'infor-
mation liée à cette probabilité étant I (y).
Nous avons de plus établi, au chapitre précédent, l'inégalité

i(x) + l(y) y).


qui exprime le fait que la quantité d'information d'un système est réduite lorsque
l'on introduit une contrainte dans ce système.
Pour obtenir une égalité, nous avons enfin introduit la « probabilité condition-
nelle » pi (j) à laquelle est liée l'information conditionnelle Ix (y), probabilité
pour que y —j lorsque l'on sait que x —i.
Entre cesdiverses probabilités, nous avons trouvé qu'existait la relation

p·p(j) = p(i,j),
Retrouver ce titre sur Numilog.com

Paul TANNERY
ÉDITIONS • Pourl'histoire delasciencehéllène
• Lagéométriegrecque
JACQUES GABAY François TISSERAND
RÉIMPRESSIONS e TraitédeMécaniquecéleste
Tome I, Perturbation des planètes d'après la méthode
dela variation desconstantesarbitraires
TomeII, Théoriedelafiguredescorpscélestesetdeleur
Collection mouvementderotation
« LESGRANDS CLASSIQUES Tome III, Exposé d'ensemble des théories relatives au
GAUTHIER-VILLARS » mouvementdelaLune
Paul APPELL Tome1V, ThéoriedessatellitesdeJupiteretdeSaturne
Perturbationsdespetitesplanètes
e Traité deMécanique rationnelle 0 Leçonssur ladétermination desorbites,
TomeI, Statique - Dynamique du point avecunepréfacedeH. Poincaré
TomeII, Dynamique des systèmes
Mécanique analytique
TomeIII, Équilibre et mouvement des milieux continus Horscollection
Tome IV, I, Figures d'équilibre d'une masse homogène
en rotation Léon BRILLOUIN
II, Lesfigures d'équilibre d'une masse hétéro- • Lestenseursenmécaniqueetenélasticité
gène en rotation • Lascienceet la théoriedel'information
Figures de la Terre et desplanètes
Tome V, Éléments de calcul tensoriel Augustin-Louis CAUCHY
Applications géométriques et mécaniques 9 Coursd'Analysedel'École RoyalePolytechnique
Analysealgébrique
Ludwig BOLTZMANN
e Leçons sur la théorie des gaz Joseph FOURIER
Emile BOREL e Théorieanalytiquedelachaleur
• Leçons sur les séries divergentes Jacques HADAMARD
Louis de BROGLIE e Leçonsdegéométrieélémentaire(2vol.)
• Ondes et mouvements JOURNAL DEL'ÉCOLE POLYTECHNIQUE
Elie CARTAN e Textes d'Ampère, Cauchy, Lagrange, Laplace,
• Leçons sur la géométrie des espaces de Riemann Legendre, Monge, Poisson ...
mLeçons sur la géométrie projective complexe Stephen C. KLEENE
e Leçons sur la théorie des espaces à connexion pro- 0 Logiquemathématique
jective
• La théorie des groupesfinis et continus et la géométrie Trajan LALESCO
différentielle, traitées par la méthode du repère mobile 0 Lagéométriedutriangle
Camille JORDAN A. LIAPOUNOFF
• Coursd'Analyse de l'École Polytechnique (3 vol.) e Problèmegénéraldelastabilitédumouvement
• Traité dessubstitutions et des équations algébriques. André LICHNEROWICZ
Henri LEBESGUE e Élémentsdecalcultensoriel
• Leçons sur les constructions géométriques
• Les Coniques Ernst MACH
James Clerk MAXWELL e LaMécanique
• Traité d'Électricité et deMagnétisme Exposéhistoriqueet critiquedesondéveloppement
Julius PETERSEN John von NEUMANN
. Méthodes et théories pour la résolution des problèmes e Les fondements mathématiques de la Mécanique
degéométrie quantique
Henri POINCARÉ Henri POINCARÉ
e Coursd'Astronomiegénéraledel'ÉcolePolytechnique
• Calcul desprobabilités
• LaMécanique nouvelle George POLYA
Conférence (1909), Mémoire (1905) et Note (1905) sur e Commentposeretrésoudreunproblème
la Théorie de la Relativité Erwin SCHRÔDINGER
• Théorie dupotentiel newtonien e MémoiressurlaMécaniqueondulatoire
• Théorie des tourbillons
e Théorie mathématique de la lumière
Tome1,
TomeIl, Nouvelles études sur la diffraction Diffusion-Distribution : JACQUES GABAY
Théorie de la dispersion de Helmholtz 151 bis, rue Saint-Jacques 75005 PARIS
• Figures d'équilibre d'une massefluide
• Électricité et Optique Téléphone : (1) 43 54 64 64 - Télex : 203 521 F

ISBN 2-87647-036-5
o 1uvd WUUO IOJ I
Participant d’une démarche de transmission de fictions ou de savoirs rendus difficiles d’accès
par le temps, cette édition numérique redonne vie à une œuvre existant jusqu’alors uniquement
sur un support imprimé, conformément à la loi n° 2012-287 du 1er mars 2012
relative à l’exploitation des Livres Indisponibles du XXe siècle.

Cette édition numérique a été réalisée à partir d’un support physique parfois ancien conservé au
sein des collections de la Bibliothèque nationale de France, notamment au titre du dépôt légal.
Elle peut donc reproduire, au-delà du texte lui-même, des éléments propres à l’exemplaire
qui a servi à la numérisation.

Cette édition numérique a été fabriquée par la société FeniXX au format PDF.

Couverture :
Conception graphique ‒ Manon Lemaux
Typographie ‒ Linux Libertine & Biolinum, Licence OFL

*
La société FeniXX diffuse cette édition numérique en vertu d’une licence confiée par la Sofia
‒ Société Française des Intérêts des Auteurs de l’Écrit ‒
dans le cadre de la loi n° 2012-287 du 1er mars 2012.

Vous aimerez peut-être aussi