Académique Documents
Professionnel Documents
Culture Documents
com
Retrouver ce titre sur Numilog.com
LA SCIENCE ET LA THÉORIE
DE L'INFORMATION
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com
Léon BRILLOUIN
LA SCIENCE
ET
LATHÉORIE
DE
L'INFORMATION
ÉDITIONS
JACQUES GABAY
Retrouver ce titre sur Numilog.com
LA SCIENCE
ET LA
THÉORIE
DE L'INFORMATION
LÉON BRILLOUIN
Professeur honoraire au Collège de France, Membre de la National
Academy of Sciences (Washington, U.S.A.)
L ETITRE de ce livre a déconcerté quelques lecteurs; son sens est double: théorie
t scientifique de l'information d'une part, mais aussi: application de la théorie
de l'information à desproblèmes de sciencepure. En somme, action et réaction entre
Science et Information. Ces deux aspects réciproques sont tous deux essentiels. Il
fallait commencerpar rappeler les origines, techniques et trèspratiques, de la théorie
et ses surprenants succès dans le domaine des télécommunications. Ceci dit, le but
essentiel était d'étendre ces méthodes et ces raisonnements à desproblèmes purement
scientifiques. Le champ nouveau d'application couvre surtout la thermodynamique
statistique. Unenouvelleprésentation d'ensemble en résulte, etjette des clartés impré-
vues sur une grande variété deproblèmes.
Je dois toutparticulièrement remercier monamiM. Parodipour le soin et l'atten-
tion qu'il a apportés à cette traduction; je dois aussiremercier Madame M. Serruys
qui a collaboré à ce travail. Le livre anglais paru en 1956 a rapidement connu un
gros succès etj'espère que les lecteursfrançais apprécieront cet ouvrage.J'ai profité
del'occasion pour apporter de nombreuses corrections etajouter diverscompléments
dans les chapitres terminaux.
Paris, Novembre 1958.
L. BRILLOUIN.
Retrouver ce titre sur Numilog.com
Retrouver ce titre sur Numilog.com
INTRODUCTION
est souvent considérée comme une mesure de l'incertitude où l'on se trouve sur la
structure de ce dernier. Nous pouvons parvenir à ce résultat par deux chemins
peu différents.
Tout système physique est incomplètement défini. Nous connaissons seulement
les valeurs de quelques variables macroscopiques et nous sommes incapables de
définir les positions exactes ainsi que les vitesses de toutes les molécules intérieures
au système. Nous ne possédons qu'une information limitée et partielle sur notre
système et il nous manque la plus grande partie de l'information relative à sa struc-
ture intime. L'entropie mesure le manque d'information; elle nous donne la quan-
tité totale d'information qui fait défaut et qui est relative à la structure ultra-
microscopique du système.
Cette façon de voir est exprimée par le principe de néguentropie de l'information
qui se présente comme une généralisation immédiate du second principe de la
thermodynamique puisque l'entropie et l'information doivent être étudiées de
pair et ne peuvent être envisagées séparément. Le principe de néguentropie de
l'information se trouve vérifié dans un grand nombre d'exemples variés, tirés de
la physique théorique, dans son état actuel. Le point fondamental est de montrer
que toute observation ou expérience effectuée sur un système physique conduit
automatiquement à un accroissement de l'entropie du laboratoire. Il est alors
possible de comparer la perte de néguentropie (accroissement de l'entropie du
laboratoire) à la quantité d'information obtenue. Le rendement d'une expérience
peut être défini comme le rapport de l'information obtenue à l'accroissement
concomitant de l'entropie. Ce rendement est toujours inférieur à l'unité conformé-
ment au principe de Carnot généralisé. Des exemples montrent qu'il ne peut être
voisin de l'unité que dans quelques cas particuliers; dans les autres cas il est très
petit.
Cette méthode d'étude est très utile pour comparer les expériences fondamentales
sur lesquelles repose la science, et plus particulièrement la physique. Elle conduit
à de nouvelles recherches sur le rendement des diverses méthodes d'observation
ainsi que sur leur coût et leur précision.
Une intéressante extension de cette discussion permet de conclure que la mesure
des très petites dimensions est physiquement impossible. Le mathématicien définit
l'infiniment petit, mais le physicien est tout à fait incapable de mesurer des dimen-
sions dans ce domaine; l'infiniment petit est une pure abstraction, un rêve n'ayant
aucune signification physique. Si l'on adopte le point de vue opérationnel, on peut
convenir d'éliminer l'infiniment petit des théories physiques, et nous indiquons à
la fin du chapitre xvi comment conduire une tentative de ce genre.
On peut espérer que la théorie scientifique de l'information constitue le point
de départ d'un nouveau et important chapitre de la recherche scientifique, plus
particulièrement en physique et en biologie. Il est déjà acquis que cette nouvelle
théorie permet de rassembler et de regrouper un très grand nombre de faits épars,
spécialement sur les définitions et mesures essentielles de la physique. La théorie
nouvelle présente aussi l'avantage de consolider la position de la thermodynamique
statistique et d'éliminer un bon nombrede paradoxes, commele démonde Maxwell.
Retrouver ce titre sur Numilog.com
CHAPITRE PREMIER
DÉFINITION DE L'INFORMATION
1° Définition de l'information.
Ces dernières années a été développée la théorie de l'information qui a trouvé
de nombreuses applications dans différents domaines : les télécommunications,
le calcul, la physique pure et le processus fondamental de l'observation scientifique.
On peut définir une certaine expression qui mesure la quantité d'information
fournie par une opération donnée et nous montrerons que la grandeur ainsi intro-
duite s'apparente de très près à la notion physique d'entropie classique en thermo-
dynamique.
La définition de l'information dérive de considérations statistiques. Examinons
d'abord un exemple simple.
Considérons un système susceptible de prendre différents états au nombre de P0,
sous réserve que ces P, états possibles soient également probables a priori. Telle
est la position initiale du problème si nous ne possédons pas d'informations parti-
culières concernant le système considéré. Si nous obtenons des informations supplé-
mentaires sur le problème, nous pourrons spécifier que l'un seulement des Po états
est effectivement réalisé. Plus grande est l'incertitude du problème initial, plus
grand sera P, et plus grande sera la quantité d'information nécessaire pour faire
la sélection.
En résumé, nous avons :
—État initial : l0 = o, avec P, états également probables.
—État final : It ≠ o, avec Pl —i c'est-à-dire un seul état sélectionné.
Le symbole / représente l'information qui est définie par la relation
(1.1)
dans laquelle Kest une constante et le symbole In représente un logarithme népérien.
L'emploi du logarithme dans la formule (i-i) résulte du fait que l'on désire
que l'information possède la propriété d'additivité. Considérons en effet deux
problèmes indépendants, le premier possédant P01 solutions également probables
à priori et le second P02. Chaque solution du premier problème peut être couplée
Retrouver ce titre sur Numilog.com
avec toute solution du second. Il en résulte que le nombre total d'états initiaux est
Po = P01· P02
ce qui donne
(1.2)
avec
I = K In POl et 112 = K2In P02.
La quantité totale d'information demandée pour la résolution des deux pro-
blèmes est précisément la somme des deux informations individuelles /n et l .
2° Systèmes d'unitès.
Avant de poursuivre, il convient d'étudier la question des unités. On convient
habituellement, en théorie de l'information, de considérer cette dernière, I, comme
une grandeur sans dimensions (un nombre pur) et il en résulte que la constante K
est également un nombre pur. Le système d'unités qui paraît le mieux adapté est
basé sur la considération d'unités binaires ou digits (en abrégé « bits »). Illustrons
cela par un exemple. Considérons un problème comportant n états possibles indé-
pendants, chacun de ces états correspondant au choix binaire : o ou i.
Le nombre total des possibilités est
P = 2n
et de l'équation (i.i) résulte l'information
1 = Kin P = Kn ln 2.
Si nous convenons de représenter I par n, nombre d'unités binaires, nous devons
prendre
(1. 3a)
Dans ces conditions l'expression en bits de l'information est
(I.3b)
Considérons, par exemple, un paquet de 32 cartes différentes dans lequel on
doit en choisir une. Il résulte de l'équation (1. 3b) que l'on a
7=5 bits, puisque 32 = 25.
Considérons maintenant deux paquets distincts de cartes, chacun d'eux conte-
nant 32 cartes différentes. Si nous choisissons deux cartes, une dans chaque paquet,
nous pensons pouvoir dire que nous avons deux fois plus d'information que dans
le cas précédent. Le nombre total des possibilités P est
P = P1P2 avec P, = P2 = 32 = 264,
par suite
P = 210.
De la relation (1. 1) il résulte
1 = Kin P = JTln (Pl, Pt) = Kln Pl + Kln P2,
Retrouver ce titre sur Numilog.com
donc
1 = 10 bits.
Ainsi la définition logarithmique de l'information paraît valable.
Un autre système d'unités peut être introduit pour comparer « l'information »
avec « l'entropie » thermodynamique et permettre de mesurer ces deux grandeurs
avec les mêmes unités. L'entropie (voir chapitre ix) a les dimensions d'une énergie
divisée par une température. Dans le système c.g.s d'unités complété par le degré
centigrade, l'entropie est mesurée en ergs par degré. D'autre part, il est pour
l'entropie une formule tout à fait semblable à l'équation (1.2), dite formule de
Boltzmann, qui renferme le coefficient
(1-4)
La constante k est connue sous le nom de constante de Boltzmann [Eq. (9.15)].
Si l'on utilise la constante k à la place de K dans l'équation (1.1) l'information
est alors mesurée en unités d'entropie.
Nous pouvons aller plus loin et décider de choisir les unités de manière que
l'entropie et l'information soient des grandeurs sans dimensions et par suite repré-
sentées par des nombres purs (1). On peut y parvenir en mesurant la température
en unités d'énergie. L'échelle centigrade usuelle s'applique lorsque Aa la valeur
numérique donnée par l'équation (1.4) et est considéré comme un nombre pur.
Lorsque l'on procède ainsi, le rapport entre les unités des deux systèmes et le
nombre pur
(1.4 a)
Cette valeur numérique joue un rôle important dans toutes les applications
de la théorie.
3° Généralisation et exemples.
La définition de la mesure de l'information peut être étendue pour comprendre
le cas où il existe P, possibilités dans l'état initial et où l'état final comporte encore Pl
possibilités.
—État initial : 10= o avec P, cas également probables.
—État final : Il o avec P, cas également probables.
Dans une situation semblable, nous posons :
(1.5)
Cette définition (1. 5) se réduit, lorsque P, = 1, à celle qui résulte de l'équation
(1. 1) et la généralise manifestement.
Considérons un exemple numérique dans lequel on suppose que tous les chiffres
sont également probables; soit G leur nombre dans la base N. En général
(1.6)
(1.7)
puisque
(1.12)
Nous allons discuter la validité de cette formule.
(1.13)
où i est l'information moyenne par symbole, avec
(1.23)
Dans le jtme symbole, la probabilité est
donc
(1.25)
Le nombre total, P, des messages qui peuvent être obtenus en distribuant au
hasard lessymbolesdans les G cases (chaque case ne contenant jamais plus d'un
symbole) est
(1.26)
et cette formule est la généralisation immédiate de la relation (1.17). L'information
contenue dans un message particulier a alors pour expression
(1.27)
Les relations (1.27) correspondent aux équations (1.18) (1.19), et (1.20) dans
la mesure où les nombres Get Nj sont assez grands pour que l'on puisse utiliser la
formule de Stirling. La méthode utilisée pour obtenir les équations (1.21) et (1.22)
conduit ainsi à la formule
(1.28)
C'est précisément la formule de Shannon.
Retrouver ce titre sur Numilog.com
Si, par contre, nous choisissons des lettres pour former un message de même
longueur, en prenant en considération les probabilités a priori des lettres prises
une à une, nous pouvons recourir à la relation (1.28) et il vient
(1.30)
cette dernière valeur pouvant être facilement obtenue en utilisant les données du
tableau 1.1.
Une analyse plus poussée de la structure du langage sera faite dans un chapitre
ultérieur. Elle montrera que la valeur précédente de i est une limite supérieure et
que la quantité véritable d'information par lettre lui est très inférieure, sa valeur
étant comprise entre un et deux bits.
6° Remarques générales.
Une remarque générale s'impose dès à présent. Chaque mode de contrainte,
chaque condition supplémentaire imposée à la liberté de choix possible conduit
immédiatement à une diminution d'information. Examinons ce qui se passe pour
un système dans lequel se présentent P possibilités distinctes lorsque toutes les
variables sont libres. Lorsque l'on impose des contraintes qui restreignent la liberté
de choix pour les variables, ces dernières éliminent certaines des possibilités qui
étaient acceptables auparavant. Le nouveau nombre de possibilités, P', dans le
cas de contraintes, doit manifestement être inférieur au nombre initial P, et il
en résulte que l'on doit avoir une nouvelle valeur /' de l'information inférieure
à I: I' < I :
— ■sans contrainte : P cas et I = KIn P
—avec contraintes : P' cas avec P' < P et
l' = Kln P' < 1.
Cette remarque se trouve illustrée par l'exemple traité au paragraphe précédent
relatif à l'emploi de lettres. Lorsque les lettres sont utilisées librement (probabilités
apriori égales) l'information par lettre ressort à 4.76 bits; si par contre, nous impo-
sons des contraintes correspondant au tableau 1.1 et si nous prenons en considéra-
tion les probabilités à priori des différentes lettres, l'information par lettre tombe
à 4.03 bits. Des contrainte supplémentaires en réduiraient encore la valeur. Une
autre façon d'expliquer ce résultat général est de penser que la contrainte est une
Retrouver ce titre sur Numilog.com
a toujours cette valeur que la carte soit un as, un sept ou un roi. Les valeurs de ces
cartes dépendent cependant des règles du jeu que l'on pratique.
D'après notre définition, l'information est toujours mesurée par une quantité
positive. Cependant, dans certains cas, la valeur de l'information peut et doit
être regardée comme négative : supposons un professeur donnant une longue
conférence et découvrant, tout à coup, qu'il a fait une erreur; il conclut « Excusez-
moi, tout ce que je viens de dire était faux ». Cette dernière phrase a une valeur
négative et détruit toute la valeur de l'information précédente.
Ces exemples montrent clairement les limites de la présente théorie et elles
doivent être présentes à l'esprit dans les applications de cette dernière.
Retrouver ce titre sur Numilog.com
CHAPITRE II
APPLICATION DES DÉFINITIONS
ET DISCUSSION GÉNÉRALE
1° Définitions.
Nous avons montré, au premier chapitre, que la mesure de l'information
basée sur l'incertitude préexistant à un choix, était précise, mais nécessairement
restrictive. C'est ainsi, que la « valeur » d'une information ne pouvait être comprise
dans une telle mesure.
Nous avons également montré que s'il existe des probabilités a priori inégales
pour les choix possibles, ces probabilités a priori peuvent être regardées comme des
contraintes, ce qui conduit à une diminution de la quantité d'information.
C'est ainsi que si les probabilités a priori sont Pl' P2, ... pj ..., pour les symboles
(1), (2), ... (j )... respectivement, la quantité d'information par symbole a pour
valeur, ainsi que nous l'avons vu [Cf. eq. (1.12)],
(2.1)
Cette équation était en effet obtenue à partir de la formule donnant l'informa-
tion par symbole, dans l'hypothèse d'un choix sans contrainte,
(2.2)
appliquée aux msymboles distincts également probables, Gétant le nombre total
des symboles utilisés. [Nous avons remplacé ici la lettre M du § 5 du chapitre 1,
par « m»]. De ce fait nous avons pris pour point départ l'équation (2.2) qui dérive
de (2.1). Par contre, différents auteurs, et en particulier Shannon, sont partis de
l'équation (2.1). L'équation (2.2) en découle immédiatement. Supposons en effet,
que nous ayons msymboles différents, chacun d'eux ayant la même probabilité
a priori; dans ces conditions
(2.3)
et de l'équation (2.1) il résulte
(2.4)
qui est précisément la formule (2.2).
Passons maintenant en revue quelques propriétés de l'équation (2.1).
Retrouver ce titre sur Numilog.com
2° Propriété A.
Si un choix résulte de deux choix successifs, l'information qui lui correspond doit
être prise égale à la somme pondérée des informations partielles. Précisons cela
sur un exemple. Ainsi que l'illustre le schémade la figure 2.1, supposons queles pro-
babilités pour aller du point 0 aux points A, Bet Csoient respectivement égales
(2.6)
Retrouver ce titre sur Numilog.com
(2.7)
La seconde écriture correspond à la figure 2.2 pour laquelle l'information
apparait comme la somme pondérée des informations afférentes aux chemins
OA, OM et MB, MC. Ce résultat est général et résulte du fait que l'information
est une fonction logarithmique.
3° Propriété B.
La propriété B consiste en une inégalité dont il sera fait usage par la suite.
Pour l'établir, considérons la fonction
(2.10)
(2.12)
Finalement, compte tenu de (2.9) on obtient :
(2.13)
FIG. 2.3.
4° Propriété C.
L'information I est maximum lorsque les mprobabilités sont égales
(2.15)
Pour l'établir, remarquons que l'information n'est fonction que de (m—1)
variables indépendantes puisque
(2.16)
(2.17)
ces quantités étant évaluées aux points définis par la première condition.
De la seconde écriture de l'équation (2.16) on tire
Les dérivées partielles secondes de I évaluées en ces points ont pour expressions
. FIG. 2.5. —Représentation depi p2etP3 dans un diagramme à deux dimensions; cela est
possible seulement parce que deux des trois probabilités sont indépendantes :
Pl + P2 + P3 = 1.
Pu Pi et P3 sont indépendantes. Dans un plan considérons trois directions faisant
entre elles des anglesde 2—
3 . Prenons unelongueurpl suivant lapremière direction,
une longueur p2 suivant la seconde, enfin une longueur Pa suivant la troisième;
nous définissons ainsi un point M et la condition (2.19) implique que ce
Retrouver ce titre sur Numilog.com
(2.20)
5° Cas de couplage.
Nous allons maintenant considérer le problème des « cas de couplage ». Suppo-
sons que l'on ait deux variables x ety pouvant prendre les valeurs :
x = 1, 2, 3, ..., i, ..., m,
y = 1, 2,3, ..., i, ..., n
et qu'à un instant donné, nous choisissions une valeur pour chacune des deux
variables: aussi, au temps t, nous pouvons avoir x = i, ety = j. Soit p (i,j) la pro-
Retrouver ce titre sur Numilog.com
(2.22)
De même la probabilité pour que l'on aitjy —j, sans tenir compte de la valeur
de x, s'écrit
(2.23)
Nous avons manifestement les relations
(2.24)
(2.25)
Celle relative à x seul s'écrit
(2.26)
Il suffit pour cela de remplacer dans l'équation (2.14) qj par P,. Pj; il vient
ainsi
6° Information conditionnelle.
Dans ses tentatives pour parvenir à une égalité, Shannon a introduit le concept
d'« information conditionnelle » en envisageant une autre sorte de probabilité,
pi (j), qui est la probabilité pour quey —j sachant que x = i. La quantité pi (j)
est la « probabilité conditionnelle ».
Il est manifeste que
(2.30)
L'information conditionnelle est celle qui est associée à la probabilité pt (j)
et on la représente par Ix (y) ; elle est définie par la relation
(2.31)
Il est facile de montrer que I (x, y) = / (x) + I (y) ; en effet, en développant
le membre de droite de l'équation précédente, on obtient, compte tenu de (2.30),
(2.32)
En combinant (2.29) et (2.32), on obtient
l(x) + l(y) > l(x, y) = l(x) + l(y),
soit
(2.33)
L'information Ix(y) est celle relative à y lorsque l'on suppose x connu. Le fait
de connaître x impose une contrainte qui a pour effet de diminuer la quantité
. d'information dans le choix de y. L'égalité ne se rencontre que si x et y sont des
cas indépendants.
Retrouver ce titre sur Numilog.com
CHAPITRE III
p·p(j) = p(i,j),
Retrouver ce titre sur Numilog.com
Paul TANNERY
ÉDITIONS • Pourl'histoire delasciencehéllène
• Lagéométriegrecque
JACQUES GABAY François TISSERAND
RÉIMPRESSIONS e TraitédeMécaniquecéleste
Tome I, Perturbation des planètes d'après la méthode
dela variation desconstantesarbitraires
TomeII, Théoriedelafiguredescorpscélestesetdeleur
Collection mouvementderotation
« LESGRANDS CLASSIQUES Tome III, Exposé d'ensemble des théories relatives au
GAUTHIER-VILLARS » mouvementdelaLune
Paul APPELL Tome1V, ThéoriedessatellitesdeJupiteretdeSaturne
Perturbationsdespetitesplanètes
e Traité deMécanique rationnelle 0 Leçonssur ladétermination desorbites,
TomeI, Statique - Dynamique du point avecunepréfacedeH. Poincaré
TomeII, Dynamique des systèmes
Mécanique analytique
TomeIII, Équilibre et mouvement des milieux continus Horscollection
Tome IV, I, Figures d'équilibre d'une masse homogène
en rotation Léon BRILLOUIN
II, Lesfigures d'équilibre d'une masse hétéro- • Lestenseursenmécaniqueetenélasticité
gène en rotation • Lascienceet la théoriedel'information
Figures de la Terre et desplanètes
Tome V, Éléments de calcul tensoriel Augustin-Louis CAUCHY
Applications géométriques et mécaniques 9 Coursd'Analysedel'École RoyalePolytechnique
Analysealgébrique
Ludwig BOLTZMANN
e Leçons sur la théorie des gaz Joseph FOURIER
Emile BOREL e Théorieanalytiquedelachaleur
• Leçons sur les séries divergentes Jacques HADAMARD
Louis de BROGLIE e Leçonsdegéométrieélémentaire(2vol.)
• Ondes et mouvements JOURNAL DEL'ÉCOLE POLYTECHNIQUE
Elie CARTAN e Textes d'Ampère, Cauchy, Lagrange, Laplace,
• Leçons sur la géométrie des espaces de Riemann Legendre, Monge, Poisson ...
mLeçons sur la géométrie projective complexe Stephen C. KLEENE
e Leçons sur la théorie des espaces à connexion pro- 0 Logiquemathématique
jective
• La théorie des groupesfinis et continus et la géométrie Trajan LALESCO
différentielle, traitées par la méthode du repère mobile 0 Lagéométriedutriangle
Camille JORDAN A. LIAPOUNOFF
• Coursd'Analyse de l'École Polytechnique (3 vol.) e Problèmegénéraldelastabilitédumouvement
• Traité dessubstitutions et des équations algébriques. André LICHNEROWICZ
Henri LEBESGUE e Élémentsdecalcultensoriel
• Leçons sur les constructions géométriques
• Les Coniques Ernst MACH
James Clerk MAXWELL e LaMécanique
• Traité d'Électricité et deMagnétisme Exposéhistoriqueet critiquedesondéveloppement
Julius PETERSEN John von NEUMANN
. Méthodes et théories pour la résolution des problèmes e Les fondements mathématiques de la Mécanique
degéométrie quantique
Henri POINCARÉ Henri POINCARÉ
e Coursd'Astronomiegénéraledel'ÉcolePolytechnique
• Calcul desprobabilités
• LaMécanique nouvelle George POLYA
Conférence (1909), Mémoire (1905) et Note (1905) sur e Commentposeretrésoudreunproblème
la Théorie de la Relativité Erwin SCHRÔDINGER
• Théorie dupotentiel newtonien e MémoiressurlaMécaniqueondulatoire
• Théorie des tourbillons
e Théorie mathématique de la lumière
Tome1,
TomeIl, Nouvelles études sur la diffraction Diffusion-Distribution : JACQUES GABAY
Théorie de la dispersion de Helmholtz 151 bis, rue Saint-Jacques 75005 PARIS
• Figures d'équilibre d'une massefluide
• Électricité et Optique Téléphone : (1) 43 54 64 64 - Télex : 203 521 F
ISBN 2-87647-036-5
o 1uvd WUUO IOJ I
Participant d’une démarche de transmission de fictions ou de savoirs rendus difficiles d’accès
par le temps, cette édition numérique redonne vie à une œuvre existant jusqu’alors uniquement
sur un support imprimé, conformément à la loi n° 2012-287 du 1er mars 2012
relative à l’exploitation des Livres Indisponibles du XXe siècle.
Cette édition numérique a été réalisée à partir d’un support physique parfois ancien conservé au
sein des collections de la Bibliothèque nationale de France, notamment au titre du dépôt légal.
Elle peut donc reproduire, au-delà du texte lui-même, des éléments propres à l’exemplaire
qui a servi à la numérisation.
Cette édition numérique a été fabriquée par la société FeniXX au format PDF.
Couverture :
Conception graphique ‒ Manon Lemaux
Typographie ‒ Linux Libertine & Biolinum, Licence OFL
*
La société FeniXX diffuse cette édition numérique en vertu d’une licence confiée par la Sofia
‒ Société Française des Intérêts des Auteurs de l’Écrit ‒
dans le cadre de la loi n° 2012-287 du 1er mars 2012.