Académique Documents
Professionnel Documents
Culture Documents
11-2 (2007)
Varia
................................................................................................................................................................................................................................................................................................
Pierre Uzan
Avertissement
Le contenu de ce site relve de la lgislation franaise sur la proprit intellectuelle et est la proprit exclusive de
l'diteur.
Les uvres figurant sur ce site peuvent tre consultes et reproduites sur un support papier ou numrique sous
rserve qu'elles soient strictement rserves un usage soit personnel, soit scientifique ou pdagogique excluant
toute exploitation commerciale. La reproduction devra obligatoirement mentionner l'diteur, le nom de la revue,
l'auteur et la rfrence du document.
Toute autre reproduction est interdite sauf accord pralable de l'diteur, en dehors des cas prvus par la lgislation
en vigueur en France.
Revues.org est un portail de revues en sciences humaines et sociales dvelopp par le Clo, Centre pour l'dition
lectronique ouverte (CNRS, EHESS, UP, UAPV).
................................................................................................................................................................................................................................................................................................
Rfrence lectronique
Pierre Uzan, Physique, information statistique et complexit algorithmique, Philosophia
Scienti [En ligne], 11-2|2007, mis en ligne le 27 juin 2011, consult le 14 juin 2015. URL: http://
philosophiascientiae.revues.org/347; DOI: 10.4000/philosophiascientiae.347
diteur : Universit Nancy 2
http://philosophiascientiae.revues.org
http://www.revues.org
Document accessible en ligne sur :
http://philosophiascientiae.revues.org/347
Document gnr automatiquement le 14 juin 2015. La pagination ne correspond pas la pagination de l'dition
papier.
Tous droits rservs
Pierre Uzan
utilise. Ces dernires peuvent toujours, aprs Boltzmann, tre penses comme des rapports
de nombre de configuration physiques compatibles avec les contraintes macroscopiques.
Corrlativement, la recherche des distributions dquilibre ne ncessite en rien de se rfrer
ce que lon connat (ou ce que lon pourrait connatre) ou pas de ltat microscopique
dun systme physique puisque celles-ci peuvent tre calcules partir dun dcompte des
configurations microscopiques physiques accessibles (voir, par exemple, [Coulon & Moreau
2000 2.3.2]). Par consquent, sil ny a, a priori, aucune raison pour identifier lentropie
thermodynamique dun systme physique avec un manque dinformation-connaissance de son
tat microscopique, cest bien lide suggre par Boltzmann selon laquelle elle constitue une
mesure de son organisation intrinsque (de son dsordre molculaire ) quil nous faut
privilgier. C est cette ide qui sera soutenue ici.
En outre, linterprtation subjectiviste de la notion dentropie thermodynamique semble
dboucher sur une impasse conceptuelle : la suppose quivalence entre entropie
thermodynamique et manque dinformation-connaissance, qui mne lide de convertibilit
entre nguentropie et information-connaissance, permet de soutenir celle dun cot entropique de lacquisition dinformation-connaissance [Szillard 1929] [Bril-louin 1956] [Costa
de Beauregard 1963]. Or, cette dernire ide, qui a t propose comme solution au clbre
paradoxe du dmon de Maxwell, est aujourdhui fortement remise en question. Ce dbat
crucial sera rapport brivement dans la sectionIII.1 partir des textes rassembls par Leff et
Rex [Leff & Rex 2003] et de ses dveloppements plus rcents dus Norton [Norton 2005],
Bennett [Bennett 2003] et Shenker [Shenker 2000].
Enfin, dun point de vue plus technique (sectionIII.2), lutilisation de la notion statistique
dinformation en physique quantique rencontre trs vite dimportantes limites. Il sagit dj de
sa rfrence problmatique une notion de mesure qui en fait une grandeur relative certaines
observables particulires. Mais surtout, par le fait que linformation statistique associe un
tat quantique nvalue que sa dviation par rapport la puret, elle est incapable de donner
un sens et, a fortiori, dvaluer linformation encode dans un tat pur alors quune telle
valuation savre tout fait essentielle pour le dveloppement des thories de linformation
quantique.
Cet article se propose donc, dans un premier temps, de mettre en vidence les limites de
lutilisation de la notion statistique dinformation en physique. Pour cela, nous commencerons
par analyser la faon dont sest introduit en physique le concept dinformation-connaissance
(section I), et, plus prcisment, celui dinformation statistique (section II), avant de
mettre en vidence ses limites dordre conceptuelle et technique (section III). Puis, dans
un deuxime temps, nous montrerons, partir de la section IV, comment la notion de
complexit algorithmique, introduite par Solomonoff, Kolmogorov et Chaitin [Solomonoff
1964] [Kolmogorov 1965] [Chaitin 1977], permet de surmonter ces limitations en proposant
une dfinition structurelle ou organisationnelle de l information . Une telle notion
dinformation est, en effet, dgage de tout subjectivisme excessif puisque quelle nvalue pas
la connaissance ou le manque de connaissance de lobservateur concernant ltat dun systme
physique mais, mme si cest une certaine prcision prs (comme cest en fait le cas pour
toute grandeur physique), son organisation intrinsque. Comme nous le prciserons dans les
sectionsV.2 et VI partir des recherches de Zurek et Caves [Zurek 1989] [Caves 1990], elle
permet de proposer une interprtation structurelle de la notion dentropie thermodynamique.
Enfin, elle peut tre utilise de faon satisfaisante pour valuer le contenu informationnel dun
tat quantique pur, ce que ne peut faire la notion statistique dinformationnotons que
lapplication de la thorie de la complexit algorithmique au domaine quantique, qui requiert
des prcisions conceptuelles et techniques supplmentaires, sera examine part, dans la
sectionVI, partir des recherches rcentes de Vitnyi, Berthiaume et al., Gcs, Mora et Briegel
[Vitnyi 2001] [Gcs 2001] [Berthiaume et al. 2000] [Mora and Briegel 2004].
Lintroduction de cette notion structurelle dinformation en physique permettrait donc
dasseoir sur des bases plus saines et plus fcondes la direction de recherche actuelle qui lie de
faon troite physique et information, tant dans le domaine de la physique statistique (classique
et quantique) que celui de la thorie de linformation quantique. Ces dveloppements
12
La relation entre physique et information semble stre noue lorsqu on a essay dinterprter
le second principe de la thermodynamique dans le cadre de la mcanique statistique.
Le second principe de la thermodynamique a une origine purement phnomnologique
puisquil a t formul, au XIXe sicle, partir de lobservation du fonctionnement des
machines thermiques. Ses premiers noncs, relatifs au domaine spcifiquement thermique,
sont dus Clausius (la chaleur ne passe pas spontanment dun corps froid sur un corps
chaud), Thomson (un systme en contact avec une seule source de chaleur ne peut, au
cours dun cycle, que recevoir du travail et fournir de la chaleur) ou Carnot (si une machine
fournit du travail au cours dun cycle, elle change ncessairement de la chaleur avec deux
sources de tempratures diffrentes). Ces noncs sont quivalents et peuvent tre drives
dun nonc plus gnral1, de type axiomatique, qui stipule que:
Pour tout systme thermodynamique, ouvert ou ferm, il est possible de dfinir une fonction
dtat S, appele entropie 2, qui vrifie les proprits suivantes : S est une grandeur
extensive, et sa variation lors dune transformation quelconque sexprime sous la forme dune
somme de deux termes:
S=Se+Si,
13
14
15
16
Historiquement, les premires tentatives pour tablir un pont entre mcanique statistique
et thermodynamique sont dues Boltzmann. Pour modliser lvolution dun systme N
particules, Boltzmann utilise des fonctions de rpartition rduites p(p, q, t), o p et q sont
les vecteurs quantit de mouvement et position des constituants du gaz, dans lespace
une particule o lensemble de N particules est reprsent par un nuage de N points 6
coordonnes (trois despace et trois de quantit de mouvement). Cest--dire que le nombre:
(p, q, t)d3pd3q,
18
est le nombre moyen de particules se trouvant, linstant t, dans le volume lmentaire d3q
centr autour du point q et qui possdent la quantit de mouvement p d3p prs.
Cest pour valuer le terme de collision (collisions supposes binaires) entre les molcules
dun gaz parfait, suppos isol et homogne, que Boltzmann a introduit l hypothse du
chaos molculaire. Cette hypothse, que Boltzmann justifie par lexistence de perturbations
extrieures (le systme ne serait donc pas vraiment isol), postule de faon vidente une
asymtrie temporelle [Boltzmann, in Brush 1966]:
(CM) Les molcules ne sont pas corrles avant dentrer en collisionalors quelles le sont juste
aprs.
19
En physique quantique, von Neumann [von Neumann 1955] a dfini lentropie dun oprateur
densit D par:
SVN[D] =kBTrD ln D. (1)
21
Lentropie quantique SVN[D], qui peut tre vue comme une gnralisation de lentropie
dfinie par Gibbs en mcanique statistique classique (voir ci-aprs), reste constante si D
suit une volution Hamilto-nienne (quation de Liouville-von Neumann). Cest aussi grce
lutilisation dune approximation (ici, lhypothse des phases alatoires) que la question
de linterprtation mcanique de lirrversibilit thermodynamique a t rsolue par Pauli
dans le cadre quantique.
Philosophia Scienti, 11-2 | 2007
22
23
Lhypothse des phases alatoires propose par Pauli [Pauli 1928] peut tre considre
comme la rplique quantique de lhypothse du chaos molculaire de Boltzmann. Selon
cette hypothse, qui est justifie par lexistence de perturbations extrieures incontrlables
subies par le systme, les relations de phase entre ses micro-tats possibles sont rparties de
faon alatoire et sont alors trs rapidement dtruites, en des temps trs petits lchelle des
temps dvolution macroscopique. Cette hypothse permet de substituer loprateur densit
D exact , soumis lvolution Hamiltonienne (quation de Liouville-von Neumann),
un oprateur densit approch Ddiag pour lequel les termes non-diagonaux de la matrice
reprsentant D dans une certaine base (de relevance) sont gomms. Loprateur approch
vrifie alors une quation matresse Markovienne (lquation de Pauli) du mme genre que
celle obtenue par Boltzmann dans le cadre de la mcanique statistique classique.
Pour notre propos qui est de prciser le concept d information utilis en physique et
den dvoiler ses limites, un premier commentaire simpose cet endroit. Lvolution dun
systme vers son tat dquilibre thermodynamique, quil soit modlis par lquation de
Boltzmann ou celle de Pauli a t, aprs coup, dcrite en termes dinformation ou mme de
mmoire. Par exemple, le thorme H de Boltzmann sinterprterait comme un transfert
continu d information des fonctions de rpartitions une particule vers les corrlations
cres chacune des collisions [Balian 2005, 21]. Dans le mme esprit, nous pouvons lire
que lors de son volution vers son tat dquilibre, le systme macroscopique perd la
mmoire de ses tats microscopiques antrieurs au bout dun temps t trs court par rapport
lchelle de temps caractristique de son volution macroscopique [Diu et al. 1989, 597].
Cependant, quel est exactement le statut des notions d information et de mmoire
utilises par ces auteurs (et par bien dautres encore) pour dcrire lvolution spontane dun
systme vers son tat dquilibre thermodynamique? Sagit-il vraiment dune information
pouvant tre attribue de faon intrinsque au systme physiqueet de mme pour la notion
de mmoire, et, si oui, comment? Ou bien faut-il, comme cest gnralement le cas,
comprendre ces notions de faon subjective en faisant rfrence un observateur impersonnel
qui disposerait ou non de cette information-connaissance? Malheureusement, il semblerait
que ce soit la deuxime option qui ait t choisie par les physiciens jusqu trs rcemment. Le
concept dinformation renvoie, chez ces auteurs, une notion dobservateur susceptible
dacqurir ou non cette information et cest mme ce critre l qui dfinit la relevance
dune telle information-connaisance. Les observables relevantes sont, en effet, dfinies
comme celles qui peuvent tre mesures ou contrles par ce mme observateur alors que
lentropie relevante correspondante value le manque dinformation(-connaissance) sur
ltat microscopique du systme compte tenu du fait que ne peuvent tre observes ou
contrles que cet ensemble de variables macroscopiques relevantes [Balian 2005]5. En
outre, cette drive subjectiviste est amplifie dans les autres propositions rapportes ci-aprs,
qui sont tout aussi incontournables que les prcdentes, puisque celles-ci font explicitement
appel ce que connat ou ne connat pas lobservateur ou lexprimentateur du systme
physique considr.
Lentropie dfinie par Boltzmann, laide de la densit une particule, ne prenant pas
en compte les interactions entre les composants du fluide (sauf au moment des chocs),
elle ne convient donc que pour des gaz parfaits et non pas pour des fluides rels [Jaynes
1965]. Cest ce qui avait amen Gibbs considrer une dfinition plus gnrale de lentropie
thermodynamique utilisant la densit en phase (p(N), q(N), t) dans lespace des phases 6N
dimensions, o la fonction H est alors dfinie, pour un gaz N particules, par:
o p(N)=p1, , pN et q(N)=q1, , qN sont les coordonnes des N particules dans q(N),, alors que
d est llment de volume de autour du point de coordonnes (p(N), q(N)).
Notons que lentropie de Gibbs:
Philosophia Scienti, 11-2 | 2007
SGibbs=kBHGibbs (2)
25
est obtenu partir de lexpression quantique de lentropie (1) par passage la limite: lorsque
laction caractristique du systme trs grande devant h, la constante de Planck, les oprateurs
impulsion et position sont remplacs par des variables relles (coordonnes de point de ), les
observables deviennent des fonctions de ces variables et lopration trace se rduit bien une
intgrale de volume sur lespace des phases .
Comme ctait le cas pour lentropie de von Neumann, lors de lvolution Hamiltonienne
(classique) rgie par lquation de Liouville, lentropie SGibbs reste constante. Pour interprter
la croissance monotone de lentropie thermodynamique jusqu ltat dquilibre, Gibbs
a introduit lhypothse de dcoupage grossier de lespace des phases, dite de coarsegraining [Gibbs 1902, chapXII]:
(CG) Lespace est dcoup en petits lments de volume vj pour lesquels la prcision de nos
observations ne permet pas de distinguer entre deux de leurs points.
26
La distribution approche cg est donc obtenue par moyennage de la densit exacte sur
chacun des vj, si le point reprsentatif du systme se trouve dans vj. Cette densit coarsegrained approximative vrifie une quation cintique Markovienne qui traduit ici de faon
explicite le processus de perte progressive dinformation-connaissance de lexprimentateur
(ou de lobservateur) sur ltat microscopique du systme, perte dinformation qui est due
au caractre limit de la prcision de ses observations. Lentropie correspondante ScgGibb, qui
est, comme SGibbs, maximise par les distributions dquilibre micro-canoniques, canoniques et
grand-canoniques, est bien, en effet, une fonction non dcroissante du temps.
28
Signalons enfin, pour terminer cette brve revue, un procd dun autre type qui a t
utilis pour tablir un pont entre mcanique statistique et thermodynamique et qui repose
aussi de faon explicite sur le concept dinformation-connaissance. Ce procd est bas
sur lide que lirrversibilit thermodynamique traduirait notre manque de connaissance de
lvolution effectivement suivie par un systme physique et non sur lutilisation dune densit
en phase ou dun oprateur densit approximatif (relevant), comme dans les propositions
prcdentes. Cette incertitude ou absence de prvisibilit de lvolution fait appel ce que
lon pourrait appeler l hypothse de lHamiltonien mal connu qui permet dintroduire
un lment de stochasticit dans lvolution dynamique [Jaynes 1957] [Balian, 1982]. On
suppose, en effet, que plusieurs volutions sont possibles pour le systme physique considr,
volutions qui dpendent de la valeur du terme perturbatif Hj , pondr par la probabilit
pj, dans lHamiltonien Hj = H + Hj relatif lvolution j. Pour chacune des volutions
j, loprateur densit du systme est rgi par la loi dvolution Hamiltonienne et suit donc
une volution conservative, cest--dire que lentropie statistique SVN dfinie par lexpression
(1) ci-dessus reste constante, cest--dire que SVN [Dj (t)] = SVN [D(0)]. Cependant, par la
proprit de concavit de lentropie statistique [Balian 1982], loprateur densit rsultant de
cet ensemble dvolutions possibles, qui doit tre calcul t comme la moyenne pondre
par les probabilits pj des oprateurs Dj(t), suit une volution dissipative. Lhypothse de
lHamiltonien mal connu permet ainsi dtablir la croissance monotone de lentropie
quantique jusqu sa valeur maximale (dquilibre).
Dautre part, Prigogine et ses collaborateurs ont propos une modification des lois
Hamiltoniennes de faon y incorporer la sensibilit de certains systmes dit mlangeants
aux conditions initiales, systmes considrs alors comme tant intrinsquement instables
[Prigogine 1980]. Cependant, bien que cette proposition soit fonde sur la limitation de notre
connaissance des conditions initiales (mme si cest de faon plutt cache) et non sur celle de
lHamiltonien, elle revient en fait interprter lirrversibilit selon lide prsente ci-dessus
dimprvisibilit de lvolution due un manque dinformation-connaissance (ici, ce manque
dinformation concerne les conditions initiales et non lHamiltonien).
30
31
32
33
Cest ici que lon a franchi un pas supplmentaire dcisif (et souvent accept sans discussion).
On ne sest pas seulement content dintroduire, de faon souvent implicite, des considrations
relatives l information dont nous disposons sur ltat microscopique dun systme
pour expliquer la croissance monotone de lentropie thermodynamique que ce soit en
utilisant lhypothse du chaos molculaire, un concept de coarse graining, en dfinissant
plus gnralement une densit dtat ou un oprateur densit relevant(e) , ou mme
en voquant un manque de prvisibilit de lvolution. Les dfinitions statistiques de
lentropie thermodynamique propose par Boltzmann, Gibbs et von Neumann, qui sont
pleinement justifie par la taille macroscopique des systmes considrs, ont t exploites
plus radicalement encore : par une interprtation sub-jectiviste du concept de probabilit
inhrent ces dfinitions, certains ont propos une pure et simple identification de la notion
dentropie thermodynamique avec celle d entropie statistique issue de la thorie de
la communication de Shannon et Weaver [Shannon & Weaver 1948] et applique au
contexte physique dont il est question. C est--dire quils ont propos lide selon laquelle
lentropie thermodynamique dun systme physique ne serait finalement quune mesure de
notre ignorance de son tat microscopique.
Prcisons ce point essentiel. Lentropie statistique, quil vaudrait mieux appeler manque
dinformation-connaissance pour la distinguer a priori des interprtations donnes par
Boltzmann, Gibbs ou von Neumann de lentropie thermodynamique dans le cadre de la
mcanique statistique, est dfinie de la faon suivante : pour un ensemble dvnements
possibles E={e1 ..., ej, ..., en} pouvant survenir avec des probabilits p1, ..., pj, ..., pn, lentropie
statistique Sstat(E) de lensemble E, qui value linformation manquante sur cet ensemble (ou
la quantit dinformation moyenne qui peut tre acquise lors de lobservation que lun de ces
vnements se ralise), est dfinie par:
34
35
37
38
39
40
10
41
42
43
o E(x) est lnergie du systme au point de coordonnes gnralises (dans lespace des
phases relatif au systme considr)
x=(x1, x2, , xn),
alors que Z est la fonction de partition canonique qui se dfinit aussi laide de lunique
fonction E(x). Or, dans lexemple de Leff et Rex repris par Norton, les cellules-mmoire ont
des fonctions nergie diffrentes selon la position de la molcule: si la molcule se trouve
11
44
45
46
droite, lnergie est finie dans la partie droite de lespace des phases relatif cette collection et
infinie gauche, de faon ce que sa probabilit de prsence sannule; et dans lautre cas cest
le contraire qui est vrai. La collection de cellules-mmoire constitu par un mme nombre de
cellules avec la molcule droite ou gauche ne peut donc dfinir un ensemble canonique au
sens de la mcanique statistique [Norton 2005, 18].
De faon plus directe, nous pouvons dire que la notion d entropie utilise chez les
dfenseurs du principe de Landauer, et en particulier dans lillustration donne par Leff et Rex,
mesure un manque dinformation-connaissance partir de probabilits subjectivescomme
nous pouvons le constater dans largumentation de Leff et Rex (points (a) et (b) ci-dessus).
Or, ces probabilits subjectives ne peuvent, en aucun cas, tre identifies aux probabilits
physiques de la mcanique statistique qui valuent, elles, des rapports entre nombres de
configurations physiques accessibles, ces dernires servant dfinir les ensembles statistiques
de la mcanique statistique. Comme le montre Norton, lutilisation densembles statistiques
est donc bien illicite dans ce cas.
Bien que le dbat sur le paradoxe du dmon de Maxwell ne soit peut-tre pas dfinitivement
clos aujourdhui, ce que lon peut affirmer est que sa rsolution, propose initialement par
Szillard puis reformule ensuite par Landauer et Bennett en termes de cot entropique de
leffacement de la mmoire, est srieusement remise en cause aujourdhui. L ide dune
quivalence, quelle soit directe ou non, entre nguentropie et information-connaissance
ne peut plus tre soutenue: soit sa justification est base sur des exemples particuliers qui
contiennent dj une tape thermodynamiquement irrversible [Norton 2005, sectionII.3], soit
elle utilise de faon illicite la notion densemble statistique, en identifiant implicitement les
probabilits introduites par Boltzmann ou Gibbs en mcanique statistique des probabilits
subjectives.
Cette remise en question des solutions proposes au paradoxe du dmon de Maxwell sur la base
dune suppose identification entre entropie thermodynamique et manque dinformationconnaissance semble donc confirmer les doutes formuls au dbut de cette section : il est
difficile de croire que lentropie thermodynamique, qui est dfinie partir des paramtres
physiques macroscopiques intrinsques dun systme (volume, nergie, nombre de particules,
temprature... ), pourrait se rduire ntre quune grandeur purement subjective dont la valeur
dpend de ce que sait ou ne sait pas lobservateur. Lide selon laquelle lvolution dun
systme vers son tat dquilibre thermodynamique dpendrait de ce que lon sait ou non de
son tat microscopique semblerait relever en fin de compte dune conception plutt nave de
notre relation au monde physique.
48
Mais ce nest que dans le cas dobservables qui commutent avec D , du type:
12
49
que les probabilits dobtention des rsultats possibles bj sont gales aux pj . Ce nest, en effet,
que dans ce cas (mesure non perturbative) que la mesure de B va nous renseigner sur ltat D
et non un tat rduit. Par consquent, SVN[D] nvalue que lincertitude relative la mesure
dobservables qui commutent avec D et non lincertitude relative la mesure de nimporte
quelle observable.
Dailleurs, si lon considre la mesure (complte) dune observable B qui ne commute pas
avec D, le gain moyen dinformation serait paradoxalement plus grand que linformation
manquante SVN[D] avant la mesure! En effet, dans ce cas la mesure de B ne nous informe
pas sur ltat initial D du systme mais sur un tat tronqu (rduit) D'=jPjDPj, o les
Pj sont les projecteurs sur les sous-espaces associs aux rsultats possibles bj de la mesure de
B, et on montre que [Balian 1982, 105]:
SVN[D']>SVN[D].
50
51
Par consquent, lentropie SVN dun oprateur donne par von Neumann en physique quantique,
dont la dfinition se rfre, comme celle de Sstat, une notion dobservation ou de mesure, ne
peut, en outre, valuer que lincertitude relative la mesure des observables qui commutent
avec cet oprateur. Son utilisation nest donc justifie que relativement cette dernire classe
dobservable.
III. 2. 2. Quelle mesure pour linformation quantique?
Lentropie SVN dun oprateur densit, comme l entropie statistique Sstat est dfinie
ngativement , comme une incertitude (ou un manque dinformation ) lie une
distribution dvnements ou dtats possibles. Ce qui a pour consquence que lentropie Sstat
dfinie par:
SVN[D]=kBTrDlnD (1)
52
53
ne mesure que le degr de puret de D mais nest pas dfinie pour un tat pur: en fait, pour
un tat pur elle est prise nulle par convention ou par construction. Elle ne peut donc, en
aucun cas, tre utilis pour valuer le contenu informationnel dun tat pur.
Il serait bien sr possible de dfinir une notion dinformation statistique pour un systme
prpar dans un tat pur en considrant lensemble des mesures que lon pourrait effectuer
sur ce systme. Cette grandeur, appele par Pomeransky entropie informationnelle [Pomeransky 2004], value la quantit moyenne dinformation-connaissance que lon pourrait
obtenir en effectuant ces mesures. Mais, comme nous lavons remarqu ci-dessus, la rfrence
une notion de mesure nest pas satisfaisante puisqu une mesure ne fournit en gnral
quune information trs partielle dun tat quantique (celle de ltat rduit)10. Et le fait
de considrer un ensemble de mesures possibles ne permet pas plus de dfinir une grandeur
intrinsque cet tat purmais seulement une grandeur relative ces mesures.
En particulier, il faudrait pouvoir valuer le contenu informationnel dun tat intriqu
qui joue un rle fondamental dans les phnomnes typiquement quantiques (corrlations
EPR) et qui constitue une ressource essentielle pour la ralisation de diverses tches
spcifiquement quantiques, comme le codage superdense, la tlportation quantique, la
cryptographie quantique ou le calcul effectu par un ordinateur quantique [Nielsen 1998]
[Delahaye 2002] [Le Bellac 2005]. Une proposition a bien t faite par Everett (et confirme
par la suite) pour valuer une information de corrlation ou information mutuelle de
deux observables dfinies, respectivement, sur deux parties d un systme prpar dans un
tat pur [Everett 1973] [Schumacher 1990, 33-34]. Mais, comme son nom lindique, cette
information de corrlation value le degr de corrlation entre deux observables, en terme
de quantit moyenne dinformation-connaissance que peut apporter la mesure de lune des
deux observables sur la distribution des valeurs possible de lautre. Par consquent, comme
ctait le cas ci-dessus pour lentropie informationnelle de Pomeransky, linformation de
corrlation renvoie une notion de mesure (ou dobservable) et ne peut donc constituer une
Philosophia Scienti, 11-2 | 2007
13
54
56
57
58
59
Si sest une suite de symboles d un langage binaire (ne contenant, par exemple, que 0 et 1),
la complexit algorithmique k(s) dune suite sest la longueur du plus petit programme autodlimit d ordinateur (machine de Turing universelle) capable de produire la suite s.11
La longueur dun programme est mesure en binary digits (bits classiques ). Par
ailleurs, le programme est dit auto-dlimit car il contient linformation relative sa
taille, ce qui permet larrt de la machine de Turing universelle lorsque le programme est lu.
Cette condition, qui permet une lecture (unique et) instantane dun programme, joue un
rle important dans la dmonstration de la double ingalit fondamentale liant la notion de
complexit algorithmique celle dinformation statistique qui sera introduite et utilise dans
les sectionssuivantes.
La complexit algorithmique dune suite est une mesure de son contenu incompressible
dinformation. Par exemple, la complexit algorithmique dune suite rgulire, comme
10101010101010101010, qui peut tre engendre par le programme simple crire 10 fois
10, est plus petite que la complexit algorithmique de la suite moins rgulire de mme
longueur 10011010001100000111. La notion de complexit algorithmique capture donc
la diffrence intuitive entre suite rgulire pouvant tre engendre par un programme court
et suite purement alatoire qui ne peut tre engendre que par elle-mme12.
Ce qui est essentiel pour notre propos est que la notion de complexit algorithmique ne fait
pas appel aux probabilits, contrairement celle dinformation statistique, et, en outre, ne se
rfre pas une quelconque notion de mesure ou dobservation. Elle nest pas une valuation
de linformation-connaissance qui pourrait tre obtenue par lobservation dun vnement
pris dans un ensemble dvnements possibles (ici, ce serait lobtention dune suite parmi un
ensemble de suites possibles). La complexit algorithmique value linformation structurelle
pouvant tre associe de faon intrinsque une suite binaire et donc nimporte quelle entit
pouvant tre dcrite laide dune suite binairecomme, par exemple, ltat dun systme
physique (voir ci-aprs les sectionsV et VI).
Notons enfin quil est possible de dfinir les notions de complexit algorithmique jointe
(mesurant la longueur du plus petit programme capable de dcrire la concatnation de deux
suites binaires), conditionnelle (mesurant la longueur du plus petit programme capable de
dcrire une suite partir dune autre) et mutuelle (mesurant le degr de corrlation entre deux
suites).
14
61
62
o E est lensemble des suites Sj associes aux probabilits doccurrence pj, Sstat(E)=jpjlog2pj
est lentropie statistique de lensemble E, exprime en units naturelles dinformations
(voir la section II), < k (sj) >E = j pj k (sj) est la valeur moyenne sur E de la taille des
programmes les plus courts qui dcrivent les suites sj; k(E) est la taille du programme le plus
court qui dcrit lensemble des suites sj et leurs probabilits doccurrence pj,et 0(1) est une
constante caractrisant la machine de Turing universelle choisie pour valuer les valeurs de k.
En particulier, pour des ensembles E dont la description peut se faire de faon concise,
cest--dire laide de quelques bits dinformation, le terme k(E) est ngligeable devant Sstat(E)
et lingalit (4) se rduit alors lgalit suivante, la constante 0(1) prs:
Cependant, mme si cette dernire hypothse (k(E)<<Sstat(E)) nest pas ralise, ce qui est le
cas gnral, il est possible dtablir une quivalence entre entropie statistique conditionnelle
et complexit algorithmique conditionnelle. En fait, une telle formulation parat plus utile
en pratique puisquon value toujours des entropies statistique partir de la donne de
lensemble des vnements possibles et de leurs probabilits respectives doccurrence. On
value lentropie statistique conditionnelle Sstat(E/) qui mesure le manque dinformation
relatif la distribution E compte tenu de linformation pralable permettant dnumrer les
suites sj et leurs probabilits doccurrence pj. Par exemple, dans le domaine de la physique,
est constitu des donnes relatives la prparation du systme et aux lments thoriques
(mcanique statistique, par exemple) permettant lnumration des tats possibles avec leur
probabilit doccurrence. Corrlativement, il faudra considrer, au lieu de la complexit
algorithmique absolue k(sj), la complexit algorithmique conditionnelle k(sj /p) dfinie
comme la longueur du plus petit programme qui calcule la suite sj partir du programme
ppermettant le calcul de lensemble E des tats possibles compte tenu de linformation
pralable . Caves a ainsi reformul la double ingalit (4) en termes dentropie statistique
et de complexit algorithmique conditionnelles et a tabli lquivalence recherche (toujours
0(1) prs), qui est plus gnrale que la relation (4) puisque lhypothse k(E)<<Sstat(E) nest
pas requise [Caves 1990, 101]:
Cette dernire relation peut tre utilise pour interprter la notion dentropie thermodynamique
en terme de complexit algorithmique.
64
Lquivalence (4) peut tre utilise sans problme en mcanique statistique classique. Les
suites sj peuvent tre considres comme des descriptions, dans un langage binaire, des
micro-tats j accessibles, cest--dire compatibles avec les contraintes macroscopiques,
auxquelles sont associes les probabilits pj. Les micro-tats classiques dsignent, en effet,
des configurations spatio-temporelles bien dfinies (contrairement au tats quantiques purs
dont le cas est tudi dans la sectionsuivante), par exemple par la donne des positions et
quantits de mouvements des constituants du systme. Par consquent, ils peuvent tre codes,
au mme titre que nimporte quelle srie de nombres rels, laide des suites binaires finies
sj si, comme cest le cas en pratique, un certain degr fini de prcision li, dune part, au
dcoupage de lespace des phases et, dautre part, lapproximation retenue pour les rels
encoder est fix.
Ce qui permet donc, de par lanalogie formelle entre entropie statistique et entropie
thermodynamique (voir la section II), une dfinition de lentropie thermodynamique dun
systme physique prpar dans le macro-tat correspondant la distribution E={sj,p j} en
terme de complexit algorithmique:
15
65
66
67
68
Comme application directe de ce rsultat, citons le calcul de lentropie dun gaz parfait
lquilibre effectu par Zurek [Zurek 1989]. Dans ce cas, < k(sj/pE/) >E est la longueur
moyenne du plus petit programme qui produit lune des suites sj (relative au micro-tat j)
partir du programme pE/ qui dcrit lensemble des suites sj et la distribution de probabilit
associe compte tenu de linformation pralable sur le systme (les paramtres dfinissant le
macro-tat du systme et la thorie physique qui permet lnumration des micro-tats j et
des probabilits associes). Or, si W est le nombre de ces micro-tats, la spcification de lun
deux parmi les W possibles requiert de donner son adresse dans cet ensemble, qui est un
nombre plus petit ou gal W. Dautre part, la longueur du plus petit programme qui produit
le nombre W est de lordre de log2 W (qui est approximativement le nombre de bits quil faut
utiliser pour sa reprsentation binaire, pour W suffisamment grand)13.
Par consquent, on calcule dans ce cas (toujours en units naturelle dinformation) que:
On retrouve donc la formule introduite par Boltzmann sans faire appel la notion
dinformation statistique dfinie par lexpression (3)! laide de cette valuation on retrouve
effectivement la formule de Sackur-Tetrode donnant lentropie dun gaz parfait (classique)
lquilibre en valuant le nombre de micro-tats possibles W compatibles avec les contraintes
macroscopiques [Zurek 1989, 4736].
Par consquent, dans la mesure o cela fait sens de parler de lensemble E des microtats (classiques) possibles compatibles avec la description macroscopique du systme, la
thermodynamique peut tre base sur la notion de complexit algorithmique qui ne mesure pas
notre manque dinformation sur ltat microscopique dun systme (ni sur son Hamiltonien
ou les conditions initiales) mais linformation structurelle moyenne de ses configurations
microscopiques possibles, mme si cest une certaine prcision prs. En fait, un tel ensemble
E de micro-tats peut bien sr tre dfini ltat dquilibre thermodynamique, comme dans
lapplication ci-dessus, mais aussi ds quune description locale de ltat macroscopique dun
systme physique peut tre donne, ce qui est possible lorsqu il peut tre dcoup en
sous-systmes ( lquilibre local et) en quilibre mutuel, sous-systmes pour lesquels il est
possible de dfinir des ensembles pondrs de micro-tats tels que E, par exemple laide de
la distribution de Maxwell-Boltzmann pour chacune des parties dun gaz parfait lquilibre
local. Mais, en fait, ces conditions ne sont, ni plus ni moins, celles qui doivent tre satisfaites si
on veut donner un sens la notion dentropie thermodynamique et donc au second principe
de la thermodynamique (voir sectionI, note2). La dfinition algorithmique(5) de lentropie
thermodynamique nintroduit donc aucune contrainte supplmentaire.
Linterprtation de la notion dentropie thermodynamique en terme de complexit
algorithmique permet donc une interprtation structurelle de la notion dentropie
thermodynamique qui saccorde mieux avec celle donne initialement par Boltzmann, en
terme de dsordre molculaire [Boltzmann 1876, in Brush 1966], quavec celle, plus
tardive, donne par Jaynes ou Balian, en terme de manque d information-connaissance. Il ny
a en fait plus de confusion possible entre entropie thermodynamique dun systme physique
et manque dinformation-connaissance de son tat microscopique puisque, par sa dfinition
algorithmique (5), lentropie thermodynamique value le degr dorganisation intrinsque de
ce systme (mme si cest moyennant une certaine prcision). En outre, le second principe de la
thermodynamique acquiert une interprtation structurelle: pour un systme isol, la croissance
monotone de la valeur moyenne <k(sj/pE/)>E de la complexit algorithmique conditionnelle
des micro-tats possibles jusqu ce que soit atteint ltat dquilibre thermodynamique signifie
que la description de ltat microscopique dun systme physique requiert de plus en plus
dinformation lorsque ce systme tend vers son tat dquilibre. Ce qui se traduit ici, en terme
de complexit algorithmique, par le caractre de plus en plus alatoire (et donc de moins en
moins compressible) des suites de symboles utilises pour encoder les tats microscopiques
16
accessibles. Cette ide saccorde aussi avec lintuition des fondateurs de la mcanique
statistique selon laquelle ltat dquilibre (macroscopique) est le plus dsordonn.
70
71
72
73
Nous avions not dans la sectionIV que les micro-tats classiques dun systme physique
peuvent tre considrs comme des configurations spatiales instantanes de ce systme,
descriptibles en terme de suites binaires. Cependant, nous pouvons nous demander si les
tats quantiques peuvent vraiment tre considrs comme tels. Il y a en effet un sens prcis
considrer la description de ltat microscopique dun systme physique en physique classique,
par exemple (description purement mcanique) en se donnant la position et la quantit
de mouvement de chacune des particules qui le composent. Mais, comme nous le montre
labondante littrature sur le sujet (voir, en particulier, [dEspagnat 1994, 4.3 ou chap.11] et
[Bitbol 1996]), ltat quantique d un systme ne constitue pas la simple description
dune ralit spatio-temporelle pr-existante aux mesures que lon peut faire sur ce systme.
Il ne peut, malgr certaines propositions pour interprter la thorie quantique de faon raliste
[Bohm & Hiley 1993], tre considr comme une vritable description dun systme
physique au mme titre quun tat classique, cest--dire en terme de proprits dobjets qui
seraient dfinies chaque instant. Ltat quantique doit, avant tout, tre considr comme
une entit mathmatique encodant linformation relative un contexte exprimental ou
une prparation, information permettant le calcul des prdictions relativement ce contexte
(cest un outil prdictif contextuel selon les mots de Bitbol). La notion de complexit
algorithmique peut-elle alors sappliquer aux tats quantiques?
Il est en fait possible de rpondre positivement cette question. Nous allons donc chercher
prciser comment une complexit algorithmique quantique peut tre dfinie et que celle-ci
peut tre aussi utilise, comme dans le cas classique, pour dfinir lentropie thermodynamique.
Une premire classe de propositions pour dfinir une notion de complexit algorithmique pour
un qubit14 ou une suite de qubits se rfre au travail dun ordinateur quantique, cherchant ainsi
gnraliser le dfinition classique donne la sectionIV. Dans cet ordre dides, Vitnyi
[Vitnyi 2001] dfinit la complexit algorithmique du qubit |> comme la longueur, en bits
classiques, du plus petit programme d un ordinateur quantique susceptible de produire ou
de calculer exactement un qubit approch |> de |>, qui serait, lui, calculable, tout
en prenant en compte la fidlit du calcul, cest--dire son degr dapproximation qui peut tre
valu par la quantit |<|>|2 . De leur ct, Berthiaume, van Dam et Laplante [Berthiaume
et al. 2000] proposent de considrer comme mesure de la complexit algorithmique dune suite
donne de qubits (et donc, en particulier, dun seul qubit) la longueur, mesure en qubits15, de
la plus petite entre quantique (qui est aussi une suite de qubits) dun ordinateur quantique qui
produit ou calcule la suite de qubits donne initialement (ou le qubit unique donn),
et en prenant toujours en compte la fidlit16 du calcul. La diffrence essentielle entre ces
deux approches est que Vitnyi propose une mesure de la complexit algorithmique quantique
dun qubit en bits classiques, comme mesure de la longueur dun programme classique
fonctionnant sur un ordinateur quantique, alors que Berthiaume et al. en donnent une mesure
en termes de qubits, mesurant la longueur de lentre quantique dun tel ordinateur.
Cependant, ces propositions soulvent la question essentielle suivante : que veut dire
produire ou calculer un qubit? Dans le cas classique, calculer un mico-tat dun
systme physique revenait dcrire sa configuration spatio-temporelle, par exemple en termes
des positions et quantit de mouvement de ses constituants, cest--dire dcrire ce quil est
vraiment, indpendamment de toute autre considration comme nos moyens daccs la
connaissance de cet tat. Mais, comme nous lavons remarqu ci-dessus, un tat quantique
ne peut tre considr comme tel. Il est avant tout une entit abstraite qui encode l information
relative une prparation donne et qui permet de prdire les rsultats de mesure quil serait
possible dobtenir en mesurant telle ou telle observable.
La description dun tat quantique pur pourrait-elle alors dsigner, ainsi que le suggre
aussi Vitnyi [Vitnyi 2001, 3-4], celle de ses deux coefficients complexes dans une certaine
base? Ces derniers tant dfinis laide de quatre nombres rels, il faudrait donc considrer
Philosophia Scienti, 11-2 | 2007
17
74
75
76
la longueur du plus petit programme qui crit ces quatre nombres rels. Or, tous les nombres
rels ne sont pas calculables17. Par contre, on peut montrer que tout nombre algbrique, qui
est racine d un polynme coefficients entiers, est calculable (alors que les autres rels,
qui sont qualifis de transcendants, comme nou e, la base des log npriens, ne le sont pas
forcment). Par consquent, il y aurait un sens parler du plus petit programme qui calcule
ou produit un tat approch |> de |> dont tous les coefficients sont calculables (cest-dire quils sont constitus par des couples de rels calculables au sens prcis dfini ici, pour
des nombres).
Mais une telle proposition, qui est intressante dun point de vue purement algorithmique, nest
pas trs significative du point de vue de la physique. Il est difficile de croire que la complexit
numrique des coefficients utiliss pour crire le vecteur reprsentatif de ltat quantique
dun systme physique nous informerait sur la complexit physique des phnomnes qui
peuvent tre observs. Comme le montre lapplication de la thorie quantique des situations
paradigmatiques, telle les phnomnes dinterfrences ou les corrlations EPR, des tats
quantiques peuvent scrire laide de nombres entiers ou rationnels, cest--dire laide de
nombres algorithmiquement simples, et donner cependant lieu des phnomnes typiquement
quantiques rvlant une grande complexit physique, cest--dire en fait dune grande richesse
informationnelle . II est donc souhaitable de dfinir autrement que selon la conception
purement numrique mentionne ici la complexit algorithmique dun tat quantique.
Ces remarques nous mnent considrer une deuxime approche18 qui se base sur lide
expose au dbut de la sectionVI, plus proche de la ralit exprimentale, ide selon laquelle
un tat quantique doit, avant tout, tre considr comme une entit mathmatique dfinie
relativement un processus de prparation donn. Selon cette conception, Mora et Briegel
proposent de dfinir la complexit algorithmique d un tat quantique de la faon suivante
[Mora & Briegel 2005]:
Ces auteurs suggrent que la complexit dun tat quantique est lie la complexit
du processus de sa prparation qui peut tre dcrit classiquement , cest--dire par
lintermdiaire dun canal de communication classique qui nutilise que de linformation
classique. Ce processus exprimental peut tre idalis comme une suite finie de portes
logiques. Les portes logiques (quantiques) formalisent les oprations lmentaires partir
desquelles peut tre gnre toute prparation, prparation qui se traduit en fin de compte par
une manipulation de qubits. Par exemple, outre les portes logiques qui modifient la phase du
qubit dentre ou qui induisent une rotation, on utilise couramment lopration de Hadamard
qui agit sur lun des qubits d une base standard (|0>,|1>) et calcule, respectivement, une
superposition linaire poids gaux ou opposs de ces vecteurs de base:
ou la porte CNOT qui change les tats |0> et |1> du qubit cible |y> dun 2-qubit de
type |x,y>, o x et y peuvent prendre les valeurs 0 ou 1, mais seulement dans le cas o le
qubit contrle, |x> , est |1>:
[Nielsen 1998].
77
Une procdure de prparation donne pour un tat quantique utilise donc une suite finie
de portes logiques d une base B donne. Pour coder le circuit ainsi dfini, nomm CB,
il faut se donner un code qui va assigner chaque circuit possible une suite de bits qui est
diffrente de celle assign aux autres circuits. Mora et Briegel dfinissent alors la complexit
18
78
79
80
81
82
83
o (CB) est le code associ au circuit CB et kcl( (CB)) dsigne la longueur du plus petit
programme, en bits classiques, capable de gnrer (CB).
Puisqu il existe gnralement plusieurs procdures pour prparer un tat quantique donn,
la complexit algorithmique de |> relativement la base B et au code sera en fait dfinie
par la valeur minimale de la quantit dfinie par lexpression (6) sur tous les circuits possibles
CB:
19
84
85
86
87
88
Les dveloppements prcdents montrent que la notion de complexit algorithmique peut tre
utilise pour valuer, dun point de vue dgag de tout subjectivisme excessif, linformation
structurelle encode dans un tat physique, que cet tat soit considr dans le cadre classique
ou quantiquela notion dtat faisant, dans ce dernier cas, rfrence un processus de
prparation exprimentale. Cette valuation de linformation structurelle dun tat physique,
qui ne se dfinit pas par rfrence la connaissance (ou au manque de connaissance) quen a
lobservateur, permet dinterprter la notion dentropie thermodynamique en terme de degr
dorganisation, cest--dire comme une grandeur pouvant tre assigne de faon intrinsque
au systme physique considr. En outre, une telle valuation du contenu informationnel dun
tat quantique individuel, qui ne se rfre ni une notion densemble statistique (via une
distribution de probabilits) ni des processus de mesure, peut donner lieu un traitement
quantitatif des phnomnes de transport et de manipulation dinformation qui interviennent de
faon essentielle dans les applications de la thorie de linformation quantique.
Il semblerait, par consquent, que la notion de complexit algorithmique rende possible la
construction dune vritable thermodynamique de linformation rgissant les changes,
la manipulation et les transformations de linformation-organisation des systmes physiques,
une science de linformation dgage de tout subjectivisme excessif.
Je remercie Roger Balian pour sa critique dtaille et trs stimulante de la premire version
de ce manuscrit, ainsi que Jean Paul Delahaye pour ses remarques constructives et ses
suggestions intressantes. Je remercie aussi un referee anonyme pour son expertise sur la
partie de ce manuscrit concernant lapplication de la notion de complexit algorithmique la
Philosophia Scienti, 11-2 | 2007
20
physique quantique. Enfin, je suis trs reconnaissant envers Guido Baccagaluppi de mavoir
invit exposer les ides dveloppes dans ce texte au sminaire de Philosophie des Sciences
de lIHPST, ainsi que pour nos discussions fructueuses sur le sujet.
Bibliographie
BALIAN,
R.
1982 Du microscopique au macroscopique. Cours de physique statistique de lEcole Polytechnique,
Tome1, d.Ellipses.
2005 Information in statistical physics, Studies in Histories and Philosophy of Modern Physics 36.
BENNETT,
C. H.
1988 Notes on the History of Reversible Computation, IBM J. Res. Dev., Vol.32, p.16.
BERTHIAIJME,
M.
1988 The concept of measurement and time symmetry in quantum mechanics, Philosophy of Science,
55, 349-375.
1996 Mcanique Quantique. Une introduction philosophique, dition Flammarion.
BOHM,
D. & HILEY, B. J.
1993 The Undivided Universe, Routledge.
BOLTZMANN,
L. IN BRUSH S. G.
1966 Kinetic Theory, Vol. 2 (Irreversible Processes), Oxford: Pergamon.
BRILLOUIN,
L.
1956 Science and Information Theory, New York: Academic Press.
CALLEN,
H. B.
1975 Thermodynamics, New York: Willey.
CAVES,
C. M.
1990 Entropy and Information: How much Information is Needed to Assign a Probability?, in
Complexity, Entropy and the Physics of Information, Zurek, W.H. (ed) Addisson-Wesley Pub. Co.
CHAITIN,
G. J.
1977 Algorithmic Information Theory, IBM J. Res. Dev. , Vol.21, p.350.
COSTADEBEAUREGARD,
O.
1963 Le Second Principe de la Science du Temps, dition du Seuil.
COULON,
C. & MOREAU, S.
2000 Physique statistique et thermodynamique, Dunod.
DELAHAYE,
J. P.
2002 Lintelligence et le calcul, Belin. Collection Pour la Science.
DIU,
B. D
1994 Le Rel Voil. Analyse des concepts quantiques, Fayard.
EVERETT,
H.
1973 The Many-Words Interpretation of Quantum Mechanics, Princeton Series in Physics, Princeton
University Press.
GACS,
P.
2001 Quantum Algorithmic Entropy, Ar-Xiv: quant-ph/0011046 v2.
GIBBS,
J.W.
1902 Elementary Principles in Statistical Mechanics, Yale University Press.
GRINBAUM,
A.
2004 The Significance of Information in Quantum Theory, PhD Dissertation, Ecole Polytechnique,
Paris.
HAKIM,
R.
1996 Introduction la mcanique statistique, Masson.
HUW,
P.
21
1996 Times Arrow and Archimedes Point, New York, Oxford: Oxford University Press.
JAYNES,
E.T.
1957 Information Theory and Statistical Mechanics, Phys. Rev., 2o , p.171 and no4 p.620.
1965 Gibbs versus Boltzmann entropies, Amer. Journ. of Phys., Vol.23, p.391.
KOLMOGOROV,
A. N.
1965 Three Approaches to the Quantitative Definition of Information, English translation in Prob.
Inform. Transmission, Vol.1, p.1.
LANDAUER,
R
1961 Irreversibility and Heat Generation in the Computing Process, IBM J. Res. Dev., Vol.5, p.183.
LE BELLAO,
M.
2005 Introduction linformation quantique, Belin
LEFF,
L. A.
1976 Various Measures of Complexity for Finite Objects Axiomatic Description, English translation,
in Soviet Math. , Dokl. Vol.17, p.522.
LI,M.
& VITANYI, P.
1993 An Introduction to Kolmogorov Complexity and its Applications, New York: Springer-Verlag.
MAXWELL,
J. C.
1891 Theory of Heat, Traduction de G. Mouret: La Chaleur, Paris: d. B. Tignol.
MORA,
J.
1955 Mathematical Foundations of Quantum Physics, Princeton University Press.
NIELSEN,
M. A.
1998 Quantum Information Theory, PhD Dissertation, University of Queensland.
2005 Eaters of the Lotus: Landauer sPrinciple and the Return of Maxwell sDemon. Studies in
History and Philosophy of Modern Physics 36, 475-411.
PAULI,
W.
1928 ber das H-Theorem vom Anwaschsen der Entropie vom Standpunkt der neuen
Quantenmechanik in Probleme des Modernen Physik., Hirzel.
POINCAR,
H.
1889 Sur les tentatives dexplication mcanique des principes de la Thermodynamique, Compte rendu
hebd. de lAcadmie des Sciences, n108, p.550.
POMERANSKY,
A. A.
2004 Intrication et Imperfections dans le Calcul Quantique, Thse de Doctorat, Universit Paul
Sabatier, Toulouse.
PRIGOGINE,
I.
1980 Physique, temps et devenir, Masson.
REIF,
F.
1965 Statistical Physics, Berkeley Physics Course, vol.5, Mac Graw-Hill.
SCHUMACHER,
B.
1990 Information from Quantum Measurements, in Complexity, Entropy and the Physics
ofInformation, Zurek., W.H. (ed.), Addisson Wesley Publishing Company.
1995 Quantum Coding, Physical Review A, vol51, 4o, p.2738.
SHANNON,
O.R.
2000 Logic and Entropy, http://philsci-archive.pitt.edu/115/.
SOLOMONOFF,
R. J.
1964 A Formal Theory of Inductive Inference, Information and Control, Vol.7, p.1.
SZILLARD,
L.
22
C. G.
2004 Quantum Information Theory and the Foundations of Quantum Mechanics, PhD Dissertation,
University of Oxford, UK. ArXiv:quant-ph/0412063 vl8 Dec2004.
VITANYI,
P.
2001 Quantum Kolmogorov Complexity Based on Classical Descriptions, IEEE Transactions on
Information Theory, Vol.47, no6, 2464.
ZEH,
H. D.
1989 The Physical Basis of the Direction of Time, Springer-Verlag.
ZUREK,
W. H.
1989 Algorithmic Randomness and Physical Entropy, Phys. Rev., Vol.40, n40, 4731.
ZWANZIG,
R.
1960 Statistical Mechanics of Irreversibility, Boulder Lectures in Theoretical Physics, 3 , p.106.
Annexe
Appendice
Approximations relevantes : gnralisation de la mthode [Zwanzig 1960][Zeh 1989, 3.2]
[Balian 2005]
Il est possible de gnraliser la mthode suivie par Boltzmann, Gibbs ou Pauli qui consiste remplacer
la densit en phase classique ou l oprateur densit quantique par une densit (ou oprateur densit)
relevant(e) dfini(e) en fonction des variables macroscopiques que lon peut mesurer ou contrler.
Pour chacune des procdures d approximation utilises, il est en effet possible de dfinir un oprateur
de relevance Prel agissant sur la densit dtat classique ou loprateur densit quantique exact(e)
D pour calculer la densit relevante correspondante:
o est la densit en phase et cg est la densit coarse-grained dfinie comme dans la sectionI, par une
opration de moyennage sur les cellules de lespace des phases rsultant de son dcoupage grossier;
alors que dans le cadre quantique lhypothse des phases alatoires de Pauli se traduit par lintroduction
de loprateur de relevance Pdiag tel que:
o Ddiag est obtenu partir de loprateur densit exact D aprs limination des termes non-diagonaux
de sa reprsentation dans la base de relevance.
Cette substitution a pour consquence que, dans le domaine classique par exemple, la dynamique
Hamiltonienne conservative:
o L={H,.} est loprateur de Liouville, est alors remplace par une dynamique dissipative rgissant
lvolution de la densit relevante [Zeh 1989, 3.2]:
o t est la dure dvolution pour laquelle on peut considrer que lapproximation relevante est
utilisable. Par exemple, concernant lhypothse du chaos molculaire de Boltzmann, t est le temps
23
pour lequel on peut considrer que linformation relative aux corrlations entre molcules dues leurs
collisions devient inutile pour prdire leur volution future.
Pour chacun des concepts de relevance adopts, cest--dire pour chacun des oprateurs Prel de
relevance utiliss, une entropie statistique relevante peut tre dfinie (disons, dans sa forme la plus
gnrale, partir de SVN ):
lentropie relevante Srel nest pas conserve lors de lvolution temporelle du systme:
Notes
1 Nous adoptons ici une formulation standard qui mne directement lessentiel de ce qui nous
proccupe ici, savoir la possibilit de caractriser lirrversibilit interne dun systme isol laide de
la croissance monotone dune fonction dtat, lentropie. Pour une formulation plus dtaille du second
principe de la thermodynamique, on pourra se reporter par exemple au livre de Callen [Callen 1975,
section1.10].
2 Une fonction dtat est une fonction des variables (ou paramtres) macroscopiques qui dfinissent
ltat dun systme, comme la pression, la temprature ou le volume. Par consquent, la notion dentropie
thermodynamique nest ici dfinie que pour des systmes physiques pour lesquels il est possible de
dfinir un jeu de paramtres macroscopiques susceptibles de caractriser leur tat. Cest--dire pour des
systmes ltat dquilibre thermodynamique ou, du moins, pour des systmes dont les parties sont
localement lquilibre et en quilibre mutuelet dans ce dernier cas, lentropie du systme est la
somme des entropies dfinies pour chacun des sous-systmes (extensivit de lentropie).
3 Les quations de Hamilton-Jacobi lient les drives temporelles des coordonnes gnralises qi et pi
et les drives partielles de la fonction nergie par rapport ces mme coordonnesvoir, par exemple,
[Diu et al. 1989, AppendiceIII].
4 Ce point a t soulign par de nombreux auteurs depuis longtempsvoir, entre autres rfrences,
[Costa de Beauregard 1963] [Bitbol 1988] [Huw 1996 , chap.2] ou [Zeh 1989, chap.3]. Par exemple,
dans cette dernire rfrence, Zeh dnonce le mythe de lorigine statistique de la flche du temps
thermodynamique (p. 38).
5 Une gnralisation de la mthode utilise par Boltzmann, Pauli ou Gibbs (dont la proposition
est rapporte ci-aprs) pour interprter le second principe de la thermodynamique dans le cadre de
la mcanique statistique, classique ou quantique, en termes doprateurs de relevance et dentropies
de relevances est brivement prsente dans lappendice. Cette mthode gnrale est due Zwanzig
[Zwanzig 1960] et a t utilise et commente par plusieurs auteurs dont Zeh [Zeh 1989] et Balian [Balian
2005].
24
o |0> et |1> sont les vecteurs de base de cet espace et et des coefficients complexes [Nielsen 2000,
19-20].
15 La dfinition (prcise) dun qubit donne dans la note prcdente signifie quun qubit porte ou
encode une certaine quantit dinformation. Cependant, on a aussi coutume de dire, depuis les travaux de
Schumacher [Schumacher 1995] que le qubit est lunit dinformation quantique pour caractriser, par
analogie avec le bit qui constitue lunit dinformation classique, la quantit dinformation encode
par... un qubit, compris comme le support de cette information. Il serait peut-tre judicieux de rebaptiser
autrement lun de ces deux rfrents (lunit dinformation ou son support) afin de lever cette ambigut
smantique. Bien sr, cette remarque ne remet pas en question les diffrentes recherches pour dfinir
une mesure de linformation quantique en terme de complexit algorithmique.
16 Berthiaume et al. dfinissent la fidlit du calcul de ltat pur |> par | > comme la quantit
|<|>|, cest--dire sans lexposant2, dfinition quils gnralisent dans le cas dun mlange.
17 Un nombre calculable est un nombre pour lequel il existe un programme qui affiche successivement
ses dcimales. Les programmes tant dnombrables et les nombres rels non dnombrables, il existe
donc des rels non calculables.
18 Signalons aussi la proposition de Gcs [Gcs 2001] pour tendre la notion de complexit
algorithmique au domaine quantique. Cette proposition, qui utilise de faon essentielle les probabilits,
par la notion de probabilit universelle, se pose manifestement en porte--faux avec notre projet
qui est de dfinir une information structurelle pour un objet individuel. Malgr son intrt intrinsque
indniable, relatif la possibilit de dfinir une notion algorithmique dentropie quantique, cette
proposition ne sera donc pas considre ici.
19 Calcul qui est, comme le prcdent (cas classique), effectu en units naturelles , selon la
convention adopte dans la sectionIV.1, cest--dire en prenant la constante K=1 et des logarithmes
en base2 (voir sectionII).
Rfrence papier
Pierre Uzan, Physique, information statistique et complexit algorithmique, Philosophia
Scienti, 11-2|2007, 121-162.
Philosophia Scienti, 11-2 | 2007
25
propos de lauteur
Pierre Uzan
Universit Paris I
Droits dauteur
Tous droits rservs
Rsums
Le lien entre physique et information est analys et les limites conceptuelles et techniques
de lutilisation de la notion statistique dinformation (-connaissance) en physique sont mises
en vidence. Nous montrons que ces problmes peuvent tre rsolus de faon satisfaisante
en utilisant une notion dinformation structurelle dont la mesure nous est donne en terme
de complexit algorithmique. Ce qui rend alors possible la construction dune vritable
thermodynamique de linformation fonde sur le concept dinformation structurelle.
The relationship between physics and information is explored and the conceptual and technical
limitations of the use of the notion of statistical information(-knowledge) in physics are
emphasised. It is shown that these issues can be satisfactorily resolved by using a notion of
structural information, the measure of which is provided in terms of algorithmic complexity.
This makes possible the construction of a genuine thermodynamics of information based on
the concept of structural information.
26