Vous êtes sur la page 1sur 16

1 CONCEPTOS BSICOS.

PROBABILIDAD, EQUILIBRIO Y ENTROPA


8 PESO ESTADSTICO. ENTROPA. PESO ESTADSTICO Considere un sistema aislado. Lo dividimos en dos subsistemas A y B que pueden intercambiar energa entre s. Voy a buscar todos los estados accesibles del sistema total cuando tiene una energa ET. Para ello busco todos los posibles microestados de cada subsistema con energas EA y EB, tal que EA+EB=ET. Voy a hacerlo con un ejemplo sencillo: un sistema de 4 osciladores cunticos. No es un sistema macroscpico pero es suficiente para introducir el comportamiento de esos sistemas. Normalmente no ocurre as con sistemas de pocas partculas. El sistema de los cuatro osciladores se divide en dos subsistemas iguales de dos osciladores cada uno. El problema de N osciladores ya lo vimos en los problemas. Cada oscilador tiene una energa (n)=(+n)=(+n)0, con n=0,1,2,3,... Para N osciladores la energa es E = (n1)+(n2)+... = (+n1)0 + (+n2)0 +...= N0/2+M0, donde M=n1+n2+... Como cada ni=0,1,2,3,... M podr valer 0,1,2,3,... Observe que para cada energa E hay un valor de M y viceversa. En el caso de N=2 osciladores (que corresponde a cada uno de los dos subsistemas A y B) E=1+M0. Para cada energa habamos visto que haba un nmero de estados igual a (E,N) = (M+N-1)!/M!(N-1)!. Para N=2, nuestro caso (E,N=2) = (M+1)!/M!=M+1, es decir para las sucesivas energas (o valores de M) el nmero de estados es 1,2,3,.. En la figura se muestran los estados de las energas ms bajas para uno de los dos subsistemas, por ejemplo el A. He llamado a los sucesivos estados a,b,c,d,..... El subsistema B es idntico. Llamar a los correspondientes estados de B: a,b,c,d,... Observar que la energa total de los sistemas A, B y total, as como el nmero de osciladores de cada uno de estos sistemas, estn jugando el papel de variables MACROSCPICAS aunque difcilmente podran ser consideradas como tales.

EA/0 5 k l m n

1 a

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


Pongamos los dos sistemas en contacto: pueden intercambiar energa. Este intercambio de energa seguir una dinmica que no nos importa.

A B Lo que he hecho para 2 osciladores se puede repetir para 4, es decir buscar los posibles valores para la energa ET de los estados MACROSCOPICS y contar cuantos estados microscpicos le corresponden. ET es la suma de las energas de 4 osciladores: ET = (n1) + (n2) + (n3) + (n4) = (2+n1+n2+n3+n4)0 = (2+M)0 con M=n1+n2+n3+n4=0,1,2,3 ..., T(E,N=4) = .... = (M+3)!/M!3! = 1,2,3,4,... para M=0,1,2,3,...., etc. etc. El resultado se muestra en el diagrama siguiente

E/0

B ib' ic' -- --

ka' -dd' -ak' --

la' -de' df' -- -al' am' -- --

ma' na' a' ---ed' ee' ef' fd' fe' ff' -- -- --- -- -an' a' bg' bh' bi' bj' -- --- -- -- --

gb' -cg' --

gc' hb' hc' --- -ch' ci' cj' -- -- --

jb' jc' -- --

ga' -ag' --

ha' -ah' --

ia' -ai' --

ja' -aj' bd' be' bf' cd' ce' cf' db' dc' eb' ec' fb' fc' -- -- -- -- -- -- -- -- -- -- -- -- --

ad' ae' af' bb' bc' cb' cc' da' ea' fa' -- -- -- -- -- -- -- -- -- --

ab' ac' ba' ca' -- -- -- --

aa' --

que como se ve cada microestado es una combinacin de un microestado de cada subsistema. Supongamos que tenemos el sistema de 4 osciladores aislado y con una energa total ET=60. Sea la energa que sea de A y de B y sea el que sea el microestado en el que estn A y B se deba cumplir en todo momento que ET = 60 = EA + EB. El nmero de microestados con ET = 60 son 35 que se obtienen de hacer las combinaciones de estados de A con los de B: T(E,N=4)= 1 x 5 + 2 x 4 + 3 x 3 + 4 x 2 + 5 x 1 = 5 + 8 + 9 + 8 + 5 = 35 = A(EA ) B(EB) = A(EA ) B(ET-EA) EA EA

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


Observe que cada microestado del sistema total se construye con estado del sistema A de energa EA y con un estado del sistema B con la energa complementaria EB=ET-EA: EA/0 5 k g d b a l h e c m i f n j EB/0 5 k' l' m' n' ' - - - - g' h' i' j' - - - d' e' f' - - b' c' - a' -

60

ka' -dd' -ak' --

la' -de' df' -- -al' am' -- --

ma' na' a' ---ed' ee' ef' fd' fe' ff' -- -- --- -- -an' a' bg' bh' bi' bj' -- --- -- -- --

gb' -cg' --

gc' hb' hc' --- -ch' ci' cj' -- -- --

ib' ic' -- --

jb' jc' -- --

Ahora voy a clasificar los 35 microestados basndome en como se obtienen de la combinacin de los microestados de los subsistemas A y B:

PA(EA)

PB(EB)

pA(Ei=EA)

A(EA)x B(EB) = A(EA)xB(ET-EA) 5 8 9 8 5 35= A(EA)x B(EB) = B

A(EA) B(EB) = B(ET-EA)


5 4 3 2 1

pB(Ei=EB)
EA 0 0

EB

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


En equilibrio todos los microestados del sistema total, los 35, tienen la misma probabilidad de ser ocupados (2 postulado: la probabilidad slo depende de la energa). Por lo tanto del ejemplo y en general se llega inmediatamente a las siguientes conclusiones: p(Ei=EA) = probabilidad de encontrar el sistema A en uno de los microestados de energa EA es directamente proporcional al nmero de microestados de B con la energa complementaria EB= ET EA para que el total sea el adecuado, es decir B(ET EA) Por ejemplo el micro b aparece 4 veces porque se combina con los 4 micros del sistema B para dar la energa total 60, el micro h slo aparece 2 veces ya que slo se puede combinar con 2 microestados de B, es decir su probabilidad es la mitad de la de b.Esta probabilidad normalizada es por tanto: p(Ei=EA) = B(ET EA) / T(ET) = B(ET EA) / 35. As que p(b)=4/35 y p(h)=2/35. P(EA) = probabilidad de encontrar el sistema A con energa EA pero no importa en cual = = probabilidad de encontrar A en cualquiera de ellos, p(Ei=EA) (todos son igualmente probables) por el nmero de ellos: =A(EA ) B(ET EA)/ T(ET) Como EA es una propiedad global del sistema A, la probabilidad P(EA) es en realidad (si el sistema fuese macroscpico) la probabilidad de que el sistema tenga la energa EA. Observe que la expresin obtenida ya est normalizada a la unidad. En el ejemplo: p(EA=20) = 2x4/35 = 8/35 y p(EA=40) = 4x2/35 = 8/35. Las conclusiones pueden rescribirse as:

La probabilidad de que un sistema est en un preciso microestado de energa E es proporcional RU(ET E), donde ET es la energa total del universo, y RU el nmero de estados del resto del universo: p(E) RU(ET E)
y la ms til como veremos:

La probabilidad de que un sistema est en un macroestado de energa E (o lo que es lo mismo en cualquiera de los microestados de energa E) es proporcional al producto (E)RU(ET E), donde ET es la energa total del universo, y y RU son el nmero de estados del sistema y del resto del universo respectivamente: P(E) (E)RU(ET E)

Haciendo nmeros en el ejemplo de los 4 osciladores se tienen los resultados (ver recuadro adjunto) para las distintas probabilidades de los subsistemas A y B y el sistema total. Es un ejercicio elemental pero compruebe que lo entiende. Es fundamental entenderlo!

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA

Para que la energa total sea 6 (en unidades de =0) las posibles combinaciones energticas de los subsistemas, del ejemplo de los 4 osciladores, deben ser: EA EB=ET-EA EA+EB 1 5 6 2 4 6 3 3 6 4 2 6 5 1 6

Y las correspondientes combinaciones de microestados: EA A(EA) B(ET-EA) AxB 1 1 5 5 2 2 4 8 3 3 3 9 4 4 2 8 5 5 1 5

Por lo que el nmero total de estados del sistema total (con ET=6) es T(ET=6) = A(EA)xB(EB)= = 1x5 + 2x4 + 3x3 + 4x2 +5x1 = 5 + 8 + 9 +8 +5 = 35 como debe ser. Los 35 estados son igualmente probables, todos tienen la misma energa total ET=60. La probabilidad de que el sistema est en cualquiera de esos 35 estados debe ser 1/35, o, en media, cada 35 unidades de tiempo el sistema cambiar de estado. Pero no todos los estados son iguales, en algunos la energa de A es pequea y la de B es grande y viceversa. Del sistema total ya est dicho todo en este ejemplo. La probabilidad pA(Ei = EA) de que el subsistema A est en UN preciso microestado de entre los que tienen energa EA, pudiendo ser EA=1,2,3,4 o 5. Naturalmente para que A est en ese estado y por tanto tenga esa energa, el subsistema B tiene que tener la energa complementaria EB=ET EA, es decir puede estar en CUALQUIERA de los microestados de energa de energa EB=ET EA. Est claro que, cuantos ms microestados tenga B con esa energa complementaria, ms posibilidades tendr A de estar en el microestado propuesto, es decir que como se ha dicho antes pA(Ei = EA) es proporcional a B(ET EA). Si se incluye una constante de normalizacin: pA(Ei =EA) =B(ET EA)/ T(ET). La constante de normalizacin ahora es 1/T(ET)=1/35. Por lo tanto: Estado i Energa Ei B(ETEi) pA(Ei) a 1 5 5/35 b 2 4 4/35 c 2 4 4/35 d 3 3 3/35 e 3 3 3/35 f 3 3 3/35 g 4 2 2/35 h 4 2 2/35 i 4 2 2/35 j 4 2 2/35 k 5 1 1/35 l 5 1 1/35 m n 5 5 1 1 1/35 1/35 5 1 1/35

De manera anloga se obtendran las probabilidades pB. Ahora podramos preguntarnos por la probabilidad PA(EA) de que el subsistema A est en CUALQUIER estado de energa EA, sin importar en que preciso microestado con tal que tenga la energa EA. Naturalmente para que A tenga esa energa el otro subsistema, otra vez, tiene que tener la energa complementaria EB=ET EA. E igual que antes, cuantos ms estados tenga B con la energa complementaria, ms posibilidades tendr A de tener la energa EA, es decir PA(EA) ~ B(ET EA). TAMBIN, esto es nuevo, cuantos ms estados tenga A con esa energa tambin aumentar la esta probabilidad, as que como tambin se ha dicho antes: PA(EA) ~ A(EA) B(ET EA). Si se normaliza esta probabilidad se llega a PA(EA)=A(EA) B(ET EA)/ T(ET) EA P(EA) 1 5x1/35=1/7 2 2x4/38=4/19 3 3x3/35=9/35 4 4x2/35=4/19 5 5x1/35=1/7

De manera anloga se obtendran las probabilidades de PB

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


Podramos representar los microestados del sistema total de esta forma:

4. EA

EB =ET-EA

9
9 8 7 6 5 4 5 3 4 2 3 1 2 2 3 4 5

8 7 6 5 4 3 2 1

EB

EA

ET=6

Nos fijamos ahora en esta probabilidad: la de encontrar un subsistema con una energa, sin importarnos en qu preciso microestado de esa energa est. Observamos que PA(E) es producto (salvo la constante de normalizacin) de dos funciones nmero de estado, A(E) y B(E), y por tanto, en el caso usual, crecientes con la energa. Sin embargo el argumento de una de ellas es la energa complementaria as que finalmente P es el producto de dos funciones una creciente A(E) y la otra decreciente. A(ET-E). En la figura se muestran estas dos funciones y se ve claramente como una crece y la otra decrece con la energa del subsistema elegido, el A (y viceversa si hubiramos elegido el subsistema B). Las lneas verticales rojas es el producto de ambas funciones en cada energa de A y por tanto es la funcin de probabilidad PA (salvo el factor trivial de normalizacin).

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA

PA(EA ) ~A(EA) B(ETEA)

B(EB=ETEi) ~ pA(Ei)

A(EA) ~ pB(Ei=ET-EA)

B EA EB=ET-EA

Con las ideas expuestas voy a definir el Peso Estadstico y ver que significa en el ejemplo de los 4 osciladores. Luego expondr cmo va perfilndose su significado conforme el sistema contiene ms y ms partculas. Finalmente para mayor claridad describir un sistema de 5000 osciladores que aun no siendo realmente macroscpico ilustra a la perfeccin el efecto de aumentar el nmero de partculas (osciladores en nuestro caso) del sistema. Por definicin:

PESO ESTADSTICO: conjunto de estados con probabilidad significativa de ser ocupados


Si uno se fija en los valores (ver recuadro anterior) de las probabilidades de ocupacin de los distintos microestados del sistema A, del ejemplo de los 4 osciladores, se observa que las esas decrecen montonamente con la energa (comportamiento general como demostraremos ms adelante). En el caso de menor probabilidad p=1/35, es decir para la mxima energa EA=5 que puede tener el sistema A en las condiciones dadas, no se puede considerar que sea despreciable (claro que esto siempre es relativo) pero es del orden de la probabilidad, 5/35, del microestado ms probable. Como consecuencia, todos los estados tienen, desde el a hasta el , una probabilidad significativa de ser ocupados por el sistema A. Entonces el Peso Estadstico debe ser 15. Como el sistema B es idntico al A, tambin tiene un Peso Estadstico de 15. En sistema total todos los estados tienen la misma probabilidad as que el Peso Estadstico debe es 35, el nmero total de estados que tienen el sistema total en las presentes circunstancias. La conclusin en el ejemplo es que el Peso Estadstico coincide con los estados accesibles de cada sistema en las condiciones dadas. Si esto fuese as siempre no tendra el menor inters. Pero veamos como se discriminan los microestados del Peso Estadstico de entre todos los accesibles si el nmero de partcula aumenta hasta hacerse macroscpico. A las siguientes figuras hay que aadir la discusin hecha en clase.

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


El rango de energas del Peso Estadstico del sistema A est marcado en rojo. Conforme se aumenta el tamao (el nmero de partculas) del sistema para hacerse normal (macroscpico) lo que pasa es:

PA(EA ) ~A(EA) B(ETEA)

B(EB=ETEi) ~ pA(Ei)

A(EA) ~ pB(Ei=ET-EA)

EA EB=ET-EA PESO ESTADSTICO RANGO DE ENERGAS DEL

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


Para tamaos tpicamente macroscpicos:

Una delta de Dirac!

PA(EA ) ~A(EA) B(ETEA) B(EB=ETEi) ~ pA(Ei)


A(EA) ~ pB(Ei=ET-EA)

EA EB=ET-EA

Las energas de los estados del Peso Estadstico se restringen a un intervalo infinitesimal. Las energas correspondientes del sistema TOTAL tienen prcticamente la totalidad de los estados.
Si llamamos <EA> a la energa media de los estados del Peso Estadstico y EA al intervalo de la energa del Peso Estadstico, nos damos cuenta de que esta energa es el valor medio de la energa del sistema A y por tanto PESO ESTADSTICO DE A = A(<EA>)EA; en general se podr escribir: PESO ESTADSTICO = (<E>)E Lo que indica que el Peso Estadstico crece asombrosamente tambin con la energa.

G. NAVASCUS

23/10/2004

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


-----------------------------------Notas: No olvide que

se escribe A=A(EA,N,V), se sobreentiende que se trata de la energa media. As que el Peso Estadstico en una funcin de E, N y V. Observe que existe cierta ambigedad en la determinacin del intervalo de energas ya que depende de un criterio aparentemente vago, el de que los estados sean visitados de manera significativa por el sistema A. Significativa? Sin embargo esto no ser ningn problema como veremos ms adelante. --------------------------------Simultneamente por simetra: PESO ESTADSTICO DE B = B(EB)EB= B(ET -EA)EB. Como EA = EB y que Peso Estadstico del sistema total debe obtenerse de la combinacin del nmero de estados con mayor peso probabilstico de los dos subsistemas, es decir del producto de los pesos estadsticos: PESO ESTADSTICO DEL SISTEMA TOTAL = = PESO ESTADSTICO DE A = x PESO ESTADSTICO DE B =

0 ( E , N , V ) , es decir que de forma ms explcita es A=A(<EA>,N,V). Usualmente E

A(EA)EA x B(EB)EB = A(EA)EA x B(ET -EA)EB

Observe que el Peso Estadstico del sistema total (que est aislado) es prcticamente el nmero total de de microestados accesibles, mientras que no es ni mucho menos lo que pasa con los subsistemas, es ms hay rangos de energa de los subsistemas ( correspondientes a mayores energa que la media) con muchos (muchsimos) ms microestados. Fjese que el Peso Estadstico del sistema total como producto de pesos estadsticos de los dos subsistemas no se cumple en el ejemplo de los 4 osciladores. Este producto slo tiene sentido en el caso de sistemas macroscpicos. En cualquier caso el Peso Estadstico del sistema total es prcticamente igual a su nmero de microestados como hemos visto antes y este nmero si que es el del caso de los 4 osciladores. Este ejemplo fue elegido para ilustrar las ideas pero no es posible hacerlo con todas ellas ya que son propias de sistemas macroscpicos. Para acabar la presente discusin note que se puede generalizar la expresin del Peso Estadstico (PE) como producto de pesos estadsticos si el sistema es dividido en dos o ms subsistemas. PE del sistema TOTAL = PE de A x PE de B x PE de C x PE de D x .... = = A(<EA>)EA x B(<EB>)EB x C(<EC>)EC x D(<ED>)ED x ....

A(<EA>)EA X B(<EB>)EB X C(<EC>)EC X D(<ED>)ED X ....

G. NAVASCUS

23/10/2004

10

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


Vamos ahora con un ejemplo del libro de Waldram (ver bibliografa; este libro es recomendado especialmente): considere 10.000 osciladores cunticos como sistema aislado. Cada subsistema tiene 5000. Fjese que aun as estos nmeros de osciladores son ridculos en comparacin con lo que sera un sistema macroscpico (N del orden de 1024) pero al menos no nos desbordaran. Ante la imposibilidad de representar directamente cada posible estado me limitar a representar por pequeas lneas, sobre los ejes de las energas de los subsistemas A y B las respectivas densidades de estados y por puntos, sobre el primer cuadrante, la densidad de estados del sistema total. A mayor concentracin de pequeas lneas, o puntos, mayor densidad de estados. Todos los puntos que estn en una misma recta EB=-EA+ET, de pendiente 1, corresponden a estados del sistema total con la misma energa. Y naturalmente los puntos entre las rectas EA+EB=ET y EA+EB=ET +dET corresponden al sistema total con energa entre ET y ET+dET. Para una energa total dada, donde est la zona de mayor acumulacin de puntos ser del Peso Estadstico. Fjese que en el caso del intervalo de energas ahora el sistema no est estrictamente aislado pero eso es lo de menos.

EB|(EB)

La mayora de los estados del sistema total estn en esta zona (Peso Estadstico del sistema total)

dET

EB|(EB)
Los estados del sistema A con probabilidad de estar ocupados (Peso Estadstico del sistema A) estn en esta zona de energas que debe corresponder a <EA>

G. NAVASCUS

23/10/2004

11

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


En el siguiente diagrama se describe otro aspecto del Peso Estadstico. En este caso son 15000 osciladores y los subsistemas no son iguales, pero esto es lo de menos. Se supone ahora que la interaccin entre los subsistemas es menor que la interna en cada subsistema, de tal forma que el intercambio de energa es menos efectivo entre subsistemas que entre osciladores dentro de un mismo subsistema. Ahora en los ejes se representan las energas y el nmero de estados de los dos subsistemas, (una representacin similar al diagrama anterior). Para una energa de 15000 unidades (15000 excitaciones repartidas entre todos los osciladores) se representan los posibles estados del sistema total distribuidos conforme a como se reparten las 1500 unidades de energa entre los dos subsistemas (otra vez similar representacin del diagrama anterior). Se ve que cuando el reparto de la energa total se hace dando al subsistema B unas 10000 unidades y al A unas 5000 unidades se obtiene el mayor nmero de microestados del sistema total (109031, Peso Estadstico=A(5000)EA x B(10000)EB); ms an, para cualquier otro reparto el nmero de microestados del sistema total, a pesar de ser enorme, es totalmente despreciable frente al mximo. Fjese como cambian los nmeros al pasar de 4 a 15000 osciladores, y este cambio es nada comparado con lo que saldra si tuviramos 1023 osciladores!!!! La delta en rojo y las flechas que le acompaan estn relacionadas con la evolucin temporal del sistema (ver discusin en el libro de Walfram, o los apuntes de clase)

EB
Microestados de B en funcin de la energa 15000

!!!

A 5000 Osciladores cunticos

B 10000 Osciladores cunticos

ET=1500 (en unidades de )

10000 10
6000

109000 109030.9 109000

105000

5000

104000 10
3000

Microestados de A en funcin de la energa 108000

102000 101000 102000 103000 5000 104000 10000

107000

EA

15000

G. NAVASCUS

23/10/2004

12

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


ENTROPA Ahora estamos en condiciones de definir la entropa como:

S = k Ln (Peso Estadstico)

Donde k es la constante de Boltzmann e igual a 1.38x10-16 erg/K. De momento es una definicin pero veremos que coincide con la entropa termodinmica y por tanto esta expresin es de extraordinario inters ya que establece un vnculo entre el mundo macroscpico (la entropa termodinmica) y el microscpico (el Peso Estadstico). La entropa es, por definicin, una medida del nmero de estados que el sistema visita con probabilidad significativa. La constante k es simplemente un factor para que la Entropa aqu definida, coincida numricamente y con las unidades correspondientes con la entropa termodinmica. El logaritmo juega un papel importante en esta identificacin. De momento lo que hace es planchar literalmente el extraordinario crecimiento del Peso Estadstico con E. S como funcin de E puede dibujarse sin problemas. Pero an ms importante, la propiedad de factorizacin del Peso Estadstico se convierte en SUMA con el logaritmo: S(ET) = SA(<EA>)+ SB(<EB>)+SC(<EC>)+ SD(<ED>)+. Es decir la entropa es una magnitud EXTENSIVA; la entropa de un sistema es la suma de las entropas de sus partes, como lo son las variables macroscpicas V o N. Como el peso estadstico es una funcin de E y de posibles parmetros externos como N y V, la entropa tambin lo es S=S(E,N,V,...) A pesar de las diferencias (E) < 0(E) y (en los sistemas estadsticamente normales) (E)E < 0(E), la entropa, S=k Ln [(E)E], se puede evaluar tambin como S = k Ln[0(E)] o como S = k Ln[(E)]. Esto es debido a que las diferencias mencionadas acaban siendo totalmente despreciables al tomar el logaritmo. Veremos este comportamiento en distintos problemas con un nmero macroscpico de partculas. El mnimo valor posible del Peso Estadstico es 1, por tanto PE1, y como consecuencia S 0. La entropa no puede ser negativa La entropa es una funcin cncava con respecto a la energa (y con respecto a N y V). Para llegar a esta conclusin se puede utilizar el mismo argumento de equilibrio que en Termodinmica. (E), 0(E), (E) S=kLn((E)E =k Ln[0(E)]= k Ln[(E)]

G. NAVASCUS

23/10/2004

13

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


La posibilidad de identificar la entropa con kLn[(E)] me permite "redibujar" las grficas, que he utilizado para introducir el peso Estadstico, con la entropa en vez de con el nmero de estados. En la figura adjunta hago esto y se observan comportamientos muy interesantes: los cambios de curvatura como debe ser, la posibilidad de dibujar el comportamiento de la entropa con la energa para los distintos sistemas, A, B y total, todo ello a la misma escala y lo ms importante: en equilibrio la entropa del sistema total es mxima. Este punto lo voy a discutir con ms extensin a continuacin.

PA(EA ) ~A(EA) B(ETEA) B(EB=ETEi) ~ pA(Ei)

A(EA) ~ pB(Ei=ET-EA)

S=SA+SB=k LnT

SB = kLn[B(EB)] SA = kLn[A(EA)]

EB=ET-EA
( E A1) ( E A2) =< E A > ( E B1) ( E B2) =< E B >

EA

( E A1)

( E B1)

( E A2 ) =< E A >

( EB2) =< EB >

G. NAVASCUS

23/10/2004

14

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


9 LEY DE CRECIMIENTO DE LA ENTROPA. 2 LEY DE LA TERMODINMICA. PROCESOS REVERSIBLES E IRREVERSIBLES Considere dos sistemas macroscpicos, A y B, separados entre s pero en equilibrio consigo mismo cada uno de ellos. Sus energas respectivas son EA(1) y EB(1). Los dos sistemas se ponen en contacto de manera que pueden intercambiar energa manteniendo, naturalmente, la energa total: ET=EA(1)+EB(1). Inicialmente los dos sistemas, ahora subsistemas del total, no tienen porque estar en equilibrio y por tanto su configuracin inicial puede corresponder a la sealada en la grfica anterior. Una vez en contacto, sabemos que lo ms probable es que los dos sistemas evolucionen hacia configuraciones de mayor probabilidad y, evidentemente, es menos probable que ocurra lo contrario. En cualquier caso, en su evolucin, un sistema gana energa a costa del otro (veremos, en el siguiente captulo, que lo ms probable es que el que tiene mayor pendiente en el nmero de estados, o entropa, cede energa al otro, esta pendiente es bsicamente la temperatura). El peso estadstico es tan determinante que en la prctica la evolucin es unidireccional, el sistema tiene una probabilidad casi igual a 1 de tender hacia los estados del peso estadstico, y la situacin final ser que el sistema este evolucionando entre los estados que determinan el Peso Estadstico. Eventualmente, de vez en cuando, puede ocurrir que el sistema evolucione hacia estados menos probables pero tarde o temprano vuelve hacia los ms probables Cuando el sistema llega a los microestados del Peso Estadstico cada uno de los subsistemas tiene una energa que flucta alrededor de los valores medios <EA> y <EB>. Las fluctuaciones son prcticamente despreciables y las variables toman valores medios que, lo ms probable, es que no cambien. No est excluido que las fluctuaciones puedan ser suficientemente grandes como para que los valores medios cambien significativamente pero es tan improbable esta situacin que se ignora y decimos que el sistema est en equilibrio. En Termodinmica la evolucin hacia el equilibrio es inapelable y este aserto constituye la Segunda Ley de la Termodinmica. Una vez en equilibrio el sistema permanece en l para siempre. El proceso se llama por eso IRREVERSIBLE; lo que la Mecnica Estadstica propone es que en su evolucin temporal, lo ms probable es que el sistema tienda al equilibrio, una vez en equilibrio lo ms probable es que permanezca en l, el proceso sigue siendo irreversible pero su significado no es tan absoluto. En trminos de Entropa la discusin es la siguiente: inicialmente la entropa de los dos sistemas es: S = SA(EA(1)) + SB(EB(1)) Y la final de equilibrio S = SA(<EA>) + SB(<EB>) que necesariamente es mayor (ver grfica). Formalmente podemos escribir que la evolucin del sistema total es en cualquier caso a un reparto de energas entre los dos sistemas a la que la corresponden los microestados dados por la expresin A(EA)EA x B(EB)EB donde EA y EB es el reparto de la energa total entre los dos sistemas en esas configuraciones. Usando la definicin de entropa podemos escribir: A(EA)EA x B(EB)EB = exp {SA(EA)/k} x exp {SB(EB)/k} = exp {[SA(EA) +SB(EB)]/k} = = exp {[ST(EA,EB)/k} donde ST(EA,EB) es la entropa del sistema si la energa total se reparte en los dos subsistemas dando a cada uno de ellos las energas EA y EB. La distribucin inicial de estados del sistema, cuando los dos subsistemas estn separados es tal que: A(EA(1))EA x B(EB(1))EB = exp {[ST(EA(1),EB(1))/k} mientras que la final es: A(EA(2))EA x B(EB(2))EB = exp {[ST(EA(2),EB(2))/k} o lo que es lo mismo A(<EA>)EA x B(<EB>)EB = exp {[ST(<EA>,<EB>)/k} Es decir el reparto de energa en los dos subsistemas corresponde a la mxima entropa G. NAVASCUS 23/10/2004 15

1 CONCEPTOS BSICOS. PROBABILIDAD, EQUILIBRIO Y ENTROPA


La generalizacin a un sistema compuesto de varios subsistemas es obvia:

( Ei )Ei = exp{S T ( E1 , E 2 , E3 ,...) / k}

Todas estas consideraciones nos llevan establecer: LEY DE CRECIMIENTO DE LA ENTROPA: EN UN SISTEMA AISLADO QUE NO EST EN EQUILIBRIO LO MS PROBABLE ES QUE LA ENTROPA AUMENTE Lo que quiere decir que puede haber fluctuaciones que nos alejen temporalmente del equilibrio o de la evolucin hacia el equilibrio. S puede decrecer. En termodinmica no, es ms estricta en este respecto. Que S tenga una mayor probabilidad de crecer no quiere decir que la entropa crezca en todas las partes del sistema: lo usual es que crezca en unas partes y decrezca en otras, aunque crece ms en aquellas que decrece en estas. El proceso macroscpico que nos lleva al equilibrio (aunque no de forma inexorable), es decir el proceso ms probable es lo que lamamos proceso IRREVERSIBLE. Si la entropa se mantiene en su mximo el proceso es llamado REVERSIBLE. Ms consideraciones sobre la ENTROPA: En un sistema clsico podemos expresarla como S=k Ln[(E)/h2fN] As la defini Gibbs pensando determinar h (una constante que nada tena que ver con la de Planck por entonces) mediante medidas experimentales. Sin embargo las medidas experimentales siempre estn en relacin con cambios de entropa S= S2-S1 = k Ln[2(E)/h2fN] - k Ln[1(E)/h2fN] = k Ln[2(E)/ 1(E)] que ya no depende de h. La entropa puede definirse como k<Ln[p(E)]>. En efecto en un sistema aislado p(E)=1/(E) con lo que <Ln[p(E)]> = <Ln[1/(E)]> = 1/(E) Ln[1/(E)] = - Ln[1/]/ = -Ln[] 1/ = - Ln[] y por tanto -k <Ln[p(E)]> = k Ln[] c. q. d.

(Veremos que esta definicin de entropa puede aplicarse a sistemas no aislados, es decir a otro conjuntos estadsticos que no sean el microcannico) Si dividimos el sistema en partes macroscpicas con tiempos de relajacin de equilibrio, i, ms pequeos que el del sistema total, , cada subsistema puede llagar al equilibrio interno, antes que el sistema total, es decir antes que el equilibrio entre subsistemas. Cualquier medida que use un tiempo t tal que >t>i an podremos hablar de la entropa de cada subsistema. Si volvemos a dividir el sistema en un nmero mayor de subsistemas podremos seguir hablando de la entropa de los subsistemas si an se cumple que >t>i . Este proceso lo podemos seguir haciendo con cada vez con subsistemas ms pequeos correspondindoles tiempos de relajacin ms pequeos, pero no podemos llevar este proceso al lmite ya que dejaran de ser subsistemas macroscpicos. La entropa est ligada, por tanto, a un tiempo finito tal como ocurre con otras variables macroscpicas como la presin. Observe que la entropa aqu definida tiene todas las propiedades de la entropa termodinmica, salvo el carcter determinista. En el siguiente tema veremos que se relaciona con otras variables termodinmicas en la misma forma as que podemos no solo identificar ambas entropas sino que la Mecnica Estadstica justifica la Termodinmica y da explicacin al misterioso comportamiento de la entropa termodinmica.

G. NAVASCUS

23/10/2004

16

Vous aimerez peut-être aussi