Vous êtes sur la page 1sur 9

Entropa

De Wikipedia, la enciclopedia libre


(Redirigido desde Entropia)
Saltar a: navegacin, bsqueda
Para otros usos de este trmino, vase Entropa (desambiguacin).
En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que para
un sistema termodinmico en equilibrio mide el nmero de microestados compatibles
con el macroestado de equilibrio, tambin se puede decir que mide el grado de
organizacin del sistema, o que es la razn de un incremento entre energa interna frente
a un incremento de temperatura del sistema.
La entropa es una funcin de estado de carcter extensivo y su valor, en un sistema
aislado, crece en el transcurso de un proceso que se da de forma natural. La entropa
describe lo irreversible de los sistemas termodinmicos. La palabra entropa procede del
griego () y significa evolucin o transformacin. Fue Rudolf Clausius quien le
dio nombre y la desarroll durante la dcada de 1850;1 2 y Ludwig Boltzmann, quien
encontr en 1877 la manera de expresar matemticamente este concepto, desde el punto
de vista de la probabilidad.3

ndice
[ocultar]
1 Introduccin
2 Entropa y termodinmica
o 2.1 Significado
o 2.2 Cero absoluto
o 2.3 Entropa y reversibilidad
3 Historia de la entropa
4 Interpretacin estadstica de la entropa
o 4.1 Entropa y desorden
o 4.2 Entropa como creadora de orden
o 4.3 Relacin de la entropa con la teora de la informacin
o 4.4 La entropa como flecha del tiempo
5 Vase tambin
6 Referencias
7 Enlaces externos

Introduccin[editar]
Cuando se plantea la pregunta: Por qu ocurren los sucesos en la Naturaleza de una
manera determinada y no de otra manera?, se busca una respuesta que indique cul es
el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con
distinta temperatura, se anticipa que finalmente el trozo caliente se enfriar, y el trozo
fro se calentar, finalizando en equilibrio trmico. El proceso inverso, el calentamiento
del trozo caliente y el enfriamiento del trozo fro es muy improbable que se presente, a
pesar de conservar la energa. El universo tiende a distribuir la energa uniformemente;

es decir, a maximizar la entropa. Intuitivamente, la entropa es una magnitud fsica que,


mediante clculo, permite determinar la parte de la energa por unidad de temperatura
que no puede utilizarse para producir trabajo.
La funcin termodinmica entropa es central para el segundo principio de la
termodinmica. La entropa puede interpretarse como una medida de la distribucin
aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta
entropa. Un sistema en una condicin improbable tendr una tendencia natural a
reorganizarse a una condicin ms probable (similar a una distribucin al azar),
reorganizacin que dar como resultado un aumento de la entropa. La entropa
alcanzar un mximo cuando el sistema se acerque al equilibrio, y entonces se alcanzar
la configuracin de mayor probabilidad.
Una magnitud es una funcin de estado si, y slo si, su cambio de valor entre dos
estados es independiente del proceso seguido para llegar de un estado a otro. Esa
caracterizacin de funcin de estado es fundamental a la hora de definir la variacin de
entropa.
La variacin de entropa nos muestra la variacin del orden molecular ocurrido en una
reaccin qumica. Si el incremento de entropa es positivo, los productos presentan un
mayor desorden molecular (mayor entropa) que los reactivos. En cambio, cuando el
incremento es negativo, los productos son ms ordenados. Hay una relacin entre la
entropa y la espontaneidad de una reaccin qumica, que viene dada por la energa de
Gibbs.

Entropa y termodinmica[editar]
Se entiende por entropa a un tipo de magnitud fsica que calcula aquella energa que
existe en un determinado objeto o elemento pero que no es til para realizar un trabajo o
esfuerzo. La entropa es aquella energa que no es utilizable ante el advenimiento de un
proceso termodinmico, por ejemplo, la puesta en circulacin de una determinada
cantidad de energa a partir de la reaccin de uno o ms elementos. As, en trminos ms
cercanos al lxico comn, la entropa podra ser descripta como la energa que resulta
desechable ante un proceso termodinmico, aquella energa que no es utilizada y que
por tanto no es considerada til para tal proceso.
Dentro de la termodinmica o rama de la fsica que estudia los procesos que surgen a
partir del calentamiento de energas y de la puesta en movimiento de diferentes
elementos naturales. La entropa figura dentro de esta rama de la fsica como una
especie de desorden de todo aquello que es sistematizado, es decir, como la referencia o
la demostracin de que cuando algo no es controlado puede transformarse y
desordenarse. La entropa, adems, supone que de ese caos o desorden existente en un
sistema surja una situacin de equilibrio u homogeneidad que, a pesar de ser diferente a
la condicin inicial, suponga que las partes se hallan ahora igualadas o equilibradas.
Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada por
Rudolf Clausius a partir de un proceso cclico reversible. En todo proceso reversible la
integral curvilnea de

slo depende de los estados inicial y final, con independencia del camino seguido (Q
es la cantidad de calor absorbida en el proceso en cuestin y T es la temperatura
absoluta). Por tanto, ha de existir una funcin del estado del sistema, S=f(P,V,T),
denominada entropa, cuya variacin en un proceso reversible entre los estados 1 y 2 es:
.
Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en lugar
de dQ. La entropa fsica, en su forma clsica, est definida por la ecuacin siguiente:

o, ms simplemente, cuando no se produce variacin de temperatura (proceso


isotrmico):

donde S es la entropa,
la cantidad de calor intercambiado entre el sistema y el
entorno y T la temperatura absoluta en kelvin.
Unidades: S=[cal/K]
Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema
termodinmico.

Significado[editar]
El significado de esta ecuacin es el siguiente:
Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico, del
estado 1 al estado 2, el cambio en su entropa es igual a la cantidad de calor
intercambiado entre el sistema y el medio dividido por su temperatura absoluta.
De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la
entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de calor que
entra produce un aumento de entropa menor. Y viceversa.
Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius),
definido como la variacin de entropa que experimenta un sistema cuando absorbe el
calor de 1 julio a la temperatura de 1 Kelvin.

Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se convierte en


una inecuacin:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el
sistema y la temperatura de las fuentes. No obstante, sumando un trmino positivo al
segundo miembro, podemos transformar de nuevo la expresin en una ecuacin:

Al trmino
, siempre positivo, se le denomina produccin de entropa, y es nulo
cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor
con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabtico,
segn la ecuacin, dS=0, es decir, el valor de la entropa es constante y adems
constituye un proceso isoentrpico.

Cero absoluto[editar]
Solo se pueden calcular variaciones de entropa. Para calcular la entropa de un sistema,
es necesario fijar la entropa del mismo en un estado determinado. El tercer principio de
la termodinmica fija un estado estndar: para sistemas qumicamente puros, sin
defectos estructurales en la red cristalina, de densidad finita, la entropa es nula en el
cero absoluto (0 K) o (-273.16C)
Esta magnitud permite definir el segundo principio de la termodinmica, de la cual se
deduce que un proceso tiende a darse de forma espontnea en un cierto sentido
solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a
congelarse por el otro de forma espontnea, aun cuando siga cumplindose la condicin
de conservacin de la energa del sistema (el primer principio de la termodinmica).

Entropa y reversibilidad[editar]
La entropa global del sistema es la entropa del sistema considerado ms la entropa de
los alrededores. Tambin se puede decir que la variacin de entropa del universo, para
un proceso dado, es igual a su variacin en el sistema ms la de los alrededores:

Si se trata de un proceso reversible, S (universo) es cero, pues el calor que el sistema


absorbe o desprende es igual al trabajo realizado. Pero esto es una situacin ideal, ya
que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta
circunstancia no se da en la naturaleza. Por ejemplo, en la expansin isotrmica
(proceso isotrmico) de un gas, considerando el proceso como reversible, todo el calor
absorbido del medio se transforma en trabajo y Q= -W. Pero en la prctica real el

trabajo es menor, ya que hay prdidas por rozamientos, por lo tanto, los procesos son
irreversibles.
Para llevar al sistema nuevamente a su estado original, hay que aplicarle un trabajo
mayor que el producido por el gas, lo que da como resultado una transferencia de calor
hacia el entorno, con un aumento de la entropa global.
Como los procesos reales son siempre irreversibles, siempre aumentar la entropa. As
como la energa no puede crearse ni destruirse, la entropa puede crearse pero no
destruirse. Es posible afirmar entonces que, como el Universo es un sistema aislado, su
entropa crece constantemente con el tiempo. Esto marca un sentido a la evolucin del
mundo fsico, que se conoce como principio de evolucin.
Cuando la entropa sea mxima en el Universo, esto es, cuando exista un equilibrio
entre todas las temperaturas y presiones, llegar la muerte trmica del Universo
(enunciada por Clausius).
En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las
molculas, la diferencia entre calor y trabajo desaparece y, por tanto, parmetros
termodinmicos como la entropa, la temperatura y otros no tienen significado. Esto
conduce a la afirmacin de que el segundo principio de la termodinmica no es
aplicable a estos microsistemas, porque realmente no son sistemas termodinmicos. Se
cree que existe tambin un lmite superior de aplicacin del segundo principio, de tal
modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo,
lo que pone en controversia la afirmacin de Clausius sobre la muerte trmica del
Universo.

Historia de la entropa[editar]
El concepto de entropa desarrollado en respuesta a la observacin de que una cierta
cantidad de energa liberada de funcionales reacciones de combustin siempre se pierde
debido a la disipacin o la friccin y por lo tanto no se transforma en trabajo til. Los
primeros motores de calor como Thomas Savery (1698), el Newcomen motor (1712) y
el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversin de menos del
2% de la energa de entrada en produccin de trabajo til; una gran cantidad de energa
til se disipa o se pierde en lo que pareca un estado de aleatoriedad inconmensurable.
Durante los prximos dos siglos los fsicos investigaron este enigma de la energa
perdida, el resultado fue el concepto de entropa.
En la dcada de 1850, Rudolf Clausius estableci el concepto de sistema termodinmico
y postula la tesis de que en cualquier proceso irreversible una pequea cantidad de
energa trmica Q se disipa gradualmente a travs de la frontera del sistema. Clausius
sigui desarrollando sus ideas de la energa perdida, y acu el trmino "entropa".
Durante el prximo medio siglo se llev a cabo un mayor desarrollo, y ms
recientemente el concepto de entropa ha encontrado aplicacin en el campo anlogo de
prdida de datos en los sistemas de transmisin de informacin.

Interpretacin estadstica de la entropa[editar]

Tumba de Boltzmann en el Cementerio central de Viena con la frmula de entropa.


En los aos 1890 - 1900 el fsico austraco Ludwig Boltzmann y otros desarrollaron las
ideas de lo que hoy se conoce como mecnica estadstica, teora profundamente
influenciada por el concepto de entropa. Una de las teoras termodinmicas estadsticas
(la teora de Maxwell-Boltzmann) establece la siguiente relacin entre la entropa y la
probabilidad termodinmica:
,
donde S es la entropa, k la constante de Boltzmann y el nmero de microestados
posibles para el sistema (ln es la funcin logaritmo natural). La ecuacin asume que
todos los microestados tienen la misma probabilidad de aparecer.
La ecuacin se encuentra grabada sobre la lpida de la tumba de Ludwig Boltzmann en
el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicid en 1906,
profundamente deprimido, quiz por la poca aceptacin de sus teoras en el mundo
acadmico de la poca.4
El significado de la ecuacin es el siguiente:
La cantidad de entropa de un sistema es proporcional al logaritmo natural del
nmero de microestados posibles.
Uno de los aspectos ms importantes que describe esta ecuacin es la posibilidad de dar
una definicin absoluta al concepto de la entropa. En la descripcin clsica de la
termodinmica, carece de sentido hablar del valor de la entropa de un sistema, pues
slo los cambios en la misma son relevantes. En cambio, la teora estadstica permite
definir la entropa absoluta de un sistema.
La entropa es una magnitud fsica bsica que dio lugar a diversas interpretaciones, al
parecer a veces en conflicto. Han sido, sucesivamente, asimilados a diferentes

conceptos, como el desorden y la informacin. La entropa mide tanto la falta de


informacin como la informacin. Estas dos concepciones son complementarias. La
entropa tambin mide la libertad, y esto permite una interpretacin coherente de las
frmulas de entropa y de los hechos experimentales. No obstante, asociar la entropa y
el desorden implica definir el orden como la ausencia de libertad.5 El desorden o la
agitacin guardan relacin con la temperatura.

Entropa y desorden[editar]
Cuando la energa es degradada, dijo Boltzmann, se debe a que los tomos asumen un estado
ms desordenado. Y la entropa es un parmetro del desorden: sa es la concepcin profunda
que se desprende de la nueva interpretacin de Boltzmann. Por extrao que parezca, se puede
crear una medida para el desorden; es la probabilidad de un estado particular, definido aqu
como el nmero de formas en que se puede armar a partir de sus tomos
Jacob Bronowski. El ascenso del hombre (The Ascent of Man). Bogot, Fondo Educativo
Interamericano, 1979, p. 347, captulo 10 "Un mundo dentro del mundo".

Coloquialmente, suele considerarse que la entropa es el desorden de un sistema, es


decir, su grado de homogeneidad. Un ejemplo domstico sera el de lanzar un vaso de
cristal al suelo: tender a romperse y a esparcirse, mientras que jams ser posible que,
lanzando trozos de cristal, se construya un vaso por s solo. Otro ejemplo domstico:
imagnense dos envases de un litro de capacidad que contienen, respectivamente,
pintura blanca y pintura negra; con una cucharita, se toma pintura blanca, se vierte en el
recipiente de pintura negra y se mezcla; luego se toma pintura negra con la misma
cucharita, se vierte en el recipiente de pintura blanca y se mezclan; el proceso se repite
hasta que se obtienen dos litros de pintura gris, que no podrn reconvertirse en un litro
de pintura blanca y otro de pintura negra; la entropa del conjunto ha ido en aumento
hasta llegar a un mximo cuando los colores de ambos recipientes son sensiblemente
iguales (sistema homogneo).
No obstante, considerar que la entropa es el desorden de un sistema sin tener en cuenta
la naturaleza del mismo es una falacia. Y es que hay sistemas en los que la entropa no
es directamente proporcional al desorden, sino al orden.

Entropa como creadora de orden[editar]


A pesar de la identificacin entre la entropa y el desorden, hay muchas transiciones de
fase en la que emerge una fase ordenada y al mismo tiempo, la entropa aumenta. En
este artculo se muestra que esta paradoja se resuelve haciendo una interpretacin literal
de la famosa ecuacin de Boltzmann S = k log W. Podemos verlo en la segregacin de
una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a separarse.
Tambin en la cristalizacin de esferas duras: cuando agitamos naranjas en un cesto,
stas se ordenan de forma espontnea. De estos casos se deduce el concepto de fuerza
entrpica o interaccin, muy til en la ciencia de polmeros o ciencia coloidal.6
El astrofsico Alan Lightman reconoci que a los cientficos les parece misterioso el
hecho de que el universo fuera creado con este elevado grado de orden. Agreg que
cualquier teora cosmolgica viable debera explicar en ltima instancia esta
contradiccin de la entropa, es decir, que el universo no se halle en estado catico.7

De acuerdo con Ilya Prigogine, galardonado con el Premio Nobel de Qumica en 1977,
"la produccin de entropa contiene siempre dos elementos dialcticos: un elemento
creador de desorden, pero tambin un elemento creador de orden. Y los dos estn
siempre ligados". Prigogine ejemplifica esta afirmacin con el caso de un sistema
compuesto de dos cajas comunicantes que contienen una mezcla de nitrgeno e
hidrgeno. Si la temperatura del sistema es homognea, tambin lo ser la distribucin
del hidrgeno y el nitrgeno, pero si se somete al sistema a una constriccin trmica se
genera una disipacin, un aumento de la entropa, pero tambin del orden, ya que el
hidrgeno predominar en una de las cajas y el nitrgeno en la otra (fenomeno de
antidifusin).8

Relacin de la entropa con la teora de la informacin[editar]


Vase tambin: Entropa (informacin)

Recientes estudios han podido establecer una relacin entre la entropa fsica y la
entropa de la teora de la informacin gracias a la revisin de la fsica de los agujeros
negros. Segn la nueva teora de Jacob D. Bekenstein el bit de informacin sera
equivalente a una superficie de valor 1/4 del rea de Planck. De hecho, en presencia de
agujeros negros la segunda ley de la termodinmica slo puede cumplirse si se
introduce la entropa generalizada o suma de la entropa convencional (Sconv) ms un
factor dependiente del rea total (A) de agujeros negros existente en el universo, del
siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de


la gravitacin y

es la constante de Planck racionalizada.

Los agujeros negros almacenaran la entropa de los objetos que engulle en la superficie
del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante las evidencias de la
nueva teora y ha propuesto un mecanismo nuevo para la conservacin de la entropa en
los agujeros negros.
Simplemente, al realizar un trabajo, se ocupa muy poca energa; la entropa se encarga
de medir la energa que no es usada y queda reservada en un cuerpo.

La entropa como flecha del tiempo[editar]


Artculo principal: Flecha del tiempo

Como se demuestra en el Segundo Principio de la Termodinmica, de los dos nicos


sentidos en que puede evolucionar un sistema el espontneo es el que corresponde al
estado del universo con una igual o mayor entropa. Se entiende por lo tanto que la
entropa del universo tiene un nico sentido: es creciente. Es equiparable al paso del
tiempo, cuyo sentido a ojos de la vida humana es siempre el mismo. El tiempo pasa y la
entropa crece hasta alcanzar el punto de mxima entropa del universo, el equilibrio
termodinmico. A modo tanto de cuestin filosfica como de cuestin cientfica este
concepto recae inevitablemente en la paradoja del origen del universo. Si el tiempo

llevara pasando infinitamente la entropa del universo no tendra sentido, siendo esta un
concepto finito creciente en el tiempo y el tiempo un concepto infinito y eterno.

Vous aimerez peut-être aussi