Vous êtes sur la page 1sur 3

La entropa y el orden

Muchos textos y artculos se refieren a la entropa como una medida del desorden o la
aleatoriedad. Esta interpretacin se justifica por la definicin de entropa. El argumento es que
un aumento en el desorden en un sistema corresponde a un aumento en la entropa. Sin embargo,
existen dos problemas con esta interpretacin: no agrega nada a la comprensin de la entropa y
es inconsistente con la concepcin comn de desorden.
1. Para aclarar las ideas anteriores investiga y explica lo siguiente:
Las razones para hacer la relacin entre entropa y orden.
En la mayora de los procesos naturales intervienen billones y billones de tomos que se pueden
mover en infinidad de direcciones. Si, por casualidad, la disposicin de tomos estuviera en un
principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio,
cualquier cambio espontneo, disminuira ese orden, o por decirlo de otra manera, aumentara el
desorden.
De acuerdo con el segundo principio de la termodinmica, la entropa del universo est en
constante aumento; es decir, la distribucin de energa en el universo est constantemente
igualndose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energa
aumenta tambin el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el
universo con los movimientos aleatorios libres de las partculas que lo componen no es sino otro
aspecto del segundo principio, y la entropa cabe considerarla como una medida del desorden que
existe en el universo.
Las ventajas y desventajas de tal relacin.
Miradas las cosas de esta manera, es fcil ver la mano del segundo principio por doquier, porque
los cambios naturales actan claramente en la direccin del desorden; para restaurar el orden
hace falta un esfuerzo especial.
Los objetos se descolocan, las cosas se desordenan... Y para tener las cosas a punto es preciso
estar constantemente arreglando y limpiando el polvo y ordenando.
La relacin entre entropa y la carencia de informacin.
La conexin de la entropa con la informacin fue establecida por Shannon y Weaver en su teora
de informacin. Si el sistema es uno de comunicacin, en este caso, la informacin transmitida
tender a degradarse (a desordenarse); a medida que un mensaje circula, el ruido lo altera y el
contenido original se va desordenando (un chisme, un "telfono roto", una fotocopia de una
fotocopia de una fotocopia, etc.). Ellos proponan entonces mecanismos de retroalimentacin que
permitieran mejorar la relacin entre un mensaje enviado y un mensaje recibido. Y para hacerlo, la
frmula de entropa de la termodinmica result apropiada. Mientras que la entropa mide el nivel
de desorden en el sistema, es decir la incertidumbre; la informacin representa el orden, la

certidumbre. Por tanto, la informacin correspondera a entropa negativa dando la posibilidad de


medir la cantidad de informacin en un sistema (o en un mensaje para compararlo con la cantidad
enviada y corregir o reenviar en caso de prdida de informacin).
Las razones para relacionar la entropa con la carencia de informacin.
En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la
informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una
fuente de informacin.
La entropa tambin se puede considerar como la cantidad de informacin promedio que
contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor
informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto,
palabras frecuentes como "que", "el", "a" aportan poca informacin, mientras que palabras menos
frecuentes como "corren", "nio", "perro" aportan ms informacin. Si de un texto dado borramos
un "que", seguramente no afectar a la comprensin y se sobreentender, no siendo as si
borramos la palabra "nio" del mismo texto original. Cuando todos los smbolos son igualmente
probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa
es mxima.
El concepto de entropa es usado en termodinmica, mecnica estadstica y teora de la
informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la
"peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una medida de
la incertidumbre y de la informacin necesaria para, en cualquier proceso, poder acotar, reducir o
eliminar la incertidumbre. Resulta que el concepto de informacin y el de entropa estn
ampliamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica
estadstica y de la teora de la informacin antes de que esto fuera percibido.
Las ventajas y desventajas de usar la comparacin entre entropa y carencia de informacin.
La informacin es tratada como magnitud fsica, caracterizando la informacin de una secuencia
de smbolos utilizando la Entropa. Se parte de la idea de que los canales no son ideales, aunque
muchas veces se idealicen las no linealidades, para estudiar diversos mtodos de envo de
informacin o la cantidad de informacin til que se pueda enviar a travs de un canal.
La informacin necesaria para especificar un sistema fsico tiene que ver con su entropa.
Referencias:
Recuperado
10/12/14
http://catarina.udlap.mx/u_dl_a/tales/documentos/lap/carmona_c_dc/capitulo1.pdf

de

Recuperado
10/12/14
de
http://books.google.com.mx/books?id=lg49BBMdCAwC&pg=PA57&dq=La+relaci%C3%B3n+entre+
Recuperado 20/03/13 de entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es-

419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CDEQ6AEwAQ#v=onepage&q=La%20relaci%C3
%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20informaci%C3%B3n.&f=fals
e
Recuperado
10/12/14
de
http://books.google.com.mx/books?id=ZxVlO2ELnugC&pg=PA157&dq=La+relaci%C3%B3n+entre+
entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CCsQ6AEwAA#v=onepage&q=La%20relaci%C3
%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20informaci%C3%B3n.&f=fals
e
Recuperado 10/12/14 de
http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_informaci%C3%B3n)

Vous aimerez peut-être aussi