Definición de Entropía

15
DEFINICIÓN DE ENTROPÍA Entropía es una noción que procede de un vocablo griego que puede traducirse como vuelta o transformación (utilizado en sentido figurado). En el siglo XIX Clausius acuñó el concepto en el ámbito de la Física para referirse a una medida del desorden que puede verse en las moléculas de un gas. A partir de entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales como la física, la química, la informática, la matemática y la lingüística. Algunas definiciones son: La entropía puede ser la magnitud física termodinámica que permite medir la parte no utilizable de la energía contenida en un sistema. Esto quiere decir que dicha parte de la energía no puede usarse para producir un trabajo. Se entiende por entropía también a la medida del desorden de un sistema. En este sentido, está asociada a un grado de homogeneidad. La entropía de formación de un compuesto químico se establece midiendo la que conforma a cada uno de sus elementos constituyentes. A mayor entropía de formación, más favorable será su formación. En la teoría de la información, la entropía es la medida de la incertidumbre que existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de una medida de la información que es necesaria para reducir o eliminar la incertidumbre.

description

Aclaración del uso de la entropía.

Transcript of Definición de Entropía

Page 1: Definición de Entropía

DEFINICIÓN DE ENTROPÍA

Entropía es una noción que procede de un vocablo griego que puede traducirse

como vuelta o transformación (utilizado en sentido figurado).

En el siglo XIX Clausius acuñó el concepto en el ámbito de la Física para referirse a

una medida del desorden que puede verse en las moléculas de un gas. A partir de

entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales

como la física, la química, la informática, la matemática y la lingüística.

Algunas definiciones son:

La entropía puede ser la magnitud física termodinámica que permite medir la parte

no utilizable de la energía contenida en un sistema. Esto quiere decir que dicha parte de

la energía no puede usarse para producir un trabajo.

Se entiende por entropía también a la medida del desorden de un sistema. En este

sentido, está asociada a un grado de homogeneidad.

La entropía de formación de un compuesto químico se establece midiendo la que

conforma a cada uno de sus elementos constituyentes. A mayor entropía de formación,

más favorable será su formación.

En la teoría de la información, la entropía es la medida de la incertidumbre que

existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de

una medida de la información que es necesaria para reducir o eliminar la incertidumbre.

Otra manera de entender la entropía es como la cantidad media de información que

contienen los símbolos transmitidos. Palabras como “el” o “que” son los símbolos más

frecuentes en un texto pero, sin embargo, son los que aportan menos información. El

mensaje tendrá información relevante y máxima entropía cuando todos los símbolos son

igualmente probables.

La entropía en el campo de la lingüística

La forma en la que se organiza y difunde la información en un discurso es uno de los

temas más relevantes y susceptibles de investigación para la lingüística. Y gracias a la

entropía puede realizarse un análisis más profundo de la comunicación.

En el caso de la comunicación escrita el problema es sencillo de analizar (las

unidades básicas, las letras, se encuentran bien definidas); si se desea comprender a

fondo el mensaje es posible decodificarlo con exactitud y comprender tanto lo dicho literal

Page 2: Definición de Entropía

como figurado. Pero en el lenguaje oral, la cosa cambia un poco, presentando algunas

complicaciones.

No es sencillo determinar en el discurso oral los elementos fundamentales del

código; las palabras suenan diferentes según por quién las pronuncie y, de igual modo,

pueden tener significados diversos. No es suficiente por tanto clasificarlas en fonemas

vocálicos y consonánticos porque esto no nos permitiría entender cómo se organiza

la información porque, por ejemplo, si se suprimen fonemas vocálicos, no es posible

comprender el mensaje.

Según un estudio realizado en la Universidad de Wisconsin-Madison una buena

forma de aislar y comprender el código oral es a través de la descomposición espectral de

las señales sonoras. Gracias a esta técnica se intenta comprender cómo la cóclea filtra y

analiza lo le llega. La cóclea es la parte de nuestros oídos que tiene la función de

transformar los sonidos en señales eléctricas y enviarlas directamente al cerebro.

Para llevar a cabo este experimento se utilizó una unidad de medida que se conoce

como entropía espectral en escala coclear (CSE), la misma permite establecer

conexiones entre una señal y la que la precede; decidiendo qué posibilidades hay de

predecir una señal partiendo de la anterior.

Los resultados devolvieron que cuanto más parecidas son dos señales, más fácil es

predecir la segunda; esto significa que la información que tomamos de la segunda es casi

nula. Así mismo cuanto más difieran entre sí, mayor será la información que aporte la

segunda señal, por lo que si es eliminada provocará consecuencias considerables en la

comprensión del discurso.

Page 3: Definición de Entropía

Lee todo en: Definición de entropía - Qué es, Significado y Concepto

http://definicion.de/entropia/#ixzz3jHQnaA1C

Entropía

Etimológicamente “entropía”, asociada a la termodinámica,

surgió como palabra acuñada del griego, de em (en: en, sobre, cerca

de...) y sqopg (tropêe: mudanza, giro, alternativa, cambio, evolución).

La termodinámica, por definirla de una manera muy simple, fija

su atención en el interior de los sistemas físicos, en los intercambios

de energía en forma de calor que se llevan a cabo entre un sistema y

otro y tiene sus propias leyes.

Uno de los soportes fundamentales de la Segunda Ley de la

Termodinámica es la función denominada entropía que sirve para

medir el grado de desorden dentro de un proceso y permite distinguir la

energía útil, que es la que se convierte en su totalidad en trabajo, de la

inútil, que se pierde en el medio ambiente.

La segunda ley de la termodinámica fue enunciada por S. Carnot

en 1824. Se puede enunciar de muchas formas, pero una sencilla y precisa es la

siguiente:

“La evolución espontánea de un sistema aislado se traduce siempre en un aumento

de su entropía.”

La palabra entropía fue utilizada por Clausius en 1850 para

calificar el grado de desorden de un sistema. Por tanto la segunda ley

de la termodinámica está diciendo que los sistemas aislados tienden

al desorden, a la entropía.

Este desorden se grafica en la mayor o menor producción de

energía disponible o no disponible, y sobre esta base, también

podemos definir la entropía como el índice de la cantidad de

energía no disponible en un sistema termodinámico dado en un

momento de su evolución.

Rudolf

Emanuel

Clausius.

Abajo,

aumenta la

entropía.

Page 4: Definición de Entropía

Según esta definición, en termodinámica hay que distinguir entre energía disponible

o libre, que puede ser transformada en trabajo y energía no disponible o limitada, que no

puede ser transformada en él.

Para comprender conceptualmente lo dicho, analicemos el ejemplo de un reloj de

arena, que es un sistema cerrado en el que no entra ni sale arena.

La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en

ese reloj. Esta es la analogía de la primera ley de la termodinámica: no hay creación ni

destrucción de la materia-energía.

Aunque la cantidad de arena en el reloj es constante, su distribución cualitativa está

constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad

superior se vacía. Esta es la analogía de la segunda ley de la termodinámica, en la que la

entropía (que es la arena de la cavidad inferior) aumenta constantemente.

La arena de la cavidad superior (la menor entropía) es capaz de hacer un trabajo

mientras cae, como el agua en la parte superior de una catarata. La

arena en la cavidad inferior (alta entropía) ha agotado su capacidad de

realizar un trabajo. El reloj de arena no puede darse la vuelta: la

energía gastada no puede reciclarse, a menos que se emplee más

energía en ese reciclaje que la que será desarrollada por la cantidad

reciclada.

También podemos hacer el análisis tomando como ejemplo una

cadena trófica.

En las cadenas tróficas al ir subiendo de nivel (de productores a

consumidores) se va perdiendo energía química potencial. A medida

que subimos en los niveles de la cadena, el contenido total de este tipo

de energía es menor pero va aumentando la liberación de otro tipo de

energía: El calor. Este último es un tipo de energía con menor

probabilidad de aprovecharse ya que podemos generar menos trabajo

con este tipo de energía que con la energía química potencial.

Al proceso por el cual la energía pierde su capacidad de generar

trabajo útil o, mejor dicho, se transforma en otra energía que es menos aprovechable, se

le llama entropía.

Mirado desde otro punto de vista, y para una comprensión y aplicación más general

del concepto, la entropía se entiende como el grado de desorden de un sistema, así,

La

entropía

acabará con

el Universo.

Page 5: Definición de Entropía

por ejemplo, en la medida en que vamos subiendo niveles en la cadena trófica, cada vez

tenemos menos control sobre la energía química potencial que sirve para generar trabajo

ya que ésta se ha ido transformando en calor y nosotros podemos aprovechar (controlar)

menos este tipo de energía, es decir va aumentando el grado de descontrol (desorden)

que tenemos sobre la cadena trófica.

Por eso se dice que todo sistema biológico tiende a la entropía; es decir, al

desorden.

Como podemos apreciar, la entropía es el elemento esencial que aporta la

termodinámica, ciencia de los procesos irreversibles, es decir orientados en el tiempo.

Ejemplos de procesos irreversibles pueden ser: la

descomposición radioactiva, la fricción o la viscosidad que modera el

movimiento de un fluido. Todos estos procesos poseen una dirección

privilegiada en el tiempo, en contraste con los procesos reversibles.

Precisamente, la distinción entre procesos reversibles e

irreversibles la introduce en termodinámica el concepto de entropía,

que Clausius asocia ya en 1865 al “segundo principio de la

termodinámica”.

Todos hemos visto alguna vez un plato que se cae desde una

mesa y se hace añicos contra el suelo. Lo que antes estaba ordenado

en una única pieza de porcelana, se convierte en una multitud de

fragmentos desordenados. Pero la situación contraria, la recomposición

de un plato a partir de sus fragmentos de manera espontánea, al menos

que se sepa, no la ha visto nadie.

La ruptura del plato es un suceso natural e irreversible, una

secuencia temporal adecuada; su recomposición, en cambio, no lo es.

Es la evolución natural del orden al desorden o, en términos científicos,

la natural tendencia del Universo a aumentar su entropía.

Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero

desconocemos que el paso de una situación a la otra implica, de forma indefectible, el

final de todo movimiento, la muerte del Universo.

Todos hemos visto alguna vez un vaso que se cae desde una mesa y se hace

añicos contra el suelo. Lo que antes estaba ordenado en una única pieza de vidrio, se

convierte en una multitud de fragmentos desordenados. Pero la situación contraria, la

Fragmen

tos de plato

con alta

entropía.

Page 6: Definición de Entropía

recomposición de un vaso a partir de sus fragmentos de manera espontánea, al menos

que se sepa, no la ha visto nadie. La ruptura del vaso es un suceso natural e irreversible,

una secuencia temporal adecuada; su recomposición, en cambio, no lo es. Es la evolución

natural del orden al desorden o, en términos científicos, la natural tendencia del Universo

a aumentar su entropía. Todos tenemos una cierta idea, intuitiva, de lo qué significa orden

y desorden, pero desconocemos que el paso de una situación a la otra implica, de forma

indefectible, el final de todo movimiento, la muerte del Universo.

Imaginemos un gas encerrado en la mitad de una caja por medio de un tabique que

puede retirarse a voluntad. Para simplificar, podemos suponer que el gas no es más que

un conjunto de átomos que no experimentan mutuamente ningún tipo de atracción o

repulsión, es decir, un conjunto de bolas rígidas que se mueven en direcciones aleatorias

con cierto tipo de velocidades y que chocan entre sí con cierta frecuencia. ¿Qué ocurre

cuando se extrae el tabique? El gas pasa a ocupar, de forma espontánea, el volumen de

la caja entera. ¿Cuál es la razón de tal comportamiento? Simplemente, que aquellos

átomos que se movían en la dirección apropiada ya no encuentran una pared en la que

rebotar y, por lo tanto, continúan su movimiento utilizando todo el espacio disponible.

Supongamos que el gas de nuestro modelo está compuesto, únicamente, de cuatro

bolas. Inicialmente, las cuatro bolas se encontraban en la mitad de la caja. Al abrir el

tabique, tenemos 16 posibilidades de ordenar las cuatro moléculas en cada mitad de la

caja (24); de éstas, existe una sola posibilidad de tener las cuatro bolas a la derecha, otra

corresponde a encontrarlas todas en la izquierda, cuatro corresponden a encontrar una

sola bola a la derecha, otras cuatro a encontrar una a la izquierda y, por último, hay seis

posibilidades de encontrar dos bolas a cada lado. Cada una de las 16 configuraciones

distintas puede darse de forma aleatoria, pero hay menos formas de encontrar todas las

bolas a la derecha que de encontrar dos a cada lado. Conclusión: es más probable que

haya dos bolas a cada lado.

Si esto sucede con cuatro átomos, intentemos imaginar lo que sucedería con un

número más cercano a la realidad; por ejemplo, una caja de 1 cm3 con un gas a

temperatura ambiente y presión atmosférica contiene, aproximadamente, 1019 moléculas.

La probabilidad de que todas las moléculas se encuentren en la mitad de la caja es de

Page 7: Definición de Entropía

una entre dos elevado a este número, algo extremadamente improbable, pero no

imposible. Es mucho más frecuente la situación en que las moléculas se distribuyen,

aproximadamente, por igual en cada lado, habida cuenta que existen muchas más formas

de obtener estas configuraciones.

Ludwig Boltzmann De este argumento se deduce que

los sistemas tienden, de manera espontánea, a adoptar

aquella configuración que se puede obtener de un mayor

número de formas distintas. En la jerga de los especialistas

en mecánica estadística, se dice que tienden hacia aquella

configuración en que es mayor el número de estados

accesibles. Parece razonable definir una situación

desordenada como aquella que puede obtenerse de

muchas maneras diferentes y, al contrario, una situación

ordenada como la que puede obtenerse de pocas formas

distintas. En definitiva, los sistemas evolucionan de forma espontánea hacia el desorden.

¿Y todo esto, qué tiene que ver con la entropía? La entropía no es más que la

magnitud física que se obtiene de multiplicar el logaritmo del número de estados

accesibles por una constante, la constante de Ludwig Boltzmann, llamada así en honor

del eminente físico vienés que descubrió esta fórmula. Por lo tanto, los sistemas

evolucionan espontáneamente siempre en el sentido de aumentar la entropía. De manera

análoga, puede afirmarse que toda transformación que realiza un sistema en el que

aumenta la entropía ocurre de modo espontáneo y, al contrario, la entropía sólo puede

decrecer en el caso de que el entorno que rodea al sistema aumente su entropía en un

valor igual o superior al que ha decrecido en el sistema.

El punto de vista de la Termodinámica

Teóricamente, una transformación puede realizarse de dos maneras distintas: de

forma reversible -cuando se puede deshacer el proceso- o de forma irreversible. Hemos

visto que, en el ejemplo del gas encerrado en una caja, al retirar el tabique se iniciaba un

proceso irreversible, pues resulta muy improbable que las moléculas del gas vuelvan a

coincidir todas en la misma mitad de la caja. Sin embargo, podemos imaginar un

procedimiento de expandir el gas de forma reversible; por ejemplo, sustituyendo el tabique

por un pistón, una pared deslizante. Al ir retirando el pistón de forma suficientemente

lenta, para que no se produzca un brusco descenso de la presión y la temperatura, se

Page 8: Definición de Entropía

puede aumentar el volumen hasta alcanzar el total de la caja y, a su vez, puede volver a

comprimirse hasta su valor inicial.

Nicholas Léonard Sadi Carnot Los procesos

reversibles tienen la peculiaridad de que, en ellos, el

aumento o disminución de entropía del sistema es

exactamente el contrario al experimentado por el entorno,

con lo que se tiene siempre un aumento total de entropía

nulo. Sin embargo, ninguno de los procesos que tienen

lugar en la naturaleza es reversible. La difusión de un gas,

la mezcla de dos líquidos, las deformaciones inelásticas de

un cuerpo, las reacciones químicas o la conducción de

calor desde un foco caliente a uno frío, son procesos

irreversibles. En ellos, la entropía del Universo aumenta

siempre.

El físico francés Sadi Nicolas Léonard Carnot ideó, en 1824, una máquina térmica

teórica extraordinariamente sencilla, que funcionaba de forma reversible mediante el

intercambio de calor que se establece entre un foco caliente y un foco frío: se absorbe

calor del foco caliente y se cede al foco frío, y en el proceso se realiza un trabajo. Sin

embargo, la cantidad de calor que se cede al foco frío es siempre menor, de forma que no

se puede convertir todo el calor en trabajo mecánico, es decir, es imposible obtener un

rendimiento del 100%. Sólo hay una posibilidad de obtener un rendimiento del 100%:

cuando la temperatura del foco frío sea, exactamente, de cero grados absolutos (-273,16

ºC, aproximadamente), lo cual es imposible de alcanzar. Carnot demostró, además, que

su máquina térmica alcanzaba el máximo rendimiento teórico que se puede alcanzar con

una máquina.

Dado que el ciclo de Carnot es reversible, en él la variación total de entropía es nula.

Pero ya hemos señalado que en la naturaleza no se dan procesos reversibles. Utilizando

este modelo teórico, podríamos identificar la entropía como una especie de energía

degradada, la que correspondería a la cantidad de energía que no se puede transformar

en trabajo debido a que el proceso es irreversible.

Page 9: Definición de Entropía

 

Representación esquemática del ciclo de Carnot

 

Dado que en los procesos irreversibles siempre aumenta la entropía del Universo, se

puede concluir, en palabras de Boltzmann, que "el segundo principio de la termodinámica

anuncia un proceso continuo de degradación de la energía, hasta que se agoten todas las

energías potenciales que pudieran producir trabajo y todos los movimientos visibles del

mundo", es decir, se anuncia una muerte cálida del Universo.

 

Tramo A-B: isoterma a la

 

Page 10: Definición de Entropía

temperatura T1

Tramo B-C: adiabática

Tramo C-D: isoterma a la temperatura T2

Tramo D-A: adiabática

 

Representación gráfica del ciclo de

Carnot en un diagrama presión/volumen

La identificación de los procesos espontáneos e irreversibles que tienen lugar en la

naturaleza con el aumento de entropía del Universo ha llevado a varios autores a

identificar esta función termodinámica como una especie de flecha temporal; durante los

procesos espontáneos, el tiempo transcurre siempre en el

mismo sentido y la entropía aumenta. Esta identificación

plantea, a su vez, otra serie de interrogantes. Sabemos que

nos encontramos en un Universo en expansión. A largo

plazo, pueden ocurrir dos cosas distintas: que haya

suficiente masa en el Universo como para que esta

expansión se vaya reduciendo y se invierta el proceso, o

que continúe para siempre. Que el Universo evolucione en

uno u otro sentido depende, únicamente, de la cantidad de

materia existente, lo cual no se ha podido determinar aún

con exactitud. En caso de que comenzara la contracción, el

sentido de la entropía, en principio, se invertiría: los

procesos naturales darían lugar, aparentemente, a un aumento del orden en el Universo.

Esta posibilidad, tan atractiva para los escritores de ciencia-ficción, resultaría de suponer

que la contracción del universo sería una especie de "película hacia atrás", o inversión

temporal, de la expansión del Universo. Podríamos imaginar, por ejemplo, que una

carretera mejorara su estado con el uso continuado, por lo que no habría razón para

construirla con excesivo cuidado. Sin embargo, los modelos cosmológicos, aceptados

actualmente por la mayor parte de los científicos, predicen una contracción del Universo,

con sus flechas temporal y termodinámica en el mismo sentido que hoy tienen: durante la

contracción no tiene porqué reconstruirse la misma estructura que tenemos durante la

expansión. Por otra parte, parece resultar inadecuado para la vida un Universo en el que

Page 11: Definición de Entropía

la flecha termodinámica se invierta. Como señalara Stephen Hawking en su célebre obra

Historia del tiempo, la vida necesita consumir alimentos (energía ordenada), y

transformarlos en calor (energía desordenada).