Definición de Entropía
-
Upload
carlos-andres-diaz-valderrama -
Category
Documents
-
view
5 -
download
0
description
Transcript of Definición de Entropía
DEFINICIÓN DE ENTROPÍA
Entropía es una noción que procede de un vocablo griego que puede traducirse
como vuelta o transformación (utilizado en sentido figurado).
En el siglo XIX Clausius acuñó el concepto en el ámbito de la Física para referirse a
una medida del desorden que puede verse en las moléculas de un gas. A partir de
entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales
como la física, la química, la informática, la matemática y la lingüística.
Algunas definiciones son:
La entropía puede ser la magnitud física termodinámica que permite medir la parte
no utilizable de la energía contenida en un sistema. Esto quiere decir que dicha parte de
la energía no puede usarse para producir un trabajo.
Se entiende por entropía también a la medida del desorden de un sistema. En este
sentido, está asociada a un grado de homogeneidad.
La entropía de formación de un compuesto químico se establece midiendo la que
conforma a cada uno de sus elementos constituyentes. A mayor entropía de formación,
más favorable será su formación.
En la teoría de la información, la entropía es la medida de la incertidumbre que
existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de
una medida de la información que es necesaria para reducir o eliminar la incertidumbre.
Otra manera de entender la entropía es como la cantidad media de información que
contienen los símbolos transmitidos. Palabras como “el” o “que” son los símbolos más
frecuentes en un texto pero, sin embargo, son los que aportan menos información. El
mensaje tendrá información relevante y máxima entropía cuando todos los símbolos son
igualmente probables.
La entropía en el campo de la lingüística
La forma en la que se organiza y difunde la información en un discurso es uno de los
temas más relevantes y susceptibles de investigación para la lingüística. Y gracias a la
entropía puede realizarse un análisis más profundo de la comunicación.
En el caso de la comunicación escrita el problema es sencillo de analizar (las
unidades básicas, las letras, se encuentran bien definidas); si se desea comprender a
fondo el mensaje es posible decodificarlo con exactitud y comprender tanto lo dicho literal
como figurado. Pero en el lenguaje oral, la cosa cambia un poco, presentando algunas
complicaciones.
No es sencillo determinar en el discurso oral los elementos fundamentales del
código; las palabras suenan diferentes según por quién las pronuncie y, de igual modo,
pueden tener significados diversos. No es suficiente por tanto clasificarlas en fonemas
vocálicos y consonánticos porque esto no nos permitiría entender cómo se organiza
la información porque, por ejemplo, si se suprimen fonemas vocálicos, no es posible
comprender el mensaje.
Según un estudio realizado en la Universidad de Wisconsin-Madison una buena
forma de aislar y comprender el código oral es a través de la descomposición espectral de
las señales sonoras. Gracias a esta técnica se intenta comprender cómo la cóclea filtra y
analiza lo le llega. La cóclea es la parte de nuestros oídos que tiene la función de
transformar los sonidos en señales eléctricas y enviarlas directamente al cerebro.
Para llevar a cabo este experimento se utilizó una unidad de medida que se conoce
como entropía espectral en escala coclear (CSE), la misma permite establecer
conexiones entre una señal y la que la precede; decidiendo qué posibilidades hay de
predecir una señal partiendo de la anterior.
Los resultados devolvieron que cuanto más parecidas son dos señales, más fácil es
predecir la segunda; esto significa que la información que tomamos de la segunda es casi
nula. Así mismo cuanto más difieran entre sí, mayor será la información que aporte la
segunda señal, por lo que si es eliminada provocará consecuencias considerables en la
comprensión del discurso.
Lee todo en: Definición de entropía - Qué es, Significado y Concepto
http://definicion.de/entropia/#ixzz3jHQnaA1C
Entropía
Etimológicamente “entropía”, asociada a la termodinámica,
surgió como palabra acuñada del griego, de em (en: en, sobre, cerca
de...) y sqopg (tropêe: mudanza, giro, alternativa, cambio, evolución).
La termodinámica, por definirla de una manera muy simple, fija
su atención en el interior de los sistemas físicos, en los intercambios
de energía en forma de calor que se llevan a cabo entre un sistema y
otro y tiene sus propias leyes.
Uno de los soportes fundamentales de la Segunda Ley de la
Termodinámica es la función denominada entropía que sirve para
medir el grado de desorden dentro de un proceso y permite distinguir la
energía útil, que es la que se convierte en su totalidad en trabajo, de la
inútil, que se pierde en el medio ambiente.
La segunda ley de la termodinámica fue enunciada por S. Carnot
en 1824. Se puede enunciar de muchas formas, pero una sencilla y precisa es la
siguiente:
“La evolución espontánea de un sistema aislado se traduce siempre en un aumento
de su entropía.”
La palabra entropía fue utilizada por Clausius en 1850 para
calificar el grado de desorden de un sistema. Por tanto la segunda ley
de la termodinámica está diciendo que los sistemas aislados tienden
al desorden, a la entropía.
Este desorden se grafica en la mayor o menor producción de
energía disponible o no disponible, y sobre esta base, también
podemos definir la entropía como el índice de la cantidad de
energía no disponible en un sistema termodinámico dado en un
momento de su evolución.
Rudolf
Emanuel
Clausius.
Abajo,
aumenta la
entropía.
Según esta definición, en termodinámica hay que distinguir entre energía disponible
o libre, que puede ser transformada en trabajo y energía no disponible o limitada, que no
puede ser transformada en él.
Para comprender conceptualmente lo dicho, analicemos el ejemplo de un reloj de
arena, que es un sistema cerrado en el que no entra ni sale arena.
La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en
ese reloj. Esta es la analogía de la primera ley de la termodinámica: no hay creación ni
destrucción de la materia-energía.
Aunque la cantidad de arena en el reloj es constante, su distribución cualitativa está
constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad
superior se vacía. Esta es la analogía de la segunda ley de la termodinámica, en la que la
entropía (que es la arena de la cavidad inferior) aumenta constantemente.
La arena de la cavidad superior (la menor entropía) es capaz de hacer un trabajo
mientras cae, como el agua en la parte superior de una catarata. La
arena en la cavidad inferior (alta entropía) ha agotado su capacidad de
realizar un trabajo. El reloj de arena no puede darse la vuelta: la
energía gastada no puede reciclarse, a menos que se emplee más
energía en ese reciclaje que la que será desarrollada por la cantidad
reciclada.
También podemos hacer el análisis tomando como ejemplo una
cadena trófica.
En las cadenas tróficas al ir subiendo de nivel (de productores a
consumidores) se va perdiendo energía química potencial. A medida
que subimos en los niveles de la cadena, el contenido total de este tipo
de energía es menor pero va aumentando la liberación de otro tipo de
energía: El calor. Este último es un tipo de energía con menor
probabilidad de aprovecharse ya que podemos generar menos trabajo
con este tipo de energía que con la energía química potencial.
Al proceso por el cual la energía pierde su capacidad de generar
trabajo útil o, mejor dicho, se transforma en otra energía que es menos aprovechable, se
le llama entropía.
Mirado desde otro punto de vista, y para una comprensión y aplicación más general
del concepto, la entropía se entiende como el grado de desorden de un sistema, así,
La
entropía
acabará con
el Universo.
por ejemplo, en la medida en que vamos subiendo niveles en la cadena trófica, cada vez
tenemos menos control sobre la energía química potencial que sirve para generar trabajo
ya que ésta se ha ido transformando en calor y nosotros podemos aprovechar (controlar)
menos este tipo de energía, es decir va aumentando el grado de descontrol (desorden)
que tenemos sobre la cadena trófica.
Por eso se dice que todo sistema biológico tiende a la entropía; es decir, al
desorden.
Como podemos apreciar, la entropía es el elemento esencial que aporta la
termodinámica, ciencia de los procesos irreversibles, es decir orientados en el tiempo.
Ejemplos de procesos irreversibles pueden ser: la
descomposición radioactiva, la fricción o la viscosidad que modera el
movimiento de un fluido. Todos estos procesos poseen una dirección
privilegiada en el tiempo, en contraste con los procesos reversibles.
Precisamente, la distinción entre procesos reversibles e
irreversibles la introduce en termodinámica el concepto de entropía,
que Clausius asocia ya en 1865 al “segundo principio de la
termodinámica”.
Todos hemos visto alguna vez un plato que se cae desde una
mesa y se hace añicos contra el suelo. Lo que antes estaba ordenado
en una única pieza de porcelana, se convierte en una multitud de
fragmentos desordenados. Pero la situación contraria, la recomposición
de un plato a partir de sus fragmentos de manera espontánea, al menos
que se sepa, no la ha visto nadie.
La ruptura del plato es un suceso natural e irreversible, una
secuencia temporal adecuada; su recomposición, en cambio, no lo es.
Es la evolución natural del orden al desorden o, en términos científicos,
la natural tendencia del Universo a aumentar su entropía.
Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero
desconocemos que el paso de una situación a la otra implica, de forma indefectible, el
final de todo movimiento, la muerte del Universo.
Todos hemos visto alguna vez un vaso que se cae desde una mesa y se hace
añicos contra el suelo. Lo que antes estaba ordenado en una única pieza de vidrio, se
convierte en una multitud de fragmentos desordenados. Pero la situación contraria, la
Fragmen
tos de plato
con alta
entropía.
recomposición de un vaso a partir de sus fragmentos de manera espontánea, al menos
que se sepa, no la ha visto nadie. La ruptura del vaso es un suceso natural e irreversible,
una secuencia temporal adecuada; su recomposición, en cambio, no lo es. Es la evolución
natural del orden al desorden o, en términos científicos, la natural tendencia del Universo
a aumentar su entropía. Todos tenemos una cierta idea, intuitiva, de lo qué significa orden
y desorden, pero desconocemos que el paso de una situación a la otra implica, de forma
indefectible, el final de todo movimiento, la muerte del Universo.
Imaginemos un gas encerrado en la mitad de una caja por medio de un tabique que
puede retirarse a voluntad. Para simplificar, podemos suponer que el gas no es más que
un conjunto de átomos que no experimentan mutuamente ningún tipo de atracción o
repulsión, es decir, un conjunto de bolas rígidas que se mueven en direcciones aleatorias
con cierto tipo de velocidades y que chocan entre sí con cierta frecuencia. ¿Qué ocurre
cuando se extrae el tabique? El gas pasa a ocupar, de forma espontánea, el volumen de
la caja entera. ¿Cuál es la razón de tal comportamiento? Simplemente, que aquellos
átomos que se movían en la dirección apropiada ya no encuentran una pared en la que
rebotar y, por lo tanto, continúan su movimiento utilizando todo el espacio disponible.
Supongamos que el gas de nuestro modelo está compuesto, únicamente, de cuatro
bolas. Inicialmente, las cuatro bolas se encontraban en la mitad de la caja. Al abrir el
tabique, tenemos 16 posibilidades de ordenar las cuatro moléculas en cada mitad de la
caja (24); de éstas, existe una sola posibilidad de tener las cuatro bolas a la derecha, otra
corresponde a encontrarlas todas en la izquierda, cuatro corresponden a encontrar una
sola bola a la derecha, otras cuatro a encontrar una a la izquierda y, por último, hay seis
posibilidades de encontrar dos bolas a cada lado. Cada una de las 16 configuraciones
distintas puede darse de forma aleatoria, pero hay menos formas de encontrar todas las
bolas a la derecha que de encontrar dos a cada lado. Conclusión: es más probable que
haya dos bolas a cada lado.
Si esto sucede con cuatro átomos, intentemos imaginar lo que sucedería con un
número más cercano a la realidad; por ejemplo, una caja de 1 cm3 con un gas a
temperatura ambiente y presión atmosférica contiene, aproximadamente, 1019 moléculas.
La probabilidad de que todas las moléculas se encuentren en la mitad de la caja es de
una entre dos elevado a este número, algo extremadamente improbable, pero no
imposible. Es mucho más frecuente la situación en que las moléculas se distribuyen,
aproximadamente, por igual en cada lado, habida cuenta que existen muchas más formas
de obtener estas configuraciones.
Ludwig Boltzmann De este argumento se deduce que
los sistemas tienden, de manera espontánea, a adoptar
aquella configuración que se puede obtener de un mayor
número de formas distintas. En la jerga de los especialistas
en mecánica estadística, se dice que tienden hacia aquella
configuración en que es mayor el número de estados
accesibles. Parece razonable definir una situación
desordenada como aquella que puede obtenerse de
muchas maneras diferentes y, al contrario, una situación
ordenada como la que puede obtenerse de pocas formas
distintas. En definitiva, los sistemas evolucionan de forma espontánea hacia el desorden.
¿Y todo esto, qué tiene que ver con la entropía? La entropía no es más que la
magnitud física que se obtiene de multiplicar el logaritmo del número de estados
accesibles por una constante, la constante de Ludwig Boltzmann, llamada así en honor
del eminente físico vienés que descubrió esta fórmula. Por lo tanto, los sistemas
evolucionan espontáneamente siempre en el sentido de aumentar la entropía. De manera
análoga, puede afirmarse que toda transformación que realiza un sistema en el que
aumenta la entropía ocurre de modo espontáneo y, al contrario, la entropía sólo puede
decrecer en el caso de que el entorno que rodea al sistema aumente su entropía en un
valor igual o superior al que ha decrecido en el sistema.
El punto de vista de la Termodinámica
Teóricamente, una transformación puede realizarse de dos maneras distintas: de
forma reversible -cuando se puede deshacer el proceso- o de forma irreversible. Hemos
visto que, en el ejemplo del gas encerrado en una caja, al retirar el tabique se iniciaba un
proceso irreversible, pues resulta muy improbable que las moléculas del gas vuelvan a
coincidir todas en la misma mitad de la caja. Sin embargo, podemos imaginar un
procedimiento de expandir el gas de forma reversible; por ejemplo, sustituyendo el tabique
por un pistón, una pared deslizante. Al ir retirando el pistón de forma suficientemente
lenta, para que no se produzca un brusco descenso de la presión y la temperatura, se
puede aumentar el volumen hasta alcanzar el total de la caja y, a su vez, puede volver a
comprimirse hasta su valor inicial.
Nicholas Léonard Sadi Carnot Los procesos
reversibles tienen la peculiaridad de que, en ellos, el
aumento o disminución de entropía del sistema es
exactamente el contrario al experimentado por el entorno,
con lo que se tiene siempre un aumento total de entropía
nulo. Sin embargo, ninguno de los procesos que tienen
lugar en la naturaleza es reversible. La difusión de un gas,
la mezcla de dos líquidos, las deformaciones inelásticas de
un cuerpo, las reacciones químicas o la conducción de
calor desde un foco caliente a uno frío, son procesos
irreversibles. En ellos, la entropía del Universo aumenta
siempre.
El físico francés Sadi Nicolas Léonard Carnot ideó, en 1824, una máquina térmica
teórica extraordinariamente sencilla, que funcionaba de forma reversible mediante el
intercambio de calor que se establece entre un foco caliente y un foco frío: se absorbe
calor del foco caliente y se cede al foco frío, y en el proceso se realiza un trabajo. Sin
embargo, la cantidad de calor que se cede al foco frío es siempre menor, de forma que no
se puede convertir todo el calor en trabajo mecánico, es decir, es imposible obtener un
rendimiento del 100%. Sólo hay una posibilidad de obtener un rendimiento del 100%:
cuando la temperatura del foco frío sea, exactamente, de cero grados absolutos (-273,16
ºC, aproximadamente), lo cual es imposible de alcanzar. Carnot demostró, además, que
su máquina térmica alcanzaba el máximo rendimiento teórico que se puede alcanzar con
una máquina.
Dado que el ciclo de Carnot es reversible, en él la variación total de entropía es nula.
Pero ya hemos señalado que en la naturaleza no se dan procesos reversibles. Utilizando
este modelo teórico, podríamos identificar la entropía como una especie de energía
degradada, la que correspondería a la cantidad de energía que no se puede transformar
en trabajo debido a que el proceso es irreversible.
Representación esquemática del ciclo de Carnot
Dado que en los procesos irreversibles siempre aumenta la entropía del Universo, se
puede concluir, en palabras de Boltzmann, que "el segundo principio de la termodinámica
anuncia un proceso continuo de degradación de la energía, hasta que se agoten todas las
energías potenciales que pudieran producir trabajo y todos los movimientos visibles del
mundo", es decir, se anuncia una muerte cálida del Universo.
Tramo A-B: isoterma a la
temperatura T1
Tramo B-C: adiabática
Tramo C-D: isoterma a la temperatura T2
Tramo D-A: adiabática
Representación gráfica del ciclo de
Carnot en un diagrama presión/volumen
La identificación de los procesos espontáneos e irreversibles que tienen lugar en la
naturaleza con el aumento de entropía del Universo ha llevado a varios autores a
identificar esta función termodinámica como una especie de flecha temporal; durante los
procesos espontáneos, el tiempo transcurre siempre en el
mismo sentido y la entropía aumenta. Esta identificación
plantea, a su vez, otra serie de interrogantes. Sabemos que
nos encontramos en un Universo en expansión. A largo
plazo, pueden ocurrir dos cosas distintas: que haya
suficiente masa en el Universo como para que esta
expansión se vaya reduciendo y se invierta el proceso, o
que continúe para siempre. Que el Universo evolucione en
uno u otro sentido depende, únicamente, de la cantidad de
materia existente, lo cual no se ha podido determinar aún
con exactitud. En caso de que comenzara la contracción, el
sentido de la entropía, en principio, se invertiría: los
procesos naturales darían lugar, aparentemente, a un aumento del orden en el Universo.
Esta posibilidad, tan atractiva para los escritores de ciencia-ficción, resultaría de suponer
que la contracción del universo sería una especie de "película hacia atrás", o inversión
temporal, de la expansión del Universo. Podríamos imaginar, por ejemplo, que una
carretera mejorara su estado con el uso continuado, por lo que no habría razón para
construirla con excesivo cuidado. Sin embargo, los modelos cosmológicos, aceptados
actualmente por la mayor parte de los científicos, predicen una contracción del Universo,
con sus flechas temporal y termodinámica en el mismo sentido que hoy tienen: durante la
contracción no tiene porqué reconstruirse la misma estructura que tenemos durante la
expansión. Por otra parte, parece resultar inadecuado para la vida un Universo en el que
la flecha termodinámica se invierta. Como señalara Stephen Hawking en su célebre obra
Historia del tiempo, la vida necesita consumir alimentos (energía ordenada), y
transformarlos en calor (energía desordenada).