ENTROPIA 3
-
Upload
lorenita272829 -
Category
Documents
-
view
34 -
download
2
Transcript of ENTROPIA 3
![Page 1: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/1.jpg)
CONCEPTO GENERAL DE ENTROPIA
El segundo principio de la termodinámica establece el crecimiento de la
entropía, es decir, la máxima probabilidad de los sistemas es su progresiva
desorganización y, finalmente, su homogeneización con el ambiente. Los sistemas
cerrados están irremediablemente condenados a la desorganización. No obstante
hay sistemas que, al menos temporalmente, revierten esta tendencia al aumentar
sus estados de organización.
ENTROPÍA - INCERTIDUMBRE - INFORMACIÓN
La entropía es una medida de desorden tomada de la termodinámica, en
donde ésta se relaciona con la probabilidad de ocurrencia de un arreglo molecular
particular en un gas. Cuando se traspone a la cibernética y a la teoría general de
sistemas, la entropía se refiere a la cantidad de variedad en un sistema, donde la
variedad puede interpretarse como la cantidad de incertidumbre que prevalece en
una situación de elección con muchas alternativas distinguibles.
La entropía, incertidumbre y desorden, son conceptos relacionados.
Utilizamos el término dualismo o dualidad, para referirnos a los valores
significativos que adquieren estas variables en los dos extremos de sus espectros
respectivos.
Un sistema muestra una alta o baja entropía (variedad, incertidumbre,
desorden). Reducir la entropía de un sistema, es reducir la cantidad de
incertidumbre que prevalece. La incertidumbre se disminuye al obtenerse
información. La información, en el sentido de la teoría sobre la información, posee
un significado especial que está ligado al número de alternativas en el sistema. Un
ejemplo simple aclarará el punto. Si uno se enfrenta a elegir entre ocho
alternativas, un cálculo simple mostrará que la entropía de la incertidumbre que
existe es de tres dígitos binarios. Cuatro elecciones entre las ocho alternativas,
reducirán la incertidumbre a dos dígitos binarios. Otras dos elecciones estrecharán
la incertidumbre a dos alternativas y la entropía a un dígito binario. Con sólo dos
![Page 2: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/2.jpg)
alternativas restantes, una elección final elimina la incertidumbre y la entropía se
reduce a cero.
La cantidad de información proporcionada es la negativa de la entropía que
se ha reducido. Se requieren tres dígitos binarios de información para eliminar la
incertidumbre de ocho alternativas. Wiener y Shannon influyeron en el
establecimiento de la equivalencia de la entropía (incertidumbre) con la cantidad
de información, en el sentido de la teoría sobre la información. Estos conceptos
sostienen un punto central en la teoría general de sistemas, similar al que
sustentan los conceptos de fuerza y energía en la física clásica.
Estos conceptos pueden utilizarse para caracterizar los sistemas vivientes y
no vivientes. Los sistemas no vivientes (considerados generalmente como
cerrados), tienden a moverse hacia condiciones de mayor desorden y entropía.
Los sistemas vivientes (y por tanto abiertos), se caracterizan como resistentes a la
tendencia hacia el desorden y se dirigen hacia mayores niveles de orden. La teoría
general de sistemas explica estas tendencias por medio de a) el procesamiento de
información que causa una reducción correspondiente en la entropía positiva, y b)
derivar energía del medio (un incremento de entropía negativa), que contradice las
tendencias declinantes de procesos naturales irreversibles (un incremento en la
entropía positiva). La especulación es la información a medias.
Por consiguiente, cuando los datos reducen su entropía, pasan a ser
información, reduciendo los niveles de incertidumbre.
CARACTERÍSTICAS ASOCIADAS A LA ENTROPÍA.
o La entropía se define solamente para estados de equilibrio.
o Solamente pueden calcularse variaciones de entropía. En muchos
problemas prácticos como el diseño de una maquina de vapor,
consideramos únicamente diferencias de entropía. Por conveniencia
se considera nula la entropía de una sustancia en algún estado de
referencia conveniente. Así se calculan las tablas de vapor, en donde
![Page 3: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/3.jpg)
se supone cero la entropia del agua cuando se encuentra en fase
liquida a 0'C y presión de 1 atm.
o La entropia de un sistema en estado se equilibrio es únicamente
función del estado del sistema, y es independiente de su historia
pasada. La entropia puede calcularse como una función de las
variables termodinámicas del sistema, tales como la presión y la
temperatura o la presión y el volumen.
o La entropia en un sistema aislado aumenta cuando el sistema
experimenta un cambio irreversible.
o Considérese un sistema aislado que contenga 2 secciones
separadas con gases a diferentes presiones. Al quitar la separación
ocurre un cambio altamente irreversible en el sistema al equilibrarse
las dos presiones. Pero el medio no ha sufrido cambio durante este
proceso, así que su energía y su estado permanecen constantes, y
como el cambio es irreversible la entropia del sistema ha aumentado.
TRANSFERENCIA DE ENTROPIA.
La entropia esta relacionada con la aleatoriedad del movimiento molecular
(energía térmica), por esto, la entropia de un sistema no decrece si no hay cierta
interacción externa. Ocurre que la única manera que el hombre conoce de reducir
la energía térmica es transferirla en forma de calor a otro cuerpo, aumentando así
la energía térmica del segundo cuerpo y por ende su entropia.
Por otro lado transfiriendo energía térmica es posible reducir la entropia de
un cuerpo. Si esta transferencia de energía es reversible, la energía total
permanece constante, y si es irreversible la entropia aumenta.
De lo anterior se concluye que el calor es un flujo de entropia. En el caso de
la transferencia de energía mecánica no hay un flujo directo de entropia.
Si la transferencia de energía mecánica en un sistema se realiza con
irreversibilidad se producen aumentos de entropia en el sistema, es decir se
![Page 4: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/4.jpg)
generan entropia. Esta generación de entropia trae consigo una perdida de trabajo
utilizable debido a la degradación de la energía mecánica producido por las
irreversibilidades presentes como lo es el roce.
ENTROPIA E IRREVERSIBILIDAD
Con pocos conocimientos termodinámicos sabemos que en los procesos
irreversibles aumenta la entropía del sistema. Y viceversa, si un sistema
experimenta un aumento de entropía tras un proceso, éste es irreversible.
Ejemplo: Vamos a demostrarle a tu madre que una vez que tú desordenas
el cuarto, es casi imposible volver a dejarlo con el orden inicial. Y es una cuestión
de probabilidad.
Tu madre parte de una situación inicial en la que cada cosa sólo puede
estar en un lugar: su sitio. Luego, a tu habitación sólo la podemos encontrar en un
estado (pocos estados permitidos, mucho orden, poca entropía); séanse, por
ejemplo, los pantalones en cuestión colgaditos de su percha dentro del armario.
Tú los usas y luego los dejas en un sitio que ya no es el suyo, mismamente sobre
la cama como que los podrías haber dejado en la silla. Es decir, ahora podemos
encontrar a tu habitación en tres estados diferentes: con los pantalones en el
armario, en la cama o en la silla.
![Page 5: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/5.jpg)
Has realizado una transformación en la que la situación final tiene más
estados que la inicial (situación inicial: sólo un estado, cada cosa en su sitio;
situación final: tres estados, cada cosa en su sitio, o cada cosa en su sitio pero los
pantalones en la cama, o cada cosa en su sitio y los pantalones en la silla.)
(gráfico 1).
Entonces, este proceso en el que ha habido un aumento de estados, de
desorden, de entropía ¿es reversible? Pues sí pero no. Si tú vuelves a coger los
pantalones y los dejas otra vez, mientras sigas pudiéndolos dejar en cualquier
sitio, seguro que no se te ocurre dejarlos justo donde los habías cogido la primera
vez (de la percha del armario). La probabilidad de que el sitio que tu elijas al azar
sea su sitio del armario no es la unidad, sino menor. Luego, existe una baja
probabilidad de que justamente vuelvas a dejar las cosas donde estaban al
principio.
Para tu madre, que sólo permite un estado al sistema, la probabilidad de
dejar al cuarto en ese estado es la unidad. Mientras que para tí, existe
![Page 6: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/6.jpg)
probabilidad 1/3 de dejar el cuarto ordenado (situación final 1ª)
probabilidad 2/3 de dejar el cuarto desordenado(situación final 2ª y 3ª)
Es decir, tu tienes más probabilidad de dejarlo desordenado porque existen
más estados posibles así, y sólo uno en el que intuitivamente lo llamamos
ordenado.
La solución pues es muy sencilla, no permitir a tus cosas más que un estado
posible: el lugar que tu madre les asigne.
ENTROPIA Y ESPONTANEIDAD
Todos sabemos viendo el mundo que nos rodea que la espontaneidad
implica irreversibilidad. Es decir, que si un proceso ocurre espontáneamente, sin
aporte energético, no tiende a volver a la situación inicial, el proceso es
irreversible. Lógico, ya que si ocurre espontáneamente es porque va a una
situación más "cómoda" o más probable, y la Naturaleza no es tonta, y no va a
volver a una situación inicial más "incómoda" o menos probable por las buenas.
Y acabamos de ver también que los procesos irreversibles implican un
aumento de la entropía del sistema.
Luego, si espontaneidad implica irreversibilidad, y ésta aumento de
entropía: los procesos espontáneos conllevan un aumento de entropía.
Tú madre se pregunta cómo es que tu habitación siempre está tan
desordenada, siendo que incluso ella a veces la ordenada y coloca cada cosa en
su sitio: los pantalones en su percha, y los zapatos en su armario, y los apuntes en
su carpeta, y los bolígrafos en su bote. Sin embargo, tú cada vez que coges algo
de tu habitación, lo dejas desordenado, aumentas la entropía de tu habitación.
¿Por qué? Fácil, porque tú cuando dejas algo en tu cuarto siguiendo la ley
de la Naturaleza del mínimo consumo de energía, no te paras a pensar y para tí
cualquier sitio está permitido para dejar tus cosas. Realizas un proceso
![Page 7: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/7.jpg)
espontáneo (sin aporte energético) que es dejar un objeto de tu habitación, y como
lo puedes dejar en cualquier sitio, pues tu habitación la podemos encontrar de
muchas maneras distintas; luego, más estados, más desorden, más entropía.
ENTROPIA E INFORMACIÓN
Siguiendo con el ejemplo, Lo que tu madre no entiende es el que tu dejes
tus cosas en otro sitio que no es el suyo, a tu hermana le sirve de mucho. Tú dejas
a tus pantalones más de un estado posible (en el armario, o encima de la cama, o
en la silla, o detrás de la puerta colgados) y esto le permite a tu hermana saber
cual es tu estado de ánimo; según dónde dejas tus pantalones, ella sabe si vienes
enfadado, risueño, melancólico, etc.. Si sólo permitieras un estado a tus
pantalones (su sitio, séase el que decide tu madre, o cualquier otro) tu hermana
perdería mucha información porque siempre pensaría que estás del mismo humor,
el correspondiente al lugar asignado a tus pantalones. Pero, al menos, tu madre
no se enfadaría.
Es decir, cuantos más estados permitidos tiene un sistema, mayor es la
información que puede almacenar y proporcionar.
Para terminar, recordar que las analogías son útiles en tanto en cuanto las
limites a su semejanza con la realidad. Es decir, una analogía no explica todo de
aquello con lo que la comparamos. E insisto en mi agradecimiento a las posibles
correcciones de esta analogía.
PRODUCCIÓN DE ENTROPÍA
La desigualdad de Clausius en términos de la entropía
puede convertirse en una igualdad introduciendo un nuevo término
![Page 8: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/8.jpg)
donde Sgen es la producción de entropía. Representa la cantidad de entropía
producida en el sistema como consecuencia de las irreversibilidades internas. La
desigualdad de Clausius establece, por tanto, el criterio
Escrita la desigualdad de esta forma podemos entender la variación de
entropía como suma de dos términos: lo que entra por las paredes debido al calor
intercambiado con el ambiente más lo que se produce en el propio sistema.
Otra forma de interpretarlo es escribiendo la igualdad anterior como
Como se ve más abajo, la variación de entropía de un foco es Q / T, siendo
Q el calor que entra en el foco. En la integral anterior − dQ es la cantidad de calor
que sale del sistema y por tanto entra en el foco a temperatura T. Al sumar para
todos los focos estamos calculando la variación total de entropía del ambiente,
Nos queda entonces
con lo que la entropía generada en el sistema y la variación de entropía del
universo son cantidades equivalentes.
![Page 9: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/9.jpg)
ENTROPÍA Y TRABAJO PERDIDO
CASO DE UNA MÁQUINA TÉRMICA
Si tenemos una máquina que toma un calor | Qc | de un foco caliente a
temperatura Tc y entrega un calor | Qf | a uno a Tf, el Pirmer Pincipio de la
termodinámica nos dice que
Por lo lado, la producción de entropía, según acabamos de ver es
De aquí podemos despejar el calor entregado al foco frío
Esta ecuación nos dice que
Existe siempre un calor entregado al foco frío, esto es, se verifica el
enunciado de Kelvin-Planck.
![Page 10: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/10.jpg)
Para una cantidad fija que se toma del foco caliente, si se genera entropía,
es decir, si la máquina es irreversible, la cantidad de calor de desecho es
mayor que si no se generara. Dicho en otras palabras, se desperdicia más
energía, pues una vez que va a parar al foco frío (normalmente el ambiente
que nos rodea) ya no es útil para producir trabajo adicional.
Sustituyendo este calor en la expresión del trabajo obtenemos la relación
La cantidad entre paréntesis es el rendimiento de una máquina reversible que
opere entre las temperaturas Tc y Tc. Por ello, esta ecuación se puede escribir
que nos dice que una máquina irreversible produce menos trabajo que una
reversible, porque una parte del calor se desperdicia de forma irrecuperable. Este
trabajo perdido es proporcional a la entropía creada
Cuanto más entropía estemos generando, más trabajo potencial se pierde y
menos produce la máquina.
En términos del rendimiento, podemos escribir la ecuación anterior como
lo que nos expresa el teorema de Carnot: el máximo rendimiento lo obtenemos
con una máquina reversible, y a partir de ahí empezamos a perder eficiencia,
proporcionalmente a la entropía generada (para una entrada de calor siempre la
misma).
![Page 11: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/11.jpg)
También pueden expresarse estos resultados en términos del trabajo que
queremos obtener de la máquina
que nos dice que, si queremos obtener un trabajo dado, cuanto más
irreversible sea la máquina más calor necesitamos tomar del foco caliente y más
calor de desecho arrojamos al foco frío.
![Page 12: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/12.jpg)
INTRODUCCIÓN
La entropía surgió en una primera instancia en el campo de la física, pero
en la actualidad es aplicable a muchas otras áreas, como por ejemplo la
administración y la economía.
Éstos últimos en el sentido de un flujo de energías, siendo la entropía una
energía negativa que entorpece la ejecución del trabajo; la entropía en un sistema
representa la tendencia al desorden o desorganización propia del trabajo. Por el
contrario a la entropía, se encuentra la neguentropía que se refiere a la energía
positiva del sistema, es decir, le da mayor fluidez a las energías circundantes.
Este concepto la comunidad científica lo considera relativamente reciente.
Fue introducido por el ingeniero francés R. J. Clausius a mediados del siglo XIX.
Se basó en la segunda ley de la termodinámica para elaborar el concepto de la
entropía; no hay proceso cuyo único resultado sea la transferencia de calor desde
un cuerpo frío a otro de mayor temperatura.
![Page 13: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/13.jpg)
BIBLIOGRAFÍA
Callen, H.B., "Thermodynamics and an introduction to thermostatistics".
John Wiley & Sons, USA (1985)
Zemansky, M.W., "Calor y Termodinámica", McGraw-Hill, México (1990)
De Teresa, J.M., Lumen, 6, 32 (1993)
http://www.moebio.uchile.cl/03/frprinci.htm#informacion
http://www.cec.uchile.cl/~roroman/pag_2/ENTROPIA.HTM
CONCLUSIÓN
![Page 14: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/14.jpg)
La palabra entropía procede del griego (ἐντροπία) y significa “evolución o
transformación”. La formulación matemática de la variación de entropía de un
sistema, luego de una transformación o evolución entre los estados inicial y final
del mismo, se corresponde con la integral definida entre el instante inicial y final de
los incrementos o diferenciales del componente o sistema en evolución, divididos
por la cantidad de elementos que van integrando al componente o sistema en
cada instante. Así:
La resolución matemática de la integral planteada para la determinación de
la variación de la entropía de un sistema entre los estados inicial y final, resulta ser
el logaritmo natural de uno (1) (cantidad de componentes o sistemas resultantes
en el instante final), dividido por la cantidad de elementos que fueron integrados al
componente o sistema resultante entre los instantes inicial y final de la evolución.
![Page 15: ENTROPIA 3](https://reader035.fdocuments.es/reader035/viewer/2022072016/55cf9cde550346d033ab57d8/html5/thumbnails/15.jpg)
REPÙBLICA BOLIVARIANA DE VENEZUELAMINISTERIO DEL PODER POPULAR PARA LA
EDUCACIÓN UNIVERSITARIOINSTITUTO UNIVERSITARIO POLITECNICO
SANTIAGO MARIÑOCABIMAS EDO ZULIA
REALIZADO POR:HERMES GUTIERREZ 21.430.996
LUIS BOSCAN 23.463.763JAVIER MONTES DE OCA 22.261.015
CABIMAS ENERO 2013.