Entropia

5
Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía. Resumen— En termodinámica , la entropía es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo . Es una función de estado de carácter extensivo y su valor, en un sistema aislado , crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos . Índice de Términos— entropía, sistemas abiertos, sistemas cerrados, neguentropía, equilibrio en la evolución. I.INTRODUCCIÓN El principio cero de la termodinámica establece el sentido de flujo de la energía, el segundo principio dice que la energía no viene y no se va a la nada, y el tercer principio que existe una temperatura tan baja que no se puede alcanzar, pero, y la segunda ley?. De todas las leyes de la termodinámica, la segunda y su concepto de entropía es por mucho el más complicado de entender, debido a que es una de las nociones más abstractas en toda la física. En primera instancia, no debemos confundir la entropía con la energía, pues de hecho ambos poseen unidades dimensionales muy diferentes. Pero, ¿qué es entropía? En primera instancia, la entropía como tal puede describirse como una cantidad, y puede definirse como una variable (S) la cuál es de hecho una variable de estado, es decir, su valor dependerá y estará interrelacionado con las demás variables de estado de un sistema en un momento específico, y será diferente a la del mismo sistema en otro estado diferente. II. DESDE LA ÓPTICA DE LA TGS QUE PERSIGUE Y COMO ES DEFINIDA LA ENTROPÍA. En el ámbito de la teoría de la información la entropía, también llamada entropía de la información, mide la incertidumbre de una fuente de información. La Entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto Entropía Molina Sergio Manuel., Burgos Hernán [email protected] , [email protected] Universidad De Córdoba 1

Transcript of Entropia

Page 1: Entropia

Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.

Resumen— En termodinámica, la entropía es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. 

Índice de Términos— entropía, sistemas abiertos, sistemas cerrados, neguentropía, equilibrio en la evolución.

I.INTRODUCCIÓN

El principio cero de la termodinámica establece el

sentido de flujo de la energía, el segundo principio dice

que la energía no viene y no se va a la nada, y el tercer

principio que existe una temperatura tan baja que no se

puede alcanzar, pero, y la segunda ley?.

De todas las leyes de la termodinámica, la segunda y su

concepto de entropía es por mucho el más complicado

de entender, debido a que es una de las nociones más

abstractas en toda la física. En primera instancia, no

debemos confundir la entropía con la energía, pues de

hecho ambos poseen unidades dimensionales muy

diferentes.

Pero,  ¿qué es entropía?

En primera instancia, la entropía como tal puede

describirse como una cantidad, y puede definirse como

una variable (S) la cuál es de hecho una variable de

estado, es decir, su valor dependerá y estará

interrelacionado con las demás variables de estado de

un sistema en un momento específico, y será diferente a

la del mismo sistema en otro estado diferente.

II. DESDE LA ÓPTICA DE LA TGS QUE PERSIGUE Y COMO ES DEFINIDA LA ENTROPÍA.

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información, mide la incertidumbre de una fuente de información.La Entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.El concepto de entropía es usado en termodinamica,mecanica estadistica y teoria de la informacion. En todos los casos la entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones".

EntropíaMolina Sergio Manuel., Burgos Hernán

[email protected] , [email protected] De Córdoba

1

Page 2: Entropia

Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.

III. CUADRO COMPARATIVO SOBRE ENTROPÍA EN SISTEMAS ABIERTOS Y SISTEMAS CERRADOS.

SistemasAbiertos - interactúa constantemente con el ambiente

en forma dual, osea, lo Influencia y es influenciado. El sistema cerrado no interactúa.- puede crecer, cambiar, adaptarse al ambiente y hasta reproducirse bajo ciertas condiciones ambientes.El sistema cerrado no.- es propio del sistema abierto competir con otros sistemas, no así el sistema cerrado.

Cerrados - es un sistema físico (o químico) que no interacciona con otros agentes físicos situados fuera de él.- no está conectado "causalmente" ni correlaciona mente con nada externo a él.- la energía total de dicho sistema se conserva (ver conservación de la energía), de hecho, un sistema cerrado al estar aislado no puede intercambiar energía con nada externo a él.

IV. DE QUÉ MANERA LA ENTROPÍA AFECTA LA INFORMACIÓN.

La entropía es una medida de la dispersión que existe dentro de un sistema. Hablando de energía estamos en lo correcto, hay energía que se pierde y que no se puede utilizar en un proceso nuevamente. la entropía mediría no sólo la pérdida de información, sino cuánta información aún no está acomodada en donde debe terminar (por ejemplo, el número de iteraciones en un algoritmo antes de llegar al valor esperado ó que satisfaga). 

Todos los sistemas tienden a llegar a un equilibrio y sistemáticamente hablando, mientras existan procesos sin llegar a un equilibrio y si dentro de estos procesos existe merma en la información (bytes que ya no permanezcan fragmentados, por ejemplo) la entropía puede mantenerse igual si el proceso no es muy "grande" ó crecer si se trata de un gran proceso. 

V. COMO LA INFORMACIÓN CONTRIBUYE EN LA ORGANIZACIÓN.

La información contribuye de tal forma que ayuda a la organización de las cosas, por ejemplo una empresa estando informada de los gastos y las entradas es capaz de mantener organizada su contabilidad y no tener deslices en la parte económica. La información ayuda no solo a las empresas sino que también ayuda a mantener organizada una casa, pagina web, una universidad, entre otras cosas.

VI. ¿CONTAR CON SUFICIENTE INFORMACIÓN SIGNIFICA QUE ESTÉ TOTALMENTE ORGANIZADO?

La respuesta es NO. Tener bastante información no implica que estemos organizados, información es solo el insumo de la organización, entonces hablamos de organización viene a ser la estructura jerárquica de un nivel o N niveles que consumen insumos que es la información.o Una organización se alimenta de

información.o Organización es toda información pertinente,

vital y necesaria.o Organización es una estructura que tiene

propios niveles de información.o Organización es una estructuración por

niveles jerárquicos y no todos toman la misma información.

Información y organización tiene mucho que ver con “oído generalizado” e “isomorfismo”.La organización consume información dependiendo de los niveles de estructuración.

VII. NEGUENTROPÍA.

Mecanismo por el cual el sistema pretende subsistir, busca estabilizarse ante una situación caótica.

VIII. OBJETIVO DE LA NEGUENTROPÍA.

La neguentropía busca la subsistencia del sistema para lo cual usa mecanismos que ordenen, equilibren, o controlen el caos.Mecanismos de neguentropía hace que el caos entre o esté dentro de los límites permisibles.

2

Page 3: Entropia

Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.

IX. FUNDAMENTACIÓN DEL EQUILIBRIO EN LA EVOLUCIÓN.

En la La evolución en equilibrio las acciones y reacciones que se suceden dentro del sistema no aparecen reflejadas en el carácter general del sistema a corto plazo, pero son fuerzas latentes que tratan de llevarlo a un cambio, aunque éste sea imperceptible. Por ejemplo, cuando el esposo llega de su trabajo, cansado y disgustado por algún problema en su oficina, es probable que esa tensión se descargue dentro del hogar y así se podrá escuchar una violenta discusión con su hijo o con su esposa. Ya entrada la noche y producida la calma, viene generalmente la reconciliación.

X. PRINCIPIO DE ORGANICIDAD.

 El universo puede ser representado como un sistema o como un conjunto de subsistemas que interactúan y se relacionan unos con otros dentro de una realidad dinámica, de tal forma que las acciones o intercambio de energía que suceden en un subsistema determinado afectan a los demás.

XI. UN PARALELO ENTRE LOS ENFOQUES PLANTEADO POR NEWTON Y LA TGS EN CUANTO A LA ORGANICIDAD.

OrganicidadNEWTON La mecánica Newtoniana Newton estableció

tres leyes de la dinámica que son: a) ley de la inercia b) Ley de la fuerzas c) Ley de la acción-reacción y con ellas es factible ilustrar la suposición de que un sistema es factible establecer la condición de equilibrio estadístico, que supone que las condiciones internas permanecen constantes, cuasi-estáticas.

TGS Plantea la definición de sinergia desde el punto de la variabilidad del sistema total en relación a la variabilidad de sus partes y enuncia que: V t < V 1 + ……+ V n o bien V t < V i ecuación que expresa: “ un objeto es un sistema cuando la variabilidad que experimenta la totalidad es menor suma de la variabilidad de cada una de sus partes.

XII. OBJETIVO DE UN SUBSISTEMA DE CONTROL.

Mecanismo que se encarga de evaluar los patrones de salida dentro del sistema.

XIII. FUNCIÓN TIENEN UN SUBSISTEMA DE CONTROL.

Es aquel mecanismo que hace que los insumos estén en los límites permisibles.Existe un subsistema de control que toma las medidas correctivas cuando en alguna parte del sistema no se está enviando la información adecuada, cuando no se están enviando los parámetros correctamente se llama corriente de control negativa, es decir, la que se corrige en el tránsito a través del sistema.

XIV. CUÁLES SON LOS COMPONENTES DEL SUBSISTEMA DE CONTROL.

Variable. Cualidad o característica a evaluar o controlar, la cual debe estar ubicada entre los límites.

Sensor. Mecanismo de control, aquel subsistema que sea sensible a la cualidad que se desea controlar (existen mecanismos de autocontrol, sentir).

Medios Motores. Aquel que hace que se cumpla la medida correctiva, desencadena el mecanismo equilibrante o el que toma la acción (hacer).

Fuente de Energía. Es el insumo mínimo que posibilita que el mecanismo equilibrante funcione.

Retroalimentación. Es el que dice si se corrigió bien la variable, positiva (+) si se controlo de forma adecuada la variable, y negativa (-) si se controlo de forma inadecuada y requiere corrección.

En resumen, los componentes ayudan el transito de la energía dentro de los parámetros permitidos.

XV. CUADRO COMPARATIVO ENTRE RETROALIMENTACIÓN POSITIVA Y NEGATIVA.

Retro-alimentaciónPositiva - Cuando mantenemos

constante la acción y modificamos los objetivos.

Negativa - Cuando se mantienen constantes los objetivos, pero la conducta o acción modifica durante el tiempo.

3

Page 4: Entropia

Universidad De Córdoba. Molina Sergio, Burgos Hernán. Entropía.

XVI. CONCLUSIONES

La entropía ejerce su acción en los sistemas aislados es decir, aquellos que no "comercian" con su medio. Luego podemos afirmar concretamente que estos sistemas se encuentran condenados al caos y a la destrucción. Los objetos físicos tienden a ser sistemas cerrados, y éstos, evidentemente, tienen una vida limitada. El paso del tiempo en la arquitectura de épocas antiguas lo señala. Las pirámides de Egipto, mejor aún, la Esfinge, muestran los efectos de la entropía. Sin duda alguna, el estado más probable de los elementos que conforman la Esfinge no es la organización especial que esos elementos asumen en la construcción del monumento el estado más probable de la arcilla y de la roca es la distribución estocástica en la naturaleza de la primera y la desintegración en partículas y arena en el caso de la segunda. Basta observar el caso en una fotografía del estado actual de la Esfinge y compararla con las ilustraciones que la representan en su estado inicial para comprender los efectos de la entropía.

AutoresSergio Molina, bachiller de la institución educativa Simón Bolívar y actualmente universitario en ing. de sistemas.Hernan Burgos, bachiller del colegio José A. Galán del municipio de San Pelayo y actualmente universitario en ing. de sistemas.

4