QUIMICA - Monografias

19
QUIMICA - Monografias.com Regístrese Nuevos Publicar Toolbar Foros Ayuda Compare precios Consulte a los expertos Recomendar Recomendamos: Barra de herramientas gratuita Buscar: Avanzada Bajar Trabajo (Descargar) Agregar a favoritos Recomendar Imprimir Química Indice 1. Introducción 2. Definición de enlace químico. 3. Predicción del tipo de enlace usando la escala de electronegatividad de pauling. 4. Fórmulas de lewis para moléculas e iones poliatómicos. 5. Geometría electrónica y molecular. 6. Teoría de enlace de valencia. 7. Estado de la materia 8. Glosario 9. Conclusión 10. Bibliografía 1. Introducción Las propiedades de las sustancias están determinadas en parte por los enlaces químicos que mantienen unidos a los átomos. Cuando los átomos interactúan para formar un enlace químico, solo entra en contacto sus regiones más externas. En la mayor parte de las moléculas los átomos están enlazados por uniones covalentes. La mayoría de los enlaces iónicos se obtienen de la purificación de minerales que contienen al compuesto. Las estructuras que se utilizan para representar los compuestos covalentes se denominan Estructura de Lewis, en dicha estructura solo se muestran los electrones de valencia. La tendendencia de los átomos en las moléculas a tener ocho electrones en su capa de valencia se conoce como Regla del Octeto, formulada por el mismo Lewis. También hablaremos sobre la electronegatividad, el concepto relativo, en el sentido de que la electronegatividad de un elemento solo se puede medir respecto de la de otros elementos. Sabemos por varios experimentos que las moléculas tienen estructuras definidas; esto es, los átomos de una molécula http://www.monografias.com/trabajos12/quimi/quimi.shtml (1 of 19)25/05/2005 13:43:43

Transcript of QUIMICA - Monografias

Page 1: QUIMICA - Monografias

QUIMICA - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los expertos

Recomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Química

Indice 1. Introducción 2. Definición de enlace químico. 3. Predicción del tipo de enlace usando la escala de electronegatividad de pauling. 4. Fórmulas de lewis para moléculas e iones poliatómicos. 5. Geometría electrónica y molecular. 6. Teoría de enlace de valencia. 7. Estado de la materia 8. Glosario 9. Conclusión 10. Bibliografía

1. Introducción

Las propiedades de las sustancias están determinadas en parte por los enlaces químicos que mantienen unidos a los átomos. Cuando los átomos interactúan para formar un enlace químico, solo entra en contacto sus regiones más externas. En la mayor parte de las moléculas los átomos están enlazados por uniones covalentes. La mayoría de los enlaces iónicos se obtienen de la purificación de minerales que contienen al compuesto. Las estructuras que se utilizan para representar los compuestos covalentes se denominan Estructura de Lewis, en dicha estructura solo se muestran los electrones de valencia. La tendendencia de los átomos en las moléculas a tener ocho electrones en su capa de valencia se conoce como Regla del Octeto, formulada por el mismo Lewis. También hablaremos sobre la electronegatividad, el concepto relativo, en el sentido de que la electronegatividad de un elemento solo se puede medir respecto de la de otros elementos. Sabemos por varios experimentos que las moléculas tienen estructuras definidas; esto es, los átomos de una molécula

http://www.monografias.com/trabajos12/quimi/quimi.shtml (1 of 19)25/05/2005 13:43:43

Page 2: QUIMICA - Monografias

QUIMICA - Monografias.com

tienen posiciones definidas relativas uno con el otro en un espacio de tres dimensiones, es de aquí donde sale el estudio experimental denominado El Momento Dipolo. El modelo de repulsión de pares de electrones de la capa de valencia basado en las estructuras de Lewis, es un método bastante sencillo y directo para predecir las geométricas moleculares. La mecánica cuántica posee dos teorías: teoría del enlace de valencia y la teoría de orbítales moleculares, ambas emplean los métodos de la mecánica cuántica pero hacen diferentes suposiciones y simplificaciones.

2. Definición de enlace químico.

Se define como la fuerza de unión que existe entre dos átomos, cualquiera que sea su naturaleza, debido a la transferencia total o parcial de electrones para adquirir ambos la configuración electrónica estable correspondiente a los gases inerte; es decir, el enlace es el proceso por el cual se unen átomos iguales o diferentes para adquirir la configuración electrónica estable de los gases inertes y formar moléculas estables.

Enlace iónico: El enlace iónico: fuerza electrostática que mantiene unidos a los iones en un compuesto iónico.

Características del enlace iónico.

● Se rompe con facilidad obteniéndose los iones que lo forman, generalmente basta disolver la sustancia. ● Las substancias con enlaces iónicos son solubles en solventes polares.

Formación de los compuestos iónicos. Resulta de las interacciones electrostáticas entre iones, que a menudo resulta de la transferencia neta de uno o más electrones de un átomo o grupo de átomos a otro, es decir, es la atracción de iones con carga opuesta (cationes y aniones) en grandes números para formar un sólido. Ejemplo: un átomo de sodio (Na) fácilmente puede perder un electrón para formar el catión sodio, que se representa como Na+, un átomo de cloro puede ganar un electrón para formar el ion cloruro Cl -, Se dice que el cloruro de sodio (NaCl), la sal común de mesa es un compuesto iónico porque está formado por cationes y aniones. El Na+ es el catión y el Cl – es el anión. NaCl

Enlace Covalente: Enlace covalente: enlace en el que dos átomos comparten dos electrones.

Características del enlace covalente.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (2 of 19)25/05/2005 13:43:43

Page 3: QUIMICA - Monografias

QUIMICA - Monografias.com

● Es muy fuerte y se rompe con dificultad. ● Si la diferencia de electronegatividades entre los 2 átomos es marcada, tenemos un enlace polar y se favorecerá la solubilidad de la sustancia en solventes polares. Ejemplo: un enlace O-H ● Si la diferencia de electronegatividades es poca, tenemos un enlace no polar y se favorecerá la solubilidad de la sustancia en solventes no polares. Ejemplo: un enlace C-H o C-C

Tipos de enlaces covalentes. Los átomos pueden formar distintos enlaces covalentes: En un enlace sencillo, dos átomos se unen por medio de un par de electrones. En muchos compuestos se formar enlaces múltiples, es decir, enlaces formados cuando dos átomos comparten dos o más pares de electrones. Si dos átomos comparten dos pares de electrones, el enlace covalente se denomina enlace doble. Un triple enlace surge cuando dos átomos comparten tres pares de electrones. Formación de los enlaces covalentes. Se forma cuando dos átomos comparten uno o más pares de electrones. Este tipo de enlace ocurre cuando la diferencia de electronegatividades entre los elementos (átomos) es cero o relativamente pequeña. El enlace covalente se representa con una línea recta que une a los 2 átomos, por ejemplo: O-H Veamos un caso simple de enlace covalente, la reacción de dos átomos de hidrógeno para formar una molécula H2. Un átomo aislado de hidrógeno tiene la configuración electrónica del estado fundamental

1s1, con la densidad de probabilidad para este único electrón esféricamente distribuida en torno al núcleo del hidrógeno (figura a).

Cuando dos átomos de hidrógeno se acercan uno a otro, el electrón de cada átomo de hidrógeno es atraído por el núcleo del otro átomo de hidrógeno tanto por su propio núcleo (figura b).

Si estos dos electrones tienen espines opuestos de forma que pueden ocupar la misma región (orbital), ambos electrones pueden ocupar preferencialmente la región entre los dos núcleos. Porque son atraídos por ambos núcleos. (figura c):

http://www.monografias.com/trabajos12/quimi/quimi.shtml (3 of 19)25/05/2005 13:43:43

Page 4: QUIMICA - Monografias

QUIMICA - Monografias.com

Los electrones son compartidos entre los dos átomos de hidrógeno, y se forma un enlace covalente simple. Decimos que los orbítales 1s se solapan, así que ambos electrones ahora están en los orbítales de los dos átomos de hidrógeno. Mientras más se aproximan los átomos, más cierto es esto. En este sentido, cada átomo de hidrógeno ahora tiene la configuración del helio 1s2. Otros pares de átomos no metálicos comparten pares electrónicos para formar enlaces covalentes. El resultado de esta compartición es que cada átomo consigue una configuración electrónica más estable (frecuentemente la misma que la del gas noble más próximo).

Enlaces covalentes polares y no polares: Los enlaces covalentes pueden ser polares y no polares. En un enlace no polar tal como el de la molécula de hidrógeno, H2, el par electrónico es igualmente compartido entre los dos núcleos de hidrógeno. Ambos átomos de hidrógeno tienen la misma electronegatividad (tendencia de un átomo a atraer los electrones hacia sí en un enlace químico), es decir que los electrones compartidos están igualmente atraídos por ambos núcleos de hidrógeno y por tanto pasan iguales tiempos cerca de cada núcleo. En este enlace covalente no polar, la densidad electrónica es simétrica con respecto a un plano perpendicular a la línea entre los dos núcleos. Esto es cierto para todas las moléculas diatómicas homonucleares, tales como H2, O2, N2, F2 Y Cl2, porque los dos átomos idénticos tienen electronegatividades idénticas. Por lo que podemos decir: los enlaces covalentes en todas las moléculas diatómicas homonucleares deben ser no polares. Un enlace covalente polar, tal como el fluoruro de hidrógeno los pares electrónicos están compartidos desigualmente. El enlace H-F tiene algún grado de polaridad ya que H y F no son átomos idénticos y por lo tanto no atraen igualmente a los electrones. La electronegatividad del hidrógeno es 2,1 y la del fluor es de 4,0, claramente el átomo F con su mayor electronegatividad, atrae el par electrónico compartido mucho más fuertemente que H. La distribución asimétrica de la densidad electrónica está distorsionada en la dirección del átomo más electronegativo F. Este pequeño desplazamiento de densidad electrónica deja a H algo positivo. El HF se considera una molécula diatómica heteronuclear, ya que contiene dos clases de átomo. Momentos bipolares. La polaridad de una molécula la indicamos por su momento dipolar, que mide la separación de cargas en la molécula. El momento dipolar, •• se define como el producto de la carga Q y la distancia r entre las cargas: ••••Q x r Para mantener la neutralidad eléctrica, las cargas en ambos extremos de una molécula diatómica eléctricamente neutra deben ser iguales en magnitud y de signo opuesto. Sin embargo en la ecuación Q se refiere solo a la magnitud de la carga y no a su signo, por lo que • siempre es positiva. Los momentos dipolo generalmente se expresan en unidades Debye (D), así denominadas en honor de Peter Debye. El factor de conversión es: 1 D = 3,33 x 10-30 C m (Donde C es Coulomb y m es metro)

http://www.monografias.com/trabajos12/quimi/quimi.shtml (4 of 19)25/05/2005 13:43:43

Page 5: QUIMICA - Monografias

QUIMICA - Monografias.com

Un momento dipolar se mide colocando una muestra de la sustancia entre dos placas y aplicando un voltaje. Esto produce un pequeño desplazamiento de la densidad electrónica de cualquier molécula, así que el voltaje aplicado disminuye ligeramente. Sin embargo las moléculas diatómicas que contienen enlaces polares, tales como HF, HCl, y CO, tienden a orientarse en el campo eléctrico. Esto hace que el voltaje medido entre las placas disminuya más marcadamente para estas sustancias, y así decimos que estas moléculas son polares. Moléculas tales como F2 o N2 no se reorientan, así que el cambio de voltaje entre las placas es ligero; decimos que estas moléculas son no polares. Generalmente, cuando las diferencias de electronegatividades en las moléculas diatómicas aumentan, los momentos dipolares medidos aumentan. Los momentos dipolares asociados con enlaces individuales sólo pueden medirse en moléculas diatómicas simples. Más que pares seleccionados de átomos, lo que se sujeta a medición son moléculas enteras. Los valores medidos de momentos dipolares reflejan las polaridades globales de las moléculas. Para las moléculas poliatómica son el resultado de todos los dipolos de enlace de las moléculas. El momento dipolo de una molécula formada por tres o mas átomos está determinado tanto por la polaridad de sus enlaces como por su geometría. La presencia de enlaces polares no necesariamente significa que la molécula presente un momento dipolo. Por ejemplo el dióxido de carbono (CO2) es una molécula triatómica, por lo que su geometría puede ser lineal o angular. Cuando la molécula es lineal; no tiene momento dipolo y, cuando la molécula es angular; tiene un momento dipolo. En este caso, el momento dipolo de la molécula completa es la resultante de los dos momentos de enlace, es decir, de los momentos dipolos individuales de los enlaces C = O. el momento de enlace es una cantidad vectorial, lo que significa que tiene tanto magnitud como dirección. El momento dipolo medido es igual a la suma vectorial de los momentos de enlaces.

3. Predicción del tipo de enlace usando la escala de electronegatividad de Pauling.

La escala más usada para medir electronegatividades se basa en una desarrollada por Linus Pauling. El observó que cuando se combinan los átomos de diferentes electronegatividades, sus enlaces son más fuertes de lo esperado. Se cree que son dos los factores que contribuyen a la fuerza del enlace. Uno de ellos es el enlace covalente entre los átomos. El otro es la unión adicional producida por una atracción entre los extremos opuestamente cargados del enlace dipolo. La fuerza extra del enlace se atribuyó entonces a la unión adicional y Pauling utilizó este concepto para desarrollar su tabla de

http://www.monografias.com/trabajos12/quimi/quimi.shtml (5 of 19)25/05/2005 13:43:43

Page 6: QUIMICA - Monografias

QUIMICA - Monografias.com

electronegatividades. Cuando se tenga algún interés en conocer algo acerca de la polaridad de un enlace, tal vez dicho interés se base en la diferencia de las electronegatividades entre los dos átomos unidos por el enlace. Si la diferencia es pequeña, el enlace será relativamente no polar, pero si es grande, el enlace será polar. Si la diferencia en la electronegatividad es muy grande, el par de electrones se concentrará casi en forma exclusiva alrededor del átomo más electronegativo y el enlace será iónico. Se ve por consiguiente, que el grado del carácter iónico del enlace, según sea medido por la cantidad por la carga soportada de los átomos en cada extremo podrá variar desde cero hasta un 100%, dependiendo de las electronegatividades de los átomos unidos. Por ultimo, vale la pena tomar nota de las tendencias de electronegatividad dentro de la tabla periódica. Se observará que los elementos más electronegativos se encuentran en la parte superior derecha de la tabla; los menos electronegativos se encuentran en la parte inferior izquierda. Esto consiste con las tendencias de la energía de ionización (El) y de la afinidad electrónica (AE). Es también consistente con las observaciones realizadas en donde los átomos procedentes de los extremos opuestos de la tabla —litio y flúor, por ejemplo— forman enlaces que son esencialmente iónicos y que átomos como el carbono y el oxígeno forman enlaces covalentes que sólo son poco polares.

4. Fórmulas de Lewis para moléculas e iones poliatómicos.

Las formulas de Lewis las usamos para mostrar los electrones de valencia en dos moléculas simples. Una molécula de agua puede representarse por uno de los siguientes diagramas.

Una molécula de H2O tiene dos pares electrónicos compartidos, es decir, dos enlaces covalentes

http://www.monografias.com/trabajos12/quimi/quimi.shtml (6 of 19)25/05/2005 13:43:43

Page 7: QUIMICA - Monografias

QUIMICA - Monografias.com

simples. El átomo O tiene dos pares no compartidos: En las formulas de guiones, un par de electrones compartidos se indican por un guión. En el dióxido de carbono (CO2) hay dos dobles enlaces, y su formula de Lewis es:

Una molécula de dióxido de carbono (CO2) tiene cuatro pares electrónicos compartidos, es decir, dos dobles enlaces. El átomo central (C) no tienes pares sin compartir. Los enlaces covalentes en un ion poliatómico pueden representarse de la misma forma. La formula Lewis para el ion amonio, NH4, muestra solo ocho electrones, aunque el átomo N tiene cinco electrones en su capa de valencia y cada átomo H tiene uno, con un total de cinco más cuatro (1) igual nueve electrones. El ion NH4+, con una carga de 1+, tienen un electrón menos que los átomo originales.

Describir formulas de Lewis es un método de contar los electrones que es útil para la primera aproximación para sugerir esquemas de enlaces. Es importante saber que las formulas de puntos de Lewis solo muestran el número de electrones de valencia, el número y las clases de enlaces y el orden en que están conectados los átomos. No intentan mostrar las formas tridimensionales de las moléculas e iones poliatómicos.

Regla del Octeto. Limitaciones de la regla del octeto para la formula de Lewis. Regla de octeto. Se basa en que un átomo diferente del hidrógeno tienden a formar enlaces hasta que se rodea de ocho electrones de valencia, es decir, un enlace covalente se forma cuando no hay suficientes electrones para que cada átomo individual tenga el octeto completo. Al compartir electrones en un enlace covalente, los átomos individuales pueden completar sus octetos. La regla del octeto funciona principalmente para los elementos del segundo periodo de la tabla periódica. Estos elementos solo tienen subniveles 2s 2p, los cuales pueden contener un total de ocho electrones. Cuando un átomo de uno de estos elementos forman un compuesto covalente, pueden obtener la configuración electrónica de gas noble [Ne] al compartir electrones con otros átomos del mismo compuesto.

Limitaciones del las reglas de octeto para las formulas de Lewis. Las formulas de Lewis normalmente no se escriben para compuestos que contienen metales de transición d y f. los metales de transición d y f utilizan en el enlace orbítales s y p. 1.- La mayoría de los compuestos covalentes del berilio, Be. Debido a que Be contiene solo dos electrones en la capa de valencia, habitualmente forma solo dos enlaces covalentes cuando se enlaza con otros dos átomos. Por lo tanto se usa cuatro electrones como el número necesario para Be en la

http://www.monografias.com/trabajos12/quimi/quimi.shtml (7 of 19)25/05/2005 13:43:43

Page 8: QUIMICA - Monografias

QUIMICA - Monografias.com

etapa 2, en la etapa 5 y 6 se usa solo dos pares de electrones para Be. 2.- La mayoría de los compuestos covalentes de los elementos del Grupo IIIA, especialmente boro, B. Estos elementos contienen solo tres electrones en la capa de valencia, así que a menudo forman tres enlaces covalentes cuando se enlazan a otros tres átomos. Por lo tanto, se usa seis electrones como el número necesario para los elementos IIIA contiene solo tres electrones en la etapa 2; y en las etapas 5 y 6 se usa solo tres pares de electrones para los elementos IIIA. 3.- Los compuestos o iones que contienen un número impar de electrones ejemplos son NO, con 11 electrones en la capa de valencia, y NO2, con 17 electrones en la capa de valencia. 4.- Compuestos o iones en los que el elemento central necesita más de ocho electrones en la capa de valencia para mantener todos los electrones disponibles, D. cuando uno se encuentra con esto, se añaden las reglas extra a las etapas 4 y 6. Etapa 4a: si C, el numero de electrones compartidos, es menor que el número necesario para enlazar todos los átomos al átomo central, entonces C se aumenta el número de electrones necesario. Etapa 6a: si C debe aumentarse en la etapa 4a, entonces los octetos de todos los átomos podrían satisfacerse antes de que todos los electrones D hayan sido añadidos. Colocar los electrones extra sobre el elemento central. Muchas veces que violan las reglas del octeto son muy reactivas por ejemplo, los compuestos que contienen átomos con solo cuatro electrones de valencia (limitación 1 de arriba) o seis electrones de valencia (limitación 2 de arriba) frecuentemente reaccionan con otras especies que suministran pares electrónicos. Compuestos como estos que aceptan un par de electrones para compartir se denominan ácido de Lewis: una base le Lewis es una especie que puede disponer de un par de electrones para compartir. Las moléculas con un número impar de electrones a menudo se dimerizan (combinan en pares) para dar productos que sí satisfacen la regla de octeto, ejemplos son la dimerización del NO para formar N2O2 y del NO2 para formar N2O4.

5. Geometría electrónica y molecular.

Geometría molecular. Es la distribución tridimensional de los átomos de una molécula. La geometría de una molécula influye en sus propiedades físicas y químicas, como el punto de fusión, punto ebullición, la densidad y el tipo de reacción en que puede participar. La geometría alrededor de un átomo central dado de una molécula, es aquella que hace mínima la repulsión de los pares de electrones, los usados para formar enlaces y los no usados que quedan como pares libres alrededor de cada átomo en la molécula. Para comprender cabalmente este principio, se debe saber que la estructura electrónica de moléculas en base a la configuración de octetos, necesariamente deja en libertad pares de electrones. Obviamente, estos pares, ubicados alrededor de un átomo que se considere central, deben situarse de manera que la repulsión electrostática entre dos pares, sea mínima. Así, lo primero es hacer un balance electrónico de la molécula en base a octetos, luego decidir cual átomo se considera central para luego analizar que pasa con los pares de electrones alrededor de éste. Los ejemplos de moléculas que se presentan a continuación, cubren prácticamente todas las posibilidades geométricas posibles de alcanzar.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (8 of 19)25/05/2005 13:43:43

Page 9: QUIMICA - Monografias

QUIMICA - Monografias.com

BeCl2 La idea aquí es que los pares de electrones en los enlaces y los pares solitarios de un átomo, se posicionen lo más alejados posibles. Como ejemplos comencemos con la molécula BeCl2 que tiene la estructura de Lewis señalada. Nótese que hay dos pares de electrones alrededor de Be, de modo que para que estos se encuentren lo más alejados posibles, formarán un ángulo de 180° entre sí, generando así la máxima separación entre los pares de electrones. Esto nos genera la estructura lineal para BeCl2. BeH2 Este caso es similar al anterior, es lineal, no quedan e- libres, todos en los enlaces y produce una conformación lineal CO2 Recordar que C (1s22s2 2p2), contiene 4 e- en la capa de valencia que corresponden los seleccionados en la figura, todos se comparten para formar los octetos alrededor de cada átomo, no permanecen pares de cargas libres y la molécula es lineal.

BF3 La estructura de Lewis para esta molécula, es la que se presenta a la izquierda. Aquí el B no presenta pares solitarios sin ocupar y solo está rodeado por tres pares de electrones que forman enlaces. Es una molécula deficiente en electrones. La agrupación de los F a su alrededor a 120° hace mínima la repulsión, por lo que la geometría molecular es la que se muestra, plana formando 120°, un triángulo equilátero. NH3 Se predice la estructura del NH3 mediante pasos a seguir durante el procedimiento referidos a la

http://www.monografias.com/trabajos12/quimi/quimi.shtml (9 of 19)25/05/2005 13:43:43

Page 10: QUIMICA - Monografias

QUIMICA - Monografias.com

figura de la izquierda PASO 1 Escribir la estructura de Lewis (octeto). Obsérvese que nada se ha establecido aún sobre la verdadera geometría. PASO 2 Contar los pares electrónicos y reagruparlos para minimizar la repulsión. Esta molécula presenta 4 pares de electrones y lo mejor que se puede lograr es una redistribución tetraédrica.

PASO 3 Se Ubica los átomos H en sus posiciones, los tres compartiendo pares de electrones como se muestra a continuación PASO 4 Se Nombra la estructura de la molécula, basándose en la posición de los átomos. Colocando los pares electrónicos determina la estructura y que la geometría se basa en los átomos. Es incorrecto afirmar que NH3 es tetraédrico. Realmente, posee una agrupación tetraédrica de sus pares electrónicos, pero su geometría, es una pirámide trigonal. Hasta el momento hemos tomado casos en que 2, 3 y 4 pares de electrones se ubican alrededor de un átomo del centro. Sin embargo, esto puede ocurrir con 5 y 6 pares de electrones también de modo que conviene mostrar la forma que todos se agrupan alrededor de un átomo, con el fin de lograr la mínima repulsión entre ellos. La Tabla a continuación muestra todos estos casos.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (10 of 19)25/05/2005 13:43:43

Page 11: QUIMICA - Monografias

QUIMICA - Monografias.com

Este esquema lo ocuparemos ahora para deducir la geometría de algunas moléculas típicas. XeF4 Debido a que los gases nobles presentan una estructura de capas de valencia s p completamente ocupadas, siempre se pensó que eran químicamente inactivos. Así, por muchos años se le consideró gases inertes hasta que en 1960 varios compuestos de Kr, de Xe y de Rn fueron sintetizados. Un ejemplo es el compuesto XeF4 cuya estructura de Lewis se muestra a la derecha. Nótese que el átomo Xe se encuentra rodeado por seis pares de electrones, en total 12 electrones que exige que la forma adquirida por estos sea octaédrica, como se ve en la figura que acompaña.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (11 of 19)25/05/2005 13:43:43

Page 12: QUIMICA - Monografias

QUIMICA - Monografias.com

La estructura geométrica dependerá de cómo se estos pares solitarios y los enlaces se ubiquen. Las posibilidades son como las que se señala para los casos a , b a la derecha y, obviamente, debemos decidir cuál de estas dos formas geométricas es la correcta. En el caso a, estos pares solitarios se encuentran a 90° entre sí en cambio, en b están separados por 180° y esta es la geometría más correcta para evitar la repulsión de los pares de electrones solitarios. La geometría experimental coincide con este análisis, muestra los 4 F ocupando el plano ecuatorial. Así, XeF4 es cuadrado plano con el Xe en el centro molecular

Estructuras geométricas de H2O, NH3, CH4. Vamos a comparar ahora lo que se logra con las moléculas señaladas, puesto que todas poseen un átomo central con 4 pares electrónicos de los cuales, el metano los ocupa totalmente y las otras en forma parcial. Lo que se logra es

y se ve claramente que la existencia de pares electrónicos libres disminuyen el ángulo de la estructura pseudo-tetraédrica en estas moléculas.

Enlaces múltiples en VSEPR Hasta el momento nuestro tratamiento considera sólo moléculas con enlaces simples. Para saber como manejar la situación en moléculas con enlaces dobles, triples etc, tomemos la estructura del ion NO3-

para el que se requiere escribir tres estructuras resonantes

http://www.monografias.com/trabajos12/quimi/quimi.shtml (12 of 19)25/05/2005 13:43:43

Page 13: QUIMICA - Monografias

QUIMICA - Monografias.com

Además, el ion NO3- se sabe que es planar con ángulos de enlace de 120° y esta estructura planar es la que se espera para tres pares de electrones solitarios alrededor del átomo central. Esto significa que un doble enlace debe contarse como un par solitario efectivo en la descripción de la geometría molecular. En realidad, esta bien que sea así porque disponer " dos pares solitarios " en un enlace doble, " los obliga a no ser independientes" En VSEPR, enlaces múltiples cuentan como un par solitario efectivo

Moléculas que no contienen un átomo central. Para ilustrar estos casos, usemos la molécula METANOL, la estructura de Lewis se muestra a la derecha y donde se observa que no hay un átomo central, definido sino que el C y el O forman parte del centro molecular. La geometría se puede predecir investigando previamente como se ordenan los pares solitarios alrededor de cada uno de los átomos participantes, que no son de los extremos, esto es, C y O Nótese que hay 4 pares solitarios de electrones alrededor del carbono, que lo obligan a adoptar una forma tetraédrico. Alrededor de éste, se ubican 3 átomos H y el átomo O que proviene del grupo OH.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (13 of 19)25/05/2005 13:43:43

Page 14: QUIMICA - Monografias

QUIMICA - Monografias.com

Ahora bien, recordemos que el átomo O en el H2O dispone de 2 pares solitarios sin compartir, que hacen que adopten una geometría angular. En la molécula metanol, una posición del agua está ocupada por el átomo C del CH3 pero preservando la forma angular, como lo muestra la figura a la derecha. La geometría final se logra conocer juntando ambas formas desarrolladas para cada fragmento y se observa claramente que el H del grupo OH no es lineal respecto a la línea de unión C-O sino que forma un ángulo muy parecido al que corresponde al agua. La última la figura a la izquierda nos entrega la forma final que debe adoptar el Metanol, con un entorno tetraédrico alrededor del átomo C y una forma angular alrededor del átomo O.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (14 of 19)25/05/2005 13:43:43

Page 15: QUIMICA - Monografias

QUIMICA - Monografias.com

I-3 : ion azida. La estructura electrónica de Lewis para este ion es la que aparece en la figura a la izquierda. Allí podemos observar que, si bien no existen enlaces múltiples, el átomo central acomoda en total 10 e 's ocupando orbitales atómicos d superiores. en todo caso, como átomo central maneja 5 pares de electrones de los cuales, 2 forman los enlaces y los otros tres deben agruparse de modo que la repulsión electrónica sea mínima.

La estructura a describe el caso en que dos de los pares solitarios salen perpendicular al plano formado por los átomos y formando un ángulo de 90° con el tercer par solitario (en el plano de los tres átomos de Iodo). La estructura b produce otra agrupación de los pares solitarios, que también forman 90° entre sí y finalmente, la figura c ubica los tres pares solitarios formando 120° entre sí logrando la mínima repulsión. La geometría c es la que corresponde al resultado experimental y la molécula I-3 es lineal. Geometría electrónica: Se refiere a la ordenación geométrica de los electrones de valencia alrededor del átomo central. Geometría molecular: Se refiere a la ordenación de los átomos o núcleos en el espacio, no de los pares de electrones.

6. Teoría de enlace de valencia.

La teoría de enlace de valencia es una teoría aproximada para explicar el enlace por par de electrones o covalente con la mecánica cuántica.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (15 of 19)25/05/2005 13:43:43

Page 16: QUIMICA - Monografias

QUIMICA - Monografias.com

Teoría básica. De acuerdo con la teoría sobre enlace valencia, se forma un enlace entre dos átomos cuando se satisfacen las condiciones siguientes:

● Un orbital de en un átomo viene a ocupar una porción de la misma región del espacio que ocupa un orbital del otro átomo. Se dice que los dos orbítales se traslapan. Esto se explica ya que a medida que el orbital de un átomo se traslapa con el otro, los electrones en orbítales comienzan a moverse alrededor de ambos átomos. Debido a que los electrones a ambos núcleos a la vez, jalan juntos a los átomos. La fuerza del enlace depende de la cantidad de traslape; mientras mayor sea la sobreposición mayor será la fuerza de la unión. ● El número total de electrones en ambos orbítales no es mayor a dos. Lo dos orbítales no pueden contener más de dos electrones, porque en una región dada del espacio solo pueden estar dos electrones (esto ocurre siempre y cuando si los espines de los electrones son opuestos).

A medida que el orbital de un átomo se traslapa con el orbital de otro, los electrones en los orbítales empiezan a moverse alrededor de ambos átomos. Debido a que los electrones son atraídos a ambos núcleos a la vez, jalan juntos a los átomos. La fuerza del enlace depende de la cantidad de traslape; mientras mayor sea la sobreposición mayor será la fuerza de la unión. Los dos orbítales no pueden contener mas de dos electrones, porque en una región dada del espacio solo pueden estar dos electrones (y eso solamente si los espines de los electrones son opuestos).

Importancia del enlace químico. El enlace es la unión entre los átomos de un compuesto. La unión o enlace entre los átomos tiene su origen en la estructura electrónica de los mismos. La actividad química de los elementos radica en su tendencia a adquirir, mediante su unión con otros átomos, la configuración de gas noble (ocho electrones en la capa más externa, salvo el helio que sólo tiene dos), que es muy estable. Es corriente distinguir tres tipos principales de enlaces químicos: iónico, covalente y metálico. Aunque dichos enlaces tienen propiedades bien definidas, la clasificación no es rigurosa, existiendo una transición gradual de uno a otro, lo que permite considerar tipos de enlace intermedios. Gracias a estos enlaces se forman los compuestos químicos, por ejemplo la sal. La sal común es una sustancia bien conocida. Es utilizada para conservar y aderezar alimentos. Nuestra sangre posee casi la misma proporción de sal que el agua del mar, y es fundamental para mantener muchas de nuestras funciones vitales. Está formada por un no metal, el cloro y un metal alcalino, el sodio. Ambos en estado puro son extremadamente peligrosos para el hombre, sin embargo, forman juntas una sustancia, la sal común, que es inocua en pequeñas cantidades. Se dice por tanto que han formado un compuesto químico, una sustancia muy diferente de los elementos que la componen. Muchas de las sustancias que conocemos están formadas por uniones de distintos elementos. El azúcar, por ejemplo, está formado por oxígeno, hidrógeno y carbono. Estos átomos que pierden o ganan electrones para unirse se transforman en iones, átomos con carga eléctrica. Estos iones se unen para formar compuestos químicos, y la forma de unirse entre ellos se realiza mediante enlaces químicos.

7. Estado de la materia

Todas las sustancias pueden existir, al menos en principio, en los tres estados: sólido, líquido y gaseoso. Como muestra la siguiente figura:

http://www.monografias.com/trabajos12/quimi/quimi.shtml (16 of 19)25/05/2005 13:43:43

Page 17: QUIMICA - Monografias

QUIMICA - Monografias.com

En un sólido, las moléculas se mantienen unidas en forma organizada con poca libertad de movimiento. En un líquido las moléculas están unida, pero no en una posición tan rígida y se puede mover libremente. En un gas, las moléculas están separadas por distancias que son grandes en comparación con el tamaño de las moléculas. Los tres estados de la materia pueden ser convertibles entre ellos sin que cambie la composición de la sustancia. Un sólido (por ejemplo el hielo) se fundirá por calentamiento y formará un líquido (agua). (La temperatura a la cual se da esta transición de denomina punto de fusión). El calentamiento anterior convertirá el líquido en un gas. (Esta conversión se lleva a cabo en el punto de ebullición del líquido.) por otro lado el enfriamiento de un gas lo condensará para formar un líquido. Cuando el líquido se enfría aun más se congelará y se formará un sólido. El plasma es considerado como el cuarto estado de la materia, pues su presencia en el universo es muy abundante. Se trata de una masa gaseosa fuertemente ionizada en la cual, como consecuencia de temperaturas extremadamente elevadas, los átomos se han visto despojados de su envoltura de electrones y coexisten con los núcleos atómicos en un estado de agitación intensa. Las estrellas, durante una parte importante de su vida, están constituidas por grandes masas de plasma. Debido a la violencia de los choques entre núcleos, en tales condiciones se producen reacciones de síntesis de núcleos nuevos con una considerable liberación de energía. El Sol es esencialmente una enorme esfera de plasma.

8. Glosario

● Capa de valencia. Capa electrónica externa de un átomo que contiene los electrones que participan en el enlace. ● Electrones de valencia. Electrones externos de un átomo, los cuales son los implicados en el enlace químico. ● Catión. Ion cargado positivamente que se forma por la remoción de electrones de átomos ó moléculas. ● Anión: Ion cargado negativamente que se forma por la adición de electrones a átomos o moléculas. ● Enlace sigma, •. Enlace covalente formado por orbítales que se traslapan por los extremos: su densidad electrónica está concentrada entre los núcleos de los átomos que se unen. ● Enlace pi, •••enlace covalente formado por el traslape lateral de los orbítales; su densidad electrónica se concentra arriba y abajo del plano de los núcleos de los átomos que están unidos. ● Carga formal. La carga sobre un átomo en una molécula o ion enlazado covalentemente; los electrones enlazantes se cuentan como si estuvieran igualmente compartidos entre los dos átomos enlazados. ● Resonancia. Concepto según el cual son necesarias dos o más formulas de Lewis equivalentes para la

http://www.monografias.com/trabajos12/quimi/quimi.shtml (17 of 19)25/05/2005 13:43:43

Page 18: QUIMICA - Monografias

QUIMICA - Monografias.com

misma disposición de átomos (estructura de resonancia) para describir el enlace en una molécula o ion. ● Geometría iónica. Es la disposición de los átomos (no de pares electrónicos, no compartidos) sobre el átomo ce3ntral de un ion poliatómico. ● Hibridación: termino que se utiliza para explicar las mezclas de los orbítales atómicos en un átomo (generalmente el átomo central) para generar un conjunto de orbítales híbridos. ● Orbítales Híbridos: son orbítales atómicos que se que se obtienen cuando dos o más orbítales no equivalentes, del mismo átomo, se combinan preparándose para la formación del enlace covalente. ● Orbítales moleculares. Orbítales producto de las interacciones de los orbítales atómicos de los átomos que se unen. ● Solapamientos de Orbítales. Interacción de orbítales de átomos diferentes en la misma región del espacio. ● Plana Trigonal. Ocurre si hay tres pares de electrones en la capa de valencia de un átomo, el cual tienden a estar acomodados en un plano, dirigidos hacia los vértices de un triángulo de lados iguales (triángulo equilátero), las regiones del espacio ocupadas por pares electrónicos están dirigidas a ángulos de 120º uno al otro. ● Plana Cuadrada. Termino usado para describir las moléculas e iones poliatómicas que poseen un átomo en el centro y cuatro átomos en las esquinas de un cuadrado. ● Plasma. Mezcla de iones y electrones, como en una descarga eléctrica. En ocasiones el plasma se ha considerado el cuarto estado de la materia. ● Hielo cuántico. El hielo cuántico es un estado en el que la materia está tan próxima al cero absoluto (0 ºK) que el movimiento atómico disminuye: Todos los núcleos se colapsan en un "superátomo" alrededor del cual giran todos los electrones. Se ha considerado el quinto estado de la materia.

9. Conclusión

Un enlace iónico es una fuerza de atracción enérgica que mantienen unidos los iones. Dicho enlace se puede formar entre dos átomos por la transferencia de electrones de la capa de valencia del otro. Los cationes monoatómicos de los elementos tienen cargas iguales al número de grupos. Un enlace covalente es una energía fuerza de atracción que mantiene unidos a dos átomos por la comparición de sus electrones enlazantes son atraídos simultáneamente hacia ambos núcleos atómicos y pasan una parte del tiempo cerca de un átomo y otra parte del tiempo cerca del otro. Sin un par de electrones no es compartido igualmente, el enlace es polar. Esta polaridad es el resultado de la diferencia que hay en las electronegatividades de los átomos para atraer hacia ellos los electrones enlazantes. La regla del octeto predice que los átomos forman suficientes enlaces covalentes para rodearse de ocho electrones cada uno. Existen excepciones para la regla del octeto, en particular para los compuestos covalentes de berilio, para los elementos del grupo 3A y para los elementos del tercer periodo y subsecuentes de la tabla periódica. Linus Pauling desarrolló un método para determinar las electronegatividades relativas de la mayoría de los elementos. Esta propiedad (electronegatividad) permite distinguir el enlace covalente polar del enlace covalente no polar. Las formulas de Lewis son representaciones sencillas de los electrones de la capa de valencia de los átomos en las moléculas y los iones. se pueden aplicar reglas sencillas para dibujar estas formulas. Aunque los átomos de la formula de Lewis satisfacen con frecuencia la regla del octeto, no son poco comunes las excepciones a esta regla. Se pueden obtener las formulas de Lewis al seguir las reglas para la escritura, el concepto de Carga formal con frecuencia ayudara a decidir cual de las varias formulas de Lewis da la mejor descripción de una molécula o ion. La Geometría molecular se refiere a la ordenación de los átomos o núcleos en el espacio, no de los pares

http://www.monografias.com/trabajos12/quimi/quimi.shtml (18 of 19)25/05/2005 13:43:43

Page 19: QUIMICA - Monografias

QUIMICA - Monografias.com

de electrones y la Geometría electrónica se refiere a la ordenación geométrica de los electrones de valencia alrededor del átomo central. La teoría de enlace de valencia, es una de las aplicaciones de la mecánica cuántica en el cual se forman orbítales híbridos mediante la combinación y reacomodo de los orbítales de un mismo átomo. Todos los orbítales híbridos tienen la misma energía y densidad electrónica y el número de orbítales híbridos es igual al número de orbítales atómicos puros que se combinan. La materia presenta tres estados líquido, que son líquido, sólido y gaseoso (aunque se habla de un cuarto y quinto elemento; plasma y hielo cuántico respectivamente).

10. Bibliografía

BROWN, T. L., H.E. Y BURSTEN, B.E. (1993) . Química la ciencia central. México: Prentice-Hail. Hispanoamericana. Quinta Edición. Chang, Raymond. (1998). Química. México: McGraw-Hill. Sexta Edición. Ebbing, Darrell D. (1996). Química General. México. McGraw-Hill. Quinta edición Whitten, K. W., Davis R.E. y Peck, M. L. (1998). Química General. España: McGraw-Hill. Quinta edición Petrucci, R. H. (1977). Química general. México: Fondo Educativo Interamericano

Páginas Wed: www.monografías.com www.encarta.msn.com www.lafacu.com

Trabajo enviado por: Laya Crispina [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos12/quimi/quimi.shtml (19 of 19)25/05/2005 13:43:43

Page 20: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Enlaces Químicos

Indice 1. Introducción 2. Tipos De Enlace 3. Valencia 4. Resonancia 5. Conclusiones 6. Bibliografía

1. Introducción

http://www.monografias.com/trabajos7/enqui/enqui.shtml (1 of 7)25/05/2005 13:44:17

Page 21: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

Cuándo hacemos leche en polvo, o cuando le echamos azúcar al té, ¿desaparece la leche o el azúcar? Claro que no, uno respondería que estos se están disolviendo en el agua. Pero en realidad, ¿Qué sucede? ¿Por qué sucede? Son hechos tan comunes que se nos olvida hacernos estas preguntas. En realidad lo que sucede es que la leche y el azúcar son solutos, que serán disueltos en un solvente como el agua. Pero ¿qué es lo que en realidad sucede? ¿Qué son los solutos y los solventes? Bueno estas preguntas serán respondidas en este informe.

Este informe habla de enlaces y soluciones, pero, para entenderlos hay que empezar por conocer el significado de estas palabras, para luego poder pasar a un lenguaje más técnico. Enlace significa unión, un enlace químico es la unión de dos o más átomos que se han unido con un solo fin, alcanzar la estabilidad, tratar de parecerse al gas noble más cercano, para la mayoría de los elementos alcanzar ocho electrones en su último nivel. Las soluciones son mezclas homogéneas, no se distinguen sus componentes como separados, entre al menos dos reactantes un soluto, que es él que será disuelto, y un solvente, que es él que disolverá al soluto.

¿Qué mantiene unidos a los Átomos? Un concepto básico en química es el estudio de cómo los átomos forman compuestos. La mayoría de los elementos que conocemos existen en la naturaleza formando agrupaciones de átomos iguales o de distintos tipos, enlazados entre sí. Todos los compuestos están constituidos por dos o más átomos de un o más elementos diferentes, unidos entre sí por enlaces ya sean estos iónicos o covalentes.

2. Tipos De Enlace

Si los átomos enlazados son elementos metálicos, el enlace se llama metálico. Los electrones son compartidos por los átomos, pero pueden moverse a través del sólido proporcionando conductividad térmica y eléctrica, brillo, maleabilidad y ductilidad. Véase Metales.

Si los átomos enlazados son no metales e idénticos (como en N2 o en O2), los electrones son compartidos por igual por los dos átomos, y el enlace se llama covalente apolar. Si los átomos son no metales pero distintos (como en el óxido nítrico, NO), los electrones son compartidos en forma desigual y el enlace se llama covalente polar -polar porque la molécula tiene un polo eléctrico positivo y otro negativo, y covalente porque los átomos comparten los electrones, aunque sea en forma desigual. Estas sustancias no conducen la electricidad, ni tienen brillo, ductilidad o maleabilidad.

Cuando una molécula de una sustancia contiene átomos de metales y no metales, los electrones son atraídos con más fuerza por los no metales, que se transforman en iones con carga negativa; los metales, a su vez, se convierten en iones con carga positiva. Entonces, los iones de diferente signo se atraen electrostáticamente, formando enlaces iónicos. Las sustancias iónicas conducen la electricidad cuando están en estado líquido o en disoluciones acuosas, pero no en estado cristalino, porque los iones individuales son demasiado grandes para moverse libremente a través del cristal. Cuando los electrones son compartidos simétricamente, el enlace puede ser metálico o covalente apolar; si son compartidos asimétricamente, el enlace es covalente polar; la transferencia de electrones proporciona enlace iónico. Generalmente, la tendencia a una distribución desigual de los electrones entre

http://www.monografias.com/trabajos7/enqui/enqui.shtml (2 of 7)25/05/2005 13:44:17

Page 22: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

un par de átomos aumenta cuanto más separados están en la tabla periódica.

Para la formación de iones estables y enlace covalente, la norma más común es que cada átomo consiga tener el mismo número de electrones que el elemento de los gases nobles -grupo 18- más cercano a él en la tabla periódica. Los metales de los grupos 1 (o IA) y 11 (o IB) de la tabla periódica tienden a perder un electrón para formar iones con una carga positiva; los de los grupos 2 (o IIA) y 12 (o IIB) tienden a perder dos electrones para formar iones con dos cargas positivas, y de la misma forma los de los grupos 3 (o IIIB) y 13 (o IIIA) tienden a formar iones con tres cargas positivas. Por la misma razón, los halógenos, grupo 17 (o VIIA), tienden a ganar un electrón para formar iones con una carga negativa, y los elementos del grupo 16 (o VIA) a formar iones con dos cargas negativas. Sin embargo, conforme aumenta la carga neta de un ion, éste tiene menos estabilidad, así que las cargas aparentemente mayores serían minimizadas compartiendo los electrones covalentemente.

El enlace covalente se forma cuando ambos átomos carecen del número de electrones del gas noble más cercano. El átomo de cloro, por ejemplo, tiene un electrón menos que el átomo de argón (17 frente a 18). Cuando dos átomos de cloro forman un enlace covalente compartiendo dos electrones (uno de cada átomo), ambos consiguen el número 18 del argón (Cl~~Cl). Es común representar un par de electrones compartido por medio de un guión entre los átomos individuales: Cl~~Cl se escribe Cl•Cl.

Otros Elementos De Un Enlace Iones Los átomos están constituidos por el núcleo y la corteza y que el número de cargas positivas del primero es igual al número de electrones de la corteza; de ahí su electronegatividad. Si la corteza electrónica de un átomo neutro pierde o gana electrones se forman los llamados iones. Los iones son átomos o grupos atómicos que tienen un número de electrones excesivo o deficiente para compensar la carga positiva del núcleo. En el primer caso los iones tienen carga negativa y reciben el nombre de aniones, y en el segundo están cargados positivamente y se llaman cationes.

Elementos electropositivos y electronegativos Se llaman elementos electropositivos aquellos que tienen tendencia a perder electrones transformándose en cationes; a ese grupo pertenecen los metales. Elementos electronegativos son los que toman con facilidad electrones transformándose en aniones; a este grupo pertenecen los metaloides. Los elementos más electropositivos están situados en la parte izquierda del sistema periódico; son los llamados elementos alcalinos. A medida que se avanza en cada período hacia la derecha va disminuyendo el carácter electropositivo, llegándose, finalmente, a los alógenos de fuerte carácter electronegativo.

Electrones de valencia La unión entre los átomos se realiza mediante los electrones de la última capa exterior, que reciben el nombre de electrones de valencia. La unión consiste en que uno o más electrones de valencia de algunos de los átomos se introduce en la esfera electrónica del otro.

http://www.monografias.com/trabajos7/enqui/enqui.shtml (3 of 7)25/05/2005 13:44:17

Page 23: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

Los gases nobles, poseen ocho electrones en su última capa, salvo el helio que tiene dos. Esta configuración electrónica les comunica inactividad química y una gran estabilidad. Todos los átomos tienen tendencia a transformar su sistema electrónico y adquirir el que poseen los gases nobles, porque ésta es la estructura más estable.

Valencia electroquímica Se llama valencia electroquímica al número de electrones que ha perdido o ganado un átomo para transformarse en ion. Si dicho número de electrones perdidos o ganados es 1, 2, 3, etc. Se dice que el ion es monovalente, bivalente, trivalente, etc.

Esta Tabla Ejemplifica Los Tipos De Enlace

3. Valencia

En la mayoría de los átomos, muchos de los electrones son atraídos con tal fuerza por sus propios núcleos que no pueden interaccionar de forma apreciable con otros núcleos. Sólo los electrones del 'exterior' de un átomo pueden interaccionar con dos o más núcleos. A éstos se les llama electrones de valencia. El número de electrones de valencia de un átomo es igual al número de su familia (o grupo) en la tabla periódica, usando sólo la antigua numeración romana. Así, tenemos un electrón de valencia para los elementos de los grupos 1 (o IA) y 11 (o IB); dos electrones de valencia para los elementos de los grupos

http://www.monografias.com/trabajos7/enqui/enqui.shtml (4 of 7)25/05/2005 13:44:17

Page 24: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

2 (o IIA) y 12 (o IIB), y cuatro para los elementos de los grupos 4 (o IVB) y 14 (o IVA). Todos los átomos de los gases nobles excepto el helio (o sea: neón, argón, criptón, xenón y radón) tienen ocho electrones de valencia. Los elementos de las familias (grupos) cercanas a los gases nobles tienden a reaccionar para adquirir la configuración de ocho electrones de valencia de los gases nobles. Esto se conoce como la regla del octeto de Lewis, que fue enunciada por el químico estadounidense Gilbert N. Lewis. El helio es el único que tiene una configuración de dos electrones de valencia. Los elementos cercanos al helio tienden a adquirir una configuración de valencia de dos: el hidrógeno ganando un electrón, el litio perdiéndolo, y el berilio perdiendo dos electrones. El hidrógeno suele compartir su único electrón con un electrón de otro átomo formando un enlace simple, como en el cloruro de hidrógeno, H•Cl. El cloro, que originalmente tiene siete electrones de valencia, pasa a tener ocho. Esos electrones de valencia pueden

representarse como: o . Las estructuras de N2 y CO2 se pueden expresar ahora como

o y o . Estas estructuras de Lewis muestran la configuración de ocho electrones de valencia de los gases nobles para cada átomo. Probablemente el 80% de los compuestos covalentes pueden ser representados razonablemente por las estructuras electrónicas de Lewis. El resto, en especial aquellos que contienen elementos de la parte central de la tabla periódica, no puede ser descrito normalmente en términos de estructuras de gases nobles.

Soluciones Todas las soluciones están formadas por al menos un soluto y un solvente. Las soluciones son mezclas homogéneas entre solutos y solventes. El soluto es el que se disuelve en el solvente. El solvente debe encontrarse siempre en mayor cantidad, excepto el agua.

Conductibilidad Ningún solvente puro conduce la corriente eléctrica. Y ningún soluto puro conduce la corriente eléctrica, a menos que este en estado líquido. Pero una solución puede conducir la corriente. Para que esto suceda, la solución debe estar formada por un soluto electrolito (es decir, compuestos formado por enlaces iónicos no orgánicos) y por un solvente polar como el agua, lo cual forma una solución electrolita. Las soluciones de NaCl (sal común) o CuSO4 (sulfato cúprico) en agua conducen la electricidad a toda su intensidad. Pero, el acido acetico o vinagre común (CH3-COOH) al disolverse en agua produce iones los cuales pueden conducir la electricidad, pero solo levemente.

4. Resonancia

Una extensión interesante de la estructura de Lewis, llamada resonancia, se encuentra por ejemplo en los iones nitrato, NO3-. Cada N tiene originalmente cinco electrones de valencia, cada O tiene seis, y uno más por la carga negativa, suman un total de 24 (5 + (3 × 6) + 1) electrones para cuatro átomos. Esto proporciona un promedio de seis electrones por átomo, por tanto, si se aplica la regla del octeto de Lewis, debe producirse un enlace covalente. Se sabe que el átomo de nitrógeno ocupa una posición central rodeado por los tres átomos de oxígeno, lo que proporcionaría una estructura de Lewis aceptable, excepto porque existen tres estructuras posibles. En realidad, sólo se observa una estructura. Cada estructura de resonancia de Lewis sugiere que debe haber dos enlaces simples y uno doble. Sin embargo, los experimentos han demostrado que los enlaces son idénticos en todos los sentidos, con propiedades intermedias entre las observadas para los enlaces simples y los dobles en otros compuestos. La teoría moderna sugiere que una estructura de electrones compartidos localizados, tipo

http://www.monografias.com/trabajos7/enqui/enqui.shtml (5 of 7)25/05/2005 13:44:17

Page 25: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

Lewis, proporcionaría la forma y simetría general de la molécula más un grupo de electrones deslocalizados (representados por puntos) que son compartidos por toda la molécula.

Definiciones Enlace químico: fuerza entre los átomos que los mantiene unidos en las moléculas. Cuando dos o más átomos se acercan lo suficiente, puede producirse una fuerza de atracción entre los electrones de los átomos individuales y el núcleo de otro u otros átomos. Si esta fuerza es lo suficientemente grande para mantener unidos los átomos, se dice que se ha formado un enlace químico. Todos los enlaces químicos resultan de la atracción simultánea de uno o más electrones por más de un núcleo. Enlace iónico: concepto de enlace químico. Enlace iónico. Estructuras cristalinas de los compuestos iónicos. Límites de estabilidad. Energía de red. Ciclo de born-haber. Propiedades generales de los compuestos iónicos. Enlace covalente: introducción. Teoría de Lewis. Teoría del enlace de valencia. Carácter dirigido del enlace covalente. Orbitales híbridos. Resonancia. Teoría de repulsión de pares de electrones de la capa de valencia. Teoría de orbitales moleculares. Moléculas diatómicas homo y heteronucleares. Transición entre el enlace iónico y covalente: electronegatividad y polarización. Enlace metálico: propiedades generales de los metales. Estructuras de los metales. Teoría de enlace. Conductores aislantes y semiconductores. Enlaces intermoleculares: evidencias. Enlaces por fuerzas de van del waals: orientación, inducción y dispersión. Enlaces de hidrógeno. Propiedades de los compuestos covalentes.

Tipos de enlace En la unión o enlace de los átomos pueden presentarse los siguientes casos:

1. Enlace iónico, si hay atracción electrostática.2. Enlace covalente, si comparten los electrones.3. Enlace covalente coordinado, cuando el par de electrones es aportado solamente por uno de ellos.4. Enlace metálico, so los electrones de valencia pertenece en común a todos los átomos.

5. Conclusiones

Bueno, como hemos visto al hacer jugo o endulzar al té se producen una serie de reacciones químicas que nunca hubiéramos imaginado. Los enlaces, las soluciones, la fractura de enlaces y la formación de otros, ¿quien lo hubiera imaginado? Pero ahora que sabemos todo esto, cuando nos sentemos a tomarnos un té ya no se nos olvidara pensar en esto.

Bueno hasta aquí llega nuestro informe, y con estos ejemplos de lo aprendido concluimos este informe:

http://www.monografias.com/trabajos7/enqui/enqui.shtml (6 of 7)25/05/2005 13:44:17

Page 26: QUIMICA - Monografias

JUNIOR COLLEGE - Monografias.com

6. Bibliografía

Enciclopedia Microsoft Encarta 2000 Química II Educación Media Editorial Santillana Y en las siguientes páginas de Internet: http://www.ur.mx/cursos/diya/quimica/jescobed/esteq2.htm http://www.ur.mx/cursos/diya/quimica/jescobed/estequio.htm http://www.oei.org.co/fpciencia/art08.htm

Trabajo enviado por: Santiago Moscoso Diego Rodríguez [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos7/enqui/enqui.shtml (7 of 7)25/05/2005 13:44:17

Page 27: QUIMICA - Monografias

Minerales - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Propiedades físicas de los minerales.

Indice 1. Introducción 2. Grados de lustre. 3. Solubilidad. 4. Bibliografía

1. Introducción

Se ha demostrado que la forma geométrica de un mineral cristalizado es la expresión externa de su estructura molecular interna. La estructura interna controla muchas de las propiedades físicas enlistadas. Todas las propiedades de un mineral deben depender del carácter de los elementos de los que ésta compuesto. (1) La palabra cristal se deriva de el nombre dado por los antiguos griegos a los hermosos cristales de cuarzo de seis caras, la belleza depende de una combinación de cualidades tales como el color, la forma, la proporción o apariencia agradable a la vista, esto induce el concepto de simetría de la forma, que es muy importante en el estudio de los cristales. Un mineral es una sustancia inorgánica que tiene dos características fundamentales:

● Un mineral posee una composición química definida, la cual puede variar de ciertos límites. ● Un mineral posee una disposición ordenada de átomos de los elementos de que está compuesto, y esto da como resultado el desarrollo de superficies planas conocidas como caras. Si el mineral ha sido capaz de crecer sin interferencia, las caras pueden intersecarse para producir formas geométricas características, conocidas como cristales. (3)

http://www.monografias.com/trabajos10/fimi/fimi.shtml (1 of 13)25/05/2005 13:44:41

Page 28: QUIMICA - Monografias

Minerales - Monografias.com

Dureza. La resistencia ofrecida por un mineral a la abrasión, o al raspado. Es de gran importancia en el reconocimiento rápido de los minerales, pues una dureza aproximada de una muestra se puede determinar fácilmente. (1). La dureza de un mineral depende de su composición química y también de la disposición estructural de sus átomos. Cuanto más grandes son las fuerzas de enlace, mayor será la dureza del mineral (3). La dureza se mide por la resistencia que ofrece una superficie a la abrasión (1). Las distintas caras de un cristal difieren en dureza, y la misma cara también puede diferir cuando se haya en distintas direcciones. El grado de facilidad con la que determinado mineral se raya, es una medida de su cohesión molecular; y en los casos en que la cohesión varía, la dureza también. (1). La dureza de un mineral se determina por su situación aproximada en la escala de Mohs. El mineral de mayor dureza rayará al más blando. Dos minerales con la misma dureza no se rayarán entre sí, si lo hacen, será de una forma muy ligera. Si el cuarzo raya un mineral y el mineral raya al feldespato se dice que ese mineral tiene una dureza de 6.5. Es posible determinar la dureza de algunos minerales en el campo con simplemente rasparlos con la uña donde presentan una dureza hasta de 2.5 en la escala de Mohs, los que se raspan con una moneda de cobre alcanzan una dureza de 3; los minerales raspados con una hoja de navaja tienen una dureza de 5.5 como máximo, los que son raspados con un vidrio de ventana tienen una dureza de 5.5, los dos últimos se consideran los mas duros, el primero es posible rayarlo con la lámina de raya, tiene una dureza de 6.5 y el último es rayado solamente con un filo de acero. Teniendo así una dureza entre 6 y 7. (2) Los joyeros utilizan lápices especiales que contienen puntas de los minerales de la escala antes mencionada, con el fin de verificar si es una gema auténtica o en su defecto una genuina imitación.

Densidad. La densidad de un mineral es su masa por unidad de volumen y es necesario especificar las unidades usadas, por ejemplo kilogramos por metro cúbico o libras por pie cuadradas. La densidad de un mineral puede obtenerse pesando directamente el ejemplar, primero en el aire luego en el agua. Si el espécimen es suficientemente grande, puede suspenderse por un hilo de nylon de gancho de una balanza de precisión. El ejemplar se pesa en el aire y luego se sumerge en un recipiente con agua. La densidad se obtiene dividiendo el peso en el aire entre la perdida de peso en el agua (3). Uno de los instrumentos más sencillos de utilizar es la balanza de Jolly. Este instrumento consiste de un resorte espiral en cuyo extremo inferior están sostenidos dos platillos o canastillas de alambre, sobre la plataforma móvil se coloca un vaso lleno de agua y se procede a hacer la lectura. También existe el picnómetro, éste se usa cuando son minerales pequeños. El picnómetro es una pequeña botella que tiene tapón esmerilado que cierra perfectamente y termina en un tubo con una abertura muy fina. La botella se llena con agua destilada, se inserta el tapón y el agua se que derrama se elimina cuidadosamente con un trapo y entonces se pesa (1). Fractura. La fractura de un mineral se refiere al carácter de la superficie obtenida cuando sustancias

http://www.monografias.com/trabajos10/fimi/fimi.shtml (2 of 13)25/05/2005 13:44:41

Page 29: QUIMICA - Monografias

Minerales - Monografias.com

cristalinas se rompen, en direcciones distintas de aquellas en las que puede tener lugar una exfoliación o ésta es muy débil, proporcionan superficies de fractura muy fáciles. Concordea.- las superficies se curvan y toman una forma de concha ejemplo el cuarzo.

Lisa.- las superficies de fractura son lisas o casi lisas, es decir, que aproximadamente planas. Ejemplo calizas. Irregulares.- las superficies son más desiguales. Ejemplo la rodaita. Las superficies de fractura tienen muchos puntos agudos y bastantes irregulares. Astillosa.-el mineral se rompe en astillas o fibras. Ejemplo pectolita. Terrosa.- fractura irregular característica de las sustancias terrosas, o tiza como caolín. (2). Las fracturas están en relación con el punto de aplicación de la fuerza y tienden a formar superficies curvas que se describen como concoidales. Los hombres primitivos descubrieron que el pedernal podría romperse en hojas delgadas limitadas por superficies concoidales , que se intersecaban formando bordes muy filosos. (3).

Crucero. Es la tendencia de un mineral cristalizado a romperse en ciertas direcciones definidas, produciendo superficies más o menos lisas. Es obvio que un valor mínimo de cohesión en la dirección de la fractura fácil, es decir, normal al propio plano del crucero. Un cuerpo amorfo necesariamente no puede mostrar crucero. El crucero es el mismo en todas direcciones en un cristal en el que son cristalográficamente idénticas; por ejemplo, si existe un crucero paralelo a un plano del octaedro en una sustancia isométrica, debe ocurrir también y con igual facilidad, paralelo a los otros tres planos octaédricos. Se ha considerado comúnmente que los planos del crucero, son aquellos de la estructura atómica en los que los átomos están colocados más cerca unos de otros, mientras la distancia entre los planos sucesivos es relativamente grande, pero no pueden ser los únicos factores que los controlan. El crucero aparentemente depende no solo de la posición geométrica de los átomos constituyentes, sino también de sus cargas eléctricas. Las fuerzas eléctricas que existen entre las diferentes capas, en la estructura atómica, son de gran importancia y el crucero verifica cuando las fuerzas de atracción son mínimas. El crucero se define 1. de acuerdo con su dirección, como cúbico, octaédrico, romboédrico, básico, prismático, etc. También 2 de acuerdo con la facilidad con que se obtiene y la tersura de la superficie producida. Se dice que es perfecta o eminente, cuando se obtiene con gran facilidad, produciendo unas superficie lustrosa y tersa, como en la mica, el topacio, la calcita. Los grados inferiores de crucero se denominan precisos, imprecisos o imperfectos, interrumpidos, en trazas, difíciles. En algunos casos el crucero que no se observa ordinariamente puede producirse por un golpe fuerte o por un cambio repentino de temperatura. (1).

http://www.monografias.com/trabajos10/fimi/fimi.shtml (3 of 13)25/05/2005 13:44:41

Page 30: QUIMICA - Monografias

Minerales - Monografias.com

Raya. Es el color del polvo fino de un cristal y frecuentemente se ha usado en la determinación de minerales. Aunque el color de los minerales varíe, el de la raya suele ser constante. El color de la raya se determina por corte, limado o rasguño. Una raya de longitud de ¼ de pulgada es generalmente suficiente para determinar su color. La lámina de raya no se puede emplear con minerales de una dureza de 7 o más, pues estos minerales son más duros que la lámina. Cuando no se puede emplear la lámina de raya ésta se puede determinar estrujando una pequeña cantidad de muestra hasta hacerla polvo fino y examinado para ver su color, sin ayuda o con una lente de mano sobre un fondo claro tal como un trozo de papel o una uña. Algunos minerales que tienen el mismo color, tienen rayas diferentes. Los siguientes tres minerales de hierro pueden ser todos negros, pero se distinguen con facilidad por sus rayas respectivas: hematita ( Fe2O3) pardo rojizo; goethita (HFeO2) pardo amarillento; magnetita (FeFe2O4) negra. La raya de frote se produce cuando se frotan los minerales blandos contra porcelana sin brillo. Esta raya es útil para distinguir el grafito que tiene una raya negra brillante, de la molibdenita que tiene una raya verdosa. (2).

Hábito. Cuando los cristales crecen sin interferencias, adoptan formas relacionadas con su estructura

http://www.monografias.com/trabajos10/fimi/fimi.shtml (4 of 13)25/05/2005 13:44:41

Page 31: QUIMICA - Monografias

Minerales - Monografias.com

interna. La forma general de los cristales de un mineral se llama hábito y algunas veces es útil para la identificación del mismo. Existen varios tipos entre ellos tenemos:

● columnar: alargado en una dirección semejante a las columnas. Los cristales de coridón y los de cuarzo generalmente tienen hábito columnar. ● Prismático: alargado en una dirección como los cristales de andalucita. ● Tabular: alargado en una dirección y con bordes finos como la estibinita. Los cristales de hornblenda generalmente tienen hábito laminar. ● Foliado: similar a las hojas, que fácilmente se separan en hojas como la muscovita. ● Brotoidal: grupo de masas globulares. ● Reniforme: fibras radiadas, que terminan en superficies redondas. ● Granular: el mineral está formado por un agente de granos. ● Masivo: compacta, irregular, sin ningún hábito sobresaliente. (3)

Es posible clasificar las formas de los cristales de la siguiente manera: Cristales Agrupados de cristales ej. Calcita I. Cristaloides estructura cristalina Granos o partículas agregados cristalinos Irregulares ej, mármol. II. colidea y geles. Estructura amorfa masas ej. Ópalo El término cristaloide se refiere a cristales asilados o agregados a grupos de cristales, o a partículas que tienen estructura cristalina. Algunas de las formas en que se presentan a la naturaleza:

● acicular: compuesta de delicados y finos cristales en forma de aguja, ej. Natronita. ● Amigdaloide: masa de minerales en forma de almendra, que aparecen en cavidades en las lavas. Ej. cobre. ● Arborescente: agregados de cristales en forma de árbol o rama. Ej. Cobre. ● Hojoso: estructura tabular o en lámina, las partes individuales se parecen a hojas de cuchillo o a hierba. Las hojas pueden ser paralelas o divergentes. Ej. Distena. ● Botoidal o arracimado: masas esféricas muy unidas, que se parecen a un manojo de uvas. Ej. Psilomelana. ● Capilar: compuesto de cristales muy finos o en forma de cabellos. ● Celular: poroso, como una esponja. ● Clástico: hecho de fragmentos. ● Columnar: compuesto de columnas o fibras gruesas, con frecuencia en grupos paralelos. ● Concéntrico: capas esféricas alrededor de un centro común, similar a las capas de una cebolla. Ej. Ágata. ● Concrecional: masas redondas o nodulares. Ej. Pedernal. ● Dendrílico: estructura en forma de rama o de helecho. Ej. Manganita. ● Drúsido: superficie basta debido a un gran número de cristales pequeños muy apretados. Ej. Sheelita. ● Fibrosos: se compone de fibras o filamentos finos. Ej. waverlita. ● Filiforme: compuesto de alambres finos, con frecuencia retorcidos o curvados. ej. plata. ● Foliados: hecho de lámina u hojas que se separan con facilidad. ● Globular: esférico o casi esférico. ● Granular: compuesto de granos muy finos, que pueden ser gruesos o finos. ● Lamelar: hecho de láminas o capas delgadas. ● Lenticular: en forma de lente.

http://www.monografias.com/trabajos10/fimi/fimi.shtml (5 of 13)25/05/2005 13:44:41

Page 32: QUIMICA - Monografias

Minerales - Monografias.com

● Mamelar: masas grandes y redondas, mayores que racimos. ● Micáceo: compuesto de láminas o escamas muy delgadas, como las de la mica. ● Nodular: masas redondas de forma irregular. Ej. Pedernal. ● Olítico: compuesto de pequeñas partículas redondas del tamaño de huevos de pez. Ej. Piedra caliza. ● Anerocristalino. Cristales o cristalinos muy toscos. Ej. ortosa. ● Pisolítica: compuesto de partículas redondas del tamaño de guisantes o perdigones. Ej. bauxita. ● Plumoso: estructura de pluma, observa a veces la mica. ● Reniforme: compuesto de masas grandes, redondas, que se parecen a un riñón. Ej. Hematita. ● Escamoso: compuesto de escamas o láminas delgadas. ● Reticulado: compuesto de fibras que se cruzan en mallas, como en una red. Ej. Plata. ● Forma de haz: agregados que se parecen a un haz de trigo. Ej. Estilbita. ● Estalacnítico: masas cilíndricas o cónicas que se parecen a carámbanos. Ej. Estalactita. ● Estelar: cristales o fibras radiantes que centellan como las estrellas. ● Tabular: compuesto de superficies anchas y lisas, en forma de tableta. Ej. Celestina. (2)

Brillo. El brillo de un mineral es la apariencia de su superficie a la luz reflejada, y es una propiedad de fundamental importancia para su reconocimiento. El brillo es función de la transparencia, refractividad y estructura de un mineral. Hay dos tipos principales de brillo: metálico y no metálico. El brillo metálico lo tienen los metales y los minerales de apariencia metálica. Las sustancias que tienen brillo metálico son opacas o casi opacas y bastante pesadas, la galeana y la pirita son ejemplos de ello. Todas las demás clases de brillo son aspectos diversos del brillo no metálico.

● Vítreo: brillo de l cristal o del cuarzo. ● Adamantino: sumamente brillante de los minerales con elevado índice de refracción, como el diamante y la piromorfita. ● Resinoso: brillo o apariencia de resina. Perfectamente apreciable en la esfalerita o blenda. ● Graso: apariencia de una superficie aceitada. Ejemplo, el nefelino. ● Nacarado: similar al brillo de una madre perla. Normalmente visible en los minerales de estructura laminar o lisa y en aquellos que tienen hendiduras pronunciadas como el talco por ejemplo. ● Mate: sin brillo; buenos ejemplo son la creta y el caolín. Llamado también brillo terroso.

A veces se usan los nombres esplendoroso, resplandeciente, reluciente y centellante. Éstos están relacionados con la intensidad o cantidad de luz reflejada. Cuando el brillo no es metálico ni no metálico solo se llama metaloideo o submetálico. (2).

http://www.monografias.com/trabajos10/fimi/fimi.shtml (6 of 13)25/05/2005 13:44:41

Page 33: QUIMICA - Monografias

Minerales - Monografias.com

Lustre. Naturaleza del lustre. Una variación en la cantidad de luz reflejada produce diferentes grados de intensidad de lustre; una variación en la naturaleza de la superficie reflejante produce clases de lustre. Clases de lustre: las clases de lustre reconocidas son las siguientes:

● metálico: no se dice que un mineral tenga lustre metálico a menos que sea opaco en el sentido mineralógico, esto es, que no se trasmita luz alguna en los bordes de las astillas delgadas. ● No metálico:

a. Adamantino: el lustre del diamante. Cuando también es submetálico, se denomina adamatinometálico, como la cerusita pirargirita. El lustre adamantino pertenece a las sustancias de alto índice de refracción.

b. Vítreo: el lustre del vidrio roto. Un lustre vítreo imperfecto se denomina subvítreo. Los lustre vítreo y subvítreo son los más comunes en el reino mineral. El cuarzo posee el primero en grado prominente, la calcita con frecuencia el último.

c. Resinoso. Lustre de las resinas amarillas, como el ópalo y algunas variedades amarillas de la esfalerita.

d. Grasoso. Lustre de vidrio aceitoso. Este es casi un lustre resinoso, pero con frecuencia es muy distinto, como la nefelita.

e. Perlino. Como perla, como el talco, brucita, estibita, etc. Cuando ésta unido a submetálico, como el hipersteno, se usa el término perlino metálico.

f. Sedoso. Como seda, es el resultado de una estructura fibrosa. Ejemplo calcita fibrosa.

2. Grados de lustre.

Los grados de intensidad de lustre se clasifican como sigue:

1. esplendente: refleja con brillantez y da imágenes bien definidas como la hematita, la casiterita.2. resplandeciente. Que produce una imagen por reflexión, pero no bien definida, como la celestita.3. centellante. Que tiene una reflexión general de la superficie, pero sin imagen como talco,

calcopirita.4. destellante. Que tiene una reflexión imperfecta y aparentemente de puntos sobre la superficie

como el pedernal, la calcedonia. (1)

Se dice que un mineral es mate cuando carece de lustre. Ahora tanto el brillo como el lustre de los minerales depende mucho de la incidencia de la luz en las caras del mineral, pues puede darnos diferentes lustres y brillos un mismo mineral por ejemplo la apofilita. Color. El color de las rocas despertó el hombre el deseo por el manejo de los pigmentos, los cuales usó para realizar las pinturas rupestres en cuevas, mismas que formaban parte de los ritos mágicos. El color es una de las características de los minerales más llamativas y generalmente es la primera propiedad observada en los minerales. Generalmente el color no es una propiedad confiable para la identificación de un mineral. (3) Algunos minerales tiene color constante y se llaman idiocromáticos. Otros tienen colores que varían mucho. Esta variación se debe a la presencia de pigmentos, inclusiones y otras impurezas. Dichos minerales se llaman alocromáticos. En los minerales idiocromáticos el color es una propiedad inherente pues constituye un agente de pigmentación, buenos ejemplos son azufre amarillo, malaquita, verde, magnetita negra. En los minerales

http://www.monografias.com/trabajos10/fimi/fimi.shtml (7 of 13)25/05/2005 13:44:41

Page 34: QUIMICA - Monografias

Minerales - Monografias.com

alocromáticos, el color puede variar mucho. Estos minerales, cuando son puros, no tienen color o son blancos. Esta variación se debe a las impurezas de pigmentación en las partículas submicroscópicas o a inclusiones de otros minerales coloreados. Por ejemplo el cuarzo puro no tiene color. (2). El pigmento de los minerales alocromáticos se distribuye en el mineral de forma irregular, formando betas o machas, o bien trazos gruesos de color. La sensación de color depende, en el caso de a luz monocromática, solamente de la longitud de las ondas de luz que llegan a la vista. Si la luz consiste de varias longitudes de onda es, al efecto combinado de éstas, a lo que se debe la sensación de color. El color de un cuerpo depende de la absorción selectiva que se ejerce sobre la luz trasmitida o reflejada por él. El color que percibe la vista es el resultado de la mezcla de las ondas que no se han absorbido.

Variedades de color. La variedad de colores metálicos reconocidos son las siguientes: 1. rojo cobre: cobre nativo. 2. amarillo bronce: pirrotita. 3. amarillo latón: calcopirita. 4. amarillo oro: oro nativo. 5. blanco plata: plata nativa, menos claro en la arsenopirita. 6. blanco estaño: mercurio, cobaltita. 7. gris plomo: galena. Las siguientes variaciones son variedades de colores no metálicos:

a. blanco. Blanco nieve: mármol de carrara. Blanco rojizo, blanco amarillo, blanco amarillento y blanco grisáceo, todos los ilustrados por algunas variedades de calcita y cuarzo. Blanco verdoso: talco; blanco lechoso, blanco ligeramente azuloso; algunas calcedonias.

b. Gris azuloso: gris tirado a azul sucio. Gris perla: mezclado con rojo y azul: cerargirita. Gris humo: gris algo moreno: pedernal. Gris verdoso: gris con algo de verde: ojo de gato. Gris amarillento: algunas variedades de calcita compacta. Gris cenizo: el color gris más puro.

c. Negro. Negro grisáceo: negro mezclado con gris, sin tintes: basalto, piedra de lidia. Negro terciopelo: negro puro: obsidiana, turmalina negra. Negro verdoso: augita. Negro moreno: carbón moreno, lignita. Negro azuloso: cobalto negro.

d. Azul. Azul negrusco: variedades oscuras de azurita. Azul celeste: un tono claro de azul brillante: variedades pálidas de azurita, variedades brillantes de lazulita. Azul violeta: azul, mezclado con rojo: amatista, fluorita. Azul lavanda: azul con algo de rojo y mucho gris. Azul de Prusia: azul de Berlín: azul puro: zafiro. Azul esmalte: algunas variedades de yeso. Azul índigo: azul con negro y verde: turmalina azul. Azul cielo: azul pálido con algo de verde, los pintores lo llaman azul montés.

e. Verde. Verde cardenillo: verde tirado a azul: ayunos feldespatos . verde glauco: verde con azul y gris: algunas variedades de talco y berilo. Es el color de las hojas de celidonia. Verde monte: verde, con mucho azul: berilio. Verde liquen: verde con algo de moreno: es el color de las hojas del ajo. Verde esmeralda: verde intenso puro: esmeralda. Verde manzana: verde claro con algo de amarillo: crisoparasio. Verde pasto: verde brillante con más amarillo; dialagita. Verde pistache: verde amarillento con algo de moreno: epidota. Verde espárrago: verde pálido con mucho amarillo: piedra de espárrago. Verde negruzco: serpentina. Verde olivo: oscuro con mucho moreno y amarillo: crisolota. Verde aceite: el color del aceite de olivo: vidrio volcánico. Verde verderon: verde mas claro tirado mucho a amarillo: uranita.

f. Amarillo. Amarillo azufre. Amarillo paja: amarillo pálido: topacio. Amarillo cera: amarillo grisáceo con algo de moreno: esfalerita, ópalo. Amarillo miel: amarillo con algo de rojo moreno: calcita. Amarillo limón: azufre. Amarillo ocre: amarillo moreno, ocre amarillo. Amarillo vino: topacio y fluorina. Amarillo crema: algunas variedades de caolinita. Amarillo naranja: oropimiento.

g. Rojo. Rojo aurora: rojo con mucho amarillo: algún rejalgar. Rojo jacinto: rojo con amarillo y algo de moreno: granate jacinto. Rojo ladrillo: polihalita. Rojo escarlata: rojo brillante con algún tinte de amarillo: cinabrio. rojo sangre: rojo oscuro, con algo de amarillo: granate de Bohemia. rojo carne:

http://www.monografias.com/trabajos10/fimi/fimi.shtml (8 of 13)25/05/2005 13:44:41

Page 35: QUIMICA - Monografias

Minerales - Monografias.com

feldespato. Rojo carmín: rojo puro: zafiro rubí. Rojo rosado: cuarzo rosa. Rojo carmesí: rubí. Rojo flor de durazno: rojo con blanco y gris: lepidolita. Rojo colombiano: rojo intenso, con algo de azul: granate. Rojo cereza: rojo oscuro, con algo de azul y moreno: espínela.

h. Moreno. Moreno rojizo: granate. Moreno clavel: moreno con rojo y algo de azul: axinita. Moreno cabello: ópalo de madera. Moreno brócoli: moreno con azul, rojo y gris: circón. Moreno castaño: moreno puro. Moreno amarillento: laspe. Moreno espurio: moreno amarillento con un lustre metálico o metálico aperlado. Moreno madera: color de madera vieja casi podrida: algunos asbestos. Moreno hígado: moreno con algo de gris y verde : jaspe. Moreno negruzco: carbón moreno. (1).

Pátina. Fina capa uniforme que cubre un mineral metálico, como producto de su alteración superficial. Se diferencia de una costra en que ésta puede ser frecuentemente producto aportado por las aguas. (4). Juego o cambio de colores. Algunos minerales presentan diversos colores cuando se le da vueltas lentamente a una muestra o cuando cambia la dirección de la observación. Se ve muy bien en la labradorita y en el ópalo noble.

● Opalescencia: consiste en reflexiones lechosas o anacaradas que salen del interior de la muestra, como se ve en algunos ópalos. La opalescencia se observa corrientemente en muestras superficies pulidas o redondeadas ● Contraste. El brillo variable, en forma de olas, sedoso, que presentan algunos minerales de estructura fibrosa se llama contraste. Excelentes ejemplos son la variedad satinada de yeso o el ojo de gato. (2).

La expresión cambio de colores se usa cuando cada color en particular parece ocupar un espacio más grande que el juego de colores y la sucesión producida al girar el mineral es menos rápida. (1). Contraste. El brillo variable, en forma de olas, sedoso, que presentan algunos minerales de estructura fibrosa se llama contraste. Excelentes ejemplos son la variedad satinada de yeso o el ojo de gato. (2). Asterismo. Algunos minerales, como ciertos zafiros y rubíes naturales y sintéticos presentan un efecto de luz semejante a una estrella, cuando se miran con luz reflejada. Otros minerales presentan un efecto similar cuando se emplea luz transmitida, es decir, cuando se ve una intensa fuente de luz teniendo la muestra muy cerca del ojo; por ejemplo, esto se ve en la flogopita. (2). Este nombre se le da a los rayos estrellados peculiares de luz observada en ciertas direcciones en

http://www.monografias.com/trabajos10/fimi/fimi.shtml (9 of 13)25/05/2005 13:44:41

Page 36: QUIMICA - Monografias

Minerales - Monografias.com

algunos minerales. En el zafiro se ve que una luz forma una estrella de seis rayos, esto se explica por la presencia de láminas delgadas de macla arregladas simétricamente. En el caso de una pequeña flama se debe a la presencia de diminutos cristales incluidos, arreglados también simétricamente. (1). Magnetismo. Todos los minerales están afectados por un campo magnético. Los minerales que son atraídos ligeramente por un imán se llaman paramagnéticos, mientras que los minerales que son ligeramente repelidos se llaman paramagnéticos,. Las diferentes propiedades magnéticas delos minerales permiten separarlos de otros, cuando se encuentran en mezclas. (3). Unos cuantos minerales en su estado natural son capaces de ser atraídos por un imán de acero fuerte; se dice que son magnéticos. Esto es visible en la magnetita, óxido magnético de hierro; también en la pirrotita, o piritas magnéticas y en algunas variedades de platino nativo. (1). Radioactividad. En 1896 Henri Bequerel observó que una lámina fotográfica cuidadosamente protegida con papel negro se velaba cuando se colocaba encima o cerca de ella una sal fluorescente que contenía uranio. Los compuestos de uranio despiden rayos penetrantes que oscurecen las láminas fotográficas, lo mismo que los rayos X. (2). La utilidad de la radioactividad de los minerales es por medio de ella y los aglomerados de plomo que el uranio crea a su alrededor es posible calcular la edad una determinada zona o montaña. Luminiscencia. Cuando en la oscuridad se calientan o se exponen a la influencia de rayos ultravioleta, como los producidos por el arco de hierro, algunos minerales brillan y se hacen luminiscentes. Dicha luminiscencia se produce también por la exposición a los rayos X, rayos catódicos, radiaciones de las preparaciones de radio y luz solar. Los colores luminiscentes suelen ser muy diferentes de los que tienen los mismos minerales no expuestos. La exhibición de estos colores no sólo es muy interesante sino también espectacular. Una sustancia es fluorescente si es luminiscente durante el periodo de excitación, y que es fosforescente si la luminosidad continúa después que ha desaparecido la causa de la excitación. La fluorina, la calcita, sheelita, blenda, diamante presentan fluorescencia o fosforescencia o ambas cosas. La luminiscencia producida por raspado, rayado o machacamiento se llama triboluminiscencia. La presentan algunas variedades de blenda. Cuando la luminiscencia es el resultado de la aplicación por calor, como con frecuencia se observa en la fluorina, se llama termoluminiscencia. (2). (1). Diafanidad. Grados de trasparencia. La cantidad de luz transmitida por un sólido varía la intensidad, o en otras palabras más o menos puede absorberse al pasa a través de la sustancia dada. La cantidad de absorción es mínima en un sólido trasparente, como el hielo, mientras que es máxima en uno opaco como el hierro. Los siguientes términos se adoptan ara expresar las diferentes grados de poder de trasmisión de luz. Trasparente: cuando el contorno de un objeto, visto a través de un mineral, se distingue perfectamente. Subtrasparente. O semitransparente: cuando se ven los objetos, pero no los contornos precisos. Traslúcido: cuando se transmite la luz, pero no se ven los objetos. Subtraslúcido: cuando únicamente las aristas trasmiten luz o son traslucidas. La propiedad de diafanidad ocurre en el reino mineral, desde casi opacidad perfecta hasta la transparencia, y muchos minerales presentan en sus numerosas variedades, casi todos los distintos grados. (1). Es la propiedad de un mineral de poder trasmitir la luz. (2) Tenacidad. Los minerales pueden ser , ya sea quebradizos, sectiles, maleables o flexibles.

A. quebradizos: cuando se separan del mineral, en polvo o granos, cuando se trata de cortarlos, como la calcita.

B. Sectil: cuando se pueden cortar en pedazos con una cuchilla sin que se pulverice, pero sí se pulveriza el mineral con el martillo. Este carácter en intermedio entre el quebradizo y el maleable, como el yeso.

http://www.monografias.com/trabajos10/fimi/fimi.shtml (10 of 13)25/05/2005 13:44:41

Page 37: QUIMICA - Monografias

Minerales - Monografias.com

C. Maleable: cuando se pueden sacar por tajadas, y éstas aplastarse con el martillo; oro y plata nativos.

D. Flexible: cuando el mineral se dobla sin romperse y queda doblado después de retirar la fuerza que lo dobla, como el talco.

La tenacidad es una consecuencia de la elasticidad. (1). Con este nombre se denomina el comportamiento de los minerales cuando se intenta romperlos, cortarlos, golpearlos, aplastarlos, deformarlos. Tenemos las siguiente clasificación:

a. frágil: que se rompe o hace polvo con facilidad y no se puede cortar en láminas como el cuarzo.b. Dúctil: se puede estirar para formar alambres, ejemplo: el cobre y la plata.c. Flexible: finas capas de mineral se pueden curvar sin llegar a romperse y no recupera su forma

aunque se quite la presión ejercida. Ejemplo talco foliado.d. Elástico: finas capas de mineral se pueden curvar sin llegar a romperse, pero recuperan su forma

cuando se quita la presión. Ejemplo: mica.

3. Solubilidad.

Fusibilidad. La fusibilidad relativa aproximada, de diversos minerales es un carácter importante para distinguir unas especies minerales de otras por medio de un soplete. Con este propósito, se usa convenientemente, para comparación una escala. Los siguientes son los valores de los puntos de fusión aproximados de los minerales en la escala de von Kobell: Estibina ( 525°); natrolita (1200°); actinolita (1296°); ortoclasa (1200°); broncita (1380°); también para el cuarzo cerca de 1600°. Porosidad. Algunos minerales como consecuencia de su carácter hipogroscópico se adhieren a la lengua cuando se ponen en contacto con ella, tomando de ahí el nombre de porosos. (2). Figuras de corrosión. Cuando los cristales de minerales o sustancias químicas están sujetos a la acción disolvente de ciertos líquidos o gases, aparecen en su superficie pequeñas depresiones geométricas. Las figuras de corrosión están íntimamente asociadas con la estructura interna del cristal. Para la determinación de la simetría del cristal, es de gran ayuda el estudio de la forma y posición de estas figuras en relación con las caras en las que aparecen y con desarrollo geométrico de todo el cristal. La calcita (CaCO3) y la dolomita (CaMg(CO3)2), cristalizan en romboedros. Sin embargo, la simetría de la calcita es mas alta que la de la dolomita. Con bastante frecuencia, los cristales de minerales presentan figuras de corrosión naturales. Para una determinación precisa de la simetría del cristal, las figuras de corrosión deben estudiarse a la vez que el análisis de rayos X. Al provocar figuras de corrosión en el laboratorio, ha de tenerse mucho cuidado en la selección de los disolventes y en el tiempo que éstos deben actuar. (2). Pequeñas oquedades en la superficie de un cristal, producidas ocasionalmente por la erosión natural o ante el ataque de un reactivo adecuando. Debido a la anisotropía de la materia cristalina, las figuras de corrosión se manifiestan iguales en caras homólogas y diferentes en caras no afectadas por algún elemento de simetría. Las figuras de corrosión son el resultado de una fase inicial de una disolución del mineral. (4). Conductividad. Se ha encontrado que, por lo que se refiere a su conductividad térmica, los cristales se deben dividir en tres clases. La conductividad del calor parece seguir las mismas leyes generales que la

http://www.monografias.com/trabajos10/fimi/fimi.shtml (11 of 13)25/05/2005 13:44:41

Page 38: QUIMICA - Monografias

Minerales - Monografias.com

propagación de la luz. Conductividad eléctrica. La mayoría de los minerales, excepto aquellos que tienen un lustre metálico, entre los sulfuros y óxidos, son no conductores. Solo los no conductores pueden mostrar fenómenos piro eléctricos, y solo los conductores pueden dar una corriente termoeléctrica. Los experimentos han demostrado que la conductividad eléctrica es igual en todas direcciones en los cristales isométricos y que los cristales de otros varían con la dirección del cristal, ajustándose a las misma leyes que gobiernan la trasmisión de la luz.

● Electricidad friccional. La generación de una carga eléctrica en muchos cuerpos por fricción es un tópico familiar. Todos los minerales se electrizan por fricción aunque al grado que éste se manifiesta varía ampliamente. Ambos estados eléctricos pueden presentarse en diferente variedad de la misma especie. ● Piroelectricidad. La generación simultánea de cargas de electricidad negativas y positivas en diferentes partes del mismo cristal, cuando se cambia la temperatura adecuadamente, se llama piroelectricidad. Si un cristal genera una carga positiva en una porción durante el calentamiento se generará una negativa en la misma porción durante el enfriamiento. ● Piezoelectricidad. El calentamiento o enfriamiento de un cristal para producir fenómenos piroeléctricos, requiere un cambio en su volumen, además si un cambio de volumen se puede causar por otros medios como la compresión o la tensión, resultan cargas eléctricas similares. El nombre piezoelectricidad se ha dado a la generación de cargas eléctricas en un cuerpo cristalizado por presión o tensión como sucede claramente con el cuarzo, turmalina y algunas otras especies. Ha empleado también el término actinoelectricidad o mejor fotoelectricidad, para el fenómeno de producir una condición eléctrica por la influencia de la radiación directa. ● Termoelectricidad. El contacto de dos metales diferentes, en general resulta en la electrificación de uno de ellos positivamente y negativamente el otro. Si además se calienta el punto de contacto mientras las otras partes, conectadas por un alambre se conservan frías se establece una corriente contínua de electricidad. Dos metales así conectados constituyen un par termoeléctrico.

Tacto. Se llama así a la impresión que se produce al tocar un mineral. Los más conocidos son los siguientes: Frío: es el tacto de los buenos conductores del calor. Ejemplos: minerales metálicos como el cobre y la plata y algunas gemas. Tosco: aspecto al tacto. La tiza. Suave: sin asperezas ni irregularidades. Sepiolita. (2). El tacto es un carácter que ocasionalmente es de alguna importancia; se dice que es térreo (sepiolita), grasoso (talco), áspero o magro, etc. (1). Olor. Exceptuando algunas especies gaseosas y solubles, los minerales en el estado seco inalterado no desprenden olor. Por fricción, humedeciendo con el aliento, y la eliminación de algún ingrediente volátil por el calor o los ácidos, los olores que se obtienen algunas veces se dignan así:

● Aliáceo: olor a ajo, la fricción de la arsenopirita desprende este olor .también puede obtenerse de compuestos arsenicales por medio de calor. ● Olor a rábano rústico: olor de descomposición del rábano picante. Se percibe fuertemente cuando se calientan menas de selenio. ● Sulfuroso: la fricción emite este olor de la pirita y el calor de muchos sulfuros. ● Bituminosos: el olor del betumen. ● Fétido: el olor del ácido sulfhídrico o de los huevos podridos. Se emite por la fricción de algunas variedades de cuarzo y calcita.

http://www.monografias.com/trabajos10/fimi/fimi.shtml (12 of 13)25/05/2005 13:44:41

Page 39: QUIMICA - Monografias

Minerales - Monografias.com

● Arcilloso: el olor del barro húmedo. Se obtiene de la serpentina y de algunos minerales semejante, después de humedecerlos con el aliento, otros como la pirita lo tiene cuando se calientan. (1).

Algunos minerales tienen olores característicos al olerlos, rasparlos, arañarlos, golpearlos o calentarlos. (2). Sabor. Los minerales solubles en agua o en saliva generalmente tienen sabores característicos, como se indica a continuación, en los siguientes ejemplos:

● ácido: sabor agrio del ácido sulfúrico. ● Alcalino. Sabor de sosa o potasa. ● Astringente: al tomarlo provoca una contracción, por ejemplo el aluminio. ● Amargo: sabor de sal de higuera o sales amargas. ● Fresco: sabor de nitrato de sodio o potasio. ● Metálico: un sabor muy desagradable, metálico. La pirita descompuesta es un ejemplo. ● Picante: gusto punzante o corrosivo, por ejemplo el cloruro de amonio. ● Salino: sabor salado del cloruro de sodio o halita. (2).

El sabor pertenece solamente a los minerales solubles. (1)

4. Bibliografía.

1. Mineralogía; Edward Dana, William E. Ford; 4a ed. Ed continental pp. 235 – 252; 29 3 – 294; 303 – 309; 370 – 378.

2. Mineralogía; Edward Harry Kraus, Walter Fred Hunt, Lewis Stephen Ramsdell, traducido por Agustín Navarro Alvargonzález; Ed Castillo; 5a ed.; pp 95 – 115.

3. Fundamentos de mineralogía para geólogos; John Nahid Phillips; Ed. Limusa; pp. 15 –34 4. Diccionario de términos mineralógicos y cristalográficos: Carlos Días Mauriño; Ed Alianza;

pp. 409; 40; 125.

Ilustraciones: Microsoft® Encarta® 98 Enciclopedia. © 1993-1997 Microsoft Corporation. All rights reserved.

Trabajo enviado por: Elisa Sotelo [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos10/fimi/fimi.shtml (13 of 13)25/05/2005 13:44:41

Page 40: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Todorov: Una herencia formalista . Estructuralismo y recepción

1. Presentación2. Introducción: Una Ojeada histórica a la semiología (estructuralismo) 3. Antecedentes: Estructuralismo checo 4. Estructuralismo: una descripción textual ideal5. Hermenéutica, Fenomenología y Teoría de la Recepción.6. Herencia formalista7. Todorov: una convergencia8. Conclusiones9. Proyecciones

10. Bibliografía complementaria

I.Presentación: En este ensayo se pretende dar a conocer una visión de la herencia formalista, una cosmovisión que recoge tanto la teoría como el método, es decir, una mirada convergente entre la estructura y la interpretación. De tal forma que, bajo este prisma, la hipótesis planteada es entonces, "reconocer en Todorov una herencia formalista". La mirada en cuestión es a través de éste, quién, en su obra "Poética" y "Simbolismo e Interpretación" hace converger a la estructura y a la interpretación en un proceso lectural de la producción y de la recepción como una unidad solidaria entre ambos, pues la lectura no puede ser sólo inmanencia. II. Introducción: Una Ojeada histórica a la semiología (estructuralismo).[1]

Ya en el siglo XVII John Locke propuso llamar al estudio de los signos "Doctrina de los Signos", de los cuales, las palabras, son los más usuales, ya que:

http://www.monografias.com/trabajos15/todorov/todorov.shtml (1 of 17)25/05/2005 13:44:59

Page 41: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Para comunicar nuestros pensamientos para nuestro propio uso, son también necesarios signos de nuestras ideas. Los que el hombre ha encontrado más convenientes, y por consiguiente utiliza más generalmente, con los sonidos articulados. Más tarde en el siglo XVIII, Lambert debe su investigación a los impulsos de Locke y desarrolla " la indagación de la necesidad de la cognición simbólica en general y del lenguaje en general". Recuerda que, "en nuestro lenguaje lo arbitrario, lo natural y lo necesario están mezclados". Por lo tanto la diferencia entre estos tres elementos que se encuentran en los signos revela una estrecha relación con el hecho decisivo de "que las causas primeras del lenguaje están ya por sí mismas en la naturaleza humana". Luego, a principio del siglo XIX, Hoene-Wronski, familiarizado con la obra de Locke esbozó una "Filosofía del Lenguaje" (1879). Según este autor polaco, es "la perfección de los signos la que constituye "el objeto de la séméiotique". Posteriormente su discípulo Jerzy Braun (1969), examina "La facultad de signación" (facultas signatrix): La naturaleza de los signos debe estudiarse ante todo a las categorías de existencia, es decir, a la modalidad (signos propios/signos impropios) y a la cualidad (signos determinados/signos indeterminados), y en segundo lugar con respecto a las categorías de producción, es decir, a la cantidad (signos simples/signos compuestos), a la relación (signos naturales/signos artificiales) y la unión (signos mediatos/signos inmediatos). Según el programa de Hoene-Wronski, es la "perfección de los signos". Posteriormente, Balzano, en su obra fundamental " Teoría de la ciencia" (1837) empieza con una definición bilateral del signo: Un objeto… a través de cuya concepción deseamos conocer de manera renovada otra concepción conectada con aquélla en un ser pensante es lo que llamamos un signo. Los pensamientos semióticos de Balzano -dice Jakobson- Sacan a la luz la diferencia entre el significado de un signo como tal y el sentido que ese signo adquiere en el contexto de la circunstancia presente. Ulteriormente en 1890 (inédito hasta 1970) Husserl dice que: Una mirada más profunda sobre la naturaleza de los signos y de las artes permitiría (la lógica) ir más allá en esos métodos de procedimiento simbólico a los que no ha llegado todavía la mente humana, es decir, a establecer las leyes de su invención.

Finalmente, este Acercamiento, marca los límites naturales de la semiótica[2] con Peirce y Saussure. Según Peirce: Lo que llamo semiótica, es decir, la doctrina de la naturaleza sencial y de las variedades fundamentales de cualquier clase posible de semiosis (…) Por semiosis entendiendo una acción, una influencia que sea, o suponga una cooperación de tres sujetos, como, por ejemplo un signo, su objeto y su interpretante, influencia tri-relativa que en ningún caso puede acabar en una acción entre parejas. Un signo es algo que está en lugar de otra cosa para alguien en ciertos aspectos o capacidades. Según Saussure: La lengua es un sistema de signos que expresan ideas. Además, Jakobson diría: Desde el siglo pasado, Saussure trató de alcanzar, según sus propios términos "una idea correcta de lo que es un sistema semiológico" y de descubrir los rasgos" del lenguaje, como del sistema semiológico general en su conjunto". Pues bien, este Acercamiento, no tiene otro fin que el de relacionar la semiótica o estructuralismo a un continuum histórico, diacrónico para poder entender mejor la realidad actual y cómo el Acercamiento es sólo a través del signo, aún cuando se suponen deslindados sus componentes en toda la diacronía. Estos elementos (significado y significante) no se muestran por separado como se verá en adelante en Barthes

http://www.monografias.com/trabajos15/todorov/todorov.shtml (2 of 17)25/05/2005 13:44:59

Page 42: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

y los demás teóricos contemporáneos[3], que desarrollan fuertemente el significante, separado del significado para poder, en cierta forma, explicarlo; de modo tal que se acercan más al método que que a la teoría, es decir, a la descripción objetual y objetiva que intenta descifrar un sentido. Pero para entender mejor lo que aquí se plantea es menester revisar el término "estructuralismo" que da origen a la evolución semiótica, puesto que, desde un principio es una concepción cientifizada; desde que se tiene conciencia de la peculariedad del lenguaje, especialmente el poético. Respecto de éste, Mukarovsky dice: Por lo que se refiere a la aparición estructural de la literatura hay que agradecer sobre todo a la preocupación científica de los checos que se haya convertido en un sistema coherente (…). Las raíces del estructuralismo científico-literario checo se remontan con frecuencia a un pasado bastante lejano, en especial en lo que afecta a la investigación del lenguaje poético.

Ya en J. Jungmann (1773 - 1847) encontramos una ciencia de la peculariedad del lenguaje poético[4]

III Antecedentes: Estructuralismo checo Es preciso entonces, recordar también el estructuralismo del checo. Mukarovsky definió la estructura como "equilibrio inestable de relaciones". Luego agrega: La noción de estructura … está fundada sobre la unificación interior del todo por medio de las relaciones recíprocas entre los elementos de aquélla; y esas relaciones no solamente son positivas - concordancias y armonías -, sino también negativas -oposiciones y contradicciones -: la noción de estructura está por consiguiente, inseparablemente ligada con el pensamiento dialéctico Las relaciones entre los elementos, precisamente por ser dialécticas, no pueden ser deducidas de la noción del todo; el todo en relación ellas, no es prius, sino posterius; el develamiento de estas relaciones no es, pues, asunto de la especulación abstracta, sino de la empiria. El materialismo gnoseológico constituye, en consecuencia, la segunda cualidad sencial del pensamiento estructural.[6]

Por lo tanto, este pensamiento estructural …: Define a veces la estructura como un todo cuyos elementos; por el hecho de entrar en él, revisten un carácter especial. Se dice: el todo es más que la suma de los elementos que lo componen. Pero del punto de vista del concepto de la estructura, esta definición es demasiado amplia, porque ella comprende no solamente las estructuras propiamente dichas, sino también, por ejemplo, las 'formas' (Gestalten); de las cuales se ocupa la Gestalpsychilogie. Es por eso que subrayamos en el concepto de la estructura artística un rasgo más especial que la simple interrelación entre el todo y sus elementos. Consideramos como realidad específica de la estructura en el arte, las relaciones recíprocas entre sus elementos: relaciones dinámicas por su esencia misma. Según nuestra concepción, no se puede calificar de estructura sino el conjunto de elementos cuyo equilibrio interior se rompe y se restablece sin cesar, y cuya unidad aparece, por consiguiente, como una red de contradicciones dialécticas.[7]

Pues bien, con Jan Mukarovsky, se aclara el concepto de estructura y por ello mismo, el panorama histórico que se revisaba. Desde aquí en adelante, entonces, se puede apreciar la evolución y la concretización de tal ciencia literaria. A esto se debe, pues, el esbozo de un estudio semiológico del arte que hace Mukarovsky[8] en el cual

http://www.monografias.com/trabajos15/todorov/todorov.shtml (3 of 17)25/05/2005 13:44:59

Page 43: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

toda obra de arte es un signo autónomo compuesto:

1.De una "obra cosa" que funciona como símbolo sensible, 2.De un "objeto estético", depositado en la conciencia colectiva, y que funciona como significación. 3.De una relación con la cosa significada. De tal manera que, la obra de arte es al mismo tiempo signo, estructura y valor. Y en tanto signo, sirve como intermediaria entre "lo que es y lo que está en lugar de otro". Ahora la obra literaria concebida como signo, no debe perder de vista su carácter de estructura. Por el mismo hecho de serlo, constituye una estructura bifásica[9]: un símbolo sensible obra-cosa y una significación: objeto estético depositado en la conciencia colectiva. Es decir, es un " signo mediador entre el artista y el receptor", razón por la cual existe cada vez más, una mayor aproximación estética y lingüística, ya que esta última se considera como " ciencia de la clase fundamental de signos, del lenguaje humano"[10]. De hecho, desde la perspectiva lingüística, la estética estructural se basa en los trabajos de Saussure y la escuela de Ginebra, Mathesius y el más grande lingüísta checo, Zubaty, entre otros. IV.Estructuralismo: una descripción textual ideal Cabe recordar que tanto el "estructuralismo" como el "recepcionismo" han intentado alcanzar la "descripción textual ideal" y ésta, no es más perfecta e ideal que en la lectura[11]. Es decir, el estructuralismo desecha tanto al objeto real como al sujeto humano[12] y sólo queda entre ellos un sistema de reglas[13]:

El estructuralismo desechó simultáneamente el objeto real y el sujeto humano. Este movimiento doble define el proyecto estructuralista. La obra ni se refiere a un objeto ni es expresión de un sujeto individual; ambos son descartados, y sólo queda entre ellos, en el aire que las separa, un sistemade reglas.[14]

Por lo tanto si sólo se piensa que un texto, que una lectura se puede reducir solamente a la descripción de este sistema propiamente dicho[15], se está nada más lejos, pues, el estructuralismo se transforma así en "antihumanista"[16], vale decir, se convierte en un objeto caulquiera, que no necesita más que la sola aplicación de unas reglas o método para saber de él, sin embargo, lo que se logra saber no es más que el funcionamiento interno de éste y no su conexión con el todo del proceso y no solamente del producto. O sea: El estructuralismo podía estudiar detalladamente ese producto, pero se negó a estudiar las condiciones materiales de su elaboración, pues esto podría significar que se rendía al mito que acepta un "origen". No hubo muchos estructuralistas a quienes preocupase la forma en que realmente se consumía el producto; ni lo que en verdad sucede cuando la gente lee obras de literatura; ni el papel que esas obras desempeñan en el conjunto de las relaciones sociales.[17]

Por último, si los críticos tradicionales constituían una élite espiritual, los estructuralistas parecían integrar una élite científica, de toda clase de conocimiento s esotéricos muy alejados del lector "común y corriente".[18]

Y por otro lado, configura un "lector ideal" que debería estar al tanto, con los conocimientos técnicos esenciales para descifrar todo tipo de obra, por cierto, no es posible, ya que:

http://www.monografias.com/trabajos15/todorov/todorov.shtml (4 of 17)25/05/2005 13:44:59

Page 44: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Si el modelo se llevaba hasta el extremo el lector tendría que ser apátrida, no pertenecer a ninguna clase social, no haber sido engendrado, estar libre de características étnicas y de prejuicios culturales coartantes.[19]

En tales circunstancias, el ejemplo más preclaro del estructuralismo es Barthes, especialmente, el de los "Elementos de Semiología"[20] y por sobre todo, "La Actividad Estructuralista"[21], que se inicia precisamente con la pregunta ¿Qué es el estructuralismo? [pregunta que también se hará Todorov.]. "No es una escuela ni siquiera un movimiento", es lo primero que dice Barthes.

¿Qué es el estructuralismo? No es una escuela ni siquiera un movimiento(al menos todavía no), pues la mayoría de los autores que suelen asociarse a ese término distan mucho de sentirse ligados entre sí por una solidaridad de doctrina o de combate. Apenas es un léxico: estructura es un término ya antiguo ( de origen anatómico o gramático), hoy muy usado: todas las ciencias sociales recurren abundantemente a él, y el uso de la palabra no puede distinguir a nadie, a no ser que se polemice sobre el contenido que se le da; funciones, formas, signos y significaciones no son mucho más pertinentes.[22]Luego agrega:

Sin duda hay que remontarse a emparejamientos como los de significante - significado y sincronía - diacronía para aproximarse a lo que distingue el estructuralismo de otros modos de pensamiento; el primero porque remite al modelo lingüístico, de origen saussoriano, y que al lado de la economía, la lingüística es, en el estado actual de las cosas, la ciencia misma de la estructura; el segundo, de un modo más decisivo, porque parece implicar una cierta revisión de la noción de historia, en la medida que la idea de sincronía ( a pesar de que en Saussure este sea un concepto, sobre todo operatorio) acredita una cierta inmovilización del tiempo, y en que la diacronía tiende a representar el proceso histórico como una pura sucesión de formas; reste último emparejamiento es tanto o más distintivo cuanto parece que la principal resistencia al estructuralismo sea hoy de origen marxista ( y no de estructura); de todos modos es probablemente el recurso serio al léxico de la significación ( y no a la palabra misma, que, parodógicamente, no es nada distintiva), en el que hay que ver en definitiva el signo hablado del estructuralismo: si vigilamos a quien emplee significante y significado, sincronía y diacronía, sabremos si la visión estructuralista está constituida.[23]

"Puede decirse, pues, que en relación contodos sus usuarios. El estructuralismo es esencialmente una actividad" - dice Barthes . También señala:

El objetivo de toda actividad estructuralista, tanto si es reflexiva como poética, es reconstruir un "objeto", de modo que en esta reconstrucción se manifiesten las reglas (las "funciones") de este objeto. La estructura es pues, en el fondo, un simulacro del objeto, pero u simulacro dirigido, interesado, puesto que el objeto que el objeto imitado hace aparecer algo que permanecía invisible, o, si se refiere así, ininteligible en el objeto natural. El hombre estructural toma lo real, lo descompone y luego vuelve a recomponerlo; en apariencia es muy poca cosa (…). Sin embargo, desde otro punto de vista, esta cosa es decisiva; pues entre los dos objetos o los dos tiempos de la actividad estructuralista, se produce algo nuevo, y esto nuevo es nada menos que lo inteligible general: el simulacro es el intelecto añadido al objeto, y esa adición tiene un valor antropológico, porque es el hombre mismo, su historia, su situación, su libertad y la resistencia misma que la naturaleza opone a su espíritu.[24]

http://www.monografias.com/trabajos15/todorov/todorov.shtml (5 of 17)25/05/2005 13:44:59

Page 45: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Pues bien, he aquí entonces el deslinde del estructuralismo: una explicación textual u objetual ideal. V. Hermenéutica, Fenomenología y Teoría de la Recepción. Según Eagleton(98), la Hermenéutica Fenomenológica ha de ser estudiada mediante tres factores: la Fenomenología, la Hermenéutica y la Teoría de la Recepción.

Para el primer elemento establece una base teórica en Husserl, luego para el segundo en Heidegger, Gadamer y Hirsch, y para la tercera, revisa a los pilares de la recepción: Ingarden, Iser y Fish.[25]

Con estos autores entonces sienta los orígenes de la Teoría de la Recepción. Y por consiguiente se obtiene una visión historisista bastante clara, pero no suficiente, pues ha olvidado revisar por ejemplo a Schleiermacher, fundador de la hermenéutica general, antecesor de Heidegger y sostiene al respecto, afirmando explícitamente, la unidad entre ambas disciplinas[26]. Tampoco vincula la herencia rabínica ni la poética sanscrita, las que usaría precisamente Todorov[27] para fortalecer su estrategia de la interpretación. Como tampoco revisa antecedentes fundamentales para la Teoría de la Recepción: La lingüística, y la sociológica.[28]

En el nuevo método de crítica literaria participan principalmente tres corrientes: una lingüística, otra hermenéutica y la sociológica.[29]

Para la primera corriente, la profesora López, señala la influencia de la Escuela de Praga, especialmente Mukarovsky y Vodicka. El primero, distingue dos aspectos en la obra literaria: por un lado, su aspecto material de artefacto invariable; y semántico; su aspecto de objeto estético, variable en la conciencia colectiva, según las experiencias literarias de ésta. Dice Mukarovsky:

En la historia y teoría de la literatura y del arte, por ejemplo, no sólo se debe tener en cuenta la forma interna artística y su desarrollo como una estructura, sino también la relación de esta estructura con otros fenómenos, sobre todo aquellos de contenido psicológico y social … Todo cambio en la estructura artística es motivado de alguna manera desde exterior … sin embargo, la relación entre arte y sociedad no es mecánico-casual. Ni siquiera el contacto propiamente dicho entre arte y sociedad es inmediato, sino que se realiza, como ya se ha dicho, por mediación del público.[30] Y para el segundo - dice Berta López :

También Vodicka pretende establecer las relaciones entre la obra literaria y la realidad, entre el objeto y su receptor. Las tareas de la crítica literaria según el análisis de la obra literaria en su contexto histórico (normas y valores de su época, etc.) y su eco en épocas posteriores.[31]

Para la segunda corriente, la hermenéutica, no hay gran diferencia con el análisis que hace Eagleton.

Para la tercera, la profesora López, revisa los estudios de Schüking y Escarpit y por otra línea a Lukács, refiriendo de esta manera, entonces, a la corriente sociológica.

Schüking por su parte, aporta estímulos precursores a través de su obra "El gusto literario" (1931). Investigó la relación entre la obra literaria y determinados grupos sociales, la relación entre cambios socio-

http://www.monografias.com/trabajos15/todorov/todorov.shtml (6 of 17)25/05/2005 13:44:59

Page 46: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

históricos y los respectivos cambios literarios sobre el fondo de las normas estéticas, dependientes de ciertos grupos sociales.

Escarpit en Sociología de la Literatura,( 1958) y Sartre y su modelo de la literatura "engagée", no sólo analiza la función de la literatura en la sociedad, sino también el problema de establecer el significado de la obra literaria: "Un pacto de generosidad" entre autor y lector como proceso correlativo a la escritura - dice Sartre -.

Manuel Jofré en Teoría Literaria y Semiótica (1990) también aduce:

Al respecto, ha dicho Sartre que se le deja al lector con todo por hacer, y sin embargo, ya todo ha sido hecho; la obra existe solamente en el nivel de las habilidades del lector, y cuando él lee y crea, él sabe que siempre puede ir más allá en su lectura, y que siempre podrá crear más profundamente; y esta es la razón por la cual la obra aparece ante él tan inexhaustiva e inpenetrable como un objeto.[32]

Para Sartre, entonces, el lector es co-autor, co-productor de significado.

Finalmente, se sobreentiende la importancia crítica socialista de Lukács y sus discípulos, y de la obra " Pour una sciologie du roman" (1964) de Lucien Goldmann, su idea de relacionar "la forma novelesca misma y la estructura del medio social en cuyo interior se ha desarrollado", la homología entre vida social y obra literaria.

Los críticos de la corriente sociológica de la Teoría de la Recepción se proponen contestar principalmente a las siguientes cuestiones - dice López : - ¿Cómo se "recibe" una determinada literatura ( o tipo de literatura) en un determinado público ( o grupos sociales) a través de diferentes épocas históricas?

- ¿Cuál es la reacción que produces críticas, etc., en obras posteriores del mismo autor?[33]

En su modelo sociológicamente fundado, se debe analizar el "horizonte de expectativa" según sus clases sociales, formación cultural, diferencia de edad, sexo, religión, etc.. Se acerca el método en este momento a la investigación de la comunicación de masas.[34]

Más adelante añade: "Los críticos de Alemania Oriental, Manfred Naumann y Robert Weimann, a pesar de que desarrollan este mismo modelo, lo rechazan por su carácter burgués":

Según Weimann no existe ninguna discrepancia entre el momento de la escritura y el de la recepción, puesto que los dos son denominados por la misma ley del proceso histórico (…). Según esta teoría el objeto del crítico tiene que ser la reconstrucción de esta relación entre base y superestructura y el descubrimiento de su interdependencia.[35]

Respecto de la Teoría de la Recepción, cabe destacar que sus orígenes surgen de la Escuela de Praga, antes que de "Konstanzer Schule", por lo tanto, sus influencias, o sus antecedentes, por lo menos, son

http://www.monografias.com/trabajos15/todorov/todorov.shtml (7 of 17)25/05/2005 13:44:59

Page 47: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

abiertamente formalistas, situación que ya sugiere Manuel Jofré:

Las posibilidades del análisis formalista son sopesadas en relación a la crítica hermenéutica en Interpretation of Narrative, editado y publicado en 1978 por Mario Valdés y Owen J. Miller, y cuyos artículos proceden de una conferencia realizada en la Universidad de Toronto en 1976. (…) por lo menos otros cuatro de los quince artículos intentan correlacionar el formalismo con la hermenéutica, como modo de hacer converger las aproximaciones que se basan en el texto con las aproximaciones que se sustentan en el rol del lector.[36]

VI. Herencia formalista

El profesor Jofré se refiere a Todorov como uno de los que asume la herencia formalista, aunque el juicio es sobre la obra: "Poética" (1971) :

También asume la herencia formalista eslava el libro Poetique de la prose de Tveztan Todorov, publicado en París, Seuil, 1971. 253p. Un libro equilibrado, entre la especulación teórica y los análisis prácticos. Es la herencia metodológica del formalismo la que asume en el ensayo inicial ( o final en otras versiones) titulado "La herencia metodológica del formalismo"[37]

Hay que reconocer, además, que si bien es cierto, Todorov, inicia su andar formalista, también es cierto que, al parecer, es el único formalista que concretiza tal tradición y que se vuelca al futuro a través del análisis del texto, pero desde el discurso y por lo tanto desde la interpretación, puesto que, "al relativizarse nuestra percepción de la realidad, el hombre percibe que él no es un descubridor sino, más bien, un intérprete"[38]

Se hace necesario, también, recordar algunos parámetors del formalismo ruso, como por ejemplo la dicotomía forma-fondo, los que fueron sustituidos por un concepto más dinámico, pues la obra es una totalidad dinámica, cuyos elementos no están ligados por un signo de igualdad y de adición, sino por un signo dinámico de correlación y de integración. Otros son los propios participantes, tales como: - Vinogradov: La estilística debe ser un estudio funcional e inmanente de las obras, pero no es disociable e los problemas de la historia y del cambio literario. - Además sugiere que el estilo de un artista lioterario podía y debía examinarse no sólo en términos "intrínsecos", sino también en relación con modos no poéticos del discurso: a) Contexto de las formas artísticas del lenguaje literario. b) El contexto de los sistemas lingüísticos sociales que pueden percibirse dentro del lenguaje hablado y escrito de las clases educadas. - Tynjanov: El concepto fundamental para el estudio de la evolución literaria es el de sustitución de sistema. Tanto la obra literaria como la literatura constituyen un sistema, es decir, un conjunto de entidades organizadas que mantienen entre sí relaciones de interdependencia y que se ordenan a la cosecución de una finalidad determinada: cada elemento entra en correlación con los demás elementos del mismo sistema y por consiguiente, con el sistema entero.

- Un hecho literario se define por su cualidad diferencial en relación con otros hechos de la serie literaria o series extraliterarias, es decir, se define por su función, y por tanto, para reconocer la naturaleza y la

http://www.monografias.com/trabajos15/todorov/todorov.shtml (8 of 17)25/05/2005 13:44:59

Page 48: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

función de un hecho literario se impone el conocimiento previo de la serie literaria y de las serie extraliterarias.

- La comprensión de una obra es imposible sin el conocimiento de la evolución y de la historia literaria. -Ejxenbaum, situado en el plano semántico, señala :" en el lenguaje poético, la palabra se traslada a una nueva atmósfera semántica, pues deja de ser comprendida en relación con la lengua general para ser entendida en relación con lalengua poética" [ o ¿discurso?]. -También formula el concepto de "Unidad Teleológica" como recursos articulados en un efecto estético. -Desarrolla además el término "Gestaltqualität como impacto en la verbosidad (sintaxis). Pues bien, como se logra apreciar ya, se sugiere, entonces, una nueva lectura de Todorov, especialmente en sus obras "Poética" y "Simbolismo e Interpretación"; en ambas, se hallan gran parte de los elementos esquematizados por el profesor Jofré en el Curso de Semiótica: Desde el "Signo al Lector" (2002) en dos de sus apuntes: TEORÍA DE LA RECEPCIÓN I y TEORÍA DE LA RECEPCIÓN II, los que se relacionarán, por ahora, sólo de modo general, puesto que el espacio necesario para este análisis ha de ser un mayor. VII.Todorov: una convergencia En POÉTICA:(Edición 1975, Editorial LOSADA S.A.. Bs. As.. Arg.) Todorov, también responde a la pregunta ¿Qué es el estructuralismo? Y lo hace desde la obra citada: "¿Qué es el estructuralismo?. En primer término lo hace a través de una "Nota sobre la presente edición" (1973): El siguiente texto difiere bastante del escrito en 1967, que figuraba con igual título en el volumen colectivo ¿Qué es el estructuralismo? Esto obedece a una doble razón: actualmente el campo de la poética ya no es lo era hace seis años, y yo mismo no siempre lo sigo enfocando de la misma manera. Pero un texto totalmente nuevo no podría integrarse ya a nuestro proyecto inicial. Por consiguiente, he reservado la intención general y el marco de la primera versión, así como cierto análisis y ejemplos, modificando sin embargo la exposición cada vez que fue necesario para dar cuenta del estado actual de la poética. Tzvetan Todorov. Mayo 1973. Tal vez, aún no es visible lo que se quiere plantear, pero en la misma se subrayar: …actualmente el campo de la poética ya no es lo que era hace seis años, y yo mismo no siempre lo sigo enfocando de la misma manera. Por lo tanto él, ya es post-estructural y a partir de la descontrucción del término "interpretación":

La interpretación - denominada también a veces exégesis, comentario, explicación del texto, lectura, análisis o incluso simplemente crítica (esta enumeración no significa que sea imposible distinguir o incluso contraponer algunos de estos términos) - se define, en el sentido que aquí le damos, por aquello a lo que apunta, que consiste en nombrar el sentido del texto examinado. Este objetivo determina de una sola vez, su ideal - que consiste en hacer hablar al texto mismo; con otras palabras: se trata de fidelidad al objeto, al otro. Y por consiguiente a la desaparición del sujeto [estructuralismo puro] - y su drama, que consiste en no poder alcanzar nunca el sentido sino únicamente un sentido, sometido a las contingencias históricas y psicológicas. Ideal y drama que se serán modulados a lo largo de toda la historia del comentario, la que a su vez es coextensiva a la historia de la humanidad. [recepcionismo, participación del sujeto histórico].[39]

Pero todo esto se ratifica más adelante…

En efecto: interpretar una obra, literaria o no, por sí misma, sin abandonarla ni por un instante, sin

http://www.monografias.com/trabajos15/todorov/todorov.shtml (9 of 17)25/05/2005 13:44:59

Page 49: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

proyectarla fuera de sí misma, esto en cierto sentido es imposible. O más bien: tal tarea es posible, pero en ese caso la descripción es una mera repetición, palabra por palabra, de la obra misma. Se apega tanto a las formas de la obra que ambas sólo forman una unidad. Y, en cierto sentido, toda obra constituye de por sí la mayor descripción de sí misma.[40]

Y termina (la descontrucción) de la siguiente manera:

Lo que más se aproxima a esta descripción ideal, pero invisible, es la simple lectura, en la medida en que ésta no es más que una manifestación de la obra. Sin embargo, el proceso de lectura no deja de implicar ya ciertas consecuencias: dos lecturas de un libro nunca son idénticas. Al leer se traza una lectura pasiva; se agrega y se suprime en el texto leído aquello que se quiere o no encontrar en él; desde el momento en que existe un lector, la lectura ya no es inmanente. ["Broche de oro" de la desconstrucción: desde que existe un lector la lectura ya no es inmanente.][41].

En SIMBOLISMO E INTERPRETACIÓN.

En primer lugar se debe rescatar el epígrafe o intertextotualidad que usa Todorov:

Es tan mortal para el espíritu tener un sistema como no tenerlo. Debe, por consiguiente, decidirse a reunir los dos. Friedrich Schlegel.

Y en segundo lugar, lo que el mismo dice al respecto ( de esta unión):

Yo quisiere plantear, en efecto, la solidaridad de lo simbólico y de la interpretación (…) los cuales, en mi opinión, no son más que dos vertientes, producción y recepción, de un mismo fenómeno. En consecuencia, pienso que su estudio aislado no es deseable, y ni siquiera posible. Un texto, o un discurso, se hace simbólico desde el momento en que, mediante un trabajo de interpretación, le descubrimos un sentido directo.[42]

Luego, más adelante se introduce de lleno en las posibilidades receptivas:

La producción y la recepción de los discursos originaron, en el pasado dos disciplinas diferentes: la retórica y la hermenéutica.[43]

Dos actividades que son bastante antiguas, pero que tuvieron que adaptarse, evoluvionando y especialmente a partir de los formalistas que removieron todo y que luego entre huída y refugio, tiende a las claridades evolutivas, tanto del productor como del receptor (realidades ya esbozadas en las secciones anteriores):

Mi exposición de divide en dos partes [dice Todorov], Simbolica del lenguaje y Estrategias de la interpretación (…) en función de dos niveles: el de la teoría general, que intenta dar cuenta de todas las posibilidades, y el de la estrategia particular, de producción o de recepción (aun cuando yo haga hincapié sobre todo en esta última).[44]

http://www.monografias.com/trabajos15/todorov/todorov.shtml (10 of 17)25/05/2005 13:44:59

Page 50: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Luego agrega:

El campo de lo interpretable siempre corre el riesgo de extenderse. En estas expansiones se justifican, en lo que concierne a la interpretación, por referencia a un marco ideológico y, respecto a la producción, por la sumisión a un género, que no es otra cosa (…) que un contrato establecido entre el autor y el lector y que determina precisamente el modo de lectura a seguir.[45]

A continuación se presentará unos esquemas, de modo general, del modelo de Todorov y mostrarán algunos de los rasgos o elementos formalistas, hermenéuticos y recepcionistas, que van desde la unión de análisis formal con otro histórico-recepcional, unión de métodos estructuralistas y hermenéuticos hasta intentos de una nueva estética y una nueva retórica basadas n el efecto (o desición de interpretar); al igual que los recepcionistas, por una parte la hermenéutica y por la otra lingúística y sociedad. Un verdadero "horizonte de expectativa": normas vigentes para los géneros en determinadas épocas [estructura], la relación implícita con otras obras literarias contemporáneas y la oposición entre ficción y realidad, entre función poética y práctica del lenguaje, la confrontación de la estructura del texto literario con los modos por los cuales éste puede ser concretizado; cuando el lector decide, éste reconoce implícitamente la calidad de inagotable que el texto posee; el texto remite a preconcepciones que se manifiestan en el acto de la interpretación y muchos otros.[46]

Esquemas:

Finalmente, a modo de conclusión de esta breve y no terminada investigación [la que queda abierta, tanto para el ensayista como para otros.]:

El texto es un todo autónomo, con límites precisables, pero al mismo tiempo es una obra abierta, en movimiento. Pueden distinguirse en el texto numerosos niveles: fonemáticos, sintácticos, semánticos, ideológicos, narrativos, culturales, identificables según y acorde a los códigos que se utilicen para su decodificación.

Esta nueva noción de texto y de lectura, vista como una conexión dinámica entre signos e indeterminaciones, como elementos que se articulan y desarticulan en un proceso de constante equilibrio inestable, se complementa con la idea según la cual el texto es activado mediante su puesta en relación con un sistema significante mayor, es decir, con un discurso consistente en un sistema mayor de textos jerárquica y dinámicamente organizado.[47]

CONCLUSIONES:

A. El estructuralismo desechó simultáneamente el objeto real y el sujeto humano. Este movimiento doble define el proyecto estructuralista. La obra ni se refiere a un objeto ni es expresión de un sujeto individual; ambos son descartados, y sólo queda entre ellos, en el aire que las separa, un sistema de reglas.

B. El estructuralismo no es una escuela ni siquiera un movimiento (al menos todavía no), pues la mayoría de los autores que suelen asociarse a ese término distan mucho de sentirse ligados entre sí por una solidaridad de doctrina o de combate. Apenas es un léxico: estructura es un término ya antiguo ( de

http://www.monografias.com/trabajos15/todorov/todorov.shtml (11 of 17)25/05/2005 13:44:59

Page 51: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

origen anatómico o gramático), hoy muy usado: todas las ciencias sociales recurren abundantemente a él, y el uso de la palabra no puede distinguir a nadie, a no ser que se polemice sobre el contenido que se le da; funciones, formas, signos y significaciones no son mucho más pertinentes.

B. La interpretación - denominada también a veces exégesis, comentario, explicación del texto, lectura, análisis o incluso simplemente crítica (esta enumeración no significa que sea imposible distinguir o incluso contraponer algunos de estos términos) - se define, en el sentido que aquí le damos, por aquello a lo que apunta, que consiste en nombrar el sentido del texto examinado. Este objetivo determina de una sola vez, su ideal - que consiste en hacer hablar al texto mismo; con otras palabras: se trata de fidelidad al objeto, al otro. Y por consiguiente a la desaparición del sujeto [estructuralismo puro] - y su drama, que consiste en no poder alcanzar nunca el sentido sino únicamente un sentido, sometido a las contingencias históricas y psicológicas. Ideal y drama que se serán modulados a lo largo de toda la historia del comentario, la que a su vez es coextensiva a la historia de la humanidad. [recepcionismo, participación del sujeto histórico].

B. El campo de lo interpretable siempre corre el riesgo de extenderse. En estas expansiones se justifican, en lo que concierne a la interpretación, por referencia a un marco ideológico y, respecto a la producción, por la sumisión a un género, que no es otra cosa (…) que un contrato establecido entre el autor y el lector y que determina precisamente el modo de lectura a seguir.

C. Un texto, o un discurso, se hace simbólico desde el momento en que, mediante un trabajo de interpretación, le descubrimos un sentido directo. En efecto, la solidaridad de lo simbólico y de la interpretación (…) los cuales, no son más que dos vertientes, producción y recepción, de un mismo fenómeno. En consecuencia, su estudio aislado no es deseable, y ni siquiera posible.

D. El texto es un todo autónomo, con límites precisables, pero al mismo tiempo es una obra abierta, en movimiento. Pueden distinguirse en el texto numerosos niveles: fonemáticos, sintácticos, semánticos, ideológicos, narrativos, culturales, identificables según y acorde a los códigos que se utilicen para su decodificación.

Esta nueva noción de texto y de lectura, vista como una conexión dinámica entre signos e indeterminaciones, como elementos que se articulan y desarticulan en un proceso de constante equilibrio inestable, se complementa con la idea según la cual el texto es activado mediante su puesta en relación con un sistema significante mayor, es decir, con un discurso consistente en un sistema mayor de textos jerárquica y dinámicamente organizado.

E. La lectura no puede ser sólo inmanencia, esta es la mirada de Todorov, quién, en su obra "Poética" y "Simbolismo e Interpretación" hace converger a la estructura y a la interpretación en un proceso lectural de la producción y de la recepción como una unidad solidaria entre ambos. PROYECCIONES: A. La lectura ha de ser siempre un recorrido dentro del espacio del texto; recorrido que no se ha de limitar, es decir, recorrer el texto siempre como espacio y no como linealidad. B. Todo círculo hermenéutico o receptivo no es equivalente a otro por lo tanto, también, ha de ser un espacio plural de las interpretaciones, y en la práctica cada uno sabe que no hay lecturas más fieles que otras, aun cuando ninguna lo es por completo.

http://www.monografias.com/trabajos15/todorov/todorov.shtml (12 of 17)25/05/2005 13:44:59

Page 52: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

BIBLIOGRAFÍA BÁSICA:

Todorov. 1975. Todorov, T. "¿Qué es el estructuralismo?. POÉTICA.". Editorial LOSADA S.A.. Arg. 1975. Todorov, T. "Simbolismo e Interpretación". Monte Ávila Editores. Segunda edición.1992.

Jofré,M. 1990. Jofré, Manuel. "Semiótica y Literatura. Historia de la Semiótica Actual." Editorial. Universitaria. 1990.

Mukarobsky, J."El estructuralismo en la estética y en la ciencia literaria" en Arte y Semiología, Madrid. Alberto corazón Editor. 1971

Mukarovsky, Jan. "La obra literaria como estructura". En Problemas de la Literatura. Valparaíso, Ed. Universitaria, año I, número I. 1972.

Iser, Wolgang. 1972. Iser, Wolgang. "El proceso de Lectura: Un enfoque Fenomenológico". Publicado en New Literary History, 3, 1972.

Jauss,Hans. 1970. Jauss, Hans. Historia de la Literatura como una Provocación a la Ciencia Literaria. Colección Suhrkamp. 1970.

BIBLIOGRAFÍA COMPLEMENTARIA:

Barthes, 1967 Ensayos Críticos,La Actividad Estructuralista. España.Editorial Seix Barral.1967.

Roland Barthes. Elemento de Semiología Alberto Corazón Editor.Madrid.1971.

La Aventura Semiológica Barcelona. Editorol Paidós Iberica, SA Segunda edición en Castellano.1993.

Terry Eagleton Una Introducción a la Teoría Literaria. México, Fondo de Cultura Económica, 1998.

Humberto Eco.Tratado de Semiótica General. Introducción; Hacia una Lógica de la cultura. Barcelona. Lumen, quinta edición. 2000.

Chomsky, 1990 Noam Chomsky. Estructuras Sintácticas. México. Siglo Veintiuno Editores, S.A. de CV. 10ª edición en Español. 1990.

Roberto Hozven. El Estructuralismo Literario Francés. Santiago de Chile. Editorial del Dpto de Estudios Humanísticos. Facultad de Cs. Físicas y Matemáticas.1979.

Roman Jakbson.El Marco del Lenguaje. Ojeada al Desarrollo de la Semiología.México.Fondo de Cultura Económica.1998.

http://www.monografias.com/trabajos15/todorov/todorov.shtml (13 of 17)25/05/2005 13:44:59

Page 53: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

López, Berta. Curso de pregrado."Teoría Literaria I". Apunte: "La Teoría de la Recepción".U.B.B, Chillán, 1991.

Mercè Rius.T.W.Adorno, del Sufrimiento a la Verdad.Barcelona.Editorial LAIA. 1985.

Ferdinad De Saussure. Curso De Lingüística General. Bueno Aires. Editorial Losada, S.A. 1945.

Thomas Sebeok. Signos: Una Introducción a La Semiótica.

*******************************************************************

[1] Esta introducción tiene la intención de mostrar una evolución de los elementos esenciales del estructuralismo formulado por Barthes en "La Actividad Estructuralista". Para una revisión historiográfica más completa es necesario revisar a Manuel Jofré: Teoría Literaria y Semiótica. Editorial Universitaria. Santiago de Chile.1990.

[2]Eco, Umberto. Tratado de Semiótica General. Introducción; Hacia una Lógica de la cultura. O5. Límites Naturales: Dos definiciones de Semiótica. Barcelona. Lumen, quinta edición.2000.

[3] Jofré, Manuel. Semiótica y Literatura. Historia de la Semiótica Actual. Edit. Universitaria. 1990.

[4] Mukarovsky, Jan. "El estructuralismo en la estética y en la ciencia literaria" en Arte y Semiología, Madrid. Alberto corazón Editor. 1971

[5] Mukarovsky, Jan. "La obra literaria como estructura" en Problemas de la Literatura. Valparaíso, Ed. Universitaria. 1972, año I, número I.

[6] Ibid.

[7] Ibid.

[8] Mukarovsky, Jan. "El arte como hecho semiológico" en Problemas de Literatura.1972. AñoI, Número I.

[9] Ibid.

[10] Mukarovsky, Jan: El estructuralismo en la estética y en la literatura", Opus cit.

[11] T.Todorov. Poética.

[12] Eagleton, Terry. Una introducción a la Teoría Literaria: III. Estructuralismo y Semiótica. F.C.E.Méx., 1998.

http://www.monografias.com/trabajos15/todorov/todorov.shtml (14 of 17)25/05/2005 13:44:59

Page 54: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

[13] Ibid.

[14] Ibid.

[15] Ibid.

[16] Ibid.

[17] Ibid.

[18] Ibid.

[19] Ibid.

[20] Barthes, Roland. Elementos de Semiología.Alberto Corazón Editor.Madrid. 1971.

[21] Ensayos Críticos. "La Actividad Estructuralista". Editorial Seix Barral.España. 1967.

[22] Ibid.

[23] Ibid,

[24] Ibid.

[25] Eagleton. Opus cit.

[26] Todorov.T. Simbolismo e Interpretación. Monte Ávila Editores, 1982.

[27] Ibid.

[28] López, Berta. Curso de pregrado. "Teoría Literaria I": Apunte: "La Teoría de la Recepción. U.B.B, Chillán, 1991.

[29] Ibid.

[30] Mukarovsky, Opus cit.

[31] López, Opus cit.

[32] Jofré. Opus cit. 9. Estética de la recepción y fenomenologóa de la lectura: 7. La lectura como Decodificación e Interpretación.

http://www.monografias.com/trabajos15/todorov/todorov.shtml (15 of 17)25/05/2005 13:44:59

Page 55: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

[33] López. Opus cit

[34] Ibid.

[35] Ibid.

[36] Jofré.Opus cit: 3. Historia Literaria posestructuralista: 4 El Formalismo Posestructuralista.

[37] Ibid.

[38] Opus cit: 9. Estética de la recepción y fenomenología de la lectura: 9. Lectura, Semiósis y Paradigma.

[39] Todorov, T. "¿Qué es el estructuralismo?. POÉTICA.". Editorial LOSADA S.A.. Arg. 1975.

[40] Ibid.

[41] Ibid.

[42] Todorov, T. Simbolismo e Interpretación. Monte Ávila Editores. Segunda edición.1992.

[43] Ibid.

[44] Ibid.

[45] Ibid.

[46] Aquí se recogen, sucintamente, las lecturas recepcionistas: Ingarden, Iser, por ejemplo. No obstante estas lecturas han sido parte fundamental y complementaria.

[47] Jofré, M. Opus cit.

JORGE ROSAS GODOY

[email protected]

Volver al inicio | Volver arriba

http://www.monografias.com/trabajos15/todorov/todorov.shtml (16 of 17)25/05/2005 13:44:59

Page 56: QUIMICA - Monografias

Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos15/todorov/todorov.shtml (17 of 17)25/05/2005 13:44:59

Page 57: QUIMICA - Monografias

Concepto de Temperamento y Carácter - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Concepto de Temperamento y Carácter

Indice 1. Introducción 2. Escuela constitucionalista Italiana

1. Introducción

El carácter es una tendencia hacia un tipo de comportamiento que manifiesta el individuo. Todos los elementos que integran el carácter se organizan en una unidad que se conoce como estabilidad y proporciona al carácter coherencia y cierto grado de uniformidad en sus manifestaciones, con los cambios lógicos que ocurren a lo largo de la vida.

Elemento psíquico del carácter: En él intervienen principalmente las funciones psíquicas, así como la acción del ambiente. A partir de esos elementos se desarrollan los factores individuales, que conforman el particular modo de reaccionar y enfrentar la vida que presenta una persona.

Elemento orgánico del carácter: Existe una relación indispensable entre cuerpo y mente; el carácter posee también una base biológica que depende de elementos orgánicos como la constitución física y el temperamento.

El temperamento: El temperamento es la base biológica del carácter y esta determinado por los proceso fisiológicos y factores genéticos que inciden en las manifestaciones conductuales.

http://www.monografias.com/trabajos10/teca/teca.shtml (1 of 3)25/05/2005 13:45:17

Page 58: QUIMICA - Monografias

Concepto de Temperamento y Carácter - Monografias.com

Evolución a la biotipologia: A través del estudio de las características morfológicas pretende establecer relaciones entre tipos de temperamento y constitución somática. Se trata de asociar las características de una estructura física determinada, con características temperamentales específicas.

Temperamento sanguíneo: Corresponde al predominio de la sangre: físicamente son individuos de estatura inferior a la media, buena musculatura, figura proporcionada. En sus manifestaciones de carácter presenta tendencia a la irreflexión, es sociable, poco tenaz y persistente.

Temperamento melancólico: Predomina en él lo que Hipócrates llamaba la "bilis negra", se conoce también como tipo nervioso. Físicamente es delgado, de estatura normal o superior a la media, con tendencia a la palidez.

Temperamento colérico: Predomina en su organismo la "bilis amarilla". De estatura normal o superior a la media; la piel presenta un tono amarillento.

Temperamento flemático: Físicamente tienen tendencia a la obesidad, aunque pueden existir tipos delgados.

2. Escuela constitucionalista Italiana

De Giovanni: estableció los conceptos de normotipo y ectipo. El normotipo determina ciertas proporciones que el organismo debe presentar para corresponder a un tipo definido; el ectipo se observa cuando el sujeto presenta dimensiones corporales en mayor o menor proporción que las fijadas para un tipo somático. El normotipo debía presentar ciertas proporciones somáticas, como la longitud abarcada por los brazos abiertos debe ser igual a la estatura y circunferencia torácica igual a la mitad de la estatura, además de otras medidas mas complejas. Nicolás Pende: defino el biotipo como la resultante morfológica, fisiológica y psicológica, variable de un individuo a otro, de las propiedades celulares y humorales del organismo.

Tipología de Ernst Kretschmer: En forma simultánea a las aportaciones de la escuela italiana, en Alemania Kretshmer desarrollaba una clasificación de tipos somáticos con la que intentó relacionar una estructura corporal determinada y las tendencias psicológicas correspondientes. Los tipos de propuestos por Kretshmer son el picnico, el atlético y el leptosomatico.

Los tipos psíquicos propuestos por Kretshmer Como se indico, cuando Kretshmer establece a clasificación de tipos psíquicos se basa en algunos rasgos de enfermedades mentales. En el desarrollo embrionario, el sistema digestivo se origina del endodermo; el sistema nervioso y los órganos sensoriales del ectodermo y el sistema muscular y óseo del mesodermo. Basándose en esos

http://www.monografias.com/trabajos10/teca/teca.shtml (2 of 3)25/05/2005 13:45:17

Page 59: QUIMICA - Monografias

Concepto de Temperamento y Carácter - Monografias.com

principios, Sheldon y su colaborador Stevens, establecen la siguiente clasificación:

❍ El endomorfo ❍ El ectomorfo ❍ El mesomorfo

Trabajo enviado por: Jorge Romeo Gaitán Rivera [email protected] Universidad Francisco Marroquín Ingeniería en Electrónica Guatemala, Guatemala

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos10/teca/teca.shtml (3 of 3)25/05/2005 13:45:17

Page 60: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Adolescencia y modelos de identificación en la globalizacion y el fin de siglo

1- Globalización y Fin de siglo.

2- Adolescentes. Los unos y los otros.

3- Modelos de identificación. Identidad y consumo.

4- Consumación o consumo.

1- Globalización y Fin de siglo.

Las nuevas tecnologías, la reorganización mundial del mercado de trabajo, también llamada globalización, afecta a todas las relaciones sociales involucradas y no solamente a las económicas; tanto a aquellas comprometidas en forma directa en la producción, distribución y comercialización de los bienes, como las comprendidas en las estructuras del consumo. Y, en esta dimensión particular, vienen a desplegarse nuevos universos simbólicos con el advenimiento de una comunidad transnacional de consumidores.

Según García Canclini, más allá de la modalidad de incorporación a la globalización de cada Estado-

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (1 of 9)25/05/2005 13:45:33

Page 61: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

Nación, se obliga a una revisión de la escena sociocultural que, entre otras, incluye:

i) la reelaboración de lo "propio", "debido al predominio de los bienes y mensajes procedentes de una economía y una cultura globalizadas sobre los generados en la ciudad y la nación a las que se pertenece";

ii) la redefinición del sentido de pertenencia e identidad, "organizado cada vez menos por lealtades locales o nacionales y más por la participación en comunidades transnacionales o desterritorializadas de consumidores" (los jóvenes en torno del rock, la MTV, etc.);

En otras palabras, y según el mismo autor, si las identidades modernas eran territoriales y monolingüísticas, las identidades posmodernas son transterritoriales y multilingüísticas. En consecuencia, la identidad como acto de apropiación simbólica, abandona el domino territorial para situarse en la dimensión del consumo.

En este marco, los medios de comunicación audiovisual son las nuevas megaestrellas, en matrimonio con la publicidad, el estímulo al consumo, a las marcas, a los emblemas. Pensemos en las horas de TV que consumen los niños y los adolescentes y advertiremos que esta se ha convertido en una principal fuente de experiencias e información para organizar su mundo.

No puede faltar en el análisis de época, la clave posmoderna, expresada en la caída de los grandes relatos, que organizaban la racionalidad histórica moderna alrededor de proyectos políticos generacionales que eran marcas de época y aportaban una visión de totalidad dadora de sentido a cada experiencia particular. Hoy, en todo caso, el único gran relato que permanece parece ser el del mercado -y si es global mejor- y este hecho alienta una gran insuficiencia, ya que, entre otras cosas, en el mercado no estan todos, y, entre los que estan, suele haber una fuerte desigualdad. Si somos iguales en tanto ciudadanos -un hombre, un voto-, no lo somos en tanto consumidores. El viejo reino de la libertad frente al reino de la necesidad.

Se presenta de su mano, una crisis que muchos afirman de época, manifestada en la pérdida de peso de valores e ideales (el pensamiento débil, el relativismo cultural, más prosaicamente el doble discurso), signos de violencia crecientes, un descreimiento colectivo en la justicia de los hombres, un adelgazamiento de la perspectiva solidaria, un consumismo exacerbado como razón social hegemónica, el incentivo a la satisfacción inmediata y la cultura de vivir el momento junto a la escasez de oportunidades sociolaborales. Un sentimiento de escepticismo generalizado revela un clima de época para el que el estado de las cosas no puede ser transformado positivamente.

En definitiva, un tiempo en el que se promueve incesantemente los valores del mercado, como competencia -en este caso individual-, productividad y pragmatismo, mientras se dejan de lado o minimizan otros, de perfil social o comunitario. Al mismo tiempo, se desdeña el compromiso personal con los otros, por modelos de vida más superficiales o "light".

Esta situación, orienta hacia la instrumentalización de la vida, hacia un mundo de valores definido por la

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (2 of 9)25/05/2005 13:45:33

Page 62: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

"utilidad" y "practicidad" de los bienes, ya sean materiales o simbólicos, culturales. Así, los "bienes culturales" pasan por un tamiz ideológico -la ideología mercadista- que los convierte en "bienes de mercado", generándose una "industria cultural" que pierde autonomía respecto al orden de la producción o, en el mejor de los casos, se reconstruye bajo otro concepto. En este sentido, el "paradigma eficientista", pasa a ser el valor dominante por el que se miden todas las cosas.

Así, finalmente, las personas terminan pudiéndose clasificar en dos categorías básicas: los ganadores, los que existen, y los perdedores, los que "no existen". Pero en estos términos, la mayoría no puede quedar sino del lado de los perdedores, que ya dijimos, "no existen".

En este marco, nuestros adolescentes y jóvenes aparecen como más prácticos de lo que fueron sus padres, es decir, no desdeñan un ideal, pero se preguntan por su efectividad, sin ser cínicos. La incertidumbre laboral, profesional, cómo obtener un empleo y conservarlo, pasa a ser una preocupación que carecía de tal entidad para la generación de sus padres o de sus hermanos mayores. La realidad a llevado a estos jóvenes a tener menos vocación para intentar cambiar el mundo que para luchar por integrarse a él. Son, el joven de clase media en dificultades y el joven "fogonero" que corta una ruta en Neuquén para pedir por un empleo de 200$ por mes y duración incierta.

Sin embargo, si actualmente la mayoría de los jóvenes manifiesta un menor interés por los temas públicos, no debe concluirse de ello que no experimenten disconformidad, sino que ésta se expresa de otra manera; el rock es un buen ejemplo de ello.

2- Adolescentes. Los unos y los otros.

Tradicionalmente, al pensar en adolescentes, los imaginamos de entre 14 y 18 años, más o menos, con una serie de rasgos, que, si no prototípicos, los definirían por agregación de características comunes. Entre ellas: el proceso de construcción de una identidad personal, autónoma; la importancia otorgada al grupo de pares; el despliegue gradual de una sexualidad madura; el logro de una intelictividad abstracta; la perspectiva omnipresente de los ideales.

Sin embargo, los rasgos tradicionales hoy no alcanzan para nombrarlos en la novedad de una sociedad que se "juveniliza", deificando lo "joven" con un sentido per se, -ya veremos vacuo y falso a la hora de las resoluciones-; y que extiende los límites de la antes llamada fase juvenil, desestructurándola hacia arriba y abajo. Hacia arriba, por efecto de la cada vez mayor exigencia de acreditaciones y certificaciones educativas y, a su lado, por las dificultades de insertarse laboralmente o, al menos, de hacerlo con cierta estabilidad en el mercado de trabajo -del que se entra y se sale inopinadamente-, lo que da lugar a una mayor franja de parados adultos jóvenes. Y hacia abajo, desde que la base nutricional produjo en este siglo un adelanto cronológico verificable en el desarrollo físico de los individuos, hasta lo sociocultural, en las que se presentan tempranamente demandas antes demoradas en el tiempo.

Por otra parte, junto a la afirmación de que se extienden la adolescencia y la juventud, debemos reconocer, que, al mismo tiempo, las distancias entre muchos quienes comparten una edad cronológica parecen convertirse en brechas, materiales y socioculturales, ampliando diferencias en una talla creciente. En términos demográficos, hablaríamos de una población de 2.964.623 personas entre 14 y 18

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (3 of 9)25/05/2005 13:45:33

Page 63: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

años, lo que representa el 9% del total del país, según el Censo Nacional de Población y Vivienda 1991. Pero ningún agregado de cifras globales debe ocultar las importantes disparidades existentes entre adolescentes de distintas regiones en lo que se refiere a conformación de la Población Económicamente Activa (PEA), cobertura de salud, condición de alfabetismo, situación socioeconómica y fragmentación cultural. Tomando en cuenta el Índice de Desarrollo Humano (IDC), alguna de nuestras provincias tiene un índice cercano al de Luxemburgo o Israel y otras, al de Irak o Jordania, para ilustrar las diferencias. Nuestra adolescencia y nuestra juventud está lejos de ser un sector social homogéneo estructuralmente. A lo que debe agregársele la enorme segmentación cultural existente.

En definitiva, en el amplio abanico de quienes discurren por estas edades, los hay semejantes y los hay casi irreconocibles en una suerte de taxonomía que se complejiza.

Veamos, entonces, un aspecto de la realidad relativo al sector de los adolescentes pobres.

Adolescentes de 13 a 17 años que NO ESTUDIAN NI TRABAJAN. Áreas Urbanas (GBA).

Año

Incidencia en porcentaje Incidencia en la población

En el total de

Adolescentes pobres En el total de

Adolescentes pobres

adolesc. Pobres con NBI sin NBI adolesc. Pobres con NBI sin NBI

1990

12,7 20,4 25,0 16,3 120.700 48.400 27.600 20.800

1994

14,2 29,2 36,6 20,1 147.700 51.800 35.700 16.100

Fuente: CEPAL, 1996.

Puede observarse que, entre 1990 y 1994, la tendencia del conjunto de adolescentes que ni trabajan ni estudian ya era creciente, si bien la diferencia crecía sólo un 1,5%. Debe advertirse, sin embargo, que hablamos del período pretequila, es decir, cuando los grandes números de la economía eran bien estimados. Hablamos de una tendencia precrisis económica.

Ahora bien, puede verse que la situación se afecta gravemente cuando consideramos, ya no el total de los adolescentes, sino al sector de los adolescentes pobres. En este caso, se observa un incremento de 9

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (4 of 9)25/05/2005 13:45:33

Page 64: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

puntos en el período considerado, ascendiendo al 29,2% en 1994. Si, por su parte, enfocamos la mirada en los jóvenes pobres con NBI, la situación aún se agrava más. Allí, el incremento es de 11,6 puntos, llegando al 36,6% en 1994.

Sabemos, además, por un paper del Ministerio de Economía difundido recientemente, que en este sector de adolescentes que pertenecen a familias pobres, la escuela es abandonada por el 48% de los alumnos, cuya edad oscila entre los 14 y 19 años.

¿De qué adolescencia hablamos, en estos casos?

¿Qué futuro les proponemos a estos adolescentes?

3- Modelos de identificación. Identidad y consumo.

Las nuevas tecnologías reorganizan la sociedad. Y lo hacen vertiginosamente. La influencia de los medios de comunicación audiovisuales es enorme. De un modo inédito, imponen una presencia avasalladora frente a las dinámicas de ayer. En cada acto, aparece el mensaje. Investirse de una marca, de una imagen, permite cierto reaseguro, da una ubicación, un lugar, una posición desde la cual mirar, mirarse y ser mirado.

Y, junto al advenimiento masivo de las pantallas, se privilegia una nueva arquitectura de modelos, que, por definición, deben dar bien, o sea, tener buena imagen. Modelarse una buena imagen, virtual casi, evanescente, ocupa el lecho de la identidad. Y, en esta movida, de paso, se adjudica el status de "objeto".

Aparecen en esta época nuevas exigencias sociales: la belleza corporal, el cuidado del cuerpo, la moda de la exhibición. En esta película en donde la persona queda reducida a su aparecer físico, es decir, no integral, serán habituales las dificultades para establecer vínculos satisfactorios, o sea, integros y plenos. Tal la presencia omnipotente de la dimensión narcísica, que el otro se reduce en su aparición a la necesidad de confirmar nuestra imagen.

No en vano, y no es juego de palabras, las modelos se han convertido en modelos de identificación para muchas adolescentes. Valeria Mazza, Déborah Del Corral, Dolores Barreiro, son modelos "modelos". Incluso se ha visto por allí, en el límite del buen gusto, un afiche publicitario de una nueva cerveza cuyo nombre es "Modelo" y cuya imagen es una niña de unos 12 años vestida para matar. Casi paradigmáticamente, aquí se dan cita en forma concurrente: la imagen, el consumo, la adolescente, el desafío del sexo próximo. Deberíamos agradecer algo tan obvio.

Pero volviendo al tema de la imagen y el cuerpo, no podemos ignorar la creciente presencia de síntomas de bulimia y/o anorexia en las jóvenes (también varones). Los trastornos en la alimentación que se hacen fuertes en una época en que se introyectan demandas poco racionales de delgadez que hasta llegan a comprometer la vida de famosas modelos, como pudimos ver el año que pasó. Claramente, no olvidamos no singularidad de cada sujeto, pero afirmamos que las características de cada sociedad, de cada tiempo,

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (5 of 9)25/05/2005 13:45:33

Page 65: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

poseen la fuerza necesaria para sesgar las neurosis, bañando los aparatos psíquicos con significados y sentidos epocales. No hay patologías sin historia del sujeto, pero tampoco sin historia social.

Insistimos, nuevos valores, o si esta palabra queda grande, nuevos demandas sociales: tener un cuerpo bien trabajado, ser fuertes, bellos, poderosos. El énfasis puesto en triunfar y en ser exitoso. Claro que para muchos, si se trata de ganar, poco importan los medios y hasta el otro se convierte en un medio, se lo instrumentaliza. Hace un par de años se vio una publicidad en que un padre le decía a su hijo que no debía verlo perder y el año último, surgió la polémica por la campaña de Nike, que traía estos consejos: "Trata a tu enemigo con respeto. Aplástalo rápidamente" y "Nunca son suficientes los clavos que puedas poner en el ataúd de tu enemigo".

Y así y todo, si se los consulta, los jóvenes afirman no tener modelos, ya que no saben en qué y quién creer. Ya Kornblit, en un trabajo realizado con adolescentes de la Ciudad de Buenos Aires y del Gran Buenos Aires en 1988, se encontró con que la mitad de los adolescentes de la muestra estudiada (300 casos) deshechaban como modelo de identificación a los adultos pertenecientes a sus ámbitos cotidianos inmediatos, mostrando un nivel de escepticismo y de falta de credibilidad entonces alarmente. En consonancia con aquel estudio, en 1989, en una encuesta realizada por la Comisión Nacional de la Pastoral de Juventud, entre jóvenes de 16 a 28 años, frente a la pregunta sobre "modelo a imitar", 305 encuestados no respondieron a la misma, cifra equivalente al 26% de los encuestados, lo que llama poderosamente la atención por lo preciso y poco vago de la pregunta. Además, el 8% expresaba en forma explícita no "tener modelos a imitar". Sabemos que esta situación no ha mutado en lo sustancial, todo lo contrario.

Y, ante este panorama, los adolescentes se repliegan en la familia, en la que dice creer la mayoría, frente al descreimiento masivo en las instituciones (iglesia -la de mejor pobre imagen-, partidos políticos, sindicatos, justicia, legisladores, fuerzas armadas y, obviamente, la policía). Cuando lo joven es tomado por la sociedad como modelo de deseo, los jóvenes tienen dificultades en hallar modelos.

En efecto, podemos afirmar que en este fin de milenio, los adolescentes enfrentan un período histórico crecientemente conflictivo en el que integrarse creativa y constructivamente a la sociedad, lugar que se les exige pero que no se les facilita. En donde, ante la ausencia de externidades valorativas se estimula a la "juventud" como valor en sí mismo, dimensión narcisista que da de bruces ante los hechos, mostrando su raíz ilusoria, alimentando frustraciones y generando un sentimiento de inseguridad ante las crecientes dificultades de inserción.

4- Consumación o consumo.

Finalmente, entramos de lleno en el fenómeno del consumismo. De los ciudadanos como modelos de consumidores.

Retomando a García Canclini, anotamos que, cada vez más, participamos en una "socialidad" construida predominantemente en procesos de consumo. Una participación segmentada que se vuelve "el principal procedimiento de identificación". Como señala este autor, el consumo es "un conjunto de procesos socioculturales en que se realizan la apropiación y los usos de los productos" y en el que se construye

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (6 of 9)25/05/2005 13:45:33

Page 66: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

buena parte de la "racionalidad integrativa y comunicativa de una sociedad".

Y, entre la creciente fragmentación y segmentación social, vemos aparecer nuevos códigos de intercambio, ahora globalizados.

¿Cómo podrían los jóvenes resistir -deberían?- a una propuesta que ni es siquiera enunciada como tal, sino la propia forma histórica de presentarse la sociedad misma?

Dícese, "la sociedad es de consumo".

La diferencia, una al menos, entre los jóvenes y los adultos comprometidos en la vorágine consumista, es que, mientras los unos ya maduros articulan sus identidades deslizándose en el consumo, los otros, en pleno desarrollo de sus capacidades, parecieran destinados a constituir su identidad en torno a aquel. Consumir, incorporar, es un hecho egoísta por definición.

Se nos estimula a la posesión, como valor, también como signo de éxito. Y se supone que tal consumo, nos hará exitosos, libres y felices, ¿acaso no nos lo dice a toda hora la publicidad?

Ahora bien, ¿qué hay si no podemos acceder a tal consumo?; ¿Qué de los muchos que no pueden acceder al consumo deseado?; ¿Qué del malestar, de la frustración, de la violencia?

Así volvemos a los otros adolescentes. A los unos y los otros.

A nuestro juicio, si verdaderamente algo de la identidad misma esta en juego, no podrá sencillamente abandonarse la in-tensión al consumo, ya que no se trata cándidamente de un tercero exterior al ser, de un otro objeto, sino que hay algo del sujeto en juego. De allí, que no debe extrañarnos un consumo compulsivo. La fórmula de las adicciones. Tampoco las violencias para apropiación simbólica o material. De poderosos y famosos, de profesionales, de los pobres. Del turismo sexual a la violencia familiar. Una campera, una vida. Todo se consume, no se ve el negocio.

Aún más, los diferentes consumos se consumen velozmente, mientras la publicidad empuja hacia la novedad. Y hay que restablecer, de constante, el flujo del consumir.

Finalmente, no todo es consumible en forma equivalente, claro. La sociedad de consumo, sigue siendo una sociedad de las diferencias y las jerarquías. Cada bien, cada objeto, trae sus señas de identidad, ofrece sus rasgos a la identificación. Las nuevas identidades se integrarán diferencialmente al consumo, de un modo u otro. Aún en su no acceso.

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (7 of 9)25/05/2005 13:45:33

Page 67: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

BIBLIOGRAFÍA

ARGENTINA. MINISTERIO DE ECONOMÍA Y OBRAS Y SERVICIOS PÚBLICOS; INSTITUTO NACIONAL DE ESTADÍSTICAS Y CENSOS (INDEC); (1993). Censo Nacional de Población y Vivienda 1991. Buenos Aires, 1991.

ARGENTINA. MINISTERIO DE ECONOMÍA Y OBRAS Y SERVICIOS PÚBLICOS; (1996). Documento de Trabajo Nº 13/96. Buenos Aires, 1996.

ARGENTINA. SENADO DE LA NACIÓN; (1996). Informe Argentino sobre Desarrollo Humano 1996. Programa Argentino de Desarrollo Humano. PNUD/Comisión de Ecología y Desarrollo Humano. 1996.

BARBEITO, Alberto y LO VUOLO Rubén; (1993). Informe sobre Desarrollo Humano en Argentina. Documentos de Trabajo Nº 10. CIEPP. 1993.

CEPAL (COMISION ECONÓMICA PARA AMÉRICA LATINA Y EL CARIBE); (1996). Panorama Social de América Latina 1996. Santiago de Chile. 1996.

COMISIÓN NACIONAL DE LA PASTORAL DE JUVENTUD; (1989). Encuesta Nacional de los Jóvenes para los Jóvenes. Informe Nacional. Buenos Aires. Abril de 1989.

GARCÍA CANCLINI, Néstor; (1995). Consumidores y Ciudadanos. Conflictos multiculturales de la globalización. Ed. Grijalbo. 1995.

KORNBLIT, Ana Lía, et al; (1989). Estudios sobre Drogadicción Argentina. Ed. Nueva Visión. Buenos Aires, 1989.

II Congreso Iberoamericano de Psicología Social

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (8 of 9)25/05/2005 13:45:33

Page 68: QUIMICA - Monografias

Adolescencia y modelos de identificación - Monografias.com

VII Congreso Argentino de Psicología Social y Política

Buenos Aires, 7 al 10 de mayo de 1997

Universidad Argentina John F. Kennedy

Mayo de 1997

Sergio Alejandro Balardini

Facultad Latinoamericana de Ciencias Sociales (FLACSO) - Sede Argentina

Proyecto Juventud

Trabajo enviado por:

Sergio Alejandro Balardini

[email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (9 of 9)25/05/2005 13:45:33

Page 69: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Diseños experimentales de investigación; preexperimentos, experimentos "verdaderos" y cuasiexperimentos

Indice 1. ¿Qué es un diseño de investigación? 2. ¿Qué es un experimento? 3. ¿Cómo se logra el control y la validez interna? 4. Preexperimentos 5. ¿Qué es la validez externa? 6. ¿Qué tipo de estudio son los experimentos?

1. ¿Qué es un diseño de investigación?

Una vez definido el tipo de estudio a realizar y establecer las hipótesis de investigación, el investigador debe concebir la manera práctica y concreta de responder a las preguntas de investigación. Esto implica seleccionar o desarrollar un diseño de investigación y aplicarlo al contexto particular de su estudio. Diseño se refiere al plan o estrategia concebida para responder a las preguntas de investigación. El diseño señala al investigador lo que debe hacer para alcanzar sus objetivos de estudio, contestar las interrogantes que se ha planteado y analizar la certeza de las hipótesis formuladas en un contexto en particular. Si el diseño está concebido, el producto final de un estudio tendrá mayores posibilidades de ser válido. No es lo mismo seleccionar un tipo de diseño que otro; cada uno tiene sus características propias. La precisión de la información obtenida puede variar en función del diseño o estrategia elegida.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (1 of 12)25/05/2005 13:45:48

Page 70: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

¿De qué tipos de diseños disponemos para investigar el comportamnento humano? Los autores de este libro no consideran que un tipo de investigación sea mejor que otro (experimental versus no experimental). "Los dos tipos de investigación son relevantes y necesarios, tienen un valor propio y ambos deben llevarse a cabo". La elección sobre qué clase de investigación y diseño específico debemos seleccionar, depende de los objetivos trazados, las preguntas planteadas, el tipo de estudio a realizar (exploratorio, descriptivo, correlacional o explicativo) y las hipótesis formuladas.

2. ¿Qué es un experimento?

Experimento, tiene dos acepciones, una general y una particular. La regla general se refiere a "tomar una acción" y después observar las consecuencias. Se requiere la manipulación intencional de una acción para analizar sus posible efectos y la aceptación particular (sentido científico). "Un estudio de investigación en el que se manipulan deliberadamente una o más variables independientes (supuestas efectos), dentro de una situación de control para el investigador".

¿Cuál es el primer requsito de un experimento puro? El primer requisito es la manipulación intencional de una o más variables independientes. La variable independiente es considerada como supuesta causa en una relación entre variables; es la condición antecedente, y al efecto provocado por dicha causa se le denomina variable dependiente (consecuente). El investigador no puede incluir en su estudio a dos o más variables independientes. Un experimento se lleva a cabo para analizar si una o más variables independientes afectan a una o más variables dependientes y por qué lo hacen. En un auténtico experimento, la variable independiente resulta de interés para el investigador por ser la variable que se hipotetiza, que será una de las causas que producen el efecto supuesto. Para obtener respuesta de esta relación causal supuesta, el investigador manipula la variable independiente y observa si la dependiente varía o no. Manipular es hacer variar o dar distintos valores a la variable independiente. La variable dependiente se mide La variable dependiente no se manipula, sino que se mide para ver el efecto de que la manipulación de la variable independiente tienes de ella.

Grados de manipulación de la variable independiente La manipulación o variación de una variable independiente puede realizarse en dos o más grados. El nivel mínimo de manipulación es dos: presencia-ausencia de la variable independiente. Cada nivel o grado de manipulación implica un grupo en el experimento.

Presencia-ausencia Implica un grupo a la presencia de la variable independiente y otro no. Luego los dos grupos son comparados para ver si el grupo que fue expuesto a la variable independiente difiere del grupo que no fue expuesto. Al primer grupo se le conoce como "grupo experimental" y al segundo se le denomina "grupo de control". A la presencia de la variable independiente se le llama "tratamiento experimental" o "estímulo experimental". En general, en un experimento puede afirmarse lo siguiente: si en ambos grupos todo fue "igual" menos la exposición a la variable independiente, es muy razonable pensar que las diferencias entre los grupos se deban a la presencia-ausencia de la variable independiente.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (2 of 12)25/05/2005 13:45:48

Page 71: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

Más de dos grados Se puede hacer variar o manipular la variable independiente en cantidades o grados. Manipular la variable independiente en varios niveles tiene la ventaja de que no sólo se puede determinar si la presencia de la variable independiente o tratamiento experimental tiene un efecto, sino también si distintos niveles de la variable independiente se producen diferentes efectos. Es decir, si la magnitud del efecto (Y) depende de la intensidad del estímulo (X1, X2, X3, etcétera). Debe haber al menos dos niveles de variación y ambos tendrán que diferir entre sí. Cuantos más niveles mayor información, pero el experimento se va complicando: cada nivel adicional implica un grupo más.

Modalidades de manipulación en lugar de grados La variación es provocada por categorías distintas de la variable independiente que no implican en sí cantidades. En ocasiones, la manipulación de la variable independiente conlleva una combinación de cantidades y modalidades de ésta. Finalmente, es necesario insistir que cada nivel o modalidad implica, al menos, un grupo. Si tiene tres niveles (grados) o modalidades, se tendrán tres grupos como mínimo.

¿Cómo se define la manera en que se manipularán las variables independientes? Al manipular una variable independiente es necesario especificar qué se va a entender por esa variable en el experimento. Es decir, trasladar el concepto teórico a un estímulo experimental en una serie de operaciones y actividades concretas a realizar.

Guía para sortear dificultades Para definir cómo se va a manipular una variable es necesario:

1. Consultar experimentos antecedentes para ver si en éstos resultó la forma de manipular la variable. Es imprescindible analizar si la manipulación de esos experimentos pueden aplicarse al contexto específico del nuestro cómo pueden ser extrapoladas a nuestra situación experimental.

2. Evaluar la manipulación antes de que conduzca el experimento. Hay varas preguntas para evaluar su manipulación : ¿las variables experimentales representan la variable conceptual que se tiene en mente?, ¿los deferentes niveles de variación de la variable independiente harán que los sujetos se comporten diferente? Si la manipulación es errónea puede pasar que: 1. el experimento no sirva para nada; 2. vivamos en el error; y 3. tengamos resultados que no nos interesan.

Si la presencia de la variable independiente en el o los grupos experimentales es débil probablemente no se encontrarán efectos, pero no porque no pueda haberlos.

3. Incluir verificaciones para la manipulación. Cuando se utilizan seres humanos hay varias formas de verificar si realmente funcionó la manipulación. La primera es entrevistar a los sujetos. Una segunda forma es incluir mediciones relativas a la manipulación durante el experimento.

¿Cuál es el segundo requisito de un experimento "puro"? El segundo requisito es medir el efecto que la variable independiente tiene en la variable dependiente. Esto es igualmente importante y como en la variable dependiente se observa el efecto, la medición debe ser válida y confiable. Si no podemos asegurar que se midió adecuadamente, los resultados no servirán.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (3 of 12)25/05/2005 13:45:48

Page 72: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

En la planeación de un experimento se debe precisar cómo se van a manipular las variables independientes y cómo a medir las dependientes.

¿Cuántas variables independientes y dependientes deben incluirse en un experimento? No hay reglas para ello; depende de cómo haya sido planteado el problema de investigación y las limitaciones que haya. Claro está que, conforme se aumenta el número de variables independientes, aumentan las manipulaciones que deben hacerse y el número de grupos requeridos para el experimento. Y entraría en juego el segundo factor mencionado (limitantes). Por otra parte, podría decidir en cada caso (con una, dos, tres o más variables independientes) medir más de una variable dependiente para ver el efecto de las independientes en distintas variables. Al aumentar las variables dependientes, no tienen que aumentarse grupos, porque estas variables no se manipulan. Lo que aumenta es el tamaño de la medición (cuestionarios con más preguntas, mayor número de observaciones, entrevistas más largas, etcétera) porque hay más variables que medir.

¿Cuál es el tercer requisito de un experimento "puro"? El tercer requisito que todo experimento "verdadero" debe cumplir es el control o validez interna de la situación experimental. El término "control" tiene diversas connotaciones dentro de la experimentación. Sin embargo, su acepción más común es que, si en el experimento se observa que una o más variables independientes hacen variar a las dependientes, la variación de estas últimas se deba a la manipulación y no a otros factores o causas; si se observa que una o más independientes no tienen efecto sobre las dependientes, se pueda estar seguro de ello. En términos coloquiales, "control" significa saber qué está ocurriendo realmente con la relación entre las variables independientes y las dependientes. Cuando hay control podemos conocer la relación causal. En la estrategia de la investigación experimental, "el investigador no manipula una variable sólo para comprobar lo que le ocurre con al otra, sino que al efectuar un experimento es necesario realizar una observación controlada". Lograr "control" en un experimento es controlar la influencia de otras variables extrañas en las variables dependientes, para que así podamos saber realmente si las variables independientes tienen o no efecto en la dependientes.

Fuentes de validación interna Existen diversos factores o fuentes que pueden hacer que nos confundamos y no sepamos si la presencia de una variable independiente surte o no un verdadero efecto. Se trata de explicaciones rivales a la explicación de que las variables independientes afectan a las dependientes. A estas explicaciones se les conoce como fuentes de invalidación interna porque atentan contra la validez interna de un experimento. La validez interna se relaciona con la calidad del experimento y se logra cuando hay control, cuando los grupos difieren entre sí solamente en la exposición a la variable independiente (presencia-ausencia o en grados), cuando las mediciones de la variable dependiente son confiables y válidas, y cuando el análisis es el adecuado para el tipo de datos que estamos manejando. El control en un experimento se alcanza eliminando esas explicaciones rivales o fuentes de invalidación interna.

1. Historia. Acontecimientos que ocurren durante el desarrollo del experimento, afectan a al variable dependiente y pueden confundir los resultados experimentales.

2. Maduración. Procesos internos de los participantes que operan como consecuencia del tiempo y que afectan los resultados del experimento (cansancio, hambre, aburrición, aumento en la edad y cuestiones similares).

3. Inestabilidad. Poca o nula confiabilidad de las mediciones, fluctuaciones en las personas

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (4 of 12)25/05/2005 13:45:48

Page 73: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

seleccionadas o componentes del experimento, o inestabilidad autónoma de mediciones repetidas aparentemente "equivalentes".

4. Administración de pruebas. Se refiere al efecto que puede tener la aplicación de una prueba sobre las puntuaciones de pruebas subsecuentes.

5. Instrumentación. Esta fuente hace referencia a cambios en los instrumentos de medición o en os observadores participantes que pueden producir variaciones en los resultados que se obtengan.

6. Regresión estadística. Provocado por una tendencia que los sujetos seleccionados sobre la base de puntuaciones extremas, muestran a regresar, en pruebas posteriores, aun promedio en la variable en la que fueron seleccionados.

7. Selección. Elegir los sujetos de tal manera que los grupos no sean equiparables. Es decir, si no se escogen los sujetos de los grupos asegurándose su equivalencia, la selección puede resultar tendenciosa.

8. Mortalidad experimental. Se refiere a diferencias en la pérdida de participantes entre los grupos que se comparan.

9. Interacción entre selección y maduración. Se trata de un efecto de maduración que no es igual en los grupos del experimento, debida a algún factor de selección. La selección da origen a diferentes tasas de maduración a cambio autónomo entre grupos.

10. Otras interacciones.

El experimentador como fuente de invalidación interna Otra razón que puede atentar contra la interpretación correcta y certera de los resultados de un experimento es la interacción entre los sujetos y el experimentador, la cual puede ocurrir de diferentes formas. Los sujetos pueden entrar al experimento con ciertas actitudes, expectativas y prejuicios que pueden alterar su comportamiento durante el estudio. Recordemos que las personas que intervienen en un experimento, de una manera u otra, tienen motivos precisamente para esa participación y su papel será activo en muchas ocasiones. El mismo experimentador puede afectar los resultados de la investigación, pues no es un observador pasivo que no interactúa, sino un observador activo que puede influir en los resultados del estudio. Además tiene una serie de motivos que lo llevan a realizar su experimento y desea probar su hipótesis. Ello puede conducir a que afecte el comportamiento de los sujetos en dirección de su hipótesis. Tampoco los sujetos que participan en el experimento deben conocer las hipótesis y condiciones experimentales; incluso frecuentemente es necesario distraerlos de los verdaderos propósitos del experimento, aunque al finalizar éste se les debe dar una explicación completa del experimento.

3. ¿Cómo se logra el control y la validez interna?

El control en un experimento logra la validez interna, y el control se alcanza mediante: 1. varios grupos de comparación (dos como mínimo); y 2. equivalencia de los grupos en todo, excepto la manipulación de las variables independientes.

Varios grupos de comparación Es necesario que en un experimento se tengan por lo menos dos grupos que comparar. En primer término, porque si nada más se tiene un grupo no se puede saber si influyeron las fuentes de invalidación interna o no. No lo podemos saber porque no hay medición del nivel de prejuicio al inicio del experimento; es decir, no existe punto de comparación.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (5 of 12)25/05/2005 13:45:48

Page 74: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

Con un solo grupo no podemos estar seguros de que los resultados se deben al estímulo experimental o a otras razones. Los "experimentos" con un grupo se basan en sospechas o en lo que "aparentemente es", pero faltan fundamentos. Se corre el riesgo de seleccionar sujetos atípicos y el riesgo de que intervengan la historia, la maduración, administración de prueba, instrumentaciones y demás fuentes de invalidación interna, sin que el experimentador se dé cuenta.

Por ello, el investigador debe tener al menos un punto de comparación: dos grupos, uno al que se le administra el estímulo y otro al que no (el grupo de control). Al hablar de manipulación, a veces se requiere tener varios grupos, cuando se desea averiguar el efecto de distintos niveles de la variable independiente.

Equivalencia de los grupos Pero para tener control no basta tener dos o más grupos, sino que deben ser similares en todo, menos la manipulación de la variable independiente. El control implica que todo permanece constante menos la manipulación. Si entre los grupos que conforman el experimento todo es similar o equivalente, excepto la manipulación de la independiente, las diferencias entre los grupos pueden atribuirse a ella y no a otros factores (entre los cuales están las fuentes de invalidación interna). Lo mismo debe hacerse en la experimentación de la conducta humana, debemos tener varios grupos de comparación. Los grupos deben ser: inicialmente equivalentes y equivalentes durante todo el desarrollo del experimento, menos por lo que respecta a la variable independiente. Asimismo, los instrumentos de medición deben ser iguales y aplicados de la misma manera.

Equivalencia inicial Implica que los grupos son similares entre sí al momento de iniciarse el experimento. Si inicialmente no son equiparables, digamos en cuanto a motivación o conocimientos previos, las diferencias entre los grupos no podrán ser atribuidas con certeza a la manipulación de la variable independiente. Queda la duda de si se deben a dicha manipulación o a que los grupos no eran inicialmente equivalentes. La equivalencia inicial no se refiere a equivalencias entre individuos, porque las personas tenemos por naturales diferencias individuales; sino a la equivalencia entre grupos. Si tenemos en un grupo hay personas muy inteligentes también en el otro grupo. Y así con todas las variables que puedan afectar a la variable dependiente o dependientes, además de la variable independiente. El promedio de inteligencia, motivación, conocimientos previos, interés por los contenidos y demás variables, debe ser el mismo en los dos grupos. Si bien no exactamente el mismo, no debe haber una diferencia significativa en esas variables entre los grupos.

Equivalencia durante el experimento Durante el experimento los grupos deben mantenerse similares en los aspectos concernientes al tratamiento experimental excepto excepto en la manipulación de la variable independiente: mismas instrucciones (salvo variaciones parte de esa manipulación), personas con las que tratan los sujetos, maneras de recibirlos, lugares con características semejantes (iguales objetos en las habitaciones o cuartos, clima, ventilación, sonido ambiental, etc.), misma duración del experimento, mismo momento y en fin todo lo que sea parte del experimento. Cuanto mayor sea la equivalencia durante su desarrollo, mayor control y posibilidad de que, si observamos o no efectos, estemos seguros de que verdaderamente los hubo o no. Cuando trabajamos simultáneamente con varios grupos, es difícil que las personas que dan las

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (6 of 12)25/05/2005 13:45:48

Page 75: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

instrucciones y vigilan el desarrollo de los grupos sean las mismas.

¿Cómo se logra la equivalencia inicial?: asignación al azar Existe un método para alcanzar esta equivalencia: la asignación aleatoria o al azar de los sujetos a los grupos del experimento. La asignación al azar nos asegura probabilísticamente que dos o más grupos son equivalentes entre sí. Es una técnica de control que tiene como propósito dar al investigador la seguridad de que variables extrañas, conocida o desconocidas, no afectarán sistemáticamente los resultados del estudio. Esta técnica diseñada por Sir Ronald A. Fisher, funciona para hacer equivalentes a grupos. La asignación al azar puede llevarse a cabo mediante pedazos de papel. Se escribe el nombre de cada sujeto (o algún tipo de clave que lo identifique) en uno de los pedazos de papel, luego se juntan todos los pedazos en algún recipiente, se revuelven y se van sacando sin ver para formar los grupos. Cuando se tienen dos grupos, la aleatorización puede llevarse a cabo utilizando una moneda no cargada. Se lista a los sujetos y se designa qué lado de la moneda va a significar el grupo 1 y qué lado el grupo 2. Otra es utilizar una tabla de números aleatorios que incluye números del 0 al 9, y su secuencia es totalmente al azar (no hay orden, no patrón o secuencia). Primero, se selecciona al azar una página de la tabla preguntándole un número del 1 al X número de páginas que contenga la tabla. En la página seleccionada se elige un punto cualquiera (bien numerando columnas o renglones y eligiendo al azar una columna o renglón, o bien cerrando los ojos y colocando la punta de un lápiz sobre algún punto de la página). Posteriormente, se lee una secuencia de dígitos en cualquier dirección (vertical, horizontal o diagonalmente). Una vez que se obtuvo dicha secuencia, se enumeran los nombres de los sujetos por orden alfabético o de acuerdo con un ordenamiento al azar, colocando cada nombre junto a un dígito, nones a un grupo y los pares al otro. La asignación al azar produce control, pues las variables que deben ser controladas (variables extrañas y fuentes de invalidación interna) son distribuidas de la misma manera en los grupos del experimento. Así la influencia de otras variables que no sean la independencia se mantiene constante porque éstas no pueden ejercer ninguna influencia diferencial en la variable dependiente o variables dependientes. La asignación aleatoria funciona mejor cuanto mayor sea el número de sujetos con que se cuenta para el experimento, es decir, cuanto mayor sea el tamaño de los grupos. Los autores recomiendan que para cada grupo se tengan, por lo menos, 15 personas.

Otra técnica para lograr la equivalencia inicial: el emparejamiento Otro método para intentar hacer inicialmente equivalentes los grupos es el emparejamiento o técnica de apareo (matching). El proceso consiste en igualar a los grupos en relación con alguna variable específica, que puede influir de modo decisivo en la variable dependiente o las variables dependientes. El primer paso es elegir a esa variable de acuerdo con algún criterio teórico. La variable seleccionada debe estar muy relacionada con las variables dependientes. Debe pensarse cuál es la variable cuya influencia sobre los resultados del experimento resulta más necesario controlar y buscar el apareo de los grupos en esa variable. El segundo caso consiste en obtener una medición de la variable elegida para emparejar a los grupos. Esta medición puede existir o puede efectuarse entes del experimento. El tercer paso consiste en ordenar a los sujetos en la variable sobre la cual se va a efectuar el emparejamiento (de las puntuaciones más altas a las más bajas). El cuarto paso es formar parejas según la variable de apareamiento e ir asignado a cada integrante de cada pareja a los grupos del experimento, buscando un balance entre dichos grupos. También podría intentarse emparejar los grupos en dos variables, pero ambas deben estar relacionadas, porque de lo contrario puede resultar muy difícil el emparejamiento.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (7 of 12)25/05/2005 13:45:48

Page 76: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

La asignación al azar es la técnica ideal para lograr la equivalencia inicial La asignación al azar es un mejor método para hacer equivalentes los grupos (más preciso y confiable). El emparejamiento no la sustituye. En cambio, la aleatorización garantiza que otras variables no van a afectar a las dependientes ni confundir al experimentador. La bondad de la asignación al azar de los sujetos a los grupos de un diseño experimental es que el procedimiento garantiza absolutamente que en promedio los sujetos no diferirán en ninguna característica más de lo que pudiera esperarse por pura casualidad, antes de que participen en los tratamientos experimentales.

4. Preexperimentos

Los preexperimentos se llaman así, porque su grado de control es mínimo 1. Estudio de caso con una sola medición Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición en una o más variables para observar cuál es el nivel del grupo en estas variables. Este diseño no cumple con los requisitos de un "verdadero" experimento. No hay manipulación de la variable independiente. El diseño adolece de los requisitos para lograr el control experimental: tener varios grupos de comparación. No se puede establecer causalidad con certeza. No se controlan las fuentes de invalidación interna. 2. Diseño de preprueba-postprueba con un solo grupo A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental: después se le administra el tratamiento y finalmente se le aplica una prueba posterior al tratamiento. El diseño ofrece una ventaja sobre el interior, hay un punto de referencia inicial para ver qué nivel tenía el grupo en la variables dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines científicos: no hay manipulación ni grupo de comparación y además varias fuentes de invalidación interna pueden actuar. Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no se encuentre en su estado normal. Tampoco se puede establecer con certeza la causalidad. Los dos diseños preexperimentales no son adecuados para el establecimiento de relaciones entre la variable independiente y la variable dependiente o dependientes. Son diseño que se muestran vulnerables en cuanto a la posibilidad de control y validez interna. Deben usarse sólo como ensayos de otros experimentos con mayor control. Los diseños preexperimentales pueden servir como estudios exploratorios, pero sus resultados deben observarse con precaución. De ellos no pueden sacarse conclusiones seguras de investigación. Abren el camino, pero de ellos deben derivarse estudios más profundos.

Experimentos "verdaderos" Los experimentos "verdaderos" son aquellos que reúnen los dos requisitos para lograr el control y la validez interna: 1) grupos de comparación (manipulación de la variable independiente o de varias independientes); y 2) equivalencia de los grupos. Pueden abracar yuna o más variables independientes y una o más dependientes. Pueden utilizar prepruebas y postpruebas para analizar la evolución de los grupos antes y después del tratamiento experimental. La postprueba es necesaria para determinar los efectos de las condiciones experimentales. 1. Diseño con postpruebas únicamente y grupo de control Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no(grupo de control). Es decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los sujetos son asignados a los grupos de manera aleatoria. Después de que concluye el periodo experimental, a ambos grupos se les administra una medición sobre la variable dependiente en estudio.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (8 of 12)25/05/2005 13:45:48

Page 77: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de la variable independiente. La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es la prueba "t" para grupos correlacionados, al nivel de medición por intervalos. El diseño con postprueba únicamente y grupo de control puede extenderse para incluir más de dos grupos, se usan dos o más tratamientos experimentales, además del grupo de control. Si se carece de grupo de control, el diseño puede llamarse "diseño con grupos aleatorizados y postprueba únicamente". En el diseño con postprueba únicamente y grupo de control, así como en sus posibles variaciones y extensiones, se logra controlar todas las fuentes de invalidación interna. 2. Diseño con preprueba-postprueba y grupo de control Este diseño incorpora la administración de prepreubas a los grupos que componen el experimento. Los sujetos son asignados al azar a los grupos, después a éstos se les administra simultáneamente la preprueba, un grupo recibe el tratamiento experimental y otro no (es el grupo de control); y finalmente se les administra, también simultáneamente una postprueba. La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las prepruebas pueden usarse para fines de control en el experimento, al compararse las prepruebas de los grupos se puede evaluar qué tan adecuada fue la aleatorización. La segunda ventaja reside en que se puede analizar el puntaje ganancia de cada grupo (la diferencia entre la preprueba y la postprueba). El diseño controla todas las fuentes de invalidación interna por las mismas razones que se argumentaron en el diseño anterior (diseño con postprueba únicamente y grupo de control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para mantener la equivalencia de los grupos.

5. ¿Qué es la validez externa?

Un experimento debe buscar ante todo validez interna; es decir, confianza en los resultados. Lo primero es eliminar las fuentes que atentan contra dicha validez. Es muy deseable que el experimento tenga validez externa. La validez externa se refiere a qué tan generalizables son los resultados de un experimento a situaciones no experimentales y a otros sujetos o poblaciones.

Fuentes de invalidación externa Factores que pueden amenazar la validez externa, los más comunes son los siguientes: 1. Efecto reactivo o de interacción de las pruebas Se presenta cuando la preprueba aumenta o disminuye la sensibilidad o la calidad de la reacción de los sujetos a la variable experimental, haciendo que los resultados obtenidos para una población con preprueba no pueden generalizarse a quienes forma parte de esa población pero sin preprueba. 2. Efecto de interacción entre los errores de selección y el tratamiento experimental Este factor se refiere a que se elijan personas con una o varias características que hagan que le tratamiento experimental produzca un efecto, que no se daría si las personas no tuvieran esas características. 3. Efectos reactivos de los tratamientos experimentales La "artificialidad" de las condiciones puede hacer el contexto experimental resulte atípico respecto a la manera en que se aplica regularmente el tratamiento. 4. Interferencia de tratamientos múltiples Si los tratamientos no son de efecto reversible; es decir, si no se pueden borrar sus efectos, las conclusiones solamente podrán hacerse extensivas a las personas que experimentaron la misma secuencia de tratamientos.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (9 of 12)25/05/2005 13:45:48

Page 78: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

5. Imposibilidad de replicar los tratamientos Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no experimentales, es difícil, es difícil generalizar a éstas. Para lograr una mayor validez externa, es conveniente tener grupos lo más perecidos posible a la mayoría de las personas a quienes se desea generalizar y repetir el experimento varias veces con diferentes grupos (hasta donde el presupuesto y los costos de tiempo lo permitan). También, tratar de que el contexto experimental sea lo más similar posible al contexto que se pretende generalizar.

¿Cuáles pueden ser los contextos de experimentos? Se han distinguido dos contextos en donde puede tomar lugar un diseño experimental: laboratorio y campo, Experimento de laboratorio: "un estudio de investigación en el que la variancia" (efecto) "de todas o casi todas las variables independientes influyentes posibles no pertinentes al problema inmediato de la investigación se mantiene reducida" (reducido el efecto) "en un mínimo". Experimento de campo: "un estudio de investigación en una situación realista en la que una o más variables independientes son manipuladas por el experimentador en condiciones tan cuidadosamente controladas como lo permite la situación". La diferencia esencial entre ambos contextos es la "realidad" con que los experimentos se llevan a cabo, el grado en que el ambiente es natural para los sujetos. Los experimentos de laboratorio generalmente logran un control más riguroso que los experimentos de campo, pero antes estos últimos suelen tener mayor validez externa. Ambos tipos de experimento son deseables. Algunos han acusado a los experimentos de laboratorio de "artificialidad", de tener poca validez externa, pero los objetivos primarios de un experimento verdadero son descubrir relaciones (efectos) en condiciones "puras" y no contaminadas, probar predicciones de teorías y refinar teorías e hipótesis.

6. ¿Qué tipo de estudio son los experimentos?

Debido a que analizan las relaciones entre una o varias variables independientes y una o varias dependientes y los efectos causales de las primeras sobre las segundas.

Emparejamiento En Lugar De Asignación Al Azar Este método es menos preciso que la asignación al azar. Sin embargo, si se lleva a cabo con rigor, se tienen grupos grandes y se posee información que indica que los grupos no son diferentes, se puede lograr un alto grado de equivalencia inicial entre grupos.

¿Qué otros experimentos existen?: Cuasiexperimentos Los diseños cuasiexperimentales también manipulan deliberadamente al menos una variable independiente, solamente que difieren de los experimentos "verdaderos" en el gardo de seguridad o confiabilidad que pueda tenerse sobre la equivalencia inicial de los grupos. En los diseños cuasiexperimentales los sujetos no son asignados al azar a los grupos ni emparejados, sino que dichos grupos ya estaban formados antes del experimento, son grupos intactos.

Problemas de los diseños cuasiexperimentales La falta de aleatorización introduce posibles problemas de validez interna y externa. Debido a los problemas potenciales de validez interna, en estos diseños el investigador debe intentar establecer la semejanza entre los grupos, esto requiere considerar las características o variables que puedan estar relacionadas con las variables estudiadas.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (10 of 12)25/05/2005 13:45:48

Page 79: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

Los cuasiexperiemntos difieren de los experimentos "verdaderos" en la equivalencia inicial de los grupos (los primeros trabajan con grupos intactos y los segundos utilizan un método para hacer equivalentes a los grupos). Sin embargo, esto quiere decir que sea imposible tener un caso de cuasiexperimento donde los grupos sean equiparables en las variables relevantes para el estudio.

Tipos de diseños cuasiexperimentales Con excepción de la diferencia que acabamos de mencionar, los cuasiexperimentos son muy parecidos a los experimentos "verdaderos". Por lo tanto, podemos decir que hay casi tantos diseños cuasiexperiemntales como experimentales "verdaderos". Sólo que no hay asignación al azar o emparejamiento. Pero por lo demás son iguales, la interpretación es similar, las comparaciones son las mismas y los análisis estadísticos iguales (salvo que a veces se consideran las pruebas para datos no correlacionados). 1. Diseño con postprueba únicamente y grupos intactos Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro no. Los grupos son comparados en la postprueba para analizar si el tratamiento experimental tuvo un efecto sobre la variable dependiente. Si los grupos no son equiparables entre sí, las diferencias en las postpruebas de ambos grupos pueden ser atribuidas a la variable independiente pero también a otras razones diferentes, y lo peor es que el investigador puede no darse cuenta de ello. Por ello es importante que los grupos sean inicialmente comparables, y que durante el experimento no ocurra algo que los haga diferentes, con excepción de la presencia-ausencia del tratamiento experimental. Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por motivos diferentes al cuasiexperimento. 2. Diseño de prepuebas-postprueba y grupos intactos (uno de ellos de control) Este diseño es similar al que incluye postprueba únicamente y grupos intactos, solamente que a los grupos se les administra una preprueba. La cual puede servir para verificar la equivalencia inicial de los grupos (si son equiparables no debe haber diferencias significativas entre las prepruebas de los grupos). Las posibles comparaciones entre las mediciones de la variable dependiente y las interpretaciones son las mismas que en el diseño experimental de preprueba-postprueba con grupo de control solamente que en este segundo diseño cuasiexperimental, los grupos son intactos y en la interpretación de resultados debemos tomarlo en cuenta.

Pasos De Un Experimento O Cuasiexperimento Los principales pasos en el desarrollo de un experimento o cuasiexperimento, son: Paso 1: Decidir cuántas variables independientes y dependientes deberán ser incluidas en el experimento o cuasiexperimento. Paso 2: Elegir los niveles de manipulación de las variables independientes y traducirlos en tratamientos experimentales Paso 3: Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s). Paso 4: Seleccionar una muestra de personas para el experimento (idealmente representativa de la población). Paso 5: Reclutar a los sujetos del experimento o cuasiexperimento. Esto implica tener contacto con ellos, darles las explicaciones necesarias e indicarles el lugar, día, hora y persona con quien deben presentarse. Siempre es conveniente darles el máximo de facilidades para que acudan al experimento.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (11 of 12)25/05/2005 13:45:48

Page 80: QUIMICA - Monografias

DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com

Paso 6: Seleccionar el diseño experimental o cuasiexperimental apropiado para muestras, hipótesis, objetivos y preguntas de investigación. Paso 7: Planear cómo vamos a manejar a los sujetos que participen en el experimento. Es decir, elaborar una ruta crítica de qué van a hacer los sujetos desde que llegan al lugar del experimento hasta que se retiran (paso a paso). Paso 8: En el caso de experimentos "verdaderos", dividirlos al azar o emparejarlos; y en el caso de cuasiexperimentos analizar cuidadosamente las propiedades de los grupos intactos. Paso 9: Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de control) y las postpruebas. Resulta conveniente tomar nota del desarrollo del experimento. Ello nos ayudará a analizar la posible influencia de variables extrañas que generan diferencias entre los grupos y será un material invaluable para la interpretación de los resultados.

Trabajo enviado por: Maribel Gonzalez Campos [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (12 of 12)25/05/2005 13:45:48

Page 81: QUIMICA - Monografias

Metodos- Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Métodos

1. Introducción2. Método lógico deductivo3. Método hipotético-deductivo4. Método lógico inductivo5. Método lógico: la analogía 6. El método histórico7. Método sintético 8. Método analítico9. Método de la abstracción

10. Método de la concreción11. Método genético12. Método de la modelación13. Método sistémico14. Método dialéctico15. Métodos empiricos 16. Observación científica 17. La experimentación científica 18. La medición19. El mejor Método de investigación es ... 20. Bibliografía

INTRODUCCIÓN

¿Existirán reglas fáciles y precisas para realizar una investigación científica? El investigador debe contar,

http://www.monografias.com/trabajos11/metods/metods.shtml (1 of 9)25/05/2005 13:46:15

Page 82: QUIMICA - Monografias

Metodos- Monografias.com

si no con algo definitivo e infalible si por lo menos con normas elementales que le ahorren despilfarro de esfuerzos y tiempo.

Por esta razón, dedicare la primera parte de este trabajo a nombrar y explicar de manera general, si no todos, por lo menos los métodos mas conocidos y prácticos de investigación científica, todo esto con miras de señalar las diferentes estrategias que tenemos a la mano y que podemos usar en nuestros futuros trabajos como ingenieros de sistemas, ya que nuestro campo de desarrollo principalmente es el de solucionar problemas de diversa índole.

En la segunda parte, argumentare a modo personal el método que en este momento e instante de mi carrera, considero como el mas adecuado para una investigación, claro esta, sin dejar de lado que todos los métodos se complementan.

Concepto de método de investigación

"Es una especie de brújula en la que no se produce automáticamente el saber, pero que evita perdernos en el caos aparente de los fenómenos, aunque solo sea porque nos indica como no plantear los

problemas y como no sucumbir en el embrujo de nuestros prejuicios predilectos."

El método independiente del objeto al que se aplique, tiene como objetivo solucionar problemas.

Las diversas clases de métodos de investigación

Podemos establecer dos grandes clases de métodos de investigación : los métodos lógicos y los empíricos. Los primeros son todos aquellos que se basan en la utilización del pensamiento en sus funciones de deducción, análisis y síntesis, mientras que los métodos empíricos, se aproximan al conocimiento del objeto mediante sus conocimiento directo y el uso de la experiencia, entre ellos encontramos la observación y la experimentación.

MÉTODO LÓGICO DEDUCTIVO

Mediante ella se aplican los principios descubiertos a casos particulares, a partir de un enlace de juicios. El papel de la deducción en la investigación es doble:

a. Primero consiste en encontrar principios desconocidos, a partir de los conocidos. Una ley o principio puede reducirse a otra mas general que la incluya. Si un cuerpo cae decimos que pesa porque es un caso particular de la gravitación

b. También sirve para descubrir consecuencias desconocidas, de principios conocidos. Si sabemos que la formula de la velocidad es v=e/t, podremos calcular la velocidad de un avión. La matemática es la ciencia deductiva por excelencia; parte de axiomas y definiciones.

MÉTODO DEDUCTIVO DIRECTO – INFERENCIA O CONCLUSIÓN INMEDIATA. Se obtiene el juicio de

http://www.monografias.com/trabajos11/metods/metods.shtml (2 of 9)25/05/2005 13:46:15

Page 83: QUIMICA - Monografias

Metodos- Monografias.com

una sola premisa, es decir que se llega a una conclusión directa sin intermediarios. Ejemplo:

"Los libros son cultura"

"En consecuencia, algunas manifestaciones culturales son libros"

MÉTODO DEDUCTIVO INDIRECTO – INFERENCIA O CONCLUSIÓN MEDIATA - FORMAL. Necesita de silogismos lógicos, en donde silogismo es un argumento que consta de tres proposiciones, es decir se comparan dos extremos(premisas o terminos) con un tercero para descubrir la relación entre ellos. La premisa mayor contiene la proposición universal, la premisa menor contiene la proposición particular, de su comparación resulta la conclusión. Ejemplo:

"Los ingleses son puntuales"

"William es ingles"

"Por tanto, William es puntual"

MÉTODO HIPOTÉTICO-DEDUCTIVO

Un investigador propone una hipótesis como consecuencia de sus inferencias del conjunto de datos empíricos o de principios y leyes más generales. En el primer caso arriba a la hipótesis mediante procedimientos inductivos y en segundo caso mediante procedimientos deductivos. Es la vía primera de inferencias lógico deductivas para arribar a conclusiones particulares a partir de la hipótesis y que después se puedan comprobar experimentalmente.

MÉTODO LÓGICO INDUCTIVO

Es el razonamiento que, partiendo de casos particulares, se eleva a conocimientos generales. Este método permite la formación de hipótesis, investigación de leyes científicas, y las demostraciones. La inducción puede ser completa o incompleta.

INDUCCIÓN COMPLETA. La conclusión es sacada del estudio de todos los elementos que forman el objeto de investigación, es decir que solo es posible si conocemos con exactitud el numero de elementos que forman el objeto de estudio y además, cuando sabemos que el conocimiento generalizado pertenece a cada uno de los elementos del objeto de investigación. Las llamadas demostraciones complejas son formas de razonamiento inductivo, solo que en ellas se toman muestras que poco a poco se van articulando hasta lograr el estudio por inducción completa. Ejemplo:

"Al estudiar el rendimiento académico de los estudiantes del curso de tercero de administración, estudiamos los resultados de todos los estudiantes del curso, dado que el objeto de estudio es relativamente pequeño, 25 alumnos. Concluimos que el rendimiento promedio es bueno. Tal conclusión es posible mediante el análisis de todos y cada uno de los miembros del curso."

http://www.monografias.com/trabajos11/metods/metods.shtml (3 of 9)25/05/2005 13:46:15

Page 84: QUIMICA - Monografias

Metodos- Monografias.com

INDUCCIÓN INCOMPLETA: Los elementos del objeto de investigación no pueden ser numerados y estudiados en su totalidad, obligando al sujeto de investigación a recurrir a tomar una muestra representativa, que permita hacer generalizaciones. Ejemplo:

"los gustos de los jóvenes colombianos en relación con la música"

El método de inducción incompleta puede ser de dos clases:

a. Método de inducción por simple enumeración o conclusión probable. Es un método utilizado en objetos de investigación cuyos elementos son muy grandes o infinitos. Se infiere una conclusión universal observando que un mismo carácter se repite en una serie de elementos homogéneos, pertenecientes al objeto de investigación, sin que se presente ningún caso que entre en contradicción o niegue el carácter común observado. La mayor o menor probabilidad en la aplicación del método, radica en el numero de casos que se analicen, por tanto sus conclusiones no pueden ser tomadas como demostraciones de algo, sino como posibilidades de veracidad. Basta con que aparezca un solo caso que niegue la conclusión para que esta sea refutada como falsa.

b. Método de inducción científica. Se estudian los caracteres y/o conexiones necesarios del objeto de investigación, relaciones de causalidad, entre otros. Este método se apoya en métodos empíricos como la observación y la experimentación. Ejemplo:

"Sabemos que el agua es un carácter necesario para todos los seres vivos, entonces podemos concluir con certeza que las plantas necesitan agua".

En el método de inducción encontramos otros métodos para encontrar causas a partir de métodos experimentales, estos son propuestos por Mill:

Método de concordancia: Compara entre si varios casos en que se presenta un fenómeno natural y señala lo que en ellos se repite, como causa del fenómeno.

Método de diferencia: Se reúnen varios casos y observamos que siempre falta una circunstancia que no produce el efecto, permaneciendo siempre todas las demás circunstancias, concluimos que lo que desaparece es la causa de lo investigado.

Método de variaciones concomitantes: Si la variación de un fenómeno se acompaña de la variación de otro fenómeno, concluimos que uno es la causa de otro.

Método de los residuos: Consiste en ir eliminando de un fenómeno las circunstancia cuyas causas son ya conocidas. La circunstancia que queda como residuo se considera la causa del fenómeno.

MÉTODO LÓGICO: LA ANALOGÍA

Consiste en inferir de la semejanza de algunas características entre dos objetos, la probabilidad de que

http://www.monografias.com/trabajos11/metods/metods.shtml (4 of 9)25/05/2005 13:46:15

Page 85: QUIMICA - Monografias

Metodos- Monografias.com

las características restantes sean también semejantes. Los razonamientos analógicos no son siempre validos.

EL MÉTODO HISTÓRICO

Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica, para conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su esencia. La estructura lógica del objeto implica su modelación.

MÉTODO SINTÉTICO

Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.

MÉTODO ANALÍTICO

Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado. La física, la química y la biología utilizan este método; a partir de la experimentación y el análisis de gran número de casos se establecen leyes universales. Consiste en la extracción de las partes de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver, por ejemplo las relaciones entre las mismas.

Estas operaciones no existen independientes una de la otra ; el análisis de un objeto se realiza a partir de la relación que existe entre los elementos que conforman dicho objeto como un todo; y a su vez , la síntesis se produce sobre la base de los resultados previos del análisis.

Método de la abstracción

Es un proceso importantísimo para la comprensión del objeto, mediante ella se destaca la propiedad o relación de las cosas y fenómenos. No se limita a destacar y aislar alguna propiedad y relación del objeto asequible a los sentidos, sino que trata de descubrir el nexo esencial oculto e inasequible al conocimiento empírico.

Método de la concreción

Mediante la integración en el pensamiento de las abstracciones puede el hombre elevarse de lo abstracto a lo concreto; en dicho proceso el pensamiento reproduce el objeto en su totalidad en un plano teórico. Lo concreto es la síntesis de muchos conceptos y por consiguiente de las partes. Las definiciones abstractas

http://www.monografias.com/trabajos11/metods/metods.shtml (5 of 9)25/05/2005 13:46:15

Page 86: QUIMICA - Monografias

Metodos- Monografias.com

conducen a la reproducción de los concreto por medio del pensamiento. Lo concreto en el pensamiento es el conocimiento más profundo y de mayor contenido esencial.

Método genético

Implica la determinación de cierto campo de acción elemental que se convierte en célula del objeto, en dicha célula están presentes todos los componentes del objeto así como sus leyes más trascendentes.

Método de la modelación

Es justamente el método mediante el cual se crean abstracciones con vistas a explicar la realidad. El modelo como sustituto del objeto de investigación. En el modelo se revela la unidad de los objetivo y lo subjetivo.

La modelación es el método que opera en forma práctica o teórica con un objeto, no en forma directa, sino utilizando cierto sistema intermedio, auxiliar, natural o artificial.

Método sistémico

Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.

Método dialéctico

La característica esencial del método dialéctico es que considera los fenómenos históricos y sociales en continuo movimiento. Dio origen al materialismo histórico, el cual explica las leyes que rigen las estructuras económicas y sociales, sus correspondientes superestructuras y el desarrollo histórico de la humanidad. Aplicado a la investigación, afirma que todos los fenómenos se rigen por las leyes de la dialéctica, es decir que la realidad no es algo inmutable, sino que está sujeta a contradicciones y a una evolución y desarrollo perpetuo. Por lo tanto propone que todos los fenómenos sean estudiados en sus relaciones con otros y en su estado de continuo cambio, ya que nada existe como un objeto aislado.

Este método describe la historia de lo que nos rodea, de la sociedad y del pensamiento, a través de una concepción de lucha de contrarios y no puramente contemplativa, más bien de transformación. Estas concepciones por su carácter dinámico exponen no solamente los cambios cuantitativos, sino los radicales o cualitativos.

Aunque no existen reglas infalibles para aplicar el método científico, Mario Bunge considera las siguientes como algunas de las más representativas:

● Formulación precisa y específica del problema ● Proponer hipótesis bien definidas y fundamentadas ● Someter la hipótesis a una contrastación rigurosa ● No declarar verdadera una hipótesis confirmada satisfactoriamente

http://www.monografias.com/trabajos11/metods/metods.shtml (6 of 9)25/05/2005 13:46:15

Page 87: QUIMICA - Monografias

Metodos- Monografias.com

● Analizar si la respuesta puede plantearse de otra forma

MÉTODOS EMPIRICOS

Definidos de esa manera por cuanto su fundamento radica en la percepción directa del objeto de investigación y del problema.

OBSERVACIÓN CIENTÍFICA

El investigador conoce el problema y el objeto de investigación, estudiando su curso natural, sin alteración de las condiciones naturales, es decir que la observación tiene un aspecto contemplativo.

La observación configura la base de conocimiento de toda ciencia y, a la vez, es el procedimiento empírico mas generalizado de conocimiento. Mario Bunge reconoce en el proceso de observación cinco elementos:

a. El objeto de la observación

b. El sujeto u observador

c. Las circunstancias o el ambiente que rodean la observación

d. Los medios de observación

e. El cuerpo de conocimientos de que forma parte la observación

LA EXPERIMENTACIÓN CIENTÍFICA

Implica alteración controlada de las condiciones naturales, de tal forma que el investigador creara modelos, reproducirá condiciones, abstraerá rasgos distintivos del objeto o del problema. La experimentación depende del grado de conocimiento del investigador, a la naturaleza, a las circunstancias del objeto y al problema de investigación, es decir no siempre se podrá realizar experimentación. La experimentación debe seguir ciertas reglas:

a. el fenómeno de que se trate debe aislarse para estudiarlo mejor

b. El experimento debe repetirse en las mismas circunstacias para comprobar si siempre es el mismo

c. Las condiciones del experimento deben alterarse para investigar en que grado modifican al fenómeno

d. El experimento debe durar el tiempo suficiente para que se produzca el fenómeno deseado.

http://www.monografias.com/trabajos11/metods/metods.shtml (7 of 9)25/05/2005 13:46:15

Page 88: QUIMICA - Monografias

Metodos- Monografias.com

La medición

Se desarrolla con el objetivo de obtener la información numérica acerca de una propiedad o cualidad del objeto o fenómeno, donde se comparan magnitudes medibles y conocidas. Es decir es la atribución de valores numéricos a las propiedades de los objetos. En la medición hay que tener en cuenta el objeto y la propiedad que se va a medir, la unidad y el instrumento de medición, el sujeto que realiza la misma y los resultados que se pretenden alcanzar.

En las ciencias sociales, naturales y técnicas no basta con la realización de las mediciones, sino que es necesario la aplicación de diferentes procedimientos que permitan revelar las tendencias, regularidades y las relaciones en el fenómeno objeto de estudio, uno de estos procedimientos son los estadísticos, tanto los descriptivos como los inferenciales.

El mejor Método de investigación es ...

Es difícil escoger un método como el ideal y único camino para realizar una investigación, pues muchos de ellos se complementan y relacionan entre si. A mi consideración el método mas completo es el método HIPOTÉTICO-DEDUCTIVO ya que en él se plantea una hipótesis que se puede analizar deductiva o inductivamente y posteriormente comprobar experimentalmente, es decir que se busca que la parte teórica no pierda su sentido, por ello la teoría se relaciona posteriormente con la realidad. Como notamos una de las características de este método es que incluye otros métodos, el inductivo o el deductivo y el experimental, que también es opcional. Explicare brevemente la fortalezas que yo noto en cada uno de estos "submétodos", finalmente la reunión de todas estas fortalezas conformaran los argumentos de mi elección sobre el método hipotético deductivo.

La deducción, tiene a su favor que sigue pasos sencillos, lógicos y obvios que permiten el descubrimiento de algo que hemos pasado por alto.

La inducción, encontramos en ella aspectos importantes a tener en cuenta para realizar una investigación como por ejemplo la cantidad de elementos del objeto de estudio, que tanta información podemos extraer de estos elementos, las características comunes entre ellos, y si queremos ser mas específicos como en el caso de la inducción científica, entonces tomaremos en cuenta las causas y caracteres necesarios que se relacionan con el objeto de estudio.

La experimentación científica, muchos de nuestros conocimientos nos lo proporciona la experiencia y es un método que te permite sentirte mas seguro de lo que se estas haciendo. A demás admite la modificación de variables, lo cual nos da vía libre para la corrección de errores y el mejoramiento de nuestra investigación. También podríamos agregar que como futuros ingenieros de sistemas aplicamos mucho este método, puesto que debemos buscar una solución de calidad, efectiva, funcional y de satisfacción a las necesidades del cliente, un ejemplo muy común en nuestra área seria la implementación de un software, siempre se realizan muchas pruebas. Desafortunadamente no en todas las investigaciones se puede aplicar este método, ya que estas dependen del grado de conocimiento del investigador, el problema de investigación y otros ya mencionados anteriormente.

BIBLIOGRAFÍA

http://www.monografias.com/trabajos11/metods/metods.shtml (8 of 9)25/05/2005 13:46:15

Page 89: QUIMICA - Monografias

Metodos- Monografias.com

López Cano José Luis, Métodos e hipótesis científicas, México, 1984

Roberto Hernández Sampieri, Carlos Fernández Collado, Pilar Baptista Lucio, Metodología de la investigación,Mc Graw Hill, Colombia (1996)

http://www.ispjae.cu/eventos/colaeiq/Cursos/Curso12.doc.

Autor

Ana Beatriz Ochoa G.

[email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos11/metods/metods.shtml (9 of 9)25/05/2005 13:46:15

Page 90: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Mecánica Clásica

Movimiento unidimensional

1.-Un electrón con una velocidad inicial Vo=1.50*10 5 m/s entra en una región acelerada electricamente de 1.0 cm de largo. Este emerge con una velocidad de v=5.70*10 6 m/s ¿cuál fue su aceleración constante asumida? (Dicho proceso ocurre en un tubo de rayos catódicos, usando en receptores de televisión y osciloscopios)

Datos

V= 1.50 X 105m/s

X= 1cm

Vf= 5.70 X 106 m/s

2.-Los frenos de tu automóvil son capaces de crear una aceleración retardatriz de 17ft/s².

a)Si tu vas a 85mi/h y de repente ves un policía de transito, ¿cuál es el tiempo mínimo en el que tu

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (1 of 16)25/05/2005 13:46:41

Page 91: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

puedes bajar la velocidad a 55mi/h?

Datos

Vo = 85mi/h

a= -17ft/s2

Vf= 55mi/h

3.-Un carro va viajando a 56.0km/h y esta a 24.0m de la barrera cuando el conductor presiona los frenos. El carro golpea la barrera 2.00s más tarde.

a)¿Cuál fue la aceleración retardatriz constante de¡ carro antes del impacto?

b)¿Qué tan rápido iba viajando el carro en el momento del impacto?

Datos

V=56km/h a)

X=24m

T=2seg b)

4. Un carro moviéndose con un aceleración constante cubre la distancia de 60.Om entre 2 puntos en 6.00s. Su velocidad pasando al segundo punto es de 15.0m/s.

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (2 of 16)25/05/2005 13:46:41

Page 92: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

a)¿Cuál es la velocidad en el primer punto?

b)¿Cuál es la aceleración?

c)¿A qué distancia previa de[ primer punto estaba el carro en reposo?

d)Gráfique x vs. t y y ys. t para el carro desde el reposo.

Datos

D=60m a)

T=6seg b)

V1=15.0m/s c)

Vo=? Xo=

a=?

IPN-UPIICSA PRÁCTICA Nº2 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL

5.-Para parar un carro, primero necesitas cierta reacción de tiempo para empezar a frenar, después el carro baja la velocidad con aceleración retardatriz constante con el freno. Supón que la distancia total movida por tu carro durante estas dos fases es de 186ft cuando su velocidad inicial es de 50 mi/h y 80 ft cuando la velocidad inicial es de 30 mi/h. ¿cuál es: A)tu reacción de tiempo. Y B)magnitud de aceleración retardatriz?

Datos

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (3 of 16)25/05/2005 13:46:41

Page 93: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

V1=50mi/h a)

D2=80ft Tiempo de reacción

V2=30mi/h b)

IPN-UPIICSA PRÁCTICA Nº3 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)

1 En un sitio de construcción la pala de un rascador golpea el terreno con- una rapidez de 24m/s.

a)¿De que altura fue lanzada ésta, inadvertidamente?

b)¿Cuánto duro la caída?

c)Haz una gráfica de y, v & a vs. t.

Datos

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (4 of 16)25/05/2005 13:46:41

Page 94: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

VR= 24m/s a)

h=? b)

Vo=0

G= -9.81m/s2

2 a)¿A que velocidad debe ser lanzada una bola verticalmente desde el nivel de¡ piso para elevarse a una altura máxima de 50m?

b)¿Cuánto tiempo estará en el aire?

En las dos primeras gráficas indica el tiempo en que son alcanzados los 50m.

Datos

h=50m

Vo=0 a)

G=-9.81m/s2 b)

T=?

VR=?

3.- Una roca es lanzada desde un risco de 100m de alto ¿cuánto tiempo tarda en caer a los a) primeros 50m y b) los segundos 50m?

Datos

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (5 of 16)25/05/2005 13:46:41

Page 95: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

Vo=0

T1=?

T2=?

G=-9.81m/s2

VR=?

4 Un armadillo salta hacia arriba (fig.) alcanzando 0.544m en 0.2005.

a)¿Cuál es su velocidad inicial?

b)¿Cuál es su velocidad a esta altura?

c) ¿Qué altura puede alcanzar?

Datos

H=0.544m a)

T=.2005 b)

Vo= ? c)

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (6 of 16)25/05/2005 13:46:41

Page 96: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

V=?

G=9.81m/s2

5.- Una bola de arcilla cae en el piso de una altura de1.50m. Esta en contacto con el piso por 20.0ms antes de llegar al reposo.

¿Cuál es la aceleración promedio de la bola durante el tiempo que esta en contacto con el piso (considere la bola como una partícula)?

Datos

H=1.50m

T=20m/s=0.2seg

Vf=0

A=?

6.-Para probar la calidad de una pelota de Tenis, la tiras hacia el piso a una altura de 4.00m. Está rebota a una altura de 3.00m.

Si la bola estuvo en contacto con el piso por 10.0ms, ¿cuál es la aceleración promedio durante el contacto?

Datos

Vo=0

H=4m

HR=3m

T=10m

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (7 of 16)25/05/2005 13:46:41

Page 97: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

Ap=?

IPN-UPIICSA PRÁCTICA Nº4 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)

1.-Una regadera gotea en el baño hacia el piso a 200cm abajo. Las gotas caen en un intervalo regular de tiempo. La primer gota golpea en el piso en el instante en que la cuarta gota empieza a caer. Encuentra las localizaciones de la segunda y tercera gota cuando la primera golpea el piso.

2.-Dos objetos empiezan una caída libre desde el reposo desde la misma altura a un 1.0s de diferencia. ¿Cuánto tiempo después de que el primero empieza a caer, los dos objetos estarán l0m aparte?

Datos

Vo=0

Td=1seg de diferencia

T=?

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (8 of 16)25/05/2005 13:46:41

Page 98: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

D=10m estaran a parte

3-.Un globo de aire caliente esta ascendiendo a una velocidad de 12m/s -y está 80m arriba del suelo, cuando un paquete es tirado por un lado. a)¿Cuánto tiempo le tomará al paquete llegar al suelo? b)¿Con qué velocidad golpea el piso?

Datos

G=9.81m/seg2

Vo=12m/s

H=80m

4 Un elevador sin techo esta ascendiendo con una velocidad constante de l0m/s. Un niño en el elevador tira una bola directamente hacia arriba, a una altura de 2.0m arriba del piso del elevador, lo mismo que el elevador 28m por encima del suelo. La velocidad inicial de la bola con respecto al elevador es de 20m/s.

a)¿Cuál es la máxima altura que alcanza la pelota?

b)¿Cuánto tiempo le toma a la bola regresar al piso del elevador?

5 Una bola de acero se lanza desde el techo de un edificio y pasa por una ventana, tomándole 0.125s la caída desde el inicio de la ventana hasta el final de ésta, una distancia de 1.20m. La bola golpea la banqueta y rebota ""perfectamente" de regreso pasando la ventana, el movimiento desde el fondo hasta la parte superior lo realiza en 0.125s. El tiempo que transcurre bajo el fondo de la ventana es de 2.00s ¿Qué tan alto es el edificio?

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (9 of 16)25/05/2005 13:46:41

Page 99: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

1.- Si una pulga salta una altura de 0.640m.

a)¿Cuál es su rapidez inicial en el instante que abandona el terreno? b)¿Qué tiempo permanece en el aire?

2-- Una piedra es lanzada hacia arriba verticalmente con una rapidez de 8m/s de la azotea de un edificio de 12m de altura. Para el movimiento de la roca entre la azotea de edificio y el terreno, a) ¿cuál es la magnitud y dirección: b) La velocidad promedio de la roca? c) La aceleración de la roca?

Datos

y-yo=12m

g=9.81m/s2

t=2.4s

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (10 of 16)25/05/2005 13:46:41

Page 100: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

V=?

Vp=? a)

A=? b)

3.-Un huevo es lanzado verticalmente hacia arriba de la cornisa de un edificio muy alto. Cuando el huevo regresa al nivel de la cornisa, 7s más tarde, éste a recorrido 50m hacia debajo de la cornisa. a) ¿Cuál es la rapidez inicial del huevo?

b) ¿Cuál es la altura que alcanza el huevo a partir de su punto de lanzamiento?

c) ¿Cuál es la magnitud de su velocidad en el punto más alto?

d) ¿Cuál es la magnitud y dirección de su aceleración en el punto más alto?

Datos

Vf=0 a)

T=7s

y-yo=50m b)

g=9.81m/s2

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (11 of 16)25/05/2005 13:46:41

Page 101: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

Vo=? c)

H=? d)

I=?

4.- El trineo que impulsa al cohete 'Sonic Wind # 2, el cuál se usa para investigar los efectos psicológicos en grandes aceleraciones,"' se desplaza en línea recta sobre una vía de 1070m. de largo. Partiendo del reposo, éste alcanza una rapidez de 447m/s en 18s.

a. Calcular la aceleración en m/s² suponiendo que ésta es constante.

b. ¿Cuál es la razón de ésta aceleración, a la que experimenta un cuerpo en caída libre?

c. ¿cuál es la distancia que recorre en, 1.80s?

¿son consistentes estas apreciaciones?

Datos

x-xo=1070m a)

Vf=447m/s b) El cuerpo en caida libre experimenta la aceleracion de la gravedad y por lo tanto

es diferente al que experimenta un curpo en movimiento horizontal.

Vi=0 c)

T=18s

Vo=?

H=?

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (12 of 16)25/05/2005 13:46:41

Page 102: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

I=?

5.- La aceleración de una motocicleta está dada por a(t) = At-Bt² donde A= 1.90m/s² y B=0.120m/s², la motocicleta parte del reposo en t=0

a).- Determine su posición y velocidad como función del tiempo.

b).- Calcule la velocidad máxima que alcanza la moto.

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)

1-Un transbordador espacial hacia la Base Lunar 1, viaja una distancia de 400,000km con una trayectoria recta de la tierra a la luna. Supóngase que éste acelera a 15 m/s² para los primeros 10.Omi de¡ viaje, después viaja con rapidez constante hasta antes de los últimos 10.0mi, 'cuando éste acelera a -15mls2, justo cuando llega al reposo en la luna.

a)¿ Cuál es la máxima rapidez alcanzada?

b) ¿ Qué fracción de la distancia total es recorrida con rapidez constante? c) ¿Cuál es el tiempo total qué se requiere para el viaje?

2- Una partícula tenla una velocidad de 18.0m/s en dirección de las X. positiva, 2.4s más tarde su velocidad es de 30m/s en dirección opuesta: ¿ Cuál fue la magnitud de la. aceleración promedio de la partícula durante éste intervalo de 2.4s?

Datos

Vi=18.0m/s

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (13 of 16)25/05/2005 13:46:41

Page 103: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

T=2.4s

Vf=30m/s

3.- Una banda eléctrica de 80m de largo, la cual se encuentra en un edificio del aeropuerto, se mueve a 1.0m/s. Si una mujer inicia su caminar en un extremo de la banda con una rapidez de 2.9m/s relativa a la banda móvil, ¿Cuánto tiempo requiere la mujer para alcanzar el extremo opuesto, si ella camina:

a) en la misma dirección en que se mueve la banda?

b) en la dirección opuesta?

4 -Un objeto que se desplaza con aceleración constante tiene una velocidad de 12m/s cuando su x coordenada es de 3m, sí 2s más tarde su x coordenada es de -5m, ¿ cuál será la magnitud de su aceleración?

5.- Un objeto se mueve a lo largo del eje-X. Su posición, en metros, como una función del tiempo, en segundos, es x(t) = at-bt³ donde a = 3 y b = 2

a) ¿Cuáles deben ser las unidades para las constantes a,y b?

b) Determine la velocidad promedio de éste objeto en un intervalo de tiempo (ls,3s)

c) Calcule la velocidad instantánea en t = 2s

d) Determine la aceleración del objeto como una función del tiempo.

IPN-UPIICSA PRÁCTICA Nº7 Mecánica Clásica

MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)

1.-Un jet plano de alto desempeño que realiza ensayos para evitar el radar, está en vuelo horizontal a 35m sobre el nivel del terreno. Súbitamente el jet encuentra que el terreno sube cuesta arriba en 4.3° una cantidad difícil de detectar. ¿Cuánto tiempo tiene el piloto para hacer una corrección si ha de evitar que el jet toque el terreno? La rapidez del jet es de 1300 km/h.

Datos

H=35m

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (14 of 16)25/05/2005 13:46:41

Page 104: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

V=1300km/h

T=?

2 La posición de una partícula que se mueve a lo largo del eje x está dada en centimetros por x=9.75 +1.50t³ donde t está en segundos. Considere el intervalo de tiempo de t=2.00s a 3.00s y determine :

a) La velocidad promedio

b) La velocidad instantánea en 2.0s

c) La velocidad instantánea en 3.0s.

d) La velocidad instantánea en 2.5s.

e)La velocidad instantánea cuando la partícula está a medio camino entre sus posiciones de t = 2.0s. a t= 3.0s

3 Para cada una de, las situaciones siguientes, trace una gráfica que sea una descripción posible de la posición en función del tiempo de una partícula que se mueve a lo largo de¡ eje x. En t=1s, la partícula tiene:

a) Velocidad cero y aceleración positiva.

b) Velocidad cero y aceleración negativa.

c) Velocidad negativa y aceleración positiva.

d) Velocidad negativa y aceleración negativa.

e) ¿ En cuál de estas situaciones aumentará la velocidad de esta partícula en t= ls?

4. Una roca es arrojada desde un acantilado de 100m de altura, ¿Cuánto tiempo tarda en caer:

a) en los primeros 50.Om

b) en los siguientes 50.Om

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (15 of 16)25/05/2005 13:46:41

Page 105: QUIMICA - Monografias

Mecánica Clásica- Monografias.com

Iván Escalona

[email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (16 of 16)25/05/2005 13:46:41

Page 106: QUIMICA - Monografias

Espistemología - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Epistemología

Algunas implicaciones de carácter espistemológicas y metodologícas de los paradigmas empirico-analítico y fenomenológicos en el contexto investigativo venezolano

A manera de prólogo....

Mediante el presente estudio intentamos presentar un análisis crítico de ciertas consideraciones en torno a la forma como ha venido desarrollando el proceso investigativo en algunos de los centros de postgrado con los cuales he tomado contacto, bien sea como estudiante, docente o asistente en los procesos de investigación. El trabajo recoge algunas experiencias empíricas en torno a la situación en estudio además de revisar algunos materiales que de que le dan un marco conceptual al mismo. Es evidente que al leer los materiales necesitamos reflexionar en torno a la forma como se ha adoptado la investigación, su carácter intensamente pragmático, inserto en la mayoría de los casos en el empirismo, realizando una serie de consideraciones sujetas al fatualismo atomicismo (Tellez, 1996) es decir el uso de dimensiones controlables y medibles que imposibilitan llegar a soluciones conceptuales acordes con los problemas teóricos y metodológicos planteados, el uso y abuso de los esquemas descriptivos en la investigación, desdeñando de alguna forma el proceso de generación o reelaboración de teorías como un aspecto fundamental en la generación del conocimiento

Tal y como se ha planteado en un reiteradas ocasiones la educación de postgrado emerge en el marco de procesos globales acelerados necesarios en la producción de conocimiento derivado de una

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (1 of 14)25/05/2005 13:46:57

Page 107: QUIMICA - Monografias

Espistemología - Monografias.com

complejidad cada vez mayor en las transformaciones tecnológicas, industriales y sociales que impactan de una forma cada vez mayor en las políticas educativas. En nuestro país ha tenido, por estas razones, que vincularse a estos cambios como parte de un proceso de adaptación a los grandes esfuerzos que en esta materia han tenido lugar en el contexto internacional. En Venezuela a partir de la década de los 70 cuando el movimiento educativo entra en una expansión intempestiva de la Educación Superior y por ende de la educación de postgrado, teniendo que entrar en sintonía con entes de carácter nacional e internacionales a los fines de actualizar una serie de prácticas destinadas modernizar un servicio educativo en esta materia eminentemente tradicionalista y escolástico enmarcada en consideraciones empirista.

El proceso de investigación aparece ligado al marco de la hegemonía de tradiciones e ideologías de carácter liberal para las cuales la educación es un instrumento de democratización social, donde esta última depende de las posiciones sociales que permite el acceso a las carreras profesionales Al respecto nos dice Casanova (1986) "Es por ello que una perspectiva analítica puede ser la especificación de estas tendencias en términos de las influencias que ciertos actores ejercen sobre la dinámica de las demandas y la selección de objetivos y opciones programáticas (p54)". Es por esta razón, acota el autor consultado, que la tendencia empírico-analítica cobra una influencia cada vez mayor en el contexto investigacional aportado de los estudios de postgrado a los fines de formular líneas y temas en lo referido a la significación sociológica de ciertos elementos ya inmersos en la política de estado en relación con: la situación de los procesos educacionales en cuanto a prácticas docentes, innovaciones, la posibilidad de generar modos creativos científicos-tecnológicos y culltutales socialmente relevantes, si se toma en cuenta la capacidad real para incentivar procesos de producción de investigación.

El movimiento de los estudios de postgrado en ciencias sociales en el contexto educacional venezolano, ha evolucionado en el marco de un conjunto de premisas tales como la democratización del saber y la selección de talentos; la educación de postgrado dentro de las universidades en centros de investigación y de docencia. La descentralización política y financiera de gestión. La enseñanza separada de la gestión de pregrado; investigación con pertinencia local, la investigación universalista , el cientifisismo desarrollista, entre otros (Ruiz et.al., 1990) Esta situación afianza de una manera más fehaciente la presencia de una perspectiva de carácter empírico analista cuyo análisis profundizaremos en los próximos párrafos de este trabajo.

Consideraciones teórico-conceptuales de las Ciencias Empírico-analíticas

Habermas (1971), en su análisis acerca de los intereses constitutivos considera que el conocimiento se origina y en los intereses humanos y en los medios de organización social. Describe asimismo, los intereses humanos en términos del control técnico y la emancipación relacionada con los

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (2 of 14)25/05/2005 13:46:57

Page 108: QUIMICA - Monografias

Espistemología - Monografias.com

medios sociales de trabajo. La asociación respectiva de los intereses humanos y los medios sociales origina un tipo específico de conocimiento y un medio específico de conocer, o metodología científica.

El autor se manifiesta desde una posición en que el conocimiento tiene raíces históricas y sociales, y está sujeto a los intereses. Para explicar la relación entre el conocimiento y actividad humana, desarrolló la teoría de los intereses constitutivos de conocimiento. Debido a que el conocimiento tiene su génesis en las estructuras sociales pasadas y existentes, sólo puede comprenderse en relación con los problemas que la humanidad ha encontrado y sigue encontrando en la superviviencia.

En este orden de ideas plantea Habermas que los intereses constitutivos del conocimiento pueden definirse exclusivamente en función de los problemas de la preservación de la vida, constituidos objetivamente y que han sido resueltos por la forma de existencia cultural como tal. Asimismo contempla los intereses constitutivos de conocimiento como los medios a través de los cuales organizamos la experiencia diaria, en efecto, “nuestros” intereses organizan “nuestra” percepción y conocimiento de la realidad en forma estructurada. Cada uno de nuestros intereses cognoscitivos discretos sobre el control de la naturaleza, la armonía social y el crecimiento del individuo responde a un problema diferente en la experiencia humana.

En la conceptualización de Habermas se establece que los distintos intereses humanos exigen formas de conocimiento diferentes que requieren de metodologías científicas distintas (procesos del saber) basados en formas de racionalidad diferente pero internamente coherentes. Para Habermas la racionalidad tiene menos que ver con la posesión de conocimiento, que con la forma en que los sujetos que hablan y actúan adquieren y utilizan el conocimiento. Cada método científico es un proceso racional y válido para conocer dentro de su dominio el conocimiento. La idea esencial es la inconveniencia de someter todas las formas de saber humano a una sola forma de metodología o racionalidad. En particular Habermas critica la aplicación de la orientación tecnológica de las ciencias naturales (positivismo); o la aplicación de la orientación subjetiva hermenéutica (fenomenología) como criterios exclusivos para determinar la validez de todas las formas de conocimiento. Situación esta que ha ocupado gran parte del panorama investigartivo de nuestras universidades.

Por su parte Carr y Kemmis (1986), consideran la interpretación que hace Habermas de los intereses, el conocimiento y la ciencia, como un intento de identificar la importancia y los límites de las explicaciones empíricas y causal hermenéutico-interpretativa.sobre la base de la descripción que hace Habermas de la ciencia social crítica dirigida a trascender los límites del saber inherentes a las ciencias naturales e interpretativas. Estos autores proyectan una ciencia de la educación crítica.

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (3 of 14)25/05/2005 13:46:57

Page 109: QUIMICA - Monografias

Espistemología - Monografias.com

Es así como Habermas a su vez, plantea una alternativa intersante en el contexto de los Intereses constitutivos como lo son los intereses técnicos de la gente, que se reflejan en la necesidad de controlar y de manipular el ambiente externo para satisfacer sus necesidades de abrigo, alimento, etc. Estos intereses, expresados a través del medio de trabajo se concentran en la producción material necesaria para nuestra existencia. La racionalidad que integra los intereses técnicos, el trabajo y la ciencia empírico-analítica es una racionalidad instrumental referida a la manipulación y el control del ambiente;la predicción de eventos físicos y sociales observables; la realidad basada en el conocimiento empírico y gobernada por reglas técnicas; y los criterios de control efectivo de la realidad

Desde esta perspectiva, las acciones racionales son intervenciones orientadas en función de los objetivos y controladas por retroalimentación en un mundo supuestamente objetivo. Habermas hace la crítica de que la racionalidad instrumental inherente a este tipo de interés constitutivo de conocimiento, ha llegado a ser una ideología extendida. Es ideología cuando se aplica la realidad instrumental sin comprobación válida como criterio para todas las formas y dominios del conocimiento. El resultado final es la reducción de los asuntos morales y estéticos, educativos y políticos a problemas técnicos: el por qué y el qué se reducen al cómo.

Las ciencias empírico-analíticas o naturales, son las metodologías científicas que producen, en una forma técnica, el conocimiento útil. El énfasis en la predicción y el control de los procesos objetivos se relacionan directamente con los intereses técnicos. La base filosófica de esta forma de conocimiento es el positivismo. En esta corriente se afirma que sólo puede establecerse el conocimiento válido en referencia a la realidad externa, experimentada por los sentidos. Este enfoque se basa en la presunción ontológica del mundo objetivo, como la suma total de lo que es, el caso, y clarifica las condiciones de la conducta racional en esta base. Las ciencias empírico-analíticas se basan en ideales de explicación, predicción y control. En este enfoque la acción individual no es resultado de una conciencia reflexiva subjetiva., en vez de ello, la acción individual siempre se observa como algo gobernado por las leyes funcionales invariables que operan fuera del control personal de los actores individuales (Carr, y Kemmis 1986).

El paradigma empírico-analítico en las investigaciones de posgrado

El propósito del saber empírico análitico es descubrir regularidades similares a leyes para aplicarlas a la praxis educativa y mejorar la eficiencia. Describe el centro de esta perspectiva de la siguiente manera: Sobre la parte no subjetiva (observable) el objeto de la metodología de la conducta

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (4 of 14)25/05/2005 13:46:57

Page 110: QUIMICA - Monografias

Espistemología - Monografias.com

humana, el objetivo de la metodología de la ciencia de la conducta es descubrir las causas y efectos empíricos que gobiernan y explican la conducta, y la organizan en enunciados de hechos similares a leyes sujetos a verificación por observaciones objetivas. Estos son hechos que han servido de marco a la generación de un conocimiento muchas veces no sustentado desde una perspectiva crítica y teórica- Coincidiendio en este planteamiento con el de Tellez (1996) para quien el reconocimiento del papel de la teoría en la investigación se ha generalizado de un modo tal que continua vigente la ausencia de toda preocupación por los supuestos epistemológicos fundantes de la teoría y de las modalidades de efectuación de las prácticas investigativas; ausencia que suele adoptar la forma de rechazo a lo que se consideraron “discusiones estériles” y/o la del entendimiento del papel de la teoría en la investigación como mera aplicación de teorías dadas. En cualquier caso, las consecuencias son las mismas: la aceptación acrítica de teorías y, como correlato, la imposibilidad de que la investigación se oriente a la modificación de los conocimientos existentes y, menos, a la emergencia de nuevas construcciones teóricas, lo cual comporta, simultáneamente, la idea y práctica de asumir las teorías como no analizables, como sistemas no susceptibles de ser interrogados y cuestionados con relación a sus criterios y pretensiones de verdad.

Otras de las razones que analiza la autora atañe al reconocimiento del carácter insoslayable de la reflexión epistemológica en el proceso mismo de las prácticas investigativas pues, si toda práctica investigativa comporta la adopción de determinados enfoques teóricos, tal adopción presupone -reconózcase o no la de los criterios epistemológicos que fundan y definen la naturaleza y alcance de dichos enfoques en tantos modos de entendimiento teórico de los social. El desconocimiento del estatuto epistemológico que rige todo discurso teórico no deja de tener efectos en el proceso y resultados de la investigación, efectos traducidos en las inconsistencias teórico - metodológicas que recorren desde el planteamiento del campo problemático objeto de investigación hasta la sistematización expositiva de los resultados. El relativo control de estos efectos reclama del investigador una definición respecto de problemas claves que son de índole epistemológica, entre ellos: (a) La concepción de lo real social y sus implicaciones en la investigación de particulares procesos sociales. Concepción que comporta la relativa a las relaciones de interdependencia entre los distintos niveles de estructuración de tales procesos, y, así, la exigencia de categorías de análisis que posibiliten la construcción teórica como puesta en evidencia de la red de determinaciones de los fenómenos construidos como objetos de conocimiento; (b) Los vínculos entre teoría e investigación de lo social, las orientaciones ideológicas y la direccionalidad de las prácticas sociales en las que busca intervenir; (c) La concepción del proceso de conocimiento de lo social, en la que se sitúan cuestiones tales como: los modos de proceder a la delimitación o "recorte" de los problemas - objetos de investigación y su dependencia respecto de los modos de concebir la constitución de los procesos específicos en el seno de la totalidad social de los que forman parte; las formas de concebir y efectuar procedimientos de análisis y síntesis; la relación teoría - métodos y, en su contexto, el alcance de las teorías que suelen ser aceptadas o rechazadas en la efectuación de las prácticas investigativas.

Desde la perspectiva instrumental, la enseñanza se convierte en un manejo de fines y medios estandarizados; el aprendizaje se convierte en el consumo de paquetes preparados de porciones de información y partes de habilidades. El éxito se manifiesta cuando los docentes y los estudiantes se

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (5 of 14)25/05/2005 13:46:57

Page 111: QUIMICA - Monografias

Espistemología - Monografias.com

desempeñan como se les ha dirigido. Con el éxito del estudiante como objetivo el enfoque instrumental se concentra en herramientas, recursos, ambientes, técnicas. Los docentes y los estudiantes como medios para aquél fin determinado. Los sistemas educativos se contemplan como un sistema de entrada y salida., donde ingresan recursos y materia prima por un extremo, y por el otro sale un producto terminado, un estudiante “educado” exitoso. Dentro de este sistema de entrada, los problemas educacionales se consideran bloqueos causados por conductas inadecuadas del docente, las insuficiencias del estudiante, o bien, el deficit de recursos.

En cuanto a la crítica del uso de la racionalidad instrumental, Habermas (1971-1984) se basa en dos líneas de argumentación. La primera critica del uso de la racionalidad instrumental, a pesar de sus limitaciones, como criterio para todas las formas de conocimiento. La racionalidad instrumental rechaza categóricamente que los valores pueden determinarse racionalmente, aunque ella misma se basa en la presuposición de valores de efectividad y eficiencia. El segundo argumento se concentra en la universalidad real de las relaciones similares a leyes reportadas. Habermas hace la distinción entre relaciones de causa efecto invariables que siempre serán verdaderas en todas las situaciones, y las relaciones causa efecto que existen debido a los factores y condiciones sociales que pueden cambiar

Es así como en este paradigma la acción social consiste en: la realización de enunciados que se justifican desde el punto de vista objetivo, la actuación eficiente y el aprendizaje de los errores pasados. El razonamiento instrumental, que niega que los valores puedan analizarse racionalmente dentro de su marco racional., no puede indentificar qué valores deben o no, perseguirse. Fisher (1980), argumenta que el mejor curso de acción no es el curso más eficiente y efectivo para alcanzar los fines deseados. El mejor curso de acción es el que está respaldado por las mejores razones. Esto es particularmente cierto en la educación. Las decisiones en educación son simplemento instrumentales; se realizan en medio de antecedentes de intereses políticos, profesionales y públicos, donde podría no permitirse el curso de la acción más eficiente

Otro aspecto necesario considerar en el contexto del uso de la perpestiva empírico-analítica en las investigaciones acometidas por nuestras universidades lo constituye el hecho que Tellez (1996) considera como el fatualismo y atomicismo de acuerdo con las reglas del cientificísmo, que en esta corriente se estructuran de una particular manera: la de delimitar/configurar los campos de investigación como entidades observables, susceptibles de ser traducidas en dimensiones controlables y medibles. De esta manera, el ajuste de prácticas investigativas a tales reglas impide que aquellas rebasen la capacidad de controlar y medir de acuerdo a los procedimientos e instrumentos metodológicos que están al alcance del investigador. Los criterios de cientificidad y su expresión en la exigencia de manipulabilidad de los "objetos" dan lugar a la necesidad de adecuarlos a los requerimientos del método, más estrictamente, a los requerimientos tecno-metodológicos con los que aquel suele identificarse.

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (6 of 14)25/05/2005 13:46:57

Page 112: QUIMICA - Monografias

Espistemología - Monografias.com

Sobre la base de lo planteado cabe subrayar que, en y desde la epistemología empírico - analítica, lo que se enuncia como objeto de investigación, supuestamente "extraído de la realidad", es ya, de por si, un método delimitado, "recortado", configurado a la medida de los requerimientos de cientificidad aceptados sin discusión. Los objetos enunciados incorporan su entendimiento tal y como tienen que ser: objetos con arreglo a dichos requerimientos y a los procedimientos técnico - metodológicos correspondientes. Los objetos de investigación son susceptibles de ser tratados científicamente sí y sólo sí admiten su adecuación a los cánones empírico-naturalistas de cientificidad: la observación controlada, el cotejo controlado de hipótesis a los efectos de su verificación empírica; cánones que aparecen y se asumen como supuestos sin discusión, pero que fundan la configuración de los objetos en tanto objetos que permiten un "tratamiento científico"; es decir, que sean controlables, medibles.Es así como delimitados y/o configurados, los objetos de investigación disuelven todo vínculo con su construcción teórica y metódica, pues tal delimitación y configuración suelen darse como operaciones que nada tienen que ver con dicha construcción, lo cual tiene dos consecuencias fundamentales: (a) convertir estas operaciones en aplicación experimental de hipótesis o teorías aceptadas como científicas, sin discusión; (b) soslayar todo campo problemático de investigación que no responda a la condición de ser "científicamente tratable", en los términos que ya hemos referido.

Es con relación al modo metodologista de delimitar/configurar los problemas de investigación donde cabe situar el carácter factualista/objetivista y atomista de las tendencias teóricas e investigativas en las que se despliega el paradigma empírico - analítico que las funda. El carácter factualista/ objetivista se estructura como efectuación del supuesto según el cual "la" ciencia se ocupa de particulares dados en tanto que observables; dados, bien en el momento de las observaciones fácticas o experimentales, bien en el momento del control/verificación de hipótesis y teorías. En este supuesto arraiga el entendimiento del discurso científico-social como discurso que, referido a lo que es en cuanto observables, ha sido empíricamente contrastado y comprobado, o es empíricamente contrastable y comprobable. Y, con ello, la consideración de dicho discurso como opuesto al discurso valorativo; oposición en la que se sitúa la exigencia de excluir todo valor y todo juicio de valor.

Al factualismo/objetivismo responde, también, el predominio de procedimientos analíticos, consustancial al propósito que le es asignado a la investigación social: el logro de conocimientos relativos a conexiones causales de orden funcional. Tal privilegio comporta la anulación de la síntesis como reconstrucción teórica de la complejidad constitutiva de los fenómenos sociales y, con ello, la restricción de la actividad investigativa al estudio de "variables" y al establecimiento de relaciones de causalidad funcional entre ellas; variables que se definen sin vínculo alguno con categorías de análisis y que ocupan el lugar de estas en el estudio de lo real social. De tal manera, el análisis deviene atomismo, propio de una concepción para la cual los objetos de investigación no son sólo objetos dados sino, más estrictamente, dados atomísticamente, objetos en sí, total y absolutamente descontextualizados respecto de las redes de relaciones sociales y a la generación de un conocimiento globalizante de la situación problemática planteada

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (7 of 14)25/05/2005 13:46:57

Page 113: QUIMICA - Monografias

Espistemología - Monografias.com

En los límites de tal concepción, finaliza la autora, está presente en enfoques teóricos y en prácticas investigativas, los hechos observables como "hechos en si" constituyen la realidad básica y última de lo existente y de su conocimiento; de allí que sean estos límites los que, de manera simultánea, determinen el no lugar para las categorías de análisis indisociables de la construcción teórica dirigida a la evidenciación de la red de determinaciones sociales que estructuran ámbitos particulares de lo real social.

El papel dominante de la teoría en el proceso de investigación

Para Castell (1981), la perspectiva empirista tradicional dentro de la cual la teoría resulta de una interpretación a partir del análisis de datos coleccionados sin un bagaje intelectual, está fundada en la afirmación de la neutralidad de los datos, sobre su existencia objetiva y no pidiendo más que un proceso de puesta en relación a fin de organizar la materia prima de esta realidad social directamente captada. Es normal que siendo la "teoría" el resultado de una secuencia técnica que va de los datos al análisis lógico o estadístico, pueda estar fuera del proceso mismo y que la diversidad del cuadro teórico no implique variaciones sustanciales de los procedimientos de investigación. Ahora bien, es esta neutralidad teórica de los datos la que es enteramente puesta en juicio a medida que se profundiza en la investigación metodológica.

Un primer nivel de critica, analiza el autor, podría ser que la recopilación de datos descansa siempre sobre la previa clasificación de estos datos, ya sea conforme a las categorías ad hoc según los propósitos de la investigación, o bien a los términos de la práctica administrativa, o más generalmente del lenguaje corriente. Sin una reelaboración teórica se hace imposible controlar los efectos de los datos codificados a partir de los resultados de la investigación Surge el planteamiento del emprirismo lógico que no hay en la ciencia demostración de la verdad de una proposición, sino de su no falsedad, de la no contradicción entre proposición teórica y experiencia actual realizada.

Si esto es así, está claro que la inferencia causal en sociología no puede partir de hechos sino ir hacia ellos, poniendo a prueba una cierta hipótesis y en consecuencia un contenido teórico determinado, siguiendo la lógica de los test estadísticos. El argumento decisivo es, sin embargo el que toca la lógica misma del análisis causal. Toda relación a establecer en un sistema de variables se apoya sobre la hipótesis, es decir, la distribución al azar de los efectos de las variables no estudiadas en las variables tomadas en consideración y sus relaciones. Esta autonomía de un sistema de relaciones empíricamente establecido es arbitraria, a menos que esta delimitación esté teóricamente justificada, es decir, que la elección de las variables internas al sistema observado y las hipótesis relativas a las variables externas al sistema implican necesariamente una teoría sustantiva que da un sentido a las operaciones efectuadas.

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (8 of 14)25/05/2005 13:46:57

Page 114: QUIMICA - Monografias

Espistemología - Monografias.com

En este orden de ideas Tellez (1996) acota que no es que se pretende afirmar que éstos sean los únicos problemas susceptibles de ser considerados; sin embargo, dentro del campo de los posibles problemas no deben ser eludidos en tantas cuestiones epistemológicas actuantes en las tenencias teóricas e investigativas en torno a lo social. Acotar los términos en que dichos problemas son planteados en y desde las opciones epistemológicas en debate, permite advertir el alcance de las divergencias o convergencias entre dichas tendencias. Al respecto es necesario considerar: (a) el estado actual de la teoría e investigación social, caracterizado por una profunda crisis de fundamentación tiene, entre sus fuentes primordiales, la adopción acrítica y la presencia hegemónica de la epistemología empírico - analítica, una opción que en su despliegue efectivo como epistemología fundantes de teorías y prácticas investigativas no sólo fijo prescripciones relativas al "auténtico conocimiento científico" sino también, en ellas y con ellas, determinadas proscripciones. En efecto, teorías e investigaciones realizadas bajo la íntima convicción de que la ciencia consiste en la adquisición y ampliación de conocimientos autofundados, autoconfirmados, se prohiben interrogar sus criterios de fundamentación - los que fundan su estatuto epistemológico -, su inscripción histórico social, sus implicaciones ético - políticas; se prohiben, para decirlo con las palabras de Edgar Morin, "pensar los pensamientos", "teorizar las teorías", "concebir los conceptos"1 . Por ello, sigue siendo necesaria la tarea dirigida a evidenciar los límites que tal posición epistemológica ha impuesto al conocimiento de los social, a esta tarea intenta contribuir nuestra reflexión.

El enfoque fenomenológico como un paradigma en el contexto investigativo

Un aspecto a considerar en esta discusión relativa a la investigación, es el surgimiento de algunas "nuevas" problemáticas es la aparición en nuestro contexto educacional de la fenomenología lo que se observa cuando se analizan distintos autores surge la necesidad de emprender nuevos derroteros epistemológicos, es decir, existen algunos elementos que necesitan ser revisados, a pesar que para algunos autores la fenomenología es un pensamiento de comienzos de siglo, incluso muchos de sus elementos pueden estar dentro de la filosofía de los griegos. La emergencia de la fenomenología es de data reciente, la decada de los '60 y esta emergencia de un pensamiento fenomenológico ha sido contextualizada en los siguientes términos: en primer término el surginiento de algunas nuevas problemáticas -la famosa crisis de los nuevos paradigmas-. Ese primer telón de fondo sobre el cual podemos colocar la emergencia de este pensamiento se basa ante las carencias de los paradigmas dominantes, tanto en filosofía como en las ciencias sociales en general. Éstas tenían que ver más con posiciones sistémicas o sistemológicas, en las cuales la problemática aún en el pensamiento más fuerte de corte estructural existe un tratamiento hacia los actores. El problema del auge de la fenomenología se encuadra, como acotamos dentro de esa crisis de los paradigmas, aquellos enfoques de corte sistémico en los que el sujeto no estaba presente es reinvindicado por investigaciones de corte fenomenológico en donde el sujeto parece recibir más atención como parte integradora del medio a investigar.

Una segunda posición es que las corrientes interpretativas aparecen por primera vez como una

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (9 of 14)25/05/2005 13:46:57

Page 115: QUIMICA - Monografias

Espistemología - Monografias.com

circunstancia investigable, son enfoques que privilegian al sistema social a las estructuras en donde el ángulo hermenéutico o fenomenológico se sitúan desde la perspectiva del autor. En sus inicios estas corrientes fueron acusadas de idealistas, metafísicas e individualistas no se reconocían la verdadera importancia que tenía estos enfoques como una perspectiva diferente. Un tercer elemento es que parece estar claro es cómo ciertas orientaciones postmodernas que cancelan la historicidad de la praxis humana, tales como la "muerte del sujeto", la "muerte de la historia" y de las grandes concepciones, de los grandes metarrelatos de Lyotard. Todo esto hace pensar que otra vez el actor aparezca en un primer plano del contexto investigativo.

El contexto investigativo fenomenlógico tiene un asidero importante como elemento contextualizante en las demandas del pensamiento social por una crisis general de la acción social que situe de manera correcta los problemas de la vida cotidiana y los nuevos procesos de estructuración social, es decir, un enfoque que vaya más allá de los actores. Una teoría general de la acción en donde los actores aparezcan históricamente constituidos, no como un dato, sino que la necesidad de la vida cotidiana sea repensada fuera de un esquema alienante, como una posibilidad de emancipación a través de esa vida cotidiana. Es decir, que lo cotidiano por necesidad está condenado a legitimar el orden social; por lo vivido: la experiencia vivida termina siendo no más que vivir en el sistema, dentro de la lógica del propio sistema. Esa concepción de la vida cotidiana tiene que ser vista desde otra perspectiva y ello implica una teoría más amplia de la acción social.

Algunos problemas que surgen de la contextualización de la fenomenlogía

El primer problema es la acción social y los actores sociales. Debe entenderse la sociedad, la actividad y el comportamiento de los hombres en sociedad que sigue una línea de acción. Pero ésta no es la única forma de actuación, entendida a través de la praxis. Se pensó que la praxis era nada más aquella que tenía un sentido histórico o que tenía un sentido transformador. Cuando se habla de conductas o de comportamientos repetidos o reiterados se sale de la esfera de la praxis. Es decir la praxis entendida como un contenido mesiánico con un criterio historicista que con un contenido de lo cotidiano; lo cual llevó necesariamente a reflexionar sobre la praxis.

Otro problema que surge, es de cómo entender a los actores ¿Cómo separar a los actores, de individuos de personas, del sujeto? Cuando nos referimos a conjuntos sociales; es decir, los trabajadores como actores sociales del proceso de producción en una sociedad determinada valdría la pena preguntarse ¿Qué carácter tiene el actor? ¿Cómo es su papel frente a la sociedad? ¿qué papel cumple en una determinada coyuntura social?. El actor debe tener una competencia para actuar socialmente y además deberá tener flexibilidad para actuar, o como traducen las teorías neoliberales que sea racionalmente capaz de actuar en la lógica de sus propios fines y que busque los medios que le sean

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (10 of 14)25/05/2005 13:46:57

Page 116: QUIMICA - Monografias

Espistemología - Monografias.com

competentes para lograrlos. El actor se dimensiona o se sobredimensiona en función de as situaciones y contextos que le tocan vivir.

Es necesario reflexionar sobre si el “acto” y “acción” es lo mismo. es decir, si la acción no puede generarnos actos que no estaban previstos. por ejemplo: lo que uno llama “efectos perversos”. Hay toda una corriente que trata de estudiar los actos no intencionados de la acción social que logran tener una fuerza social impresionante. A manera de ejemplo cuando nos inhibimos de participar en algo, estoy participando. Es decir, cuando dejo de votar estoy participando en el juego de la abstención con todos los efectos que se conocen en torno a esta situación. Entonces uno se encuentra conque los actos no intencionados de la acción social son predominantes para definir la acción misma.

Una sociedad define la actuación de sus miembros y le define también metas a sus miembros en parámetros que le sean racionales para el mantenimiento y la reproducción del sistema. Dentro de la misma línea problemática de la acción social y de los actores cabría preguntarse acerca de la motivación de la acción ¿qué motiva la acción?y en un concepto más cercano a la fenomenología: qué es la intencionalidad de la acción.

Cuando se analiza socialmente la intencionalidad de los actores se ve que hay mucha más correspondencia entre la actuación de los actores y la forma cómo esta organizada la sociedad. Esta sociedad define un proyecto que aparentemente son los proyectos de todos, es decir, cuando se establece el sistema normativo de la sociedad, lo está haciendo con la idea de que este sistema normativo sea aceptado por todos; allí la ignorancia no exime el cumplimiento.

Otro gran problema es la relación entre la acción social y la estructura social. (relación individuo-sociedad). Es decir en qué planos, en qué niveles , qué dimensión se debe colocar la acción que los distintos actores hacen en la vida social: y quién estructura la vida social. Nosotros vivimos en un mundo que ya encontramos organizado, socializado y todo pretende mostrarnos cómo vivir en ese mundo. Las estructuras sociales han sido constituidas por las actividades de los sujetos o de los individuos y que en esa forma de organización de la actividad en estructuras, es decir en formas de prácticas y actividades que ya están dadas o aparecen dadas. Hablando dialécticamente nos interesa tanto las estructuras sino como se estructuran esas estructuras.

Por lo tanto la dinámica que rige la formación de la vida social y cómo se estructura el mundo de la vida , y cómo la acción social se relacionan con las estructuras, es un problema sumamente importante porque no es un problema directo, no es un problema consecuencial, no es un reflejo como

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (11 of 14)25/05/2005 13:46:57

Page 117: QUIMICA - Monografias

Espistemología - Monografias.com

pensaba el “viejo marxismo”es decir, n actuaba como reflejo de una estructura de una sociedad dada.

Otro concepto que vale la pena analizar es el de “mediación social” la acción social y la de todos los que orgánicamente vivimos en una sociedad , nos permite conocer a la sociedad que está estructurada no de una manera inmediata, sino más bien de una manera mediatizada: por eso nuestras respuestas no son uniformes ni son homogéneas , y esa mediatización la hacen unos organismos determinados, o la hacen unos vehículos determinados que actúan como mediador. El gran mediador por ejemplo es el lenguaje: asimismo, los medios de comunicación, la familia las instituciones, etc.

Los medios masivos de información han radicalizado nuestras vidas, su influencia es definitiva en la conformación de las escalas de valores en las estructuras normativas En el mundo moderno no se puede hablar de información, ni de opinión, ni de conformación de valores sin partir de la influencia positiva o negativa de los medios de comunicación (es el gran mediador por excelencia).

Otro problema que afrontar serían los discursos de la acción. La discursividad de la acción nos introduce en las teorías del lenguaje nos problematiza la manera cómo nosotros prefiguramos simbólicamente la acción. En los discursos de la acción cabría anotar varios problemas: la forma cómo se constituyen esos discursos, la cultura es un campo bien importante para entender la forma cómo se arman o se traman los discursos. otro problema es la competencia del actor en hace inteligible para el otro el significado de su propia acción. Una acción se le pueden dar una gran cantidad de significados que tienen que ver con aspectos culturales, con los valores,etc. En cuanto a los significados del discurso desde la óptica fenomenológica, los autores parten de una tesis sencilla tal y como “toda acción es significativa” la significatividad de mi acción es lo que la hace inteligible para los otros. Entonces quiere decir que la significatividad no es lineal, ni está previamente definida sino que hay que verla dentro de una teoría general de la acción en donde pueden aparecer actos no intencionados, no deseados, o actos n deseados pero reprimidos y ahí tiene que ver con la sociedad, la cultura y muchas maneras de entender.

Recogiendo el pensamiento fenomenológico, hay acciones que están inscritas en el mundo, la vida, son acciones que tienen que ver con el mundo natural, con una actitud natural del actor. Existen otro tipo de acciones las “acciones con arreglo a fines” y “acciones con arreglo a valores” que son acciones que tienen conductas relacionadas con la política, la religión, la moral, etc. Asimismo existen las acciones no intencionadas que aparecen como desviaciones de lo que se supone es la actitud normal o natural. y las acciones no están pensadas racionalmente.

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (12 of 14)25/05/2005 13:46:57

Page 118: QUIMICA - Monografias

Espistemología - Monografias.com

Si el centro de la actividad de los actores, en donde se define su actitud natural, su actitud ante el mundo, según los fenomenólogos, es la vida cotidiana o el mundo de todos los días, el mundo que está allí. Es el mundo que necesita ser reflexionado, que es evidente por sí mismo. En la cotidianidad es donde se encuentran los elementos que le dan sentido a la vida, a las vivencias. Construir el mundo de la vida cotidiana es asignarle significados (tipificar el mundo cotidiano). Una primera tipificación es preguntar ¿Quién es otro? con el cual interactúo y establezco mis acciones y le transmito mis significado- ¿Quién es mi semejante? es comprender la significación que el otro le da a mi planteamiento para construir del mundo en donde yo vivo. Sin embargo, la expresividad humana debe ser capaz de objetivarse, o sea manifestarse en productos que estén al alcance y comprensión de otros. Dichas objetivaciones sirven como índices más o menos duraderos de los procesos subjetivos de quienes los producen, lo que permite que su disponibilidad se extienda más allá de la situación “cara a cara” (Berger y Luckman, 1987).

Algunas reflexiones en torno a lo planteado en este trabajo...

Es evidente que la mayoría de nuestras investigaciones han sido inscritas en el marco del paradigma empírico-analitico, haciendo uso de los fundamentos de la racionalidad instrumental como han planteado Habermas y otros autores estudiados; quizás el no insistir en consideraciones de tipo teórico a la hora de estudiar a fondo de los resultados de un trabajo de esta naturaleza ha llevado a que estas reflexiones no se les de la debida connotación. Sin embargo, y para beneficio de la producción de ese conociemiento que tanta falta le hace a nuestro sistema educativo se ha estado gestando y ya están sisponible una nueva generación de investigadores que ya tienen en cuenta un rumbo críitico y analíiitico en torno a las consideraciones de tipo epistemológico necesarios en un proceso investigativo.

Existe en el movimiento investigativo una suerte de empuje de toda esta metodología de carácter social y críitica que ya se está aplicando en las diferentes estudios acometidos.

Por estas razones se hace necesario una toma de consciencia de los investigadores sociales y las entidades que tiene a su cargo la difusión de estas corrientes, el hacer llegar a la masa docente, ávida de conocimiento, pero sin muchas oportunidades de asumirlos por cuanto los curricula actuales de la mayoría de los centros de estudios de posgrado parecieran no hacerce partícipes de esta realidad.

Bibliografía

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (13 of 14)25/05/2005 13:46:57

Page 119: QUIMICA - Monografias

Espistemología - Monografias.com

Berger H.Luckman B. (1987) La vida cotidiana

Casanova J. La Educación de posgrado

Castell M. (1981) Métodología y epistemología de las ciencias sociales "Ed. Ayuso Madrid

Carr W. Kemmis B. (1986) Ciencia social crítica

Tellez M.(1996) "Espistemología y educación. Estudio sobre la pesrspectiva empírico analítica.Cuadernos de posgrado Nº 13 UCV.

Habermas J. (1971) "La lógica de las ciencias sociales . edt Tecnos

Ruiz C. Girón T. Ramirez R. (1990) "Evaluación del Programa de Especialización en Evaluación Educativa que Llevado a Cabo en el Instituto Pedagógico J.M.Siso Martínez" trabajo presentado en el marco de las XI jornadas de Investigación UPEL Caracas.

Trabajo enviado por: Carlos M.. Ruiz P. [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (14 of 14)25/05/2005 13:46:57

Page 120: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Fuerza y movimiento

1. Leyes de Newton I2. Fuerza y movimiento

1.8E Hay dos fuerzas que actúan sobre una baja de 2.0 kg de la fig. 2 pero solo una es mostrada. La figura también muestra la aceleración de la caja. Encontrar la segunda fuerza:

a. En connotación de unidad vectorial y b. b) En magnitud y dirección.

2.12E ¿Cuáles son la masa y peso de: a) Un trineo de 1400 lb y b) de una bomba de calor de 421 kg?

3.15E Una cierta partícula tiene un peso de 20N en el punto donde la aceleración de la caída libre es de

9.8 m/s2.

a. ¿Cuáles son el peso y la masa de la partícula donde el punto de la aceleración de la caída libre es de 9.4 m/se?

b. ¿Cuáles son el pero y masa de la partícula sí esta es movida a un punto en el espacio donde la aceleración de la caída libre es cero?

4.18E Un salami de 11 kg esta sujeto por un cordón que va del techo (fig 1ª);

a. ¿Cuál es la lectura de la escala (fig 1b) si el salami esta sujeto por un cordón que va alrededor de una polea y a una escala. El lado opuesto de la escala está sujeto por un cordón que va a una

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (1 of 7)25/05/2005 13:47:15

Page 121: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

pared.b. ¿Cuál es la lectura de esa escala?c. En la fig 1c, la pared a sido remplazada por un segundo salami a la izquierda y el ensamblaje esta

estacionario. ¿Cuál es la lectura en la escala ahora?

5.21E Un trineo cohete experimental puede ser acelerado a una cifra constante desde el reposo de 1600 km/h en 1.8 segundos. ¿Cuál es la magnitud promedio de la fuerza requerida, sí el trineo tiene una masa de 500 kg?

IPN-UPIICSA PRÁCTICA Nº2 Mecánica Clásica

LEYES DE NEWTON I

1.23E Si un núcleo captura un neutrón desorbitado, éste deberá atraer al neutrón hasta pararlo dentro del diámetro del núcleo por medio de una gran fuerza. La fuera que mantiene al núcleo unido, es esencialmente cero fuera del núcleo. Suponiendo que el neutrón desviado con una velocidad inicial 1.4 x 107 m/s2 es capturado justo por un núcleo con un diámetro d = 1.0 x 10-14 m. Asumiendo que la fuerza del neutrón es constante encontrar la magnitud de esa fuerza. La masa del neutrón es de 1.67 x 1027 kg.

R: |F|= 16N

2.27E Referirse a la fig 1 dado que la masa del bloque es de 8.5 kg y el ángulo • = 30º. Encontrar:

a. La tensión en la cuerda

b. La fuerza Normal actuando sobre el bloque

c. Si la cuerda se corta, encontrar la magnitud de la aceleración del bloque

R: a) 42N, b) 72N, c) –4.9 m/s2

3.32E Un electrón es proyectado horizontalmente a una velocidad de 1.2 x 107 m/s hacia un campo

eléctrico que proporciona una fuerza vertical constante de 4.5 x 10-6 N sobre ella. La masa del electrón es de 9.11 x 10-31 kg. Determinar la distancia vertical que el electrón es rechazado durante el tiempo que se a movido 30 mm horizontalmente.

R: 1.5 x 10-3 m

4.36P Una niña de 40 kg y un trineo de 8.4 kg están en la superficie de un lago congelado separados por un cuerda de 15m. Por medio de la cuerda la niña proporciona una fuerza de 5.2N, jalando hacia ella:

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (2 of 7)25/05/2005 13:47:15

Page 122: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

a. ¿Cuál es la aceleración del trineo?b. ¿Cuál es la aceleración de la niña?c. ¿Qué tan lejos de la posición inicial de la niña se encuentran asumiendo que no actúa ninguna

fuerza de fricción?

R: a) 0.62 m/s2 b) 0.13 m/s2, c) 2.6m

5.38P Una esfera de masa 3 x 10-4 esta suspendida de un cordón. Una brisa horizontal constante empuja la esfera de modo que el cordón forma un ángulo de 33º con la vertical cuando esta en reposo. Encontrar:

a. La magnitud del empuje;b. La Tensión en el cordón.

R: a) 2.2 x 10-3N, b) 3.7 x 10-3N

IPN-UPIICSA PRÁCTICA Nº3 Mecánica Clásica

FUERZA Y MOVIMIENTO

1.40P Dos bloques están en contacto sobre una mesa sin fricción. Una fuerza horizontal se le aplica a una bloque como se muestra en la fig 1. Si m1 = 2.3 kg, m2 1.2 kg y F = 3.2N,

a. Encontrar la fuerza entre los dos bloques.

b. Demuestra que si un fuerza de la misma magnitud F se le aplica a m2 pero en dirección opuesta,

la fuerza entre los dos bloques es de 2.1N, el cual, no es el mismo valor en el inciso (a) explica la diferencia.

R: a) 1.1N, b) 2.1N

2.43P Un elevador y su carga tiene una masa combinada de 1600 kg. Encontrar la tensión en el cable de soporte cuando el elevador originalmente moviéndose hacia abajo a 12 m/s llegue al reposo con una aceleración constante a una distancia de 42m.

R: 1.8 x 104N

3.51P Una persona de 80 kg esta haciendo paracaidismo y experimentando una aceleración hacia abajo a 12 m/s, la masa del paracaídas es de 5 kg.

a. ¿Qué fuerza hacia arriba es ejercida en el paracaídas abierto por el aire?

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (3 of 7)25/05/2005 13:47:15

Page 123: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

b. ¿Qué fuerza hacia abajo es ejercida por la persona en el paracaídas?

R: a) 620N, b) 580N

4.54P Imaginar una nave aterrizando acercándose a la superficie de Calisto, una de las lunas de Júpiter, si los motores proveen una fuerza hacia arriba de 3260N, la nave desciende a velocidad constante, si los motores proveen únicamente 2200N, la nave acelera hacia abajo a 0.39 m/s2.

a. ¿Cuál es el peso de la nave aterrizando en la cercanía de la superficie de Calisto?

b. ¿Cuál es la masa de la Nava?

c. ¿Cuál es la aceleración de la caída libre cerca de la superficie de Calisto?

R: a) 3260N, b) 2.7 x 103 kg, c) 1.2 m/s2

5.56P Una cadena consiste de 5 eslabones, cada uno de masa de 0.100 kg, es elevada verticalmente con

una aceleración constante de 2.50 m/s2 como se muestra en la fig 2, determinar:

a. La fuerzas que actúan entre los eslabones adyacentes

b. La fuerza F ejercida en el eslabón de arriba por la persona que levanta la cadena

c. La fuerza neta que esta acelerando a cada eslabón

R: a) F12 = 1.23N, F32 = 2.46N, F43 = 3.69N, F54 = 6.16N, b) F45 = F54 = 6.15N, c) 0.25N.

IPN-UPIICSA PRÁCTICA Nº4 Mecánica Clásica

LEYES DE NEWTON I

14.5 Una masa de m1 = 2.2 kg. se mueve en un plano inclinado sin fricción en un ángulo de 30º hacia

arriba de la horizontal, como se muestra en la Fig. 1- Esta conectado por un hilo con masa despreciable que pasa por un polea de fricción y masa despreciable a otra masa m2 = 2.7 kg que cuelga verticalmente sin tocar nada.

a. Dibujo del diagrama del Cuerpo Libre (D.C.L.) de cada una de las masas

b. Calcula la magnitud y dirección de la aceleración de m1

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (4 of 7)25/05/2005 13:47:15

Page 124: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

c. Calcule la tensión en la cuerda.

2.4.4 Un bloque de 50 kg se encuentra en reposo y sostenido en una superficie que esta a 601 sobre la horizontal y que tiene un coeficiente de fricción estático de •s = 0.4 y un coeficiente de fricción cinético •k = 0.3. Encuentre:

a. La magnitud y dirección de la aceleración cuando el bloque se suelta

b. La Aceleración si el bloque hubiera estado ya moviéndose

c. Supóngase que la Fuerza F = 100N, esta ahora ejercida en el bloque paralela al inclinado, dirigida hacia arriba, y para empujar el bloque hacia arriba por la superficie inclinada. ¿Cuál es la aceleración?

3.4.3 Un estudiante desea determinar el coeficiente de fricción estático entre un bloque sólido y una tabla de madera. Coloca la tabla sobre una mesa y coloca el bloque en la tabla, y gradualmente va inclinado l orilla de la tabla. Cuándo la orilla de la tabla ha sido levantada 20 cm el bloque se desliza 77.3 cm hacia abajo y recorre la longitud total de la tabla en 1.6 s, Encuentre:

a. El coeficiente de fricción estático

b. Coeficiente de fricción cinético

c. El ángulo para el cual la velocidad del bloque va a se constante

d. Que tanta deberá de ser la presión sobre el bloque, perpendicular a la superficie inclinada para evitar que se deslice hacia abajo si este tiene un ángulo de 30º.

4.4.2 Las fuerzas F1 y F2 actúan de una manera simultanea en un partícula de masa m = 1.5 kg. F1 tiene

una magnitud de 12 N y esta dirigida a 3º debajo de la horizontal, mientras que F2 es de 5N y dirigida 45º sobre la horizontal.

a. Encuentre la magnitud y dirección de la Fuerza Resultante

b. Encuentre la magnitud y dirección de la aceleración resultando de la partícula

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica

LEYES DE NEWTON I

158p . Un bloque de masa m1 = 3.70 kg está sobre un plano inclinado sin fricción de ángulo • = 30º esta

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (5 of 7)25/05/2005 13:47:15

Page 125: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

conectado por un cordón sobre una polea pequeña, sin fricción y sin masa a un segundo bloque de masa m2 = 2.30 kg colgando verticalmente, Cuáles son:

a. ¿La magnitud de la aceleración de cada bloque?

b. ¿La dirección de la aceleración de m2?

c. ¿Cuál es la tensión del cordón?

260p. Un bloque es proyectado hacia arriba de un plano inclinado sin fricción con velocidad inicial de v0. El ángulo de inclinación es •.

a. ¿Qué tan lejos hacia arriba del plano llega?

b. ¿cuánto le toma en llegar ahí?

c. ¿Cuál es si velocidad cuando regresa al fondo?

Determine los valores numéricos para • = 32.0º y v0 = 3.50 m/s

364p. Un mono de 11 kg trepa en una cuerda sin masa que corre sobre una rama de un árbol (¡sin fricción!) y unida a un paquete de 15 kg sobre el piso. (a) ¿Cuál es la magnitud mínima de la aceleración con la que el mono deberá trepar sí a de levantar el paquete del piso? Si, después de que el paquete se haya elevado, el mono deja de trepar y se sostiene de la cuerda, ¿Cuál será ahora (b) la aceleración del mono y (c) la tensión en la cuerda?

468p Un bloque de 5 kg es jalado a lo largo de un piso horizontal sin fricción por un cordón que ejerce una fuerza F = 12.0 N con una ángulo de 25º sobre la horizontal.

a. ¿Cuál es la aceleración del bloque?

b. La fuerza F se incrementa lentamente, ¿cuál es su valor justo antes de que el bloque sea levantado (completamente del piso)?

c. ¿Cuál es la aceleración del bloque justo antes de que sea levantado (completamente) del piso?

570p. Un Globo de aire caliente de masa total M está descendiendo verticalmente con una aceleración a hacia abajo. ¿Cuánto masa se a de arrojar para dar al globo una aceleración a hacia arriba (de la misma magnitud pero de dirección opuesta)? Asumiendo que la fuerza hacia arriba del aire (el que empuja) no cambie por causa de la masa (del lastre) que se a perdido.

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (6 of 7)25/05/2005 13:47:15

Page 126: QUIMICA - Monografias

Fuerza y movimiento- Monografias.com

Iván Escalona

[email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (7 of 7)25/05/2005 13:47:15

Page 127: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Filósofos de la naturaleza

INDICE

SÓCRATES

La Politica

Enseñanzas

El juicio

TALES DE MILETO

PLATÓN

Obra

Teoría de las ideas

Teoría del conocimiento

Naturaleza de las ideas

http://www.monografias.com/trabajos7/filo/filo.shtml (1 of 16)25/05/2005 13:47:29

Page 128: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Arte

ARISTÓTELES

Obras

Física o filosofía natural

Ética

Lógica

Metafísica

Influencia

HERACLITO

ANAXIMENES

ANAXIMANDRO

PITÁGORAS

Doctrinas básicas

Teoría de los números

Astronomía

LA EDAD MEDIA

SAN AGUSTÍN DE HIPONA

Contienda intelectual

SÓCRATES:

http://www.monografias.com/trabajos7/filo/filo.shtml (2 of 16)25/05/2005 13:47:29

Page 129: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Sócrates (c. 470-c. 399 a.C.), Fue un filósofo griego fundador de la filosofía moral, o axiología que ha tenido gran peso en la filosofía occidental por su influencia sobre Platón. Nacido en Atenas, hijo de Sofronisco, un escultor, y de Fenareta, una comadrona, recibió una educación tradicional en literatura, música y gimnasia. Más tarde, se familiarizó con la retórica y la dialéctica de los sofistas, las especulaciones de los filósofos jonios y la cultura general de la Atenas de Pericles. Al principio, Sócrates siguió el trabajo de su padre; realizó un conjunto de estatuas de las tres Gracias, que estuvieron en la entrada de la Acrópolis hasta el siglo II a.C. Durante la guerra del Peloponeso contra Esparta, sirvió como soldado de infantería con gran valor en las batallas de Potidaea en el 432-430 a.C., Delio en el 424 a.C., y Anfípolis en el 422 a.C.

Sócrates creía en la superioridad de la discusión sobre la escritura y por lo tanto pasó la mayor parte de su vida de adulto en los mercados y plazas públicas de Atenas, iniciando diálogos y discusiones con todo aquel que quisiera escucharle, y a quienes solía responder mediante preguntas. Un método denominado mayéutica, o arte de alumbrar los espíritus, es decir, lograr que el interlocutor descubra sus propias verdades. Según los testimonios de su época, Sócrates era poco agraciado y corto de estatura, elementos que no le impedían actuar con gran audacia y gran dominio de sí mismo. Apreciaba mucho la vida y alcanzó popularidad social por su viva inteligencia y un sentido del humor agudo desprovisto de sátira o cinismo.

La Politica

Sócrates fue obediente con las leyes de Atenas, pero en general evitaba la política, contenido por lo que él llamaba una advertencia divina. Creía que había recibido una llamada para ejercer la filosofía y que podría servir mejor a su país dedicándose a la enseñanza y persuadiendo a los atenienses para que hicieran examen de conciencia y se ocuparan de su alma. No escribió ningún libro ni tampoco fundó una escuela regular de filosofía. Todo lo que se sabe con certeza sobre su personalidad y su forma de pensar se extrae de los trabajos de dos de sus discípulos más notables: Platón, que atribuyó sus propias ideas a su maestro y el historiador Jenofonte, un escritor prosaico que quizá no consiguió comprender muchas de las doctrinas de Sócrates. Platón describió a Sócrates escondiéndose detrás de una irónica profesión de ignorancia, conocida como ironía socrática, y poseyendo una agudeza mental y un ingenio que le permitían entrar en las discusiones con gran facilidad.

Enseñanzas

La contribución de Sócrates a la filosofía ha sido de un marcado tono ético. La base de sus enseñanzas y lo que inculcó, fue la creencia en una comprensión objetiva de los conceptos de justicia, amor y virtud y el conocimiento de uno mismo. Creía que todo vicio es el resultado de la ignorancia y que ninguna persona desea el mal; a su vez, la virtud es conocimiento y aquellos que conocen el bien, actuarán de manera justa. Su lógica hizo hincapié en la discusión racional y la búsqueda de definiciones generales, como queda claro en los escritos de su joven discípulo, Platón, y del alumno de éste, Aristóteles. A través de los escritos de estos filósofos Sócrates incidió mucho en el curso posterior del pensamiento especulativo occidental.

El juicio

http://www.monografias.com/trabajos7/filo/filo.shtml (3 of 16)25/05/2005 13:47:29

Page 130: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Aunque fue un patriota y un hombre de profundas convicciones religiosas, Sócrates sufrió sin embargo la desconfianza de muchos de sus contemporáneos, a los que les disgustaba su actitud hacia el Estado ateniense y la religión establecida. Fue acusado en el 399 a.C. de despreciar a los dioses del Estado y de introducir nuevas deidades, una referencia al daemonion, o voz interior mística, a la que Sócrates aludía a menudo. También fue acusado de corromper la moral de la juventud, alejándola de los principios de la democracia y se le confundió con los sofistas, tal vez a consecuencia de la caricatura que realizó de él el poeta cómico Aristófanes en la comedia Las nubes representándole como el dueño de una "tienda de ideas" en la que se enseñaba a los jóvenes a hacer que la peor razón apareciera como la razón mejor.

La Apología de Platón recoge lo esencial de la defensa de Sócrates en su propio juicio; una valiente reivindicación de toda su vida. Fue condenado a muerte, aunque la sentencia sólo logró una escasa mayoría. Cuando, de acuerdo con la práctica legal de Atenas, Sócrates hizo una réplica irónica a la sentencia de muerte del tribunal proponiendo pagar tan sólo una pequeña multa dado el escaso valor que tenía para el Estado un hombre dotado de una misión filosófica, enfadó tanto al jurado que éste volvió a votar a favor de la pena de muerte por una abultada mayoría.

Los amigos de Sócrates planearon su huida de la prisión pero prefirió acatar la ley y murió por ello. Pasó sus últimos días con sus amigos y seguidores, como queda recogido en la obra Fedón de Platón, y durante la noche cumplió su sentencia bebiendo una copa de cicuta siguiendo el procedimiento habitual de ejecución. Estaba casado con Jantipa, una mujer de reconocido mal genio y tenía tres hijos.

TALES DE MILETO

Tales de Mileto (c. 625-c. 546 a.C.),Fue un filósofo griego nacido en Mileto (Asia Menor). Fue el fundador de la filosofía griega, y está considerado como uno de los Siete Sabios de Grecia. Tales llegó a ser famoso por sus conocimientos de astronomía después de predecir el eclipse de sol que ocurrió el 28 de mayo del 585 a.C. Se dice también que introdujo la geometría en Grecia. Según Tales, el principio original de todas las cosas es el agua, de la que todo procede y a la que todo vuelve otra vez. Antes de Tales, las explicaciones del universo eran mitológicas, y su interés por la sustancia física básica del mundo marca el nacimiento del pensamiento científico. Tales no dejó escritos; el conocimiento que se tiene de él procede de lo que se cuenta en la Metafísica de Aristóteles.

Tales de Mileto fue una persona que viajo mucho por el mundo.

Se cuenta de el que midió la altura de una pirámide de Egipto , teniendo en cuenta la sombra de la misma, en e l momento en que su propia sombra media exactamente lo mismo que el .

También se dice que supo predecir mediante cálculos matemáticos un eclipse solar en el año de 585 antes de Cristo.

Tales opinaba que el agua era el origen de todas las cosas, opinaba que toda clase de vida tiene su origen en el agua, y que toda clase de vida vuelve a convertirse en agua cuando se disuelve.

http://www.monografias.com/trabajos7/filo/filo.shtml (4 of 16)25/05/2005 13:47:29

Page 131: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Estando en Egipto, es muy probable que viera como todo crecía en cuanto las aguas del Nilo se retiraban de las regiones de su delta.

Se preguntaba como el agua puede convertirse en hielo y vapor, y luego volver a ser agua de nuevo.

Al parecer, Tales de Mileto también dijo que "todo esta lleno de dioses".

Tales de Mileto hace parte de los tres filósofos de Mileto: Anaximandro, Anaxímenes y él.

Los tres filósofos de Mileto opinaban que tenia que haber una y quizás solo una materia primaria de la que estaba hecha todo lo demás.

PLATÓN

Platón (c. 428-c. 347 a.C.), Fue un filósofo griego, uno de los pensadores más creativos e influyentes de la filosofía occidental.

Platón nació en el seno de una familia aristocrática en Atenas. Su padre, Aristón, era al parecer, descendiente de los primeros reyes de Atenas. Perictione, se llamaba su madre.

De joven, Platón tuvo ambiciones políticas pero se desilusionó con los gobernantes de Atenas. Más tarde se proclamó discípulo de Sócrates, aceptó su filosofía y su forma dialéctica de debate: la obtención de la verdad mediante preguntas, respuestas y más preguntas.

Pasó los últimos años de su vida dando conferencias en la Academia y escribiendo. Murió próximo a los 80 años en Atenas en el año 348 o 347 a.C.

Obra

Los escritos de Platón adoptaban la forma de diálogos, donde se exponían ideas filosóficas, se discutían y se criticaban en el contexto de una conversación o un debate en el que participaban dos o más personas.

Teoría de las ideas

En el centro de la filosofía de Platón está su teoría de las formas o de las ideas. En el fondo, su idea del conocimiento, su teoría ética, su psicología, su concepto del Estado y su perspectiva del arte deben ser entendidos desde esta perspectiva.

Teoría del conocimiento

Influido por Sócrates, Platón estaba persuadido de que el conocimiento se puede alcanzar. También

http://www.monografias.com/trabajos7/filo/filo.shtml (5 of 16)25/05/2005 13:47:29

Page 132: QUIMICA - Monografias

SÓCRATES: - Monografias.com

estaba convencido de dos características esenciales del conocimiento. Primera, el conocimiento debe ser certero e infalible. Segunda, el conocimiento debe tener como objeto lo que es en verdad real en contraste con lo que lo es sólo en apariencia. Ya que para Platón lo que es real tiene que ser fijo, permanente e inmutable, identificó lo real con la esfera ideal de la existencia en oposición al mundo físico del devenir. Pensaba que las proposiciones derivadas de la experiencia tienen, a lo sumo, un grado de probabilidad. No son ciertas.

Naturaleza de las ideas

La teoría de las ideas se puede entender mejor en términos de entidades matemáticas. Un círculo, por ejemplo, se define como una figura plana compuesta por una serie de puntos, todos equidistantes de un mismo lugar. Sin embargo, nadie ha visto en realidad esa figura.

Lo que la gente ha visto son figuras trazadas que resultan aproximaciones más o menos acertadas del círculo ideal. De hecho, cuando los matemáticos definen un círculo, los puntos mencionados no son espaciales, sino lógicos. No ocupan espacio. No obstante, aunque la forma de un círculo no se ha visto nunca —y no se podrá ver jamás— los matemáticos y otros sí saben lo que es. Para Platón, por lo tanto, la forma de círculo existe, pero no en el mundo físico del espacio y del tiempo. Existe como un objeto inmutable en el ámbito de las ideas, que sólo puede ser conocido mediante la razón. Las ideas tienen mayor entidad que los objetos en el mundo físico tanto por su perfección y estabilidad como por el hecho de ser modelos, semejanzas que dan a los objetos físicos comunes lo que tienen de realidad.

La palabra justicia, por ejemplo, puede aplicarse a centenares de acciones concretas porque esos actos tienen algo en común, se parecen a, participan de, la idea de justicia. Una persona es humana porque se parece a, o participa de, la idea de humanidad. Si humanidad se define en términos de ser un animal racional, entonces una persona es humana porque es racional. Un objeto es bonito porque participa de la idea, o forma, de belleza. Por lo tanto, cada cosa en el mundo del espacio y el tiempo es lo que es en virtud de su parecido con su idea universal. La habilidad para definir el término universal es la prueba de que se ha conseguido dominar la idea a la que ese universal hace referencia.

En el fondo, la teoría de las ideas está destinada a explicar el camino por el que uno alcanza el conocimiento y también cómo las cosas han llegado a ser lo que son.

Arte

Platón tenía una idea antagónica del arte y del artista aunque aprobara algunos tipos de arte religioso y moralista. Su enfoque tiene que ver una vez más con su teoría de las ideas. Una flor bonita, por ejemplo, es una copia o imitación de las ideas universales de flor y belleza. La flor física es una reproducción de la realidad, es decir, de las ideas. Un cuadro de la flor es, por lo tanto, una reproducción secundaria de la realidad. Esto también significa que el artista es una reproducción de segundo orden del conocimiento y, en realidad, la crítica frecuente de Platón hacia los artistas era que carecían de un conocimiento verdadero de lo que estaban haciendo. La creación artística, observó Platón, parecía tener sus raíces en una inspirada locura.

ARISTÓTELES

http://www.monografias.com/trabajos7/filo/filo.shtml (6 of 16)25/05/2005 13:47:29

Page 133: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Aristóteles (384-322 a.C.),Fue un filósofo y científico griego que comparte junto a Platón y Sócrates la distinción de ser los filósofos más destacados de la antigüedad. Nacido en Estagira (Macedonia), hijo de un médico de la corte real, Aristóteles se trasladó a Atenas a los 17 años para estudiar en la Academia de Platón. Permaneció en esta ciudad unos 20 años, primero como estudiante y más tarde como maestro.

Obras

Al igual que Platón, en sus primeros años en la Academia, Aristóteles utilizó muy a menudo la forma dialogada de razonamiento aunque carecía del talento imaginativo de Platón,

Quizás debido a la influencia de su padre, que era médico, la filosofía de Aristóteles hacía hincapié sobre todo en la biología, frente a la importancia que Platón concedía a las matemáticas. Para Aristóteles el mundo estaba compuesto por individuos (sustancias) que se presentaban en tipos naturales fijos (especies). Cada individuo cuenta con un patrón innato específico de desarrollo y tiende en su crecimiento hacia la debida autorrealización como ejemplo de su clase. El crecimiento, la finalidad y la dirección son pues aspectos innatos a la naturaleza, y aunque la ciencia estudia los tipos generales, éstos, según Aristóteles, encuentran su existencia en individuos específicos.

Física o filosofía natural

En astronomía Aristóteles propone un Universo esférico y finito que tiene a la Tierra como centro. La parte central está compuesta por cuatro elementos: tierra, aire, fuego y agua.

Ética

Aristóteles creía que la libertad de elección del individuo hacía imposible un análisis preciso y completo de las cuestiones humanas, con lo que las "ciencias prácticas", como la política o la ética, se llamaban ciencias sólo por cortesía y analogía. Todos los seres humanos anhelan la "felicidad", es decir, una realización activa y comprometida de sus capacidades innatas, aunque este objetivo puede ser alcanzado por muchos caminos.

Aristóteles distinguía dos tipos de "virtud" o excelencia humana: moral e intelectual. La virtud moral es una expresión del carácter, producto de los hábitos que reflejan opciones repetidas. Una virtud moral siempre es el punto medio entre dos extremos menos deseables. El valor, por ejemplo, es el punto intermedio entre la cobardía y la impetuosidad irreflexiva; la generosidad, por su parte, constituiría el punto intermedio entre el derroche y la tacañería. Las virtudes intelectuales, sin embargo, no están sujetas a estas doctrinas de punto intermedio. La ética aristotélica es una ética elitista: para él, la plena excelencia sólo puede ser alcanzada por el varón adulto y maduro perteneciente a la clase alta y no por las mujeres, niños, "bárbaros" (no griegos) o "mecánicos" asalariados (trabajadores manuales), a los que Aristóteles se negaba a conceder el derecho al voto.

Lógica

http://www.monografias.com/trabajos7/filo/filo.shtml (7 of 16)25/05/2005 13:47:29

Page 134: QUIMICA - Monografias

SÓCRATES: - Monografias.com

En lógica, Aristóteles desarrolló reglas para establecer un razonamiento encadenado que, si se respetaban, no producirían nunca falsas conclusiones si la reflexión partía de premisas verdaderas (reglas de validez.

En el ejemplo más famoso, "Todos los humanos son mortales" y "Todos los griegos son humanos", se llega a la conclusión válida de que "Todos los griegos son mortales". La ciencia es el resultado de construir sistemas de razonamiento más complejos.

Metafísica

En su Metafísica, Aristóteles abogaba por la existencia de un ser divino, al que se describe como "Primer Motor", responsable de la unidad y significación de la naturaleza. Dios, en su calidad de ser perfecto, es por consiguiente el ejemplo al que aspiran todos los seres del mundo, ya que desean participar de la perfección. Existen además otros motores, como son los motores inteligentes de los planetas y las estrellas (Aristóteles sugería que el número de éstos era de "55 o 47").

Influencia

La filosofía de Aristóteles fue tomada con cierto recelo, en gran parte debido a la creencia de que sus enseñanzas conducían a una visión materialista del mundo. la tradición filosófica fundamentada en la adaptación que santo Tomás hacía del pensamiento aristotélico.

La influencia de la filosofía de Aristóteles ha sido general, contribuyendo incluso a determinar el lenguaje moderno y el denominado sentido común, y su concepto del "Primer Motor" como causa final ha tenido un importante papel dentro de la teología.

HERACLITO

Heráclito (c. 540-c. 475 a.C.aproximadamente) de Efeso en Asia Menor.

Nació en Éfeso, una antigua ciudad griega en Asia Menor, que ahora pertenece a Turquía. Debido a su vida solitaria, y a la oscuridad y misantropía de su filosofía, es llamado algunas veces el oscuro.

En cierto sentido, Heráclito fue uno de los iniciadores de la metafísica griega, aunque sus ideas se derivan de las de la escuela jónica de la filosofía griega.

Fue un filósofo griego, quien sostenía que el fuego era el origen primordial de la materia y que el mundo entero se encontraba en un estado constante de cambio. El pensaba que precisamente los cambios constantes eran los rasgos mas básicos de la naturaleza.

Parmenides era un filosofo muy importante que pensaba que todo lo que hay ha existido siempre, lo que

http://www.monografias.com/trabajos7/filo/filo.shtml (8 of 16)25/05/2005 13:47:29

Page 135: QUIMICA - Monografias

SÓCRATES: - Monografias.com

era una idea muy corriente entre todos los griegos, daban por sentado que todo lo que existe en el mundo es eterno y nada podía surgir de la nada, y algo que existe, tampoco se puede convertir en nada.

La teoría de Heráclito era totalmente contraria a la de Parmenides, Heráclito tenia más fe en lo que decían sus sentidos que Parmenides.

Consideraba el fuego como la sustancia primordial o principio que, a través de la condensación y rarefacción, crea los fenómenos del mundo sensible. Heráclito incorporó a la noción de "ser" de sus predecesores el concepto de "devenir" o flujo, al que consideró una realidad básica subyacente a todas las cosas, incluso a las más estables en apariencia. Para aclararlo, afirmaba que una persona no podía bañarse dos veces en el mismo río.

Una persona no puede bañarse en el mismo río dos veces por que, el agua con que se baña la primera vez no será la misma cuando lo haga por segunda vez, ya que todo esta en continuo movimiento y cambio, entonces cuando desciendo al río por segunda vez, ni yo ni el río somos los mismos.

Heráclito también señalo el hecho de que el mundo esta caracterizado por constantes contradicciones.

Si no estuviéramos nunca enfermos, no entenderíamos lo que es estar sano. Si no tuviéramos nunca hambre, no sabríamos apreciar estar saciados. Si no hubiera nunca guerra, no sabríamos valorar lo paz , y si no hubiera nunca invierno, no nos daríamos cuenta de la primavera.

Tanto el bien , como el mal, tienen un lugar necesario en el Todo y si no hubiera un constante juego entre los contrastes, el mundo dejaria de existir .

Se puede apreciar notablemente como una pila funciona con un ánodo y un cátodo que son energía negativa y positiva, ya que energías iguales se repelen y energías distintas se atraen.

En las relaciones de pareja se puede ver como hay armonía cuando uno es de mal genio y el otro no, ya que debe haber un contraste algo asi como entre el negro y el blanco para que todo funcione bien.

"Dios es dia y noche, invierno y verano, guerra y paz, hambre y saciedad. Emplea la palabra Dios, como algo divino, es algo que abarca todo el mundo. Dios se muestra precisamente en esa naturaleza llena de contradicciones y en constante cambio.

En lugar de la palabra Dios emplea a menudo la palabra griega logos, que significa razon.

Heraclito opinaba que tiene que haber una especie de "razon universal" que dirige tdo lo que sucede en la naturaleza. Esta razón universal es algo común para todos y por la cual todos tienen que guiarse . Y sin embargo la mayoría vive según su propia razón.

En ética, Heráclito introdujo un nuevo énfasis social, manteniendo que la virtud consiste en la subordinación del individuo a las leyes de una armonía razonable y universal. Aunque su pensamiento estaba influido por la teología popular, atacó los conceptos y ceremonias de la religión popular de su

http://www.monografias.com/trabajos7/filo/filo.shtml (9 of 16)25/05/2005 13:47:29

Page 136: QUIMICA - Monografias

SÓCRATES: - Monografias.com

tiempo.

ANAXIMENES

Anaxímenes (c. 570-500 a.C.), Fue un filósofo griego de la naturaleza, el último miembro de la escuela jónica fundada por el filósofo Tales de Mileto. Nació en Mileto (Jonia), en Asia Menor. Anaxímenes afirmaba que el aire es el elemento primario al que todas las demás cosas pueden ser reducidas.

Anaximenes opinaba que el origen de todo era el aire o la niebla.

Anaximenes conoció la teoría de Tales de Mileto ¿pero de donde viene el agua?, Anaxímenes opinaba que el agua tenia que ser aire condensado, pues vemos como el agua surge del aire cuando llueve . Y cuando el agua se condensa aun mas, se convierte en tierra.

Seguramente Anaxímenes había observado como la tierra y la arena provenían del hielo que sé derretía.

Asimismo pensaba que el fuego tenia que ser aire diluido, según Anaxímenes, tanto la tierra como el aire y el fuego, tenían como origen el aire.

Para explicar cómo los objetos sólidos se forman a partir del aire, introdujo las nociones de condensación y rarefacción. Estos procesos, afirmaba, transforman el aire, en sí mismo invisible, en entidades visibles —como el agua, el fuego y las materias sólidas—. Pensaba que el aire se calienta y se vuelve fuego cuando se rarifica y que se enfría y se vuelve sólido al condensarse.

No es largo el camino desde la tierra y el agua hasta las plantas en el campo, pensaba que para que surgiera vida , tendría que haber tierra, aire, fuego, y agua. Pero el punto de partida en si eran el "aire o la niebla" Esto significa que compartía con Tales la idea de que tiene que haber una materia primaria, que constituye la base de todos los cambios que suceden en la naturaleza.

Hace parte de los tres filósofos de Mileto junto con Tales de Mileto y Anaximandro, que afirmaban que "NADA PUEDE SURGIR DE LA NADA"

La importancia de Anaxímenes no radica en su cosmología sino en su intento de descubrir la naturaleza última de la realidad.

ANAXIMANDRO

Anaximandro (c. 611-c. 547 a.C.),Fue un filósofo, matemático y astrónomo griego, que también vivió en Mileto.

http://www.monografias.com/trabajos7/filo/filo.shtml (10 of 16)25/05/2005 13:47:29

Page 137: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Nació en Mileto (en la actual Turquía). Discípulo y amigo del filósofo griego Tales de Mileto, Anaximandro está considerado el descubridor de la oblicuidad de la eclíptica, que es el ángulo que forman el plano de la eclíptica y el plano del ecuador celeste. También se le considera introductor del reloj de sol en Grecia y fundador de la cartografía.

La contribución más relevante de Anaximandro fue elaborar la más temprana obra en prosa con relación al cosmos y los orígenes de la vida, por lo que también es mencionado como fundador de la cosmología.

Concebía el Universo como un número de cilindros concéntricos, de los cuales el más exterior es el Sol, el del medio la Luna y el más interno contiene las estrellas. Dentro de estos cilindros está la Tierra, sin base firme y en forma de bombo.

Anaximandro pensaba que nuestro mundo simplemente es uno de los muchos mundos que nacen y parecen en algo que el llamo "lo indefinido"

No es fácil saber lo que el entendía por lo "lo indefinido", pero parece claro que no se imaginaba una sustancia conocida, como Tales. Quizás fuera de la opinión de que aquello de lo que se ha creado todo, precisamente tiene que ser distinto a lo creado.

En ese caso, la materia primaria no podía ser algo tan normal como el agua, sino algo "indefinido"

Anaximandro postulaba una teoría del origen del Universo que defendía que éste era el resultado de la separación de opuestos desde la materia primaria. Así, el calor se movió hacia fuera, separándose de lo frío y, después, lo hizo lo seco de lo húmedo. Además, Anaximandro sostenía que todas las cosas vuelven con el tiempo al elemento que las originó.

PITÁGORAS

Pitágoras (c. 582-c. 500 a.C.), filósofo y matemático griego, cuyas doctrinas influyeron mucho en Platón.

http://www.monografias.com/trabajos7/filo/filo.shtml (11 of 16)25/05/2005 13:47:29

Page 138: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Nacido en la isla de Samos, Pitágoras fue instruido en las enseñanzas de los primeros filósofos jonios Tales de Mileto, Anaximandro y Anaxímenes. Se dice que Pitágoras había sido condenado a exiliarse de Samos por su aversión a la tiranía de Polícrates. Hacia el 530 a.C. se instaló en Crotona, una colonia griega al sur de Italia, donde fundó un movimiento con propósitos religiosos, políticos y filosóficos, conocido como pitagorismo. La filosofía de Pitágoras se conoce sólo a través de la obra de sus discípulos.

Doctrinas básicas

Los pitagóricos asumieron ciertos misterios, similares en muchos puntos a los enigmas del orfismo. Aconsejaban la obediencia y el silencio, la abstinencia de consumir alimentos, la sencillez en el vestir y en las posesiones, y el hábito del autoanálisis. Los pitagóricos creían en la inmortalidad y en la transmigración del alma. Se dice que el propio Pitágoras proclamaba que él había sido Euphorbus, y combatido durante la guerra de Troya, y que le había sido permitido traer a su vida terrenal la memoria de todas sus existencias previas.

Teoría de los números

Entre las amplias investigaciones matemáticas realizadas por los pitagóricos se encuentran sus estudios de los números pares e impares y de los números primos y de los cuadrados, esenciales en la teoría de los números. Desde este punto de vista aritmético, cultivaron el concepto de número, que llegó a ser para ellos el principio crucial de toda proporción, orden y armonía en el universo. A través de estos estudios, establecieron una base científica para las matemáticas. En geometría el gran descubrimiento de la escuela fue el teorema de la hipotenusa, conocido como teorema de Pitágoras, que establece que el cuadrado de la hipotenusa de un triángulo rectángulo es igual a la suma de los cuadrados de los otros dos lados.

Astronomía

La astronomía de los pitagóricos marcó un importante avance en el pensamiento científico clásico, ya que fueron los primeros en considerar la tierra como un globo que gira junto a otros planetas alrededor de un fuego central. Explicaron el orden armonioso de todas las cosas como cuerpos moviéndose de acuerdo a un esquema numérico, en una esfera de la realidad sencilla y omnicomprensiva. Como los pitagóricos pensaban que los cuerpos celestes estaban separados unos de otros por intervalos correspondientes a longitudes de cuerdas armónicas, mantenían que el movimiento de las esferas da origen a un sonido musical, la llamada armonía de las esferas.

LA EDAD MEDIA

La Edad media , es un término utilizado para referirse a un periodo de la historia europea que transcurrió desde la desintegración del Imperio romano de Occidente, en el siglo V, hasta el siglo XV. No obstante, las fechas anteriores no han de ser tomadas como referencias fijas: nunca ha existido una brusca ruptura en el desarrollo cultural del continente. Parece que el término lo empleó por vez primera el historiador Flavio Biondo de Forli, en su obra Historiarum ab inclinatione romanorun imperii decades (Décadas de historia desde la decadencia del Imperio romano), publicada en 1438 aunque fue escrita treinta años antes. El término implicó en su origen una parálisis del progreso, considerando que la edad media fue un

http://www.monografias.com/trabajos7/filo/filo.shtml (12 of 16)25/05/2005 13:47:29

Page 139: QUIMICA - Monografias

SÓCRATES: - Monografias.com

periodo de estancamiento cultural, ubicado cronológicamente entre la gloria de la antigüedad clásica y el renacimiento. La investigación actual tiende, no obstante, a reconocer este periodo como uno más de los que constituyen la evolución histórica europea, con sus propios procesos críticos y de desarrollo.

En la edad media fue cuando empezo a configurarse el sistema escolar, en el trancurso de la edad media se fueron desarrolando tambien las diferentes naciones , con ciudades y castillos, musica y poesia populares.

Dentro del ámbito cultural, hubo un resurgimiento intelectual al prosperar nuevas instituciones educativas como las escuelas catedralicias y monásticas. Se fundaron las primeras universidades, se ofertaron graduaciones superiores en medicina, derecho y teología, ámbitos en los que fue intensa la investigación: se recuperaron y tradujeron escritos médicos de la antigüedad, muchos de los cuales habían sobrevivido gracias a los eruditos árabes y se sistematizó, comentó e investigó la evolución tanto del Derecho canónico como del civil, especialmente en la famosa Universidad de Bolonia. Esta labor tuvo gran influencia en el desarrollo de nuevas metodologías que fructificarían en todos los campos de estudio. El escolasticismo se popularizó, se estudiaron los escritos de la Iglesia, se analizaron las doctrinas teológicas y las prácticas religiosas y se discutieron las cuestiones problemáticas de la tradición cristiana. El siglo XII, por tanto, dio paso a una época dorada de la filosofía en Occidente.

En el año 529, la iglesia cerro la academia de Platon en Atenas, en este mismo año se fundo la orden religiosa, en conclusión la iglesia cristiana puso una tapadera encima de la filosofia griega, a partir de entonces los conventos tuvieron el monopolio de la enseñanza, la reflexion y la contemplación.

La edad media tuvo una duración de 1000 años, en donde los primeros 400 fueron verdaderamente años de decadencia cultural, se desintegro la cultura romana.

Igualmente la economia en especie, paso a la econonia del intercambio, apartir de ahora la economia se caracterizaba por el feudalismo.

El Feudalismo, es sistema contractual de relaciones políticas y militares entre los miembros de la nobleza de Europa occidental durante la alta edad media. El feudalismo se caracterizó por la concesión de feudos (casi siempre en forma de tierras y trabajo) a cambio de una prestación política y militar, contrato sellado por un juramento de homenaje y fidelidad. Pero tanto el señor como el vasallo eran hombres libres, por lo que no debe ser confundido con el régimen señorial, sistema contemporáneo de aquél, que regulaba las relaciones entre los señores y sus campesinos.

Durante la edad media los árabes fueron los más importantes en ciencias tales como las matemáticas, química, astronomía o medicina. Incluso hoy en día seguimos utilizando los números arábigos.

Durante la edad media la filosofía se dividió en tres corrientes distintas para volver a juntarse luego otra vez.

Los filósofos de la edad media dieron mas o menos por sentado que el cristianismo era lo verdadero,

http://www.monografias.com/trabajos7/filo/filo.shtml (13 of 16)25/05/2005 13:47:29

Page 140: QUIMICA - Monografias

SÓCRATES: - Monografias.com

La cuestión era si había que creer en los milagros cristianos o si también era posible acercarse a las verdades cristianas mediante la razón. ¿Qué relación había entre los filósofos griegos y lo que decía la Biblia ¿ Casi toda la filosofía medieval verso sobre esta única pregunta.

Durante la edad media no hubo ninguna ruptura traumatica con la filosofia griega, aunque fue una edad media cristiana.

Gran parte de la filosofia griega fue llevada a la nueva epoca a través de los Padres de la Iglesia como San Agustín de Hipona.

SAN AGUSTÍN DE HIPONA

San Agustín que vivio del 354 al 430, Fue el más grande de los padres de la Iglesia y uno de los más eminentes dores de la Iglesia occidental. Agustín nació el 13 de noviembre del año 354 en la pequeña ciudad de Tagaste,en el norte de África, Numidia (hoy Souk-Ahras, Argelia). Su padre, Patricio (fallecido hacia el año 371), era un pagano (más tarde convertido al cristianismo), pero su madre, Mónica, era una devota cristiana que dedicó toda su vida a la conversión de su hijo, siendo canonizada por la Iglesia católica romana.

Ya con dieciséis años se fue a estudiar a Cartago. Mas tarde viajo a Roma y a Milan, y vivio sus ultimos años como obispo en la ciudad de Hipona, situada a unas millas al Oeste de Cartago.

Sin embargo no no fue cristiano toda su vida Agustín se educó como retórico en las ciudades norteafricanas de Tagaste, Madaura y Cartago. San Agustín paso por muchas religiones y corrientes filosoficas antes de convertirse al cristianismo.

Contienda intelectual

http://www.monografias.com/trabajos7/filo/filo.shtml (14 of 16)25/05/2005 13:47:29

Page 141: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Durante nueve años, del año 373 al 382, se adhirió al maniqueísmo, filosofía dualista de Persia muy extendida en aquella época por el Imperio Romano de Occidente. Con su principio fundamental de conflicto entre el bien y el mal, el maniqueísmo le pareció a Agustín una doctrina que podía corresponder a la experiencia y proporcionar las hipótesis más adecuadas sobre las que construir un sistema filosófico y ético.

Los maniqueos eran una secta religiosa muy tipica de la Antigüedad tardia . Era una doctrina de salvación mitad religiosa, mitad filosofica.

La idea era que le mundo esta dividido en bien y mal, en luz y oscuridad, espiritu y materia. Con su espiritu las personas podian elevarse por encima del mundo de la materia y asi poner las bases para la salvación del alma

Desilusionado por la imposibilidad de reconciliar ciertos principios maniqueístas contradictorios, Agustín abandonó esta doctrina y dirigió su atención hacia el escepticismo.

Hacia el año 383 se trasladó de Cartago a Roma, pero un año más tarde fue enviado a Milán como catedrático de retórica. Aquí se movió bajo la órbita del neoplatonismo y conoció también al obispo de la ciudad, san Ambrosio, el eclesiástico más distinguido de Italia en aquel momento. Es entonces cuando Agustín se sintió atraído de nuevo por el cristianismo. Un día por fin, según su propio relato, creyó escuchar una voz, como la de un niño, que repetía: "Toma y lee". Interpretó esto como una exhortación divina a leer las Escrituras y leyó el primer pasaje que apareció al azar: "…

El opinaba que era cien por ciento cristiano, pero no veía ninguna distinción entre el cristianismo y la filosofía de Platón.

El cristianismo también es un misterio divino al que solo nos podemos acercar a través de la fe. Pero si creemos en el cristianismo, Dios "iluminara" nuestra alma para que consigamos unos conocimientos sobrenaturales de Dios.

San Agustín pensaba que Dios creo el mundo de la nada, antes de crear Dios el mundo, las ideas existian en los pensamientos de Dios, de esta manera incorporo las ideas platónicas en Dios.

Opinaba como Plotino, que el mal es la "ausencia de Dios" .El mal no tiene una existencia propia, es algo que no es, porque la creación de Dios es en realidad solo buena.

"La buena voluntad es obra de Dios, la mala voluntad es desviarse de la obra de Dios.

San Agustín dice que hay un abismo infranqueable entre Dios y el mundo, subraya que el ser humano es un ser espiritual, tiene un cuerpo material, que pertenece al mundo fisico donde la polilla y el oxido corroen, pero también tiene un alma que puede reconocer a Dios.

Según San Agustín toda la humanidad entro en perdición después del pecado original, y sin embargo

http://www.monografias.com/trabajos7/filo/filo.shtml (15 of 16)25/05/2005 13:47:29

Page 142: QUIMICA - Monografias

SÓCRATES: - Monografias.com

Dios ha determinado que algunos seres humanos serán salvados de la perdición eterna, pero dice que ninguna persona merece la salvación de Dios.

Trabajo enviado por: INGRID ZAMORANO [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos7/filo/filo.shtml (16 of 16)25/05/2005 13:47:29

Page 143: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

¿Que es la electrónica?

Indice 1. Introducción 2. Antecedentes históricos 3. Componentes electrónicos 4. Circuitos electrónicos de uso frecuente 5. Amplificadores de sonido 6. Circuitos Lógicos 7. Avances recientes

1. Introducción

La electrónica es el campo de la ingeniería y de la física aplicada relativo al diseño y aplicación de dispositivos, por lo general circuitos electrónicos, cuyo funcionamiento depende del flujo de electrones para la generación, transmisión, recepción, almacenamiento de información, entre otros. Esta información puede consistir en voz o música como en un receptor de radio, en una imagen en una pantalla de televisión, o en números u otros datos en un ordenador o computadora.

Los circuitos electrónicos ofrecen diferentes funciones para procesar esta información, incluyendo la amplificación de señales débiles hasta un nivel que se pueda utilizar; el generar ondas de radio; la extracción de información, como por ejemplo la recuperación de la señal de sonido de una onda de radio (demodulación); el control, como en el caso de introducir una señal de sonido a ondas de radio (modulación), y operaciones lógicas, como los procesos electrónicos que tienen lugar en las

http://www.monografias.com/trabajos5/electro/electro.shtml (1 of 9)25/05/2005 13:47:41

Page 144: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

computadoras.

2. Antecedentes históricos

La introducción de los tubos de vacío a comienzos del siglo XX propició el rápido crecimiento de la electrónica moderna. Con estos dispositivos se hizo posible la manipulación de señales, algo que no podía realizarse en los antiguos circuitos telegráficos y telefónicos, ni con los primeros transmisores que utilizaban chispas de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío pudieron amplificarse las señales de radio y de sonido débiles, y además podían superponerse señales de sonido a las ondas de radio. El desarrollo de una amplia variedad de tubos, diseñados para funciones especializadas, posibilitó el rápido avance de la tecnología de comunicación radial antes de la II Guerra Mundial, y el desarrollo de las primeras computadoras, durante la guerra y poco después de ella.

Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al tubo de vacío en la mayoría de sus aplicaciones. Al incorporar un conjunto de materiales semiconductores y contactos eléctricos, el transistor permite las mismas funciones que el tubo de vacío, pero con un coste, peso y potencia más bajos, y una mayor fiabilidad. Los progresos subsiguientes en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la iniciativa de exploración del espacio, llevó al desarrollo, en la década de 1970, del circuito integrado. Estos dispositivos pueden contener centenares de miles de transistores en un pequeño trozo de material, permitiendo la construcción de circuitos electrónicos complejos, como los de los microordenadores o microcomputadoras, equipos de sonido y vídeo, y satélites de comunicaciones.

3. Componentes electrónicos

Los circuitos electrónicos constan de componentes electrónicos interconectados. Estos ponentes se clasifican en dos categorías: activos o pasivos. Entre los pasivos se incluyen las resistencias, los condensadores y las bobinas. Los considerados activos incluyen las baterías (o pilas), los generadores, los tubos de vacío y los transistores.

Tubos de vacío

Un tubo de vacío consiste en una cápsula de vidrio de la que se ha extraído el aire, y que lleva en su interior varios electrodos metálicos. Un tubo sencillo de dos elementos (diodo) está formado por un cátodo y un ánodo, este último conectado al terminal positivo de una fuente de alimentación. El cátodo (un pequeño tubo metálico que se calienta mediante un filamento) libera electrones que migran hacia él (un cilindro metálico en torno al cátodo, también llamado placa). Si se aplica una tensión alterna al ánodo, los electrones sólo fluirán hacia el ánodo durante el semiciclo positivo; durante el ciclo negativo de la tensión alterna, el ánodo repele los electrones, impidiendo que cualquier corriente pase a través del tubo. Los diodos conectados de tal manera que sólo permiten los semiciclos positivos de una corriente alterna (CA) se denominan tubos rectificadores y se emplean en la conversión de corriente alterna a corriente continua (CC) .Al insertar una rejilla, formada por un hilo metálico en espiral, entre el cátodo y el ánodo, y aplicando una tensión negativa a dicha rejilla, es posible controlar el flujo de electrones. Si la rejilla es negativa, los repele y sólo una pequeña fracción de los electrones emitidos por el cátodo pueden llegar al

http://www.monografias.com/trabajos5/electro/electro.shtml (2 of 9)25/05/2005 13:47:41

Page 145: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

ánodo. Este tipo de tubo, denominado triodo, puede utilizarse como amplificador. Las pequeñas variaciones de la tensión que se producen en la rejilla, como las generadas por una señal de radio o de sonido, pueden provocar grandes variaciones en el flujo de electrones desde el cátodo hacia el ánodo y, en consecuencia, en el sistema de circuitos conectado al ánodo.

Transistores

Los transistores se componen de semiconductores. Se trata de materiales, como el silicio o el germanio, dopados (s decir, se les han incrustado pequeñas cantidades de materias extrañas con reacciones químicas), de manera que se produce una abundancia o unacarencia de electrones libres. En el primer caso, se dice que el semiconductor es del tipo n, y en el segundo que es del tipo p. Combinando materiales del tipo n y del tipo p puede producirse un diodo. Cuando éste se conecta a una batería de manera tal que el material tipo p es positivo y el material tipo n es negativo, los electrones son repelidos desde el terminal negativo de la batería y pasan, sin ningún obstáculo, a la región p, que carece de

electrones. Con la batería invertida, los electrones que llegan al material p pueden pasar sólo con muchas dificultades hacia el material n, que ya está lleno de electrones libres, en cuyo caso la corriente es casi cero.

El transistor bipolar fue inventado en 1948 para sustituir al tubo de vacío triodo. Está formado por tres capas de material dopado, que forman dos uniones pn (bipolares) con configuraciones pnp o npn. Una unión está conectada a la batería para permitir el flujo de corriente (polarización negativa frontal, o polarización directa), y la otra está conectada a una batería en sentido contrario (polarización inversa). Si se varía la corriente en la unión de polarización directa mediante la adición de una señal, la corriente de la unión de polarización inversa del transistor variará en consecuencia. El principio puede utilizarse para construir amplificadores en los que una pequeña señal aplicada a la unión de polarización directa provocará un gran cambio en la corriente de la unión de polarización inversa.

http://www.monografias.com/trabajos5/electro/electro.shtml (3 of 9)25/05/2005 13:47:41

Page 146: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

Otro tipo de transistor es el de efecto de campo (FET, acrónimo inglés de Field-Effect Transistor), que funciona sobre la base del principio de repulsión o de atracción de cargas debido a la superposición de un campo eléctrico. La amplificación de la corriente se consigue de manera similar al empleado en el control de rejilla de un tubo de vacío. Los transistores de efecto de campo funcionan de forma más eficaz que los bipolares, ya que es posible controlar una señal grande con una cantidad de energía muy pequeña.

Circuitos integrados

La mayoría de los circuitos integrados son pequeños trozos, o chips, de silicio, de entre 2 y 4 mm2, sobre los que se fabrican los transistores. La fotolitografía permite al diseñador crear centenares de miles de transistores en un solo chip situando de forma adecuada las numerosas regiones tipo n y p. Durante la fabricación, estas regiones son interconectadas mediante conductores minúsculos, a fin de producir circuitos especializados complejos. Estos circuitos integrados son llamados monolíticos por estar fabricados sobre un único cristal de silicio. Los chips requieren mucho menos espacio y potencia, y su fabricación es más barata que la de un circuito equivalente compuesto por transistores individuales.

Resistencias

Al conectar una batería a un material conductor, una determinada cantidad de corriente fluirá a través de dicho material. Esta corriente depende de la tensión de la batería, de las dimensiones de la muestra y de la conductividad del propio material. Las resistencia se emplean para controlar la corriente en los circuitos electrónicos. Se elaboran con mezclas de carbono, láminas metálicas o hilo de resistencia, y disponen de dos cables de conexión. A las resistencias variables se le llaman reóstatos o potenciometros, con un brazo de contacto deslizante y ajustable, suelen utilizarse para controlar el volumen de radios y televisiones.

Condensadores

Los condensadores están formados por dos placas metálicas separadas por un material aislante.

Si se conecta una batería a ambas placas, durante un breve tiempo fluirá una corriente eléctrica que se acumulará en cada una de ellas. Si se desconecta la batería, el condensador conserva la carga y la tensión asociada a la misma. Las tensiones rápidamente cambiantes, como las provocadas por una señal de sonido o de radio, generan

mayores flujos de corriente hacia y desde las placas; entonces, el condensador actúa como conductor de la corriente alterna. Este efecto puede utilizarse, por ejemplo, para separar una señal de sonido o de radio de una corriente continua, a fin de conectar la salida de una fase de amplificación a la entrada de la siguiente.

http://www.monografias.com/trabajos5/electro/electro.shtml (4 of 9)25/05/2005 13:47:41

Page 147: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

Bobinas

Las bobinas (también llamadas inductores) consisten en un hilo conductor enrollado. Al pasar una corriente a través de la bobina, alrededor de la misma se crea un campo magnético que tiende a oponerse a los cambios bruscos de la intensidad de la corriente. Al igual que un condensador, una bobina puede utilizarse para diferenciar entre señales rápida y lentamente cambiantes (altas y bajas frecuencias). Al utilizar una bobina conjuntamente con un condensador, la tensión de la bobina alcanza un valor máximo a una frecuencia específica que depende de la capacitancia y de la inductancia. Este principio se emplea en los receptores de radio al seleccionar una frecuencia específica mediante un condensador variable.

Dispositivos de detección y transductores

La medición de magnitudes mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos denominados sensores y transductores. El sensor es sensible a los cambios de la magnitud a medir, como una temperatura, una posición o una concentración química. El transductor convierte estas mediciones en señales eléctricas, que pueden alimentar a instrumentos de lectura, registro o control de las magnitudes medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas del observador, así como en entornos inadecuados o impracticables para los seres humanos.

Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un termopar consta de dos uniones de diferentes metales que generan una pequeña tensión que depende del diferencial término entre las uniones. El termistor es una resistencia especial, cuyo valor de resistencia varía según la temperatura. Un reóstato variable puede convertir el movimiento mecánico en señal eléctrica. Para medir distancias se emplean condensadores de diseño especial, y para detectar la luz se utilizan fotocélulas. Para medir velocidades, aceleración o flujos de líquidos se recurre a otro tipo de dispositivos. En la mayoría de los casos, la señal eléctrica es débil y debe ser amplificada por un circuito electrónico.

4. Circuitos electrónicos de uso frecuente

Circuitos de alimentación eléctrica (Fuentes)

La mayoría de los equipos electrónicos requieren tensiones de CC para su funcionamiento. Estas tensiones pueden ser suministradas por baterías o por fuentes de alimentación internas que convierten la corriente alterna, que puede obtenerse de la red eléctrica que llega a cada vivienda, en tensiones reguladas de CC. El primer elemento de una fuente de alimentación de CC interna es el transformador, que eleva o disminuye la tensión de entrada a un nivel adecuado para el funcionamiento del equipo. La función secundaria del transformador es servir como aislamiento de masa (conexión a tierra) eléctrica del dispositivo a fin de reducir posibles peligros de electrocución. A continuación del transformador se sitúa un rectificador, que suele ser un diodo. En el pasado se utilizaban diodos de vacío y una amplia variedad de diferentes materiales (cristales de germanio o sulfato de cadmio) en los rectificadores de baja potencia empleados en los equipos electrónicos. En la actualidad se emplean casi exclusivamente rectificadores de silicio debido a su bajo coste y alta fiabilidad.

http://www.monografias.com/trabajos5/electro/electro.shtml (5 of 9)25/05/2005 13:47:41

Page 148: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

Las fluctuaciones y ondulaciones superpuestas a la tensión de CC rectificada (percibidas como un zumbido en los amplificadores de sonido defectuosos) pueden filtrarse mediante un condensador. Cuanto más grande sea el condensador, menor será el nivel de fluctuación de la tensión. Es posible alcanzar un control más exacto sobre los niveles y fluctuaciones de tensión mediante un regulador de tensión, que también consigue que las tensiones internas sean independientes de las fluctuaciones que puedan encontrarse en un artefacto eléctrico. Un sencillo regulador de tensión que se utiliza a menudo es el diodo de Zener, formado por un diodo de unión pn de estado sólido que actúa como aislante hasta una tensión predeterminada. Por encima de dicha tensión, se convierte en un conductor que deriva los excesos de tensión. Por lo general, los reguladores de tensión más sofisticados se construyen como circuitos integrados.

Circuitos amplificadores

Los amplificadores electrónicos se utilizan sobre todo para aumentar la tensión, la corriente o la potencia de una señal. Los amplificadores lineales incrementan la señal sin distorsionarla (o distorsionándola mínimamente), de manera que la salida es proporcional a la entrada. Los amplificadores no lineales permiten generar un cambio considerable en la forma de onda de la señal. Los amplificadores lineales se utilizan para señales de sonido y vídeo, mientras que los no lineales se emplean en osciladores, dispositivos electrónicos de alimentación, moduladores, mezcladores, circuitos lógicos y demás aplicaciones en las que se requiere una reducción de la amplitud. Aunque los tubos de vacío tuvieron gran importancia en los amplificadores, hoy día suelen utilizarse circuitos de transistores discretos o circuitos integrados.

5. Amplificadores de sonido

Los amplificadores de sonido, de uso común en radios, televisiones y grabadoras de cintas, suelen funcionar a frecuencias entre 2 y 20 kiloherz (1 kHz = 1.000 ciclos por segundo). Amplifican la señal eléctrica que, a continuación, se convierte en sonido con un altavoz. Los amplificadores operativos, incorporados en circuitos integrados y formados por amplificadores lineales multifásicos acoplados a la corriente continua, son muy populares como amplificadores de sonido.

Amplificadores de vídeo

Los amplificadores de vídeo se utilizan principalmente para señales con un rango de frecuencias de hasta 6 megaherz (1 MHz = 1 millón de ciclos por segundo). La señal generada por el amplificador se convierte en la información visual por ejemplo la que aparece en la pantalla de televisión, y la amplitud de señal regula el brillo de los puntos que forman la imagen. Para realizar esta función, un amplificador de vídeo debe funcionar en una banda ancha y amplificar de igual manera todas las señales, con baja distorsión.

Amplificadores de radiofrecuencia

Estos amplificadores aumentan el nivel de señal de los sistemas de comunicaciones

de radio o televisión. Por lo general, sus frecuencias van desde 100 kHz hasta 1 gigaherz (1 GHz = 1.000

http://www.monografias.com/trabajos5/electro/electro.shtml (6 of 9)25/05/2005 13:47:41

Page 149: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

millones de ciclos por segundo), y pueden llegar incluso al rango de frecuencias de microondas.

Osciladores

Los osciladores constan de un amplificador y de algún tipo de realimentación: la señal de salida se reconduce a la entrada del amplificador. Los elementos determinantes de la frecuencia pueden ser un circuito de inductancia-capacitancia sintonizado o un cristal vibrador. Los osciladores controlados por cristal ofrecen mayor precisión y estabilidad. Los osciladores se emplean para producir señales de sonido y de radio en una amplia variedad de usos. Por ejemplo, los osciladores sencillos de radiofrecuencia se emplean en los modernos teléfonos de teclas para transmitir datos a la estación telefónica central al marcar un número. Los tonos de sonido generados por los osciladores también pueden encontrarse en relojes despertadores, radios,

instrumentos electrónicos, computadoras y sistemas de alarma. Los osciladores de alta frecuencia se emplean en equipos de comunicaciones para controlar las funciones de sintonización y detección de señales. Las emisoras de radio y de televisión utilizan osciladores de alta frecuencia y de gran precisión para generar las frecuencias de transmisión.

6. Circuitos Lógicos

Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base de cualquier dispositivo en el que se tengan que seleccionar o combinar señales de manera controlada. Entre los campos de aplicación de estos tipos de circuitos pueden mencionarse la conmutación telefónica, las transmisiones por satélite y el funcionamiento de las computadoras digitales.

La lógica digital es un proceso racional para adoptar sencillas decisiones de 'verdadero' o 'falso' basadas en las reglas del álgebra de Boole. El estado verdadero se representado por un 1, y falso por un 0, y en los circuitos lógicos estos numerales aparecen como señales de dos tensiones diferentes. Los circuitos lógicos se utilizan para adoptar decisiones específicas de 'verdadero-falso' sobre la base de la presencia de múltiples señales 'verdadero-falso' en las entradas. Las señales se pueden generar por

http://www.monografias.com/trabajos5/electro/electro.shtml (7 of 9)25/05/2005 13:47:41

Page 150: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

conmutadores mecánicos o por transductores de estado sólido. La señal de entrada, una vez aceptada y acondicionada (para eliminar las señales eléctricas indeseadas, o ruidos), es procesada por los circuitos lógicos digitales. Las diversas familias de dispositivos lógicos digitales, por lo general circuitos integrados, ejecutan una variedad de funciones lógicas a través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y combinaciones de las mismas (como 'NOR', que incluye a OR y a NOT). Otra familia lógica muy utilizada es la lógica transistor-transistor. También se emplea la lógica de semiconductor complementario de óxido metálico, que ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de funcionamiento ligeramente inferiores. Existen también muchas otras variedades de circuitos lógicos, incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de acoplamiento por emisor, utilizada para sistemas de muy altas velocidades.

Los bloques elementales de un dispositivo lógico se denominan puertas lógicas digitales. Una puerta Y (AND) tiene dos o más entradas y una única salida. La salida de una puerta Y es verdadera sólo si todas las entradas son verdaderas. Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una puerta O es verdadera si cualquiera de las entradas es verdadera, y es falsa si todas las entradas son falsas. Una puerta INVERSORA (INVERTER) tiene una única entrada y una única salida, y

puede convertir una señal verdadera en falsa, efectuando de esta manera la función negación (NOT). A partir de las puertas elementales pueden construirse circuitos lógicos más complicados, entre los que pueden mencionarse los circuitos biestables (también llamados flip-flops, que son interruptores binarios), contadores, comparadores, sumadores y combinaciones más complejas.

En general, para ejecutar una determinada función es necesario conectar grandes cantidades de elementos lógicos en circuitos complejos. En algunos casos se utilizan microprocesadores para efectuar muchas de las funciones de conmutación y temporización de los elementos lógicos individuales. Los procesadores están específicamente programados con instrucciones individuales para ejecutar una determinada tarea o tareas. Una de las ventajas de los microprocesadores es que permiten realizar diferentes funciones lógicas, dependiendo de las instrucciones de programación almacenadas. La desventaja de los microprocesadores es que normalmente funcionan de manera secuencial, lo que podría resultar demasiado lento para algunas aplicaciones. En tales casos se emplean circuitos lógicos especialmente diseñados.

7. Avances recientes

El desarrollo de los circuitos integrados ha revolucionado los campos de las comunicaciones, la gestión de la información y la informática. Los circuitos integrados han permitido reducir el tamaño de los dispositivos con el consiguiente descenso de los costes de fabricación y de mantenimiento de los

http://www.monografias.com/trabajos5/electro/electro.shtml (8 of 9)25/05/2005 13:47:41

Page 151: QUIMICA - Monografias

Qué es la electrónica? - Monografias.com

sistemas. Al mismo tiempo, ofrecen mayor velocidad y fiabilidad. Los relojes digitales, las computadoras portátiles y los juegos electrónicos son sistemas basados en microprocesadores. Otro avance importante es la digitalización de las señales de sonido, proceso en el cual la frecuencia y la amplitud de una señal de sonido se codifica digitalmente mediante técnicas de muestreo adecuadas, es decir, técnicas para medir la amplitud de la señal a intervalos muy cortos. La música grabada de forma digital, como la de los discos compactos, se caracteriza por una fidelidad que no era posible alcanzar con los métodos de grabación directa.

La electrónica médica a llegado hasta a sistemas que pueden diferenciar aún más los órganos del cuerpo humano. Se han desarrollado asimismo dispositivos que permiten ver los vasos sanguíneos y el sistema respiratorio. También la alta definición promete sustituir a numerosos procesos fotográficos al eliminar la necesidad de utilizar plata.

La investigación actual dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios centenares de miles de componentes en un solo chip. Han llegado a fabricarse computadoras que alcanzan altísimas velocidades en las cuales los semiconductores son reemplazados por circuitos superconductores que utilizan las uniones de Josephson y que funcionan a temperaturas cercanas al cero absoluto.

Trabajo enviado por: codetel [email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos5/electro/electro.shtml (9 of 9)25/05/2005 13:47:41

Page 152: QUIMICA - Monografias

Termodinámica- Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Termodinámica Indice1. Introduccion2. Leyes3. Entropía.4. Calor y Temperatura5. Escalas de medición de la temperatura6. Teoría cinética de los gases.7. Leyes de los gases8. Presión atmosferica en relación al medio ambiente. 1. IntroduccionEnergía calorífica: La suma de la energía potencial y de la energía sintética de un sistema no permanece siempre constante. De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el momento del choque, una temperatura superior a su punto de fusión. El calor debe, por consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.Otras formas de energía: eléctrica. La corriente eléctrica es uno de los numerosos fenómenos que pueden producir trabajo mecánico o calor. La primera transformación se realiza en los motores y la inversa de los generadores electromagnéticos de corriente (dínamos, alternadores). En todos los conductores por los que pasan una corriente hay una producción de calor, conocida con el nombre de efecto de joule; la transformación contraria directa, es decir de calor en electricidad, se observa en las

http://www.monografias.com/trabajos13/termodi/termodi.shtml (1 of 16)25/05/2005 13:47:53

Page 153: QUIMICA - Monografias

Termodinámica- Monografias.com

pilas termoeléctricas y basta calentar una de las dos soldaduras de dos metales diferentes que forman parte de un circuito para que se engendre en el mismo una corriente. De ellos se deduce que existe energía eléctrica y que el paso de una corriente es en realidad un transporte de energía a lo largo de un circuito. Un condensador cargado de corriente también energía eléctrica, puesto a descargarse es capaz de producir una corriente, pero esta energía es potencial. Química: Las reacciones químicas tienen lugar con absorción o desprendimiento de calor, según los casos. La combustión, que es la combinación del oxígeno del cuerpo combustible o con los elementos que lo integran, revelan que una muestra de carbón y oxigeno contiene energía química potencial, que puede utlizarse al iniciar la combustión o la combinación de ambos cuerpos.La energía química se emplea a si mismo en las pilas y acumuladores eléctricos, que la transforman en energía eléctrica, y el fenómeno inverso se produce en la electrólisis, en particular al cargar los acumuladores. Las explosiones son un ejemplo de transformación de energía química en trabajo mecánico. Radiante: La luz se produce de diversas formas, pero la más corriente de éstas consiste en calentar cuerpos a una temperatura bastante elevada (lámpara de gas, Lámpara eléctrica de incandescencia). La incandescencia es precisamente la transformación de energía calorífica en energía radiante. En los fenómenos de luminiscencia, o emisión de luz en frío, interviene otra forma de energía que es mecánica en el caso de la triboluminiscencia. La ruptura de ciertos cristales que se producen por ejemplo al machacar azúcar provocan la aparición de luz. En la electroluminiscencia, la energía eléctrica se transforma directamente en luz sin que pase por la forma calorífica intermedia. Así acorde en los tubos de gas rarificado como el neón y los vapores de sodio y mercurio. En la quimil luminiscencia, algunas reacciones químicas, como la oxidación lenta del fósforo blanco en contacto del aire, provocan emisión de luz, sin calentamiento apreciable. La luz emitida por las luciérnagas se debe a un fenómeno análogo, puesto que produce de las reacciones químicas que se producen durante la digestión. La energía radiante puede convertirse en cualquiera de las otras cuatro formas de energías que se han considerado. Así, cuando una sustancia absorbe radiaciones, se calienta y este efecto calorifico es particularmente intenso en el caso de las radiaciones infrarrojas. Por otra parte, los haces luminosos dirigidos hacia los cuerpos ejercen en estos una fuerza de empuje que produce efectos mecánicos y recibe el nombre de presión de radiación, fenómenos que explica la repulsión de la cola de cometas por los rayos solares. La transformación de energía luminosa en energía eléctrica tiene lugar en la fotoelectricidad al captárselos electrones que emiten algunos metales cuando recibe la luz. Este fenómeno ha dado lugar a innumerables aplicaciones practicas, entre las cuales pueden mencionarse el cine sonoro y la televisión. Las modificaciones químicas sufridas por los cuerpos bajo la influencia de la luz son numerosas y constituyen el objeto de la ciencia denominada fotoquímica, que estudia la transformación de la energía luminosa en energía química. Las plantas realizan esta transformación gracias a la clorofila, que absorbe las radiaciones solares, y la energía así almacenada se emplea para sintetizar los alimentos hidrocarbonados. 2. LeyesPrimera ley de la termodinámica Permítase que un sistema cambie de un estado inicial de equilibrio a un estado final de equilibrio, en un camino determinado, siendo el calor absorbido por el sistema y el trabajo hecho por el sistema. Después

http://www.monografias.com/trabajos13/termodi/termodi.shtml (2 of 16)25/05/2005 13:47:53

Page 154: QUIMICA - Monografias

Termodinámica- Monografias.com

calculamos el valor de. A continuación cambiamos el sistema desde el mismo estado hasta el estado final, pero en esta ocasión por u n camino diferente. Lo hacemos esto una y otra vez, usando diferentes caminos en cada caso. Encontramos que en todos los intentos es la misma. Esto es, aunque y separadamente dependen del camino tomado, no depende, en lo absoluto, de cómo pasamos el sistema del estado al estado, sino solo de los estados inicial y final (de equilibrio). Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial a otro final , en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De esto concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo, cuyo valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su estado al, la cantidad dependen solo de las coordenadas inicial y final y no, en absoluto, del camino tomado entre estos puntos extremos. Concluimos que hay una función de las coordenadas termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio en el proceso. A esta función le llamamos función de la energía interna. Representemos la función de la energía interna por la letra. Entonces la energía interna del sistema en el estado, , es solo el cambio de energía interna del sistema, y esta cantidad tiene un valor determinado independientemente de la forma en que el sistema pasa del estado al estado f: Tenemos entonces que:

Como sucede para la energía potencial, también para que la energía interna, lo que importa es su cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia, su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce como la primera ley de la termodinámica, al aplicarla debemos recordar que se considera positiva cuando el calor entra al sistema y que será positivo cuando el trabajo lo hace el sistema. A la función interna, se puede ver como muy abstracta en este momento. En realidad, la termodinámica clásica no ofrece una explicación para ella, además que es una función de estado que cambia en una forma predecible. ( Por función del estado, queremos decir, que exactamente, que su valor depende solo del estado físico del material: su constitución, presión, temperatura y volumen.) La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de la conservación de la energía para los sistemas termodinámicos. La energía total de un sistema de partículas, cambia en una cantidad exactamente igual a la cantidad que se le agrega al sistema, menos la cantidad que se le quita. Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al sistema y que sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención, porque fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la termodinámica. Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina de este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas naturalmente se convierten en cantidades de interés. Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una cantidad infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo, de tal manera que el cambio de energía interna también es infinitesimal. Aunque y no son diferencias verdaderas, podemos escribir la primera ley diferencial en la forma:

. Podemos expresar la primera ley en palabras diciendo: Todo sistema termodinámico en un estado de equilibrio, tiene una variable de estado llamada energía interna cuyo cambio en un proceso diferencial

http://www.monografias.com/trabajos13/termodi/termodi.shtml (3 of 16)25/05/2005 13:47:53

Page 155: QUIMICA - Monografias

Termodinámica- Monografias.com

está dado por la ecuación antes escrita. La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado de equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio cuando podemos describirlo por medio de un grupo apropiado de parámetros constantes del sistema como presión ,el volumen, temperatura, campo magnético y otros la primera ley sigue verificándose si los estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la explosión de un cohete en un tambor de acero cerrado. Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos dice que la energía se conserva en todos los procesos, no nos dice si un proceso en particular puede ocurrir realmente. Esta información nos la da una generalización enteramente diferente, llamada segunda ley de la termodinámica, y gran parte de los temas de la termodinámica dependen de la segunda ley. Segunda ley de la termodinámica.Las primeras máquinas térmicas construidas, fueron dispositivos muy eficientes. Solo una pequeña fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en trabajo útil. Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor absorbido se sigue descargando en el escape de una máquina a baja temperatura, sin que pueda convertirse en energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar calor de un depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil. Entonces no seria necesario contar con una fuente de calor una temperatura más alta que el medio ambiente quemando combustibles. De la misma manera, podría esperarse, que se diseñara un refrigerador que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley de la termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se transmitiría la energía calorífica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que se crea que nunca se alcanzarán. La segunda ley de la termodinámica, que es una generalización de la experiencia, es una exposición cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno de los cuales hace destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre sí. Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de compensación). Este enunciado desecha la posibilidad de nuestro ambicioso refrigerador, ya que éste implica que para transmitir calor continuamente de un objeto frío a un objeto caliente, es necesario proporcionar trabajo de un agente exterior. Por nuestra experiencia sabemos que cuando dos cuerpos se encuentran en contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La dirección se puede invertir solamente por medio de gasto de un trabajo. Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de calor a un depósito que esté a una

http://www.monografias.com/trabajos13/termodi/termodi.shtml (4 of 16)25/05/2005 13:47:53

Page 156: QUIMICA - Monografias

Termodinámica- Monografias.com

temperatura más baja. Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se consuma el trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto de hacer trabajo y devolver parte del calor a un cuerpo frío. Pero conectando nuestro refrigerador "perfecto" al sistema, este calor se regresaría al cuerpo caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica. De aquí que la combinación de una maquina ordinaria y el refrigerador "perfecto" formará una máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta máquina térmica "perfecta" a un refrigerador ordinario, podemos extraer calor de un cuerpo ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el enunciado de Clausius. La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos, sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso irreversible, sin provocar otro cambio correspondiente en otra parte. Tercera ley de la termodinámica.En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la entropia. Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se involucra un componente; para las tablas de vapor convencionales se ha escogido 320F. Sobre la base de las observaciones hechas por Nernst y por otros, Planck estableció la tercera ley de la termodinámica en 1912, así:la entropía de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto. Un cristal "perfecto" es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente se establece la tercera ley en forma más general, como:La entropía de cualquier sustancia pura en equilibrio termodinámico tiende a cero a medida que la temperatura tiende a cero. La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para determinar la dirección de las reacciones químicas.Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropia se ha definido como:En donde k es la constante de Bolzmall es la probabilidad termodinámica. En vista de la anterior disertación, la tercera ley equivale a establecer que:cuando 0.Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una sustancia que obedezca la tercera ley.Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están

http://www.monografias.com/trabajos13/termodi/termodi.shtml (5 of 16)25/05/2005 13:47:53

Page 157: QUIMICA - Monografias

Termodinámica- Monografias.com

desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo sobre la base de que la sustancia no es "pura", esto es, pueda haber dos o más isótopos o presentarse moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos hay más de un estado cuántico en el cero absoluto y la entropía no tiende a cero. 3. Entropía.La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles, conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos: 1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente vacío, puesto que no se efectúa reacción alguna contra el vacío, y, como el gas se encuentra encerrado entre paredes no conductoras,. por la primera ley se entiende que o:donde y se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, depende únicamente de la temperatura y no de la presión o el volumen, y la ecuación implica que.En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que abrimos la llave. Hay sin envergo, una diferencia de entropía, entre los estados de equilibrio inicial y final, pero no podemos calcularla con la ecuación, por que esta relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación, tendremos inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos como dar valores significativos de T en los estados intermedios que no son de equilibrio. Entonces, ¿Cómo calcularemos Sf - Si para estos estados?, lo haremos determinando una trayectoria reversible (cualquier trayectoria reversible) que conecte los estados y f, para así calcular el cambio de entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf (=2Vi). Esto corresponde a la dilatación isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot. Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la única condición de que conectan el mismo grupo de estados de equilibrio, y f. De la ecuación y el ejemplo 1 tenemos. Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la que el gas que en un recipiente aislado se comprima en forma espontanea de tal manera que ocupe solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el primer proceso es inevitable y virtualmente, no se puede concebir el segundo. 2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso. Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio de entropía,

http://www.monografias.com/trabajos13/termodi/termodi.shtml (6 of 16)25/05/2005 13:47:53

Page 158: QUIMICA - Monografias

Termodinámica- Monografias.com

aplicando la ecuación al proceso. Podemos hacerlo, si imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica, cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero ajustamos, la temperatura del deposito a TH a Tm, quitando calor al cuerpo caliente al mismo tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud.Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído.En seguida ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el segundo cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura del depósito de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana entropía en este proceso, siendo su cambio. Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente.Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado de equilibrio final. El cambio de entropía para el sistema completo es:Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema aumenta en este proceso reversible y adiabático.Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que en la naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos concebir el proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la temperatura del cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente y en el otro más frío. De nuevo, la naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una dirección determinada y no en la opuesta. En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible) (dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se pudiera calcular el cambio de entropía en el proceso real.Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son reversibles como si son irreversibles.

4. Calor y TemperaturaMediante el contacto de la epidermis con un objeto se perciben sensaciones de frío o de calor, siendo está muy caliente. Los conceptos de calor y frío son totalmente relativos y sólo se pueden establecer con la relación a un cuerpo de referencia como, por ejemplo, la mano del hombre. Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la sensación experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata sólo una apreciación muy poco exacta que no puede considerarse como medida de temperatura. Para efectuar esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos son susceptibles. Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y diminuyen cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones se puede observar este fenómeno en una de ellas con experiencia del pirómetro del cuadrante.El, pirómetro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los cuales se

http://www.monografias.com/trabajos13/termodi/termodi.shtml (7 of 16)25/05/2005 13:47:53

Page 159: QUIMICA - Monografias

Termodinámica- Monografias.com

fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un mechero, se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por la palanca, aparece en el cuadrante. Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo.La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite llegar a la noción de la temperatura. La segunda magnitud fundamental es la cantidad de calor que se supone reciben o ceden los cuerpos al calentarse o al enfriarse, respectivamente. La cantidad de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un numero de unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y es proporcional a lo que se denomina calor especifico de la sustancia de que está constituido. Cuando se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductibilidad térmica de un cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la temperatura entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el caucho, etc. En el caso contrario, por ejemplo con metales como el cobre y la plata, la conductibilidad térmica es muy grande y la disminución de temperatura entre un punto calentado y el otro próximo es muy reducida. Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido de una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se expresa en grados, y la cantidad de calor, que se expresa en calorías.Habrá que definir después algunas propiedades específicas de los cuerpos en su manera de comportarse con respecto al calor y la conductibilidad térmica. 5. Escalas de medición de la temperaturaLas dos escalas de temperatura de uso común son la Celsius (llamada anteriormente ‘’centígrada’’) y la Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que es las escala fundamental de temperatura en la ciencia. La escala Celsius de temperatura usa la unidad ‘’grado Celsius’’ (símbolo 0C), igual a la unidad ‘’Kelvin’’. Por esto, los intervalos de temperatura tienen el mismo valor numérico en las escalas Celsius y Kelvin. La definición original de la escala Celsius se ha sustituido por otra que es más conveniente. Sí hacemos que Tc represente la escala de temperatura, entonces: Tc = T - 273.150

relaciona la temperatura Celsius Tc (0C) y la temperatura Kelvin T(K). Vemos que el punto triple del agua

(=273.16K por definición), corresponde a 0.010C. La escala Celsius se definió de tal manera que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la presión atmosférica - el llamado punto de hielo - es 0.00 0C y la temperatura a la que el vapor y el agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 0C. La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles aunque

http://www.monografias.com/trabajos13/termodi/termodi.shtml (8 of 16)25/05/2005 13:47:53

Page 160: QUIMICA - Monografias

Termodinámica- Monografias.com

usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas Fahrenheit y Celsius es:De esta relación podemos concluir que el punto del hielo (0.000C) es igual a 32.0 0F, y que el punto del vapor (100.00C) es igual a 212.0 0F, y que un grado Fahrenheit es exactamente igual del tamaño de un grado Celsius. 6. Teoría cinética de los gases.La termodinámica se ocupa solo de variables microscópicas, como la presión, la temperatura y el volumen. Sus leyes básicas, expresadas en términos de dichas cantidades, no se ocupan para nada de que la materia esta formada por átomos. Sin embargo, la mecánica estadística, que estudia las mismas áreas de la ciencia que la termodinámica, presupone la existencia de los átomos. Sus leyes básicas son las leyes de la mecánica, las que se aplican en los átomos que forman el sistema. No existe una computadora electrónica que pueda resolver el problema de aplicar las leyes de la mecánica individualmente a todos los átomos que se encuentran en una botella de oxigeno, por ejemplo. Aun si el problema pudiera resolverse, los resultados de estos cálculos serian demasiados voluminosos para ser útiles. Afortunadamente, no son importantes las historias individuales detalladas de los átomos que hay en un gas, si sólo se trata de determinar el comportamiento microscópico del gas. Así, aplicamos las leyes de la mecánica estadísticamente con lo que nos damos cuenta de que podemos expresar todas las variables termodinámica como promedios adecuados de las propiedades atómicas. Por ejemplo, la presión ejercida por un gas sobre las paredes de un recipiente es la rapidez media, por unidad de área, a la que los átomos de gas transmiten ímpetu a la pared, mientras chocan con ella. En realidad el numero de átomos en un sistema microscópico, casi siempre es tan grande, que estos promedios definen perfectamente las cantidades.Podemos aplicar las leyes de la mecánica estadísticamente a grupos de átomos en dos niveles diferentes. Al nivel llamado teoría cinética, en el que procederemos en una forma más física, usando para promediar técnicas matemáticas bastantes simples.En otro nivel, podemos aplicar las leyes de la mecánica usando técnicas que son más formales y abstractas que las de la teoría cinética. Este enfoque desarrollado por J. Willard Gibbs (1839-1903) y por Ludwig Boltzmann (1844-1906)entre otros, se llama mecánica estadística, un termino que incluye a la teoría cinética como una de sus ramas. Usando estos métodos podemos derivar las leyes de la termodinámica, estableciendo a esta ciencia como una rama de la mecánica. El florecimiento pleno de la mecánica estadística (estadística cuántica), que comprende la aplicación estadística de las leyes de la mecánica cuántica, más que las de la mecánica clásica para sistemas de muchos átomos. Gas ideal : Una descripción macroscópica.Hagamos que cierta cantidad de gas esté confinada en un recipiente del volumen V. Es claro que podemos reducir su densidad, retirando algo de gas en el recipiente, o colocando el gas en un recipiente más grande. Encontramos experimentalmente que a densidades lo bastante pequeñas, todos los gases tienden a mostrar ciertas relaciones simples entre las variables termodinámicas p,V y T. Esto sugiere el concepto de un gas ideal, uno que tendrá el mismo comportamiento simple, bajo todas las condiciones de temperatura y presión.Dado cualquier gas en un estado de equilibrio térmico, podemos medir su presión p, su temperatura T y su volumen V. Para valores suficientes pequeños la densidad, los experimentos demuestran que (1) para

http://www.monografias.com/trabajos13/termodi/termodi.shtml (9 of 16)25/05/2005 13:47:53

Page 161: QUIMICA - Monografias

Termodinámica- Monografias.com

una masa dada de gas que se mantiene a temperatura constante, la presión es inversamente proporcional al volumen (ley de Boyle), y (2) para una masa dada de gas que se mantiene a presión constante, el volumen es directamente proporcional a la temperatura (ley de Charles y Gay Lussac). Podemos resumir estos resultados experimentales por medio de la relación:una constante (para una masa fija de gas).El volumen ocupado por un gas a una presión y temperaturas dadas, es proporcional a la masa del gas. Así, la constante de la ecuación una constante, también debe ser proporcional a la masa del gas, por ello escribimos la constante de la ecuación una constante; como nR, donde n es el numero de moles de gas en la muestra y R es una constante que debe determinarse en forma experimental para cada gas. Los experimentos demuestran que, a densidades suficientes pequeñas, R tiene el mismo valor para todos los gases, a saber,R=8.314 J/mol K = 1.986 cal/mol KR se llama la constante universal de los gases. Con esto escribimos la ecuación una constante, en la forma:

pV=nRT,y definimos a un gas ideal, como aquel que obedece esta relación bajo todas las condiciones. No existe algo que seaen verdad un gas ideal, pero sigue siendo concepto muy util y sencillo, relacionado realmente, con el hecho que todos los gases reales se aproximan a la abtracción de los gases ideales en su comportamiento, siempre que la densidad sea suficientemente pequeña. pV=nRT se llama ecuación de estado de un gas ideal.Si pudieramos llenar al bulbo de un termonetro de gas (ideal) a volumen constante, un gas ideal, de veriamos, deacuerdo con la ecuación pV=nRT, que podemos definir la temperatura en terminos de sus lecturas de presión; esto es: (gas ideal).Aquí es la presión del gas en el punto triple del agua, en el que la temperatura es por definición 273.16 K. En la practica, debemos llenar nuestro termometro con un gas real y medir la temperatura extrapolando a la densidad cero, usando la ecuación: (gas real). Gas ideal: una descripción microscópica.Desde el punto de vista microscópico, definimos a un gas ideal haciendo las siguientes suposiciones, con lo que nuestra tarea será la de aplicar las leyes de la mecánica clásica, estadísticamente, a los átomos del gas y demostrar que nuestra definición microscópica es consecuente con la definición macroscópica de la sección procedente:1.- Un gas esta formado por partículas llamadas moléculas. Dependiendo del gas, cada molécula esta formada por un átomo o un grupo de átomos. Si el gas es un elemento o un compuesto en su estado estable, consideramos que todas sus moléculas son idénticas.2.- Las moléculas se encuentran animadas de movimiento aleatorio y obedecen las leyes de Newton del movimiento. Las moléculas se mueven en todas direcciones y a velocidades diferentes. Al calcular las propiedades del movimiento suponemos que la mecánica newtoniana se puede aplicar en el nivel microscópico. Como para todas nuestras suposiciones, esta mantendrá o desechara, dependiendo de si los hechos experimentales indican o no que nuestras predicciones son correctas.3.- El numero total de moléculas es grande. La dirección y la rapidez del movimiento de cualquiera de las moléculas puede cambiar bruscamente en los choques con las paredes o con otras moléculas. Cualquiera de las moléculas en particular, seguirá una trayectoria de zigzag, debido a dichos choques. Sin embargo, como hay muchas moléculas, suponemos que el gran numero de choques resultante

http://www.monografias.com/trabajos13/termodi/termodi.shtml (10 of 16)25/05/2005 13:47:53

Page 162: QUIMICA - Monografias

Termodinámica- Monografias.com

mantiene una distribución total de las velocidades moleculares con un movimiento promedio aleatorio,4.- El volumen de las moléculas es una fracción despreciablemente pequeña del volumen ocupado por el gas. Aunque hay muchas moléculas, son extremadamente pequeñas. Sabemos que el volumen ocupado por una gas se puede cambiar en un margen muy amplio, con poca dificultad y que, cuando un gas se condensa, el volumen ocupado por el liquido puede ser miles de veces menor que la del gas se condensa, el volumen ocupado por el liquido puede ser miles de veces menor que el del gas. De aquí que nuestra suposición es posible.5.- No actúan fuerzas apreciables sobre las moléculas, excepto durante los choques. En el grado de que esto sea cierto, una molécula se moverá con velocidad uniformemente los choques. Como hemos supuesto que las moléculas son tan pequeñas, la distancia media entre ellas es grande en comparación con el tamaño de una de las moléculas. De aquí que suponemos que el alcance de las fuerzas moleculares es comparable al tamaño molecular.6.- Los choques son elásticos y de duración despreciable. En las choques entre las moléculas con las paredes del recipiente se conserva el ímpetu y (suponemos)la energía cinética. Debido a que el tiempo de choque es despreciable comparado con el tiempo que transcurre entre los choques de moléculas, la energía cinética que se convierte en energía potencial durante el choque, queda disponible de nuevo como energía cinética, después de un tiempo tan corto, que podemos ignorar este cambio por completo. 7. Leyes de los gasesToda las masas gaseosas experimentan variaciones de presión, volumen y temperatura que se rigen por

las siguientes leyes:primera ley (Boyle-Mariotte)Los volúmenes ocupados por una misma masa gaseosa conservándose su temperatura constante, son inversamente proporcionales a la presión que soporta.

Formula interpretación observación V= volumen inicial

V´=volumen finalP= presión inicialP´=Presión final

Segunda ley (Gay-Lussac).Cuando se calienta un gas, el volumen aumenta 1/273 parte de su valor primitivo, siempre que la presión no varíe. Temperatura y volumen son directamente proporcionales.

Formula interpretación observación V= volumen inicial

V´=volumen finalT= temperatura inicialT´=temperatura final

Tercera ley (Charles)La presión ejercida por una masa gaseosa es directamente proporcional a su temperatura absoluta, siempre que el volumen sea constante.

Formula interpretación observación

http://www.monografias.com/trabajos13/termodi/termodi.shtml (11 of 16)25/05/2005 13:47:53

Page 163: QUIMICA - Monografias

Termodinámica- Monografias.com

P= presión inicialP´=presión final

T= temperatura inicialT´=temperatura final

Ecuación general del estado gaseoso.En una masa gaseosa los volúmenes y las presiones son directamente proporcionales a sus temperaturas absolutas e inversamente proporcionales entre sí. Formula Interpretación

Despejando presión P=presión inicialP´=presión finalV=volumen finalV´=volumen final

T´=temperatura finalT=temperatura fianl

" El misterio de el niño cambia al mundo "Sus efectos, previsibles hasta 1988.Pescadores peruanos y ecuatorianos fueron los primeros en percatarse de un fenómeno climático que ocurría con alguna regularidad, lo llamaron El niño pues se presentaba en vísperas de Navidad y lo asociaban con la llegada del niño Jesús. Posteriormente llamó la atención de los científicos, quienes comenzaron a estudiarlo. Durante 1997 el fenómeno ha causado severos cambios en el clima de todo el mundo. Según la Administración Nacional Oceanográfica y Atmosférica (NOAA, por sus siglas en ingles) en el continente americano provocara "inusuales alteraciones del clima", que se presentaran de noviembre de 1997 a marzo de 1998; las observaciones satelitales el aumento de la temperatura del Pacifico ecuatorial.Ants Leetmaa, director del Centro de Predicciones Climáticas de la NOAA, menciono algunas de estas inusuales modificaciones: monzones en el sudeste de Asia e India; sequías en Estados Unidos, sudeste de África, Australia y el noreste de Brasil; fuertes tormentas en el Océano Pacifico e inundaciones en Perú, Ecuador, Centroamericana y el sur de Estados Unidos. Por su parte, investigadores del Centro de Predicción Ambiental Marítima de China informaron que el fenómeno meteorológico será el mas fuerte de este siglo y sus efectos se agudizaran a finales del año. Son Xuejia, director del centro, advirtió: "En estos momentos la fuerza de esta alteración natural es igual a la de 1982, pero se espera que se fortalezca aun mas a finales de 1997".Dice que el mar ha registrado movimientos violentos y la alteración de las temperaturas atmosféricas indica que durante este año El niño se presentara con tal fuera que probablemente será catalogado como el peor del siglo. El niño del siglo. Desde que se estudia, uno de los peores fenómenos que se ha presentado es el de 1982-1983, cuando provoco inundaciones en Perú, lluvias torrenciales en el sur de California y benefició con un invierno anormal a una parte de Estados Unidos. En lo que fue su ultimo gran golpe, el meteoro causó graves sequías en Indonesia, África y Australia; persistentes lluvias en América, además de severas

http://www.monografias.com/trabajos13/termodi/termodi.shtml (12 of 16)25/05/2005 13:47:53

Page 164: QUIMICA - Monografias

Termodinámica- Monografias.com

inundaciones y deslizamientos. En este periodo, ocasiono mas de 2 mil muertes en el mundo y dalos materiales por 13 mil millones de dólares. Por ahora, los pronósticos señalan que el fenómeno seguirá fortaleciéndose, pasara por su máxima intensidad hacia finales de este año y se prolongara en su fase de debilitamiento en los primeros meses del año. ¿ Qué es el niño ?Es una masa de agua con una temperatura por arriba de lo normal y se asocia con los tifones, inundaciones, sequías terrestres y toda clase de cambios climáticos. Se desplaza desde las costas de Indonesia por la línea ecuatorial, hasta las costas del pacifico sudamericano en el verano del Hemisferio Sur; al suceder esto, las aguas costeras de Perú, Ecuador y del norte de Chile se elevan algunos grados por encima del promedio.Este fenómeno que se genera con intervalos de dos a siete años se caracteriza porque la superficie del mar y la atmósfera sobre él presentan una condición anormal durante un periodo de 12 a 18 meses, que decae cuando no hay suficiente agua cálida para sostener el ciclo. El Ingeniero Carlos Espinosa González, gerente del Sistema Meteorológico Nacional (SMN), explico que el meteoro se inicia durante el verano, se propaga hacia el este y alcanza su etapa de madurez en el invierno del Hemisferio Norte. El niño se origina en el Océano Pacifico tropical, cerca de Australia e Indonesia, donde aumenta la temperatura de las aguas superficiales. Este máximo de temperatura se desplaza gradualmente hacia el este y alrededor de seis meses después, alcanza la costa de América del Sur, en el extremo este del Pacifico. El desplazamiento del máximo de temperatura va acompañado de un enfriamiento relativo en el Océano Pacifico Occidental, cerca de Asia. Mientras esto sucede en el océano, en la atmósfera, se altera el patrón de la presión atmosférica, la cual baja en el este del Pacifico y sube en el oeste. A la aparición y desplazamiento del máximo de temperatura se le ha nombrado "episodio cálido" y al sube y baja de la presión, oscilación del sur. En tanto, los científicos lo llamaron ENOS (El niño, Oscilación del Sur) y lo definen como alteraciones de los patrones de circulación del océano y la atmósfera. Durante ENOS se altera la presión atmosférica en zonas distintas entre sí, cambia la dirección y velocidad del viento y se desplazan las zonas de lluvia de la región tropical. En el océano, la contracorriente ecuatorial, que dirige las aguas frías de la corriente del Perú hacia el oeste, se debilita, favoreciendo el transporte de aguas cálidas hacia la costa de América del Sur. Los cambios climáticos que acompañan a El niño son:● Sube la presión atmosférica en el Pacifico, a la altura del Ecuador sobre el oeste. ● Los vientos predominantes se debilitan y revierten su dirección normal. ● El agua oceánica fluye a mayor temperatura hacia el Ecuador.Se producen fuertes lluvias en el Pacifico Central y este, a la altura del Ecuador.Lo contrario a este fenómeno es La niña o fase fría de ENOS. En este caso las aguas son más frías de lo normal en el Pacifico tropical del este, a la altura de las costas de Sudamérica.Cuando se presenta en territorio nacional, los veranos son lluviosos, el invierno es tibio y la actividad de huracanes aumenta principalmente en el Golfo de México y en el Océano Atlántico.No se sabe cuando será el año de La niña; por lo pronto, hasta los primeros meses de 1998, El niño seguirá modificando los patrones del clima del mundo. Estos fenómenos no se pueden presentar al mismo tiempo y tampoco es factible predecir cuando volverá a darse cualquiera de los dos.

http://www.monografias.com/trabajos13/termodi/termodi.shtml (13 of 16)25/05/2005 13:47:53

Page 165: QUIMICA - Monografias

Termodinámica- Monografias.com

La llegada de el niño.Se ha presentado 17 veces desde 1925. Entre lo mas recordados esta el de 1953, pero al de este año es al que se ha considera como el más intenso. Los científicos atribuyen a varias causas naturales su aparición. Daniel Walter, investigador de la Universidad de Hawai, asocia el fenómeno con la actividad que ocurre con el lecho del océano, dice que hay una conexión entre los terremotos bajo el mar y la incidencia de El niño.En su opinión, la aparición del fenómeno coincidió con sismos en el East Pacific Rise, una cadena montañosa ubicada en el océano. La temperatura volcánica llegaba a la superficie del este y calentaba el agua y el aire de la zona, desencadenando las anormalidades que lo caracterizan.Por su parte, John Toole, oceanógrafo de Massachussets, explica que el problema lo provocan el océano y la atmósfera. "La principal causa esta en el primero, que es muy ancho para dar una respuesta uniforme a la acción de la radiación solar".En la actualidad los investigadores vinculan más estrechamente la ocurrencia de El niño con cambios en la presión atmosférica y en la dirección de los vientos en la zona ecuatorial. Carlos Espinosa lo define como una combinación de interacciones entre el océano y la atmósfera, pero advierte que "no se conocen las causas que originan el desarrollo del fenómeno y no se puede pronosticar. Se sabe que apareció cuando el agua del océano se calentó más de lo normal y predominaron los vientos de oeste a este. ¿Que es un coloide?Es un sistema en el cual las partículas de una sustancia pueden hallarse en suspensión en un liquido -sin tender a acumularse en la superficie ni en el fondo - merced a un equilibrio llamado estado coloidal (sustancia cuyas partículas tienen propiedades coloidales).Las partículas de todas las substancias coloidales se hayan cargadas eléctricamente y no pueden atravesar dichas membranas.Las partículas coloidales (micelas) se emulsionan en el seno del líquido y dan una seudosolución (sol) cuya estabilidad depende de la viscosidad y tensión superficial del solvente y de la carga eléctrica de las micelas. Esta carga puede ser negativa o positiva - según la sustancia de que se trate - paro siempre del mismo signo para todas las micelas. Por consiguiente, estas se repelen y no pueden aglomerarse.Una parte de los tejidos vegetales y animales son de naturaleza coloidal. Además, los coloides constituyen el punto de partida de importantes procesos industriales, cuales son la fabricación del caucho, de la seda artificial, del celuloide y otras materias.La suspensión de partículas liquidas en un medio gaseoso es aerosol.¿Que es el ozono?El ozono esta formado por los efluvios eléctricos, se encuentra en pequeñas cantidades en la baja atmósfera, pero existe también en las capas más elevadas donde es engendrado por las radiaciones solares ultravioleta.Gas de la formula O3 que no es sino una variedad de oxigeno cuyas moléculas constan de tres átomos en vez de los que tiene la molécula de oxigeno ordinario.Si el ozono contenido en la atmósfera se hallara en el suelo, a la temperatura y presión normales, formaría una capa del orden de 2, 5 mm de espesor. En realidad, casi todo este ozono esta concentrado en la ozonósfera, parte de la estratosfera situada entre 15 y 40 Km. Allí se produce, al ser disociadas las moléculas de oxigeno del aire por los rayos ultraviolados de origen solar y también por los electrones libres y las radiaciones libres y las radiaciones cósmicas. El ozono detiene así a todos los rayos ultraviolados solares de la longitud de onda inferior a 2900 ángstrom, cuya circunstancia se debe - dado

http://www.monografias.com/trabajos13/termodi/termodi.shtml (14 of 16)25/05/2005 13:47:53

Page 166: QUIMICA - Monografias

Termodinámica- Monografias.com

las referidas radiaciones son mortales, tanto para los animales como para las plantas - La existencia de vida en nuestro planeta.

8. Presión atmosferica en relación al medio ambiente.El aire atmosférico ejerce sobre toda pared sólida en la que se encuentra sumergido una presión perpendicular, que se denomina presión atmosférica, cuyo valor es aproximadamente de un kilogramo por centímetro cuadrado.La presión atmosférica es la que ejerce la atmósfera sobre todos los objetos que se hallan en contacto con ella y que no es sino la manifestación del peso del aire.Una columna de aire cuya base mida 1 cm2 y cuya altura sea la de la atmósfera, pesa 1003g y equilibra el peso de la columna de mercurio de igual diámetro y de 76 cm de altura o una de agua de 10,33 m, equivalentes a 1013 milibares. Dichos valores se refieren a la presión a nivel del mar, ya que, como la densidad del aire disminuye rápidamente con la altura, también experimenta un rápido descenso la presión, pues más de la mitad de todo el aire atmosfericose halla concentrado en los 5,000 primeros metros y 96% del mismo en los primeros 20,000 m. De ahí la necesidad de comprimir el aire en las cabinas de los aviones y la imposibilidad para los mismos de sustentarse y de hallar en la alta atmósfera el oxígeno necesario para el funcionamiento de los motores de combustión aerobia. Pero los cohetes, que no se apoyan con los planos sustentadores y que llevan su propia reserva de comburente, se mueven y funcionan en las atmósferas más enrarecidas e incluso en el vacío.La presión atmosférica al nivel del mar se halla sujeta a variaciones provocadas por os movimientos de las masas de aire, dado que un aire frío es más denso que un aire caliente. Estos cambios provocan perturbaciones del tiempo.Dícese que la atmósfera material rodea a las personas y a las cosas. Y por ext., la atmósfera moral y el conjunto de factores que contribuyen a crear una situación o estado particular alrededor de una persona.

¿ Porqué el cielo es azul ?El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>. Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho pequeño flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las ondas que pasan.La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en cualquier otra.Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas se difunden más fácilmente que las más largas. Para ser más específicos, la difusión es inversamente proporcional a la cuarta potencia de la longitud de onda.Difusión • 1/• 4De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente que las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más, seguidas del verde, amarilla, anaranjada y roja, en el orden indicado. Para cada diez ondas violetas ( • = 0,00004 cm ) difundidas en un haz, hay sólo una onda roja ( • =

http://www.monografias.com/trabajos13/termodi/termodi.shtml (15 of 16)25/05/2005 13:47:53

Page 167: QUIMICA - Monografias

Termodinámica- Monografias.com

0,00007 cm ).Violeta azul verde amarilla anaranjada roja10 7 5 3 2 1 A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la mezcla aditiva de violeta, azul, verde y amarillo. Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante este proceso.

JULIÁN MARCEL CASTRO ARIAS

[email protected]

Cód: 65011079

UNIVERSIDAD LIBRE DE COLOMBIA

FACULTAD DE INGENIERÍA MECÁNICA

BOGOTÁ D.C., 4 DE MARZO DE 2003

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos13/termodi/termodi.shtml (16 of 16)25/05/2005 13:47:53

Page 168: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Administración de procesos

Sistemas operativos

1. Introducción2. Procesos3. Implantación de los procesos4. Comunicación entre procesos5. Instrucción TSL6. Planificación de procesos7. Colas múltiples8. Procesos ligeros9. Señales

Introducción

El siguiente documento describe las características que presentan los sistemas operativos para la administración de procesos en los sistemas mono y multiprocesadores. Se comienza con una introducción sobre la funcionalidad de un proceso para luego entrar en los detalles de implementación típicos de los sistemas operativos. Aún no termine la totalidad del documento pero lo quiero publicar en Internet para obtener feedback por parte de los lectores interesados en el mismo.

Procesos

¿Qué es un proceso?

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (1 of 7)25/05/2005 13:48:10

Page 169: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

Un proceso es un programa en ejecución. Un proceso simple tiene un hilo de ejecución, por el momento dejemos esta última definición como un concepto, luego se verá en más detalle el concepto de hilo. Una vez definido que es un proceso nos podríamos preguntar cuál es la diferencia entre un programa y un proceso, y básicamente la diferencia es que un proceso es una actividad de cierto tipo que contiene un programa, entradas salidas y estados.

Los procesos pueden ser cooperantes o independientes, en el primer caso se entiende que los procesos interactúan entre sí y pertenecen a una misma aplicación. En el caso de procesos independientes en general se debe a que no interactúan y un proceso no requiere información de otros o bien porque son procesos que pertenecen a distintos usuarios.

Estados de los procesos

Un proceso puede estar en cualquiera de los siguientes tres estados: Listo, En ejecución y Bloqueado.

Los procesos en el estado listo son los que pueden pasar a estado de ejecución si el planificador los selecciona. Los procesos en el estado ejecución son los que se están ejecutando en el procesador en ese momento dado. Los procesos que se encuentran en estado bloqueado están esperando la respuesta de

algún otro proceso para poder continuar con su ejecución. Por ejemplo operación de E/S.

Implantación de los procesos

La implementación del modelo de procesos se logra debido a que el sistema operativo almacena en una tabla denominada tabla de control de procesos información relativa a cada proceso que se esta ejecutando en el procesador. Cada línea de esta tabla representa a un proceso.

La información que se almacena es la siguiente:

1) Identificación del proceso.

2) Identificación del proceso padre.

3) Información sobre el usuario y grupo.

4) Estado del procesador.

5) Información de control de proceso

5.1) Información del planificador.

5.2) Segmentos de memoria asignados.

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (2 of 7)25/05/2005 13:48:10

Page 170: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

5.3) Recursos asignados.

Comunicación entre procesos

Condiciones de competencia

Las condiciones de competencia se dan cuando dos o más procesos intentan acceder a un mismo recurso.

Secciones críticas

Para solucionar las condiciones de competencia se implementó un modelo para prohibir que dos procesos accedan al mismo recurso. El modelo en cuestión se denomina exclusión mutua.

Exclusión mutua con espera ocupada

Las soluciones con espera ocupada funcionan de la siguiente manera, cuando un proceso intenta ingresar a su región crítica, verifica si esta permitida la entrada. Si no, el proceso se queda esperando hasta obtener el permiso.

Desactivación de interrupciones

El método más simple para evitar las condiciones de competencia es hacer que cada proceso desactive todas sus interrupciones antes de entrar a su sección crítica y las active una vez que salio de la misma. Este modelo como se puede observar, éste modelo tiene una gran problema y es que si se produce una falla mientras que el proceso esta en la región crítica no se puede salir de la misma y el sistema operativo no recuperaría el control.

Variables cerradura

En éste caso se genera una variable la cual puede tener dos valores o bien 0 (no hay ningún proceso en su sección crítica) o bien 1 (indicando que la sección crítica está ocupada) entonces cada proceso antes de ingresar a la sección crítica verifica el estado de la variable de cerradura y en caso de que la misma este en 0, le cambia el valor e ingresa a la misma y en caso de que la misma sea 1 el proceso se queda verificando el estado de la misma hasta que el mismo sea 0.

El problema aquí se presenta si dos procesos verifican al mismo tiempo que la variable cerradura esta en 0 e ingresan a la región crítica.

Alternancia estricta

El algoritmo de alternancia estricta no bloquea el ingreso a la región crítica cuando otro proceso se esta ejecutando. El problema de ésta solución es que cuando un proceso no esta en la sección crítica

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (3 of 7)25/05/2005 13:48:10

Page 171: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

igualmente tiene bloqueado el acceso a la misma y por lo tanto no permite que otro proceso que requiera ingresar a la misma logre hacerlo.

Instrucción TSL

Esta solución requiere ayuda del hardware y es debido a que en general las computadoras diseñadas para tener más de un procesador tienen una instrucción TEST AND SET LOCK

Dormir y despertar

El modelo de espera acotada tienen el inconveniente que se desperdicia tiempo de procesador.

El problema del productor y el consumidor

El problema del productor y el consumidor describe el echo de que cuando hay dos o más procesos interactuando a través de un buffer común habiendo procesos que ponen información o datos y otros que los sacan se pueden llegar a dar condiciones en las cuales los procesos que ingresan los datos no puedan hacerlo debido a que el buffer ya se encuentra lleno y para el caso de los que sacan los datos del buffer intenten sacar datos cuando ya no hay nada que sacar. Para evitar estas condiciones se desarrollaron métodos de comunicación/sincronización entre procesos en los cuales se impide que esto suceda haciendo que el proceso productor "duerma" si el buffer está lleno y una vez que exista espacio el proceso "consumidor" despierte al productor para que siga generando o viceversa.

Planificación de procesos

La planificación es el proceso por el cual el sistema operativo selecciona que proceso ejecutar. La selección del proceso se basa en alguno de los algoritmos de planificación que se describen más abajo.

Expulsión

Es la característica por el cual el sistema operativo puede o no expulsar del estado de ejecución a un proceso dado. En este sentido entonces tenemos la planificación apropiativa en la cual el sistema operativo puede cortar en cualquier momento la ejecución de un proceso y la planificación no apropiativa en la cual una vez que el proceso esta en ejecución el sistema operativo no puede sacarlo de ese estado.

Objetivos de la planificación

Los objetivos de la planificación de proceso son:

● Equidad, todos los procesos deben poder ejecutarse ● Eficacia, mantener ocupada la CPU un 100% del tiempo ● Tiempo de respuesta, minimizar el tiempo de respuesta al usuario ● Tiempo de regreso, minimizar el tiempo que deben esperar los usuarios por lotes para obtener sus

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (4 of 7)25/05/2005 13:48:10

Page 172: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

resultados ● Rendimiento, maximizar el número de tareas procesadas por hora.

Algoritmos de planificación

Los algoritmos de planificación son los que definen que política se va a seguir para que un proceso pase al estado de ejecución.

Planificación Round-Robin

En este tipo de planificación cada proceso tiene asignado un quantum de tiempo para ejecutarse y en el caso de que no pueda terminar la ejecución en su quantum el proceso pasa de nuevo a la cola de procesos para ser ejecutado por otro quantum luego de recorrer la cola para asegurarse que todos los procesos reciban ese quantum de procesamiento.

Planificación por prioridad

En la planificación round-robin todos los procesos son tratados con la misma prioridad. Para el caso de este tipo de planificación a cada proceso se le asigna una prioridad y los mismos son ejecutados

Colas múltiples

Las colas múltiples están basadas en una pila que sirve como índice de una lista de procesos que se tienen que ejecutar.

Primero el trabajo más corto

Este tipo de algoritmo de planificación se usa para trabajos en batch o de procesamiento or lotes en los cuales se puede saber cual es el tiempo de duración de la ejecución de cada proceso y entonces se puede seleccionar primero el trabajo más corto. El problema que se presenta con éste algoritmo es que los grandes procesos podrían sufrir de inanición dado que cualquier proceso pequeño se "cuela" sobre uno de mayor tamaño y como resultado final se podría dar el caso que el proceso grande nunca obtenga procesamiento.

Planificación garantizada

En este modelo de planificación se tiene en cuenta la cantidad de usuarios en el sistema y se le asigna a cada uno el tiempo de ejecución de 1/n (siendo n la cantidad total de usuarios) de esa forma el planificador tiene que llevar cuenta del tiempo de ejecución de los procesos y balancear el tiempo que están utilizando el procesador para cumplir con la ecuación previa.

Procesos ligeros

Los procesos ligeros son programas en ejecución son básicamente procesos pero a diferencia de éstos

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (5 of 7)25/05/2005 13:48:10

Page 173: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

últimos que solo tienen un hilo de ejecución los primeros tienen el hilo principal más hilos secundarios o hijos, en éste caso todos los procesos hijos comparten la información del hilo principal pero además puede cada hilo tener su información privada.

Dentro de la información propia tenemos:

● Contador de programa ● Pila ● Registros. ● Estado del proceso ligero. ● Dentro de la información compartida tenemos: ● Variables globales. ● Archivos abiertos ● Señales ● Semáforos. ● Contabilidad.

Señales

Las señales son el mecanismo de comunicación que se establece entre los procesos. Para comparar se puede decir que las señales son a los procesos lo que las interrupciones son al procesador. Cuando un proceso recibe una señal detiene su ejecución, bifurca a la rutina del tratamiento de la señal que esta en el mismo proceso y luego una vez finalizado sigue la ejecución en el punto que había bifurcado anteriormente.

Las señales se pueden originar en un proceso o bien en el sistema operativo. Las señales se pueden enviar entre procesos, solo los que tengan el mismo uid, o bien el sistema operativo puede enviarle una señal a un proceso, por ejemplo excepciones de ejecución.

Perses Crio

Licenciatura de sistemas

[email protected]

Volver al inicio | Volver arriba

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (6 of 7)25/05/2005 13:48:10

Page 174: QUIMICA - Monografias

Administración de procesos en SOs - Monografias.com

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (7 of 7)25/05/2005 13:48:10

Page 175: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo (Descargar)Agregar a favoritos Recomendar Imprimir

Segundo Trabajo de Investigación

de Teoría electromagnética

1. Introducción2. Justificación 3. Objetivo4. Corriente y Resistencia 5. Circuito de corriente continúa 6. El campo magnético 7. Ley de Ampére 8. Ley de la inducción de Faraday 9. Características químicas de imanes

10. Conclusión11. Bibliografía y reseñas

Introducción

El magnetismo es uno de los aspectos del electromagnetismo, que es una de las fuerzas fundamentales de la naturaleza. Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El marco que enlaza ambas fuerzas, es el tema de este curso, se denomina teoría electromagnética. La manifestación más conocida del magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales magnéticos como el hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles del magnetismo. Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura atómica de la materia.

En este segundo trabajo veremos temas nuevos en los cuales se abordan en Electromagnética II los cuales son corriente, resistencia, circuitos de corriente continua, campo magnético, ley de ampere, la ley de la inducción de faraday características químicas de imanes.

Justificación

La ingeniería se enfrenta a problemas cuya solución se basa en la aplicación de las leyes del electromagnetismo, de ahí la importancia del cabal conocimiento que el profesional de ingeniería.

La palabra "electricidad" puede evocar una imagen de la complicada tecnología moderna:

http://www.monografias.com/trabajos14/electromag/electromag.shtml (1 of 53)25/05/2005 13:49:05

Page 176: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Computadoras, alumbrados, motores y energía eléctrica. Pero la fuerza eléctrica desempeña un papel todavía más profundo en nuestras vidas, ya que, según la teoría atómica, las fuerzas que mantengan unidos a los átomos y las moléculas de líquidos y sólidos son fuerzas eléctricas.

Del mismo modo, la fuerza eléctrica es responsable de los procesos metabólicos que tienen lugar dentro de nuestros organismos. Incluso cuando empujamos un objeto o tiramos de él, el movimiento es el resultado de la fuerza eléctrica entre las moléculas de nuestra mano y las de dicho objeto.

En sí, el estudio de las cargas eléctricas y una de las leyes más importantes del electromagnetismo; como lo es la "Ley de Coulomb" nos ayudan a entender el comportamiento y funcionamiento de los sistemas informáticos, además que permiten una evolución continúa, generando procesos para la creación de nuevas arquitecturas.

Los ejemplos de las corrientes eléctricas abundan, yendo desde las grandes corrientes que constituyen los relámpagos hasta las diminutas corrientes nerviosas que regulan nuestra actividad muscular. Estamos familiarizados con las corrientes como consecuencia de las cargas que fluyen por los conductores sólidos (en el alambrado doméstico o en un foco eléctrico), por los semiconductores (en los circuitos integrados), por los gases (en las lámparas fluorescentes), por ciertos líquidos (en las baterías de los automóviles), e incluso por espacios al vacío (los tubos de imagen de TV).

Por eso es de gran importancia analizar tanto el flujo como la resistencia de los electrones al pasar por un conductor del cualquier tipo que este sea. En nuestro caso nos va a permitir hacer cálculos y mediciones en los diferentes proyectos que llevemos acabo.

Los cinco capítulos anteriores trataron sobre la electrostática, o sea, sobre las cargas en reposo. Con este capítulo iniciamos el estudio de las corrientes eléctricas, es decir, de las cargas en movimiento. Los ejemplos de las corrientes eléctricas abundan, yendo desde las grandes corrientes que constituyen los relámpagos hasta las diminutas corrientes nerviosas que regulan nuestra actividad muscular. Estamos familiarizados con las corrientes como consecuencia de las cargas que fluyen por los conductores sólidos (en el alambrado doméstico o en un foco eléctrico), por los semiconductores (en los circuitos integrados), por los gases (en las lámparas fluorescentes), por ciertos líquidos (en las baterías de los automóviles), e incluso por espacios al vacío (los tubos de imagen de TV). En escala global, las partículas cargadas atrapadas en los cinturones de radiación de Van Alíen se mueven como oleadas de un lado a otro en la atmósfera entre los polos magnéticos Norte y Sur. En la escala del sistema solar, corrientes enormes de protones, electrones e iones salen radialmente hacia afuera del Sol como viento solar. En la escala galáctica, los rayos cósmicos, que son en su mayor parte protones energéticos, fluyen por la galaxia.

En los circuitos de corriente continua pueden distinguirse básicamente dos tipos de elementos, los generadores y los receptores. Los primeros aportan al circuito la energía necesaria para mantener la corriente eléctrica, los segundos consumen energía eléctrica y, o bien la disipan en forma de calor, como es el caso de las resistencias, o bien la convierten en otra forma de energía, como sucede en los motores.

El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí:

1- La diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (fem) o voltaje. 2- La intensidad de corriente. 3- La resistencia del circuito.

El manejo de circuitos tanto en serie como en paralelo no va ayudar para poder observar y analizar el comportamiento de los mismos. Así como también el manejo de instrumentos nos viene a verificar los resultados obtenidos de un análisis antes realizado.

En el capitulo anterior estudiamos algunas propiedades generales de la corriente y la resistencia. En este capitulo iniciamos el estudio del comportamiento de circuitos eléctricos específicos que comprenden elementos resistivos, los cuales pueden ser resistores individuales o bien resistencias internas de elementos del circuito, como baterías o conductores.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (2 of 53)25/05/2005 13:49:05

Page 177: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Nos limitamos ahora al estudio de los circuitos de corriente continua (CC), en los que la dirección de la corriente no cambia con el tiempo. En los circuitos de CC que contienen solo baterías y resistores, la magnitud de la corriente no varía con el tiempo, mientras que en los que contienen capacitores, la magnitud de la corriente dependerá del tiempo. Los circuitos de corriente alterna (CA), en los que la corriente cambia periódicamente de dirección, se considerarán en el capitulo 13

Como vamos a ver en este capítulo una corriente crea un campo magnético, y un campo magnético puede crear una corriente, de tal manera que existe una interacción entre campo magnético y campo eléctrico.

El campo magnético es la región del espacio en la que se manifiestan los fenómenos magnéticos. Estos actúan según unas imaginarias "líneas de fuerza": éstas son el camino que sigue la fuerza magnética.

Es interesante observar el campo eléctrico que generan unos cuerpos sobre otros y como podemos calcularlo. Otro punto importante es conocer la ley de Lorentz y saber aplicarla para problemas que se puedan presentar.

La ciencia del magnetismo tuvo su origen en la antigüedad. Se desarrollo a partir de la observación de que ciertas piedras en estado natural se atraían entre si y también atraían a pequeños trozos de un metal, el hierro, pero no de otros metales, como el oro o la plata.

La palabra "magnetismo" proviene del nombre de cierta región de Asia Menor (Magnesia), lugar donde se encontraron esas piedras.

Es muy importante analizar ley de Ampère, la cual fue llamada así en honor de quién, en 1825, creo las fundaciones teóricas del electromagnetismo, implica la descripción básica de la relación existente entre la electricidad y el magnetismo, desarrollada a través de afirmaciones cuantitativas sobre la relación de un campo magnético con la corriente eléctrica o las variaciones de los campos eléctricos que lo producen. Se trata de una ley que es generalmente constatable dentro del uso formal del idioma del cálculo matemático. Sabiendo aplicar la ley de Ampère nos va a facilitar un mejor desarrollo de nuestras actividades en el ámbito de la electrónica, además que vamos a tener otra herramienta con la cual podemos llevar acabo cálculos mas detallados

Es totalmente importante conocer el funcionamiento de la ley de Faraday, la de Lenz y las aplicaciones que tienen en el mundo actual. Es vital conocer la FEM o cinética, como funcionan y la relación que guarda una ley de la otra.

Objetivo

El objetivo de este trabajo de investigación, es:

● Describir la corriente eléctrica ● Analizar la densidad de corriente ● Estudiar la resistencia, resistividad y conductividad ● La ley de ohm y una visión microscópica ● Evaluar la transferencia de energía en un circuito eléctrico ● Analizar los semiconductores ● Estudiar la superconductividad● Describir la fuerza electromotriz. ● Analizar el cálculo de la corriente en un circuito cerrado simple. ● Estudiar la resistencia interna de una fuente de fem. ● Describir la diferencia de potencial. ● Comparar los resistores en serie y en paralelo. ● Definir los circuitos de mallas múltiples. ● Analizar los instrumentos de medición. ● Explicar los circuitos RC y la descarga de un capacitor. ● Describir el campo magnético. ● Analizar la fuerza magnética sobre una carga en movimiento. ● Comprender la fuerza de Lorentz. ● Entender el comportamiento de las cargas circulares.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (3 of 53)25/05/2005 13:49:05

Page 178: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

● Estudiar el efecto Hall. ● Describir la fuerza magnética sobre una corriente. ● Analizar el momento de torsión de una espira de corriente. ● Describir la ley de Biot-Savart. ● Analizar la ley de Ampère. ● Comparar los solenoides y los toroides. ● La Ley de Ohm y una visión microscópica. ● Estudiar el campo fuera de un solenoide. ● Describir el electromagnetismo y los marcos de referencia. ● Describir los experimentos de Faraday. ● Analizar la ley de inducción de Faraday ● Analizar la ley de inducción de Lenz. ● Calcular la FEM de movimiento o cinética. ● Evaluar campos eléctricos inducidos. ● Describir la inducción y el movimiento relativo

Corriente y Resistencia

Corriente eléctrica

Para entender el flujo de electrones, que es la corriente eléctrica, hay que recordar las reglas de las cargas positiva y negativa. Las cargas desiguales (+ y -) se atraen. Cargas iguales (+ y +), o (- y -) se repelen. Los electrones de un átomo tienen cargas negativas y son atraídos por las cargas positivas. Y se mueven con facilidad de un átomo a otro.

Para crear una corriente eléctrica en un alambre de cobre, se necesita una carga positiva en un extremo y una carga negativa en el otro.

Históricamente, se elaboraron dos teorías de la corriente eléctrica: la teoría convencional y la teoría del electrón.

La teoría convencional es la mas antigua de las dos y establece que la corriente fluye de una carga positiva a una negativa.

La teoría del electrón indica que la corriente fluye de una carga negativa a una carga positiva.

Este hecho, en principio contradictorio, se debe a razones históricas: Las teorías básicas que explican el funcionamiento de la electricidad, son anteriores al conocimiento de la existencia de los electrones. En todas estas teorías y estudios iniciales se tomó,

http://www.monografias.com/trabajos14/electromag/electromag.shtml (4 of 53)25/05/2005 13:49:05

Page 179: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

por convenio (acuerdo entre todos los científicos), que este era el sentido de circulación de la corriente eléctrica.

Para crear y mantener la corriente eléctrica (movimiento de electrones), deben darse dos condiciones indispensables:

1. Que haya una fuente de electrones o dispositivo para su generación (generador), pila, batería, fotocélula, etc. 2. Que exista un camino, sin interrupción, en el exterior del generador, por el cual, circulen los electrones. A este Camino se

le conoce como conductor.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Además de estas dos condiciones indispensables, en la mayoría de los casos, existe un elemento llamado receptor, que es el que recibe los electrones y aprovecha la energía de su movimiento para conseguir el efecto deseado: luz, calor, etc.

A todo este conjunto se le denomina circuito eléctrico. Si los conductores permanecen unidos al generador y al receptor, se dice que es un circuito cerrado. Los electrones se desplazan por el circuito exterior desde el polo negativo del generador a su polo positivo, y dentro del generador, desde el positivo al negativo.

Por lo contrario, cuando algún tramo del conductor se interrumpe, al no existir conexión entre el generador y el receptor, los electrones no pueden desplazarse por el circuito y, en consecuencia, no se establece la corriente eléctrica. En este caso, se dice que es un circuito abierto.

Si a través de cualquier superficie pasa una carga neta dq en un intervalo de tiempo di, decimos que se ha establecido una corriente eléctrica i, en donde

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El flujo de corriente en un conductor es semejante al flujo del agua en un tubo, cuando se mide el flujo del agua, se cuenta por litros, metros cúbicos, onzas, galones de agua, que pasan por un p unto, en un cierto tiempo; por ejemplo: galones por minuto. Cuando se mide el flujo de la corriente, se cuentan electrones que pasan por un punto, en cierto tiempo. Puesto que los electrones son muy pequeños y se mueven con rapidez, no se cuentan uno por uno para medir la corriente.

Se usa el ampere como unidad para medirla un ampere es a un electrón, lo que un galón es a una molécula de agua. Un ampere es igual a 6.28 trillones de electrones. Cuando esa cantidad de electrones pasan por un punto en un conductor, en un segundo, se dice que fluye un ampere de corriente.

. La unidad de la corriente en el SI es el ampere (abreviatura A). De acuerdo con la ecuación 1, tenemos

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Si bien en los metales los portadores de carga son los electrones, en los electrólitos o en los conductores gaseosos (plasmas) los portadores también pueden ser iones positivos o negativos, o ambos.

Densidad de corriente

Es un vector que en cada punto del conductor tiene la dirección de la velocidad de arrastre y de módulo igual a la cantidad de carga que por unidad de tiempo atraviesa la unidad de superficie normal a la velocidad de arrastre.

Una cantidad microscópica relacionada es la densidad de corriente j. que es un vector, y es característica de un punto dentro de un conductor y no de todo el conductor. Si la corriente se distribuye uniformemente en un conductor de área de sección transversal A, la magnitud de la densidad de corriente para todos los puntos en esa sección transversal es:

http://www.monografias.com/trabajos14/electromag/electromag.shtml (5 of 53)25/05/2005 13:49:05

Page 180: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

El vector j en cualquier punto está orientado en la dirección en que se movería un portador de carga positiva en ese punto. Un electrón en ese punto se mueve en dirección -j. En la figura 3, j es un vector constante y apunta hacia la izquierda; los electrones se arrastran hacia la derecha. En general, para una superficie en particular (que no necesita ser plana) que corte de un lado al otro un conductor, i es el flujo del vector j sobre esa superficie, o sea

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 3 El campo eléctrico causa que los electrones se muevan hacia la derecha. La corriente convencional (la dirección hipotética del flujo de la carga positiva) es hacia la izquierda. La densidad de corriente j se traza igualmente como si los portadores de carga fuesen positivos, de modo que j y E están en la misma dirección. Donde dA es un elemento de área superficial y la integral se lleva a cabo sobre la superficie en cuestión. Se considera que el vector dA es perpendicular al elemento de superficie, de modo que j.dA es positiva, dando una corriente positiva i. La ecuación 4 (escrita como i = jA) es un caso especial de la ecuación 5 en que la superficie de la integración es una sección transversal plana del conductor, y en donde j es constante sobre esta superficie y forma un ángulo recto con ella. Sin embargo, podemos aplicar la ecuación 5 a toda superficie a través de la cual deseemos conocer la corriente. La ecuación 5 muestra claramente que i es un escalar porque el integrando j.dA es un escalar. E . Esta ordenación de los iones, acoplados entre sí por intensas fuerzas de origen electromagnético, que actúan como resortes, recibe el nombre de red. El efecto total de los choques es transferir energía cinética de los electrones en aceleración a la energía de vibración de la red. Los electrones adquieren una velocidad de arrastre vd constante promedio en la dirección -E. Existe una estrecha analogía con una bola que cae en un campo gravitatorio uniforme g a una velocidad terminal constante por un fluido viscoso. La fuerza gravitatoria (mg) que actúa sobre la bola al caer no aumenta la energía cinética de la bola (la cual es constante); en cambio, se transfiere energía al fluido a causa de los choques moleculares y se produce una pequeña elevación de temperatura. Podemos calcular la velocidad de arrastre vd de los portadores de carga en un conductor a partir de la densidad de corriente j. La figura 3 muestra los electrones de conducción en un conductor, los cuales se mueven hacia la derecha a una velocidad de arrastre vd que se supone constante. El número de electrones de conducción en una longitud L del conductor es nAL, en donde n es el número de electrones de conducción por unidad de volumen y AL es el volumen de la longitud L del conductor. Una carga de magnitud

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Sale de este segmento del alambre, a través de su extremo derecho, en un tiempo t dado por

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La corriente i es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Al despejar vd y recordando que j = i/A (Ec. 4), obtenemos

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Puesto que, tanto vd como j son vectores, podemos reescribir la ecuación 6 como una ecuación vectorial. Seguimos nuestra convención adoptada para la densidad de corriente positiva, lo cual significa que debemos considerar que la dirección de j es opuesta a la de vd. El vector equivalente de la ecuación 6 es, por lo tanto,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Resistencia, resistividad y conductividad

La diferencia de potencial entre los extremos de un conductor es directamente proporcional a la intensidad que circula por él. A la

http://www.monografias.com/trabajos14/electromag/electromag.shtml (6 of 53)25/05/2005 13:49:05

Page 181: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

constante de proporcionalidad se le llama resistencia del conductor.

Si aplicamos la misma diferencia de potencial entre los extremos de barras de cobre y de madera geométricamente similares, las corrientes resultantes son muy diferentes: La característica del conductor que interviene aquí es su resistencia. Determinamos la resistencia de un conductor entre dos puntos aplicando una diferencia de potencial V entre dichos puntos y midiendo la corriente i que resulta. La resistencia R es, entonces,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Si V está en volts y i está en amperes, la resistencia R está en volts/ampere, a los cuales se les da el nombre de ohms (abreviatura _), de modo que

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La resistencia se mide en ohmios (•)

Un conductor cuya función en un circuito sea proporcionar determinada resistencia especificada de llama resistor.

Un conductor cuya función en un circuito sea proporcionar determinada resistencia especificada de llama resistor (símbolo ). El flujo de carga a través de un conductor es a menudo comparado con el flujo de agua a través de una tubería como resultado de una diferencia de presión entre los extremos del tubo, establecida quizás por una bomba. La diferencia de presión es análoga a la diferencia de potencial entre los extremos de un conductor, establecida quizás por una batería. La velocidad del flujo de agua (digamos en litros/segundo) es análoga a la velocidad del flujo de carga (en coulombs/segundo, o en amperes). La velocidad del flujo de agua para una diferencia de presión dada está determinada por la naturaleza de la tubería: su longitud, su sección transversal, y los impedimentos interiores sólidos (por ejemplo, grava en la tubería). Estas características de la tubería son análogas a la resistencia de un conductor. El ohm no es una unidad base en el SI (véase el apéndice A); no se tiene ni se sigue ningún estándar primario del ohm. Sin embargo, la resistencia es una cantidad tan importante en la ciencia y la tecnología que se mantiene un estándar práctico de referencia en el National Institute of Standards and Technology. Desde el 1o. de enero de 1990, esta representación del ohm (como se le conoce) se ha basado en el efecto Hall cuántico (véase la Sec. 8-4), un fenómeno cuántico preciso y altamente reproducible que es independiente de las propiedades de cualquier material en particular. Relacionada con la resistencia está la resistividad _, la cual es una característica de un material más bien que de un tipo de material en particular; se define como

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Las unidades de _ son las de E(V/m) dividido entre j(A/m2), lo cual es equivalente a _ . m. La figura 3 indica que E y j son vectores, y podemos escribir la ecuación 9 en forma vectorial como:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Las ecuaciones 9 y 10 son válidas sólo para materiales isotópicos, lo cual quiere decir que sus propiedades eléctricas son las mismas en todas las direcciones. La resistividad del cobre es de 1.7 X 10-8 _ . m; la del cuarzo fundido es de alrededor de 1016 _ . m. Pocas propiedades físicas son medibles dentro de tal gama de valores. La tabla 1 muestra las resistividades de algunos materiales comunes. Algunas sustancias no pueden ser clasificadas fácilmente como conductores o como aisladores. Los plásticos tienen generalmente resistividades grandes que nos conducirían a clasificarlos junto con los aisladores. Por ejemplo, en el alambrado eléctrico doméstico se emplea normalmente el plástico como aislante. Sin embargo, al contaminar a los plásticos con ciertos productos químicos, su conductividad puede igualar a la del cobre. Una aleación diseñada específicamente para que tenga un pequeño valor de _. Silicio puro dopado con impurezas de fósforo a una densidad de portadores de carga de 1023 m-3. Silicio puro dopado con impurezas de aluminio a una densidad de portadores de carga de 1023 m-3.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

A veces, preferimos hablar de la conductividad _ de un material más bien que de su resistividad. Estas cantidades son recíprocas, relacionadas por

http://www.monografias.com/trabajos14/electromag/electromag.shtml (7 of 53)25/05/2005 13:49:05

Page 182: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Las unidades de o en el SI son (SZ . m''). La ecuación 10 puede expresarse en términos de la conductividad como:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Si conocemos la resistividad _ de un material, deberíamos ser capaces de calcular la resistencia R de un pedazo en particular del material. Consideremos un conductor cilíndrico, con un área A de sección transversal y longitud L por el cual fluye una comente estable i con una diferencia de potencial V entre sus extremos (véase la Fig. 4). Si las secciones transversales del cilindro en cada extremo son superficies equipotenciales, el campo eléctrico y la densidad de la corriente son constantes para todos los puntos en el cilindro y tienen los valores

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 4 A través de un conductor cilíndrico de longitud L y área A de sección transversal se aplica una diferencia de potencial V, estableciendo una corriente i. La resistividad _ es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Pero V/i es la resistencia R, por lo cual

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Recalcamos que la ecuación 13 se aplica únicamente a un conductor homogéneo e isotópico de sección transversal uniforme sometido a un campo eléctrico uniforme.

La ley de OHM

La corriente fluye por un circuito eléctrico siguiendo varias leyes definidas. La ley básica del flujo de la corriente es la ley de Ohm, así llamada en honor a su descubridor, el físico alemán George Ohm. Según la ley de Ohm, la cantidad de corriente que fluye por un circuito formado por resistencias puras es directamente proporcional a la fuerza electromotriz aplicada al circuito, e inversamente proporcional a la resistencia total del circuito. Esta ley suele expresarse mediante la fórmula I = V/R, siendo I la intensidad de corriente en amperios, V la fuerza electromotriz en voltios y R la resistencia en ohmios. La ley de Ohm se aplica a todos los circuitos eléctricos, tanto a los de corriente continua (CC) como a los de corriente alterna (CA), aunque para el análisis de circuitos complejos y circuitos de CA deben emplearse principios adicionales que incluyen inductancias y capacitancias.

Seleccionemos una muestra de material conductor en particular, apliquemos una diferencia de potencial uniforme entre sus extremos, y midamos la corriente resultante. Figura 6 (a) Gráfica corriente-voltaje de un material que obedece la ley de Ohm, en este caso un resistor de 1000 _. (b) Gráfica corriente-voltaje de un material que no obedece a la ley de Ohm, en este caso un diodo de unión pn.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Repetimos la medición para varios valores de la diferencia de potencial y graficamos los resultados, como en la figura 6a. Los puntos experimentales caen claramente a lo largo de una línea recta, lo cual indica que la razón V/i (el inverso de la pendiente de la línea) es una constante. La resistencia de este dispositivo es una constante, independientemente de la diferencia de potencial a lo largo de él o de la corriente que fluye por él. Nótese que la línea se extiende a las diferencias de potencial y corrientes negativas. En este caso, decimos que el material obedece a la ley de Ohm

Un dispositivo conductor obedece la ley de Ohm si la resistencia entre cualquier par de puntos es independiente de la magnitud y polaridad de la diferencia de potencial aplicada.

El material o elemento de un circuito que obedece a la ley de Ohm se llama óhmico. Los circuitos electrónicos modernos

http://www.monografias.com/trabajos14/electromag/electromag.shtml (8 of 53)25/05/2005 13:49:05

Page 183: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

dependen también de dispositivos que no obedecen la ley de Ohm. En la figura 6b se muestra un ejemplo de la relación corriente-voltaje de un dispositivo no óhmico (un diodo de unión pn). Nótese que la corriente no aumenta linealmente con el voltaje, y también adviértase que el dispositivo se comporta para diferencias de potencial negativas de modo muy diferente a como se comporta para las positivas.

Recalcamos que la relación V = iR no es un enunciado de la ley de Ohm. Un conductor obedece a la ley de Ohm sólo si su gráfica V contra i es lineal, es decir, si R es independiente de V y de i. La relación R = V_¡ sigue siendo una definición general de la resistencia de un conductor ya sea que obedezca la ley de Ohm o no.

El equivalente microscópico de la relación V = iR es la ecuación 10, E = _j. Se dice que un material conductor obedece la ley de Ohm si la gráfica de E contra j es lineal, o sea, si la resistividad _ es independiente de E y de j. La ley de Ohm es una propiedad específica de ciertos materiales y no es una ley general del electromagnetismo como la ley de Gauss. Como en la siguiente analogía.

Analogía entre la corriente y el flujo de calor (Opcional)

Existe una analogía estrecha entre el flujo de carga creado por una diferencia de potencial y el flujo de calor creado por una diferencia de temperaturas. Consideremos una lámina gruesa eléctricamente conductora de _x de grosor y área A. Sea _V la diferencia de potencial mantenida entre caras opuestas. La corriente i está dada por las ecuaciones 8 (i = V_R) y 13 (R = _L/A), o sea

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

En el caso límite de una lámina gruesa de dx de ancho se obtiene

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

O, reemplazando el inverso de la resistividad por la conductividad _,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El signo menos en la ecuación 17 indica que la carga positiva fluye en la dirección de V decreciente; es decir, dq/dt es positiva cuando db/dx es negativa. La ecuación análoga para el flujo de calor es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

que muestra que k, la conductividad térmica, corresponde a _, y dT_dx, el gradiente de la temperatura, corresponde a dV_dx, el gradiente del potencial. Para los metales puros existe una analogía matemática más que formal entre las ecuaciones 17 y 18. Tanto la energía térmica como la carga son transportadas por los electrones libres de tales metales; empíricamente, un buen conductor eléctrico (digamos, la plata) es también un buen conductor térmico, y la conductividad eléctrica ase relaciona directamente con la conductividad térmica k.

La ley de OHM: una visión microscópica

La ley tiene una forma muy sencilla, y resulta curioso que muchos materiales la obedezcan tan bien, mientras que otros materiales no la obedecen en absoluto. Veamos si podemos entender por qué los metales obedecen la ley de Ohm, la cual escribiremos (véase la Ec. 10) en la forma microscópica

E = _j.

En un metal, los electrones de valenciano están ligados a los átomos individuales sino que tienen libertad de moverse dentro de la red y se llaman electrones de conducción.

En el cobre existe uno de estos electrones por átomo, permaneciendo los otros 28 ligados al núcleo de cobre para formar

http://www.monografias.com/trabajos14/electromag/electromag.shtml (9 of 53)25/05/2005 13:49:05

Page 184: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

corazas iónicas

La teoría de la conducción eléctrica en los metales se basa a menudo en el modelo del electrón libre, en el cual (como una primera aproximación) se asume que los electrones de conducción se mueven libremente por el material conductor, en forma parecida a como se mueven las moléculas de gas dentro de un recipiente cerrado.

De hecho, el Conjunto de electrones de conducción suele llamarse gas de electrones. Sin embargo, como veremos, no podemos olvidar el efecto de las corazas iónicas sobre este "gas".

En la distribución cuántica los electrones que contribuyen sin dificultad a la conducción eléctrica están concentrados en un intervalo muy estrecho de energías cinéticas y, por lo tanto, de velocidades.

Con una buena aproximación, podemos suponer que los electrones se mueven a una velocidad promedio uniforme. En el caso del cobre, esta velocidad es de alrededor de = 1.6 x 106 m/s. Además, mientras la velocidad maxwelliana promedio depende mucho de la temperatura, la velocidad efectiva obtenida de la distribución cuántica es casi independiente de la temperatura.

En ausencia de un campo eléctrico, los electrones se mueven aleatoriamente, otra vez al igual que las moléculas de gas dentro de un recipiente cerrado. Ocasionalmente, un electrón choca con una coraza iónica de la red, sufriendo un cambio súbito de dirección en el proceso. Así como lo hicimos en el caso de las colisiones entre las moléculas de un gas, podemos asociar una trayectoria libre media _. y un tiempo libre medio _ a la distancia y tiempo promedio entre las colisiones. (Las colisiones entre los propios electrones son muy poco probables y no afectan a las propiedades eléctricas del conductor.)

En un cristal metálico ideal (que no contenga defectos ni impurezas) a 0 K, no ocurrirían colisiones electrón-red, de acuerdo con las predicciones de la física cuántica; esto es, como en los cristales ideales. Las colisiones ocurren en los cristales propiamente dichos porque

(1) las corazas iónicas a cualquier temperatura T están vibrando alrededor de sus posiciones de equilibrio de modo aleatorio;

(2) pueden estar presentes impurezas, o sea, átomos extraños;

(3) el cristal puede contener imperfecciones de la red, como átomos faltantes y átomos desplazados.

Por consiguiente, la resistividad de un metal puede incrementarse (1) si se eleva su temperatura, (2) si se agregan pequeñas cantidades de impurezas, y (3) sometiéndolo a un gran esfuerzo, como al hacerlo pasar por un dado o molde, para aumentar el número de imperfecciones de la red.

Cuando aplicamos un campo eléctrico a un metal, los electrones modifican su movimiento aleatorio de tal manera que se arrastran lentamente, en la dirección opuesta a la del campo, con una velocidad de arrastre promedio Vd Esta velocidad de arrastre es mucho menor (por un factor de algo como 1010; véase el problema muestra 2) que la velocidad promedio efectiva

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 7 Los segmentos de línea sólida muestran un electrón que se mueve de x a y, experimentando seis colisiones en su camino. Las líneas de trazos muestran lo que hubiera sido su trayectoria en presencia de un campo eléctrico aplicado E. Nótese el arrastre gradual pero uniforme en la dirección de -E. (En realidad, las líneas de trazos deberían estar ligeramente curvas para representar las trayectorias parabólicas que los electrones describen entre sus colisiones.)

La figura 7 da un indicio de la relación entre estas dos velocidades. Las líneas sólidas sugieren una trayectoria aleatoria posible seguida por un electrón en ausencia de un campo aplicado; el electrón continúa de x a y, experimentando seis colisiones en el camino. Las líneas de trazos muestran cómo hubiera ocurrido este mismo proceso si se hubiese aplicado un campo eléctrico E. Nótese que el electrón se arrastra uniformemente hacia la derecha, terminando en y_ más bien que en y. Al preparar la figura 7 se supuso que la velocidad de arrastre Vd es de 0.02 en realidad, es más parecida a 10-10 de modo que el arrastre que se muestra en la figura está muy exagerado.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (10 of 53)25/05/2005 13:49:05

Page 185: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Transferencia de energía de un circuito eléctrico

La figura 8 muestra un circuito que consta de una batería B conectada a una "caja negra". Existe una corriente estable i en los alambres de conexión, y existe una diferencia de potencial estable Vab entre las terminales a y b. La caja puede contener un resistor, un motor, o un acumulador, entre otras cosas.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Una batería B crea una corriente i en un circuito que contiene una "caja negra", es decir, una caja cuyo contenido se desconoce.

La terminal a, conectada a la terminal positiva de la botería, está a un potencial mayor que el de la terminal b. La energía potencial de una carga dq que se mueve a través de la caja de a a b disminuye en dq Vab

El principio de conservación de la energía nos indica que tata energía se transfiere en la caja de energía eléctrica a alguna otra forma. La forma de esta energía dependerá de lo que haya en la caja.

En un tiempo dt la energía dU transferida dentro de la caja es, entonces,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Hallamos la cantidad de energía transferida o la potencia P de acuerdo con

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Si el dispositivo que contiene la caja es un motor, la energía aparece en gran parte como trabajo mecánico realizado por el motor; si el dispositivo es un acumulador que esté siendo cargado, la energía aparece en gran parte como energía química almacenada en esta segunda batería.

Si el dispositivo es un resistor, la energía aparece en el resistor como una energía interna (asociada con el movimiento atómico y observada, quizás, como un aumento en la temperatura). Para ver esto, consideremos una piedra de masa m que cae desde una altura h. Su energía potencial gravitatoria disminuye en mgh. Si la piedra cae en el vacío o -para propósitos prácticos- en el aire, esta energía se transforma en energía cinética de la piedra. Sin embargo, si la piedra cae en las profundidades del océano, su

http://www.monografias.com/trabajos14/electromag/electromag.shtml (11 of 53)25/05/2005 13:49:05

Page 186: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

velocidad con el tiempo será constante, lo cual significa que la energía cinética ya no aumenta. La energía potencial disponible en cada instante mientras cae la piedra aparece entonces como energía interna de la piedra y del agua circundante. Lo que hace que la piedra deje de acelerar es la resistencia viscosa, semejante a la fricción, del agua sobre la superficie de la piedra, y es en esta superficie donde ocurre la transformación en energía interna.

El recorrido de un electrón a través de un resistor es muy parecido al de la piedra a través del agua. En promedio, los electrones viajan a una velocidad de arrastre vd constante, de modo que no ganan energía cinética. Pierden energía eléctrica en las colisiones con los átomos del resistor. Como resultado, las amplitudes de las vibraciones atómicas aumentan; en una escala macroscópica esto corresponde a un aumento de temperatura. Por consiguiente, puede haber un flujo de energía saliendo del resistor como calor, si el medio ambiente está a una temperatura menor que la del resistor.

Para un resistor podemos combinar las ecuaciones 8 (R = V/i) y 21 y obtener, ya sea

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

o

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Nótese que la ecuación 21 se aplica a toda clase de transferencia de energía eléctrica; las ecuaciones 22 y 23 se aplican únicamente a la transferencia de energía eléctrica en energía interna en un resistor. Las ecuaciones 22 y 23 se conocen como la ley de Joule, y la energía correspondiente transferida al resistor o a sus alrededores se llama calentamiento de Joule. Esta ley es una manera particular de escribir el principio de conservación de la energía para el caso especial en que se transfiera energía eléctrica en energía interna en un resistor. La unidad de potencia que se deduce de la ecuación 21 es el volt . ampere. Podemos demostrar que el volt . ampere es equivalente al watt como una unidad de potencia usando las definiciones del volt (joule/coulomb) y del ampere (coulomb/segundo):

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Ya hemos presentado anteriormente al watt como una unidad de potencia.

Semiconductores

Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante. En un conductor la corriente es debida al movimiento de las cargas negativas (electrones). En los semiconductores se producen corrientes producidas tanto por el movimiento de electrones como de las cargas positivas (huecos). Los semiconductores son aquellos elementos pertenecientes al grupo IV de la Tabla Periódica (Silicio, Germanio, etc.). Generalmente a estos se le introducen átomos de otros elementos, denominados impurezas, de forma que la corriente se deba primordialmente a los electrones o a los huecos, dependiendo de la impureza introducida. Otra característica que los diferencia se refiere a su resistividad, estando ésta comprendida entre la de los metales y la de los aislantes.

Los semiconductores son muy importantes en electrónica ya que gracias a ellos contamos hoy son diversos componentes de gran utilidad en electrónica, tales como diodos, transistores, tiristores, triac, etc

Para describir a nivel microscópico las propiedades de los conductores, los aisladores y los semiconductores se requiere la aplicación de los principios de la física cuántica. Sin embargo, podemos obtener una comprensión cualitativa de las diferencias entre los conductores, los aisladores y los semiconductores remitiéndonos a la figura 9, la cual muestra los estados de energía que pueden representar típicamente a los electrones en los conductores, los aisladores y los semiconductores.

Los electrones tienen energías permitidas que son discretas o cuantizadas, pero que se agrupan en bandas. Dentro de las bandas, los estados de energía permitida, que están tan juntos entre sí que son virtualmente continuos, pueden estar ocupados (electrones que tienen la energía permitida) o desocupados (no hay electrones que tengan esa energía). Entre las bandas existe una banda de energía, la cual no contiene estados que un electrón individual pueda ocupar. Un electrón puede saltar de un estado ocupado a otro desocupado. A temperaturas ordinarias, la distribución de la energía interna proporciona la fuente de la energía necesaria para que los electrones salten a estados más elevados.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (12 of 53)25/05/2005 13:49:05

Page 187: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 9 (a) Bandas de energía características de un conductor. Abajo de la línea de trazos, casi todos los estados de energía están ocupados, mientras que casi todos los estados por arriba de esta línea están vacíos. Los electrones pueden saltar fácilmente de los estados ocupados a los estados vacíos, como se indica por medio de las flechas. (b) En un semiconductor, la línea divisoria entre los estados ocupado y vacío se presenta en la banda prohibida. La conductividad eléctrica está determinada, en parte, por el número de electrones que saltan a ocupar estados en la banda de conducción. (c) Las bandas de energía en un aislador se parecen a las de un semiconductor; la diferencia principal está en el ancho de la banda prohibida de energía. A temperaturas ordinarias, no existe una probabilidad de que un electrón salte a los estados vacíos en la banda de conducción.

La figura 9a ilustra las bandas de energía que representan a un conductor. La banda de valencia, que es la banda más elevada ocupada por electrones, está ocupada sólo parcialmente, de modo que los electrones tienen muchos estados vacíos a los cuales pueden saltar fácilmente. Un campo eléctrico aplicado puede inducir a los electrones a realizar estos pequeños saltos y contribuir a una corriente en el material. Esta facilidad de movimiento de los electrones es lo que hace del material un conductor.

La figura 9b muestra las bandas que pueden caracterizar a un semiconductor, como el silicio. A una temperatura muy baja, la banda de valencia está completamente ocupada, y la banda de arriba (de conducción) está completamente vacía. A temperaturas ordinarias, existe una pequeña probabilidad de que un electrón de uno de los estados ocupados en la linda inferior tenga la energía suficiente para saltar la banda prohibida a uno de los estados vatios en la banda superior. La probabilidad de tal salto depende de la distribución de energías, la cual, incluye al factor e-_E/_T en donde _E es la banda prohibida. Si _E= 0.7 eV (típica del silicio) y kT = 0.025 eV a temperatura ambiente, el factor exponencial es de 7 x 10-13. Si bien éste es un número pequeño, existen tantos electrones disponibles en un trozo de silicio (alrededor de 1023 por gramo) que un número razonable (quizás 1011 por gramo) están en la banda superior. En esta banda pueden moverse fácilmente desde el estado ocupado al estado vacío y contribuir a la capacidad de un semiconductor de transportar una carga eléctrica. (En el proceso de saltar a la banda de conducción, los electrones dejan lugares vacantes o huecos en la banda de valencia. Otros electrones en la banda de valencia pueden saltar a aquellos espacios vacantes, contribuyendo también, por lo tanto, a la conductividad.)

Otra diferencia entre los conductores y los semiconductores está en sus coeficientes de temperatura de la resistividad. Los metales no son conductores perfectos debido a las desviaciones de la estructura cristalina perfecta, como la que podría ser causada por la presencia de impurezas o defectos en la red. La vibración de las corazas de iones alrededor de sus posiciones de equilibrio en la red es un factor esencial en la resistividad de los metales. Puesto que este efecto aumenta con la temperatura, la resistividad de los metales aumenta con la temperatura. El mismo efecto naturalmente también ocurre en los semiconductores, pero queda aminorado por un efecto mucho mayor que disminuye la resistividad al aumentar la temperatura. Conforme aumenta la temperatura, más electrones adquieren la energía suficiente para ser excitados a través de la banda prohibida de energías hacia la banda de conducción, aumentando, en consecuencia, la conductividad y disminuyendo la resistividad. Como lo muestra la tabla 1, el silicio (en contraste con los metales listados) tiene un coeficiente de temperatura de resistividad negativo.

La figura 9c muestra bandas de energía típicas de un aislador, tales como el cloruro de sodio. La estructura de bandas es muy parecida a la de un semiconductor, con la banda de valencia ocupada y la banda de conducción vacía. La diferencia principal radica en el ancho de la banda prohibida de energías, el cual es del orden de 2eV o más en el caso de un aislador (comparado con quizás 0.7eV en un semiconductor). Esta diferencia relativamente pequeña hace una diferencia enorme en el factor exponencial que da la probabilidad de que un electrón adquiera la energía suficiente para saltar a través de la banda prohibida. En un aislador a temperatura ambiente, el factor e-_E/_T es típicamente de 2 x 10-35, de modo que en un gramo de material (1023 átomos) existe una probabilidad insignificante a temperaturas ordinarias de que incluso un solo electrón esté en la banda de conducción en donde se movería libremente. Por lo tanto, en los aisladores todos los electrones están confinados en la banda de valencia, en donde no hay estados vacíos por ocupar y por consiguiente no están libres en absoluto de viajar por el material.

Nótese que la diferencia principal entre los semiconductores y los aisladores radica en la relación entre la banda prohibida de energías y kT. A temperatura muy baja, un semiconductor se convierte en aislador, mientras que á temperaturas lo suficientemente elevadas (que estén, sin embargo, por encima del punto en el cual el material se evapora), un aislador podría convenirse en un semiconductor.

Superconductividad

http://www.monografias.com/trabajos14/electromag/electromag.shtml (13 of 53)25/05/2005 13:49:05

Page 188: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Algunos metales presentan resistividad cero a temperaturas por debajo de cierto valor denominado temperatura crítica. La superconductividad implica resistencia cero y por lo tanto la persistencia de la corriente aunque no haya campo eléctrico en el conductor. La figura se muestra la brusca caída de la resistencia del mercurio a 4,2 K. Recientemente se han conseguido aleaciones que presentan superconductividad a temperaturas mayores, del orden de los 90 K.

La resistividad de un superconductor no es simplemente muy pequeña; ¡es de cero! Si se establece una corriente en un material superconductor, persistiría para siempre, aun cuando no hubiese un campo eléctrico presente.

La disponibilidad de los materiales superconductores sugiere inmediatamente un número de aplicaciones.

(1) La energía puede ser transportada y almacenada en alambres eléctricos sin pérdidas resistivas.

Esto es, una compañía generadora de energía eléctrica puede producir energía eléctrica cuando la demanda es ligera, quizás durante la noche, y almacenar la corriente en un anillo de superconducción. La energía eléctrica puede entonces suministrarse durante las horas pico de demanda al día siguiente. Este tipo de anillo funciona hoy día en Tacoma, Washington, EUA, para almacenar 5 MW de potencia. En el laboratorio, en anillos de prueba más pequeños, se han almacenado corrientes durante varios años sin presentar ninguna reducción.

(2) Los electroimanes superconductores pueden producir campos Magnéticos mayores que los electroimanes convencionales.

un alambre por el que fluye corriente genera un campo magnético en el espacio circundante, al igual que una carga eléctrica crea un campo eléctrico. Con alambres superconductores, pueden producirse corrientes más grandes y por lo tanto campos magnéticos más intensos. Entre las aplicaciones de esta tecnología se cuentan los trenes elevados magnéticamente y los imanes desviadores de haces de partículas en los grandes aceleradores corno el Fermilab

(3) Los componentes superconductores en circuitos electrónicos no generarían un calentamiento Joule y permitirían una mayor miniaturización de los circuitos.

Las computadoras centrales (mainframe) de la próxima generación emplearán componentes de superconducción

La superconductividad no debe considerarse meramente como una mejora en la conductividad de los materiales que de por sí ya son buenos conductores. Los mejores conductores a temperatura ambiente (el cobre, la plata y el oro) no muestran superconductividad alguna en absoluto.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (14 of 53)25/05/2005 13:49:05

Page 189: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Una comprensión de esta distinción puede encontrarse en la base microscópica de la superconductividad. Los materiales ordinarios son buenos conductores si tienen electrones libres que puedan moverse fácilmente por la red. Los átomos del cobre, de la plata y del oro tienen un solo electrón de valencia débilmente ligado que participa en el gas de electrones que penetra por la red. De acuerdo con una de las teorías, los superconductores dependen del movimiento de pares de electrones altamente correlacionados. Puesto que los electrones, generalmente, no tienden a formar pares, se requiere una circunstancia especial: dos electrones interactúan fuertemente con la red y de este modo, entre sí. La situación es un tanto parecida a la de dos lanchas en n lago, donde el oleaje formado por el movimiento de una de las lanchas provoca que la otra se mueva, aun cuando la primera lancha no ejerciese fuerza alguna directamente sobre la segunda. Así pues, un buen conductor ordinario depende de que se tengan electrones que interactúen débilmente con la red, mientras que un superconductor parece requerir electrones que interactúan fuertemente con la red.

2. Circuito de corriente continúa

Fuerza electromotriz

Una fuente de Fuerza electromotriz (fem), es cualquier dispositivo (batería o generador, por ejemplo) que produce un campo eléctrico y que por lo tanto puede originar un movimiento en las cargas por un circuito. Una fuente fem puede ser considerada como una bomba de carga.

Cuando un potencial es definido, la fuente mueve cargas hacia arriba hasta un potencial más alto.

La fem, e, describe el trabajo realizado por unidad de carga y, por ello, la unidad de fem del SI es el volt.

Considerando el circuito que se muestra en la figura, que consta de una batería conectada a un resistor. Supongamos que los alambres de conexión no tienen resistencia. La terminal positiva de la batería está a un potencial más alto que la terminal negativa. Si ignoramos la resistencia interna de la batería, entonces la diferencia de potencial a través de ella (el voltaje de la terminal) es igual a su fem. Sin embargo, debido a que una batería real siempre tiene alguna resistencia interna r, el voltaje de las terminales no es igual a la fem.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (15 of 53)25/05/2005 13:49:05

Page 190: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Cuando se ha establecido una corriente uniforme en el circuito de la figura 1a, una carga dq pasa por cualquier sección transversal del circuito en el tiempo dt. En particular, esta carga entra a la fuente de fem e por su extremo de potencial bajo y sale por el extremo de potencial alto. La fuente debe realizar una cantidad de trabajo dW sobre los portadores de carga (positiva) para forzarlos a ir hacia el punto de potencial más alto.

La fem e de la fuente se define como el trabajo por unidad de carga, o sea

La unidad de fem es el joule/coulomb, que es el volt (abreviatura V): 1 volt = 1 joule/coulomb.Nótese en la ecuación 1 que la fuerza electromotriz no es realmente una fuerza; es decir, no la medimos en newtons. Su nombre se debe a que así se consideraba en sus primeros tiempos.

El trabajo realizado por una fuente de fem sobre los portadores de la carga en su interior debe provenir de una fuente de energía dentro de ella. La fuente de energía puede ser química (como en una batería o en una celda de combustible), mecánica (un generador), térmica (una termopila), o radiante (una celda solar). Podemos describir a una fuente de fem como un dispositivo por el que alguna otra forma de energía se transforma en energía eléctrica. La energía suministrada por la fuente de fem en la figura 1a está almacenada en campos eléctricos y magnéticos* que rodean al circuito. Esta energía almacenada no aumenta porque se convierte en energía interna en e] resistor y se disipa como calentamiento de Joule, a la misma velocidad con que se abastece. Los campos eléctricos y magnéticos desempeñan el papel de intermediarios en el proceso de transferencia de energía, actuando como depósitos de almacenamiento.

La figura 1b muestra una analogía gravitatoria de la figura 1a. En la ilustración superior la fuente de fem realiza un trabajo sobre los partadores de la carga.

Esta energía almacenada en el trayecto como energía del campo electromagnético, aparece luego como energía interna en e] resistor R. En la parte inferior de la figura la persona, al levantar las bolas de boliche desde el piso hasta la estantería, efectúa un trabajo sobre ellas. Esta energía se alacena en el trayecto como energía del campo gravitatorio. Las bolas ruedan lenta y uniformemente a lo largo de la estantería, cayendo por el extremo derecho dentro de un cilindro lleno de aceite viscoso. Se hunden hasta el fondo con una velocidad esencialmente constante, salen por un mecanismo que no se ilustra aquí, ruedan de regreso a lo largo del suelo hacia la izquierda. La energía proporcionada al sistema por la persona aparece al final como energía interna en el fluido viscoso, dando como resultado una elevación de la temperatura. La energía abastecida por la persona proviene de la energía interna (química). La circulación de las cargas en la figura la cesa con el tiempo si la fuente de fem agota su energía; la circulación de las bolas de boliche en la figura 1b se detiene si a la persona se le agota su energía.

Cálculo de la corriente en un circuito cerrado simple

En el calculo de la corriente en un circuito cerrado simple, consideramos un circuito de una sola malla, con en la figura anterior que contiene una fuente de fem y resistor r.

Para calcular la corriente (amperaje) se puede utilizar esta ecuación:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Al pasar por el resistor, hay un cambio de -iR en el potencial. El signo menos muestra que la parte superior del resistor tiene un potencial más alto que el de la parte inferior, lo cual debe ser así, porque los portadores de carga positiva se mueven por sí mismos desde un potencial alto a uno bajo. Según recorremos la batería de abajo arriba, existe un incremento de potencial igual a + x; , porque la batería realiza un trabajo (positivo) sobre los portadores de carga; es decir, los mueve desde un punto de potencial bajo a otro de potencial alto. Al realizar la suma algebraica de los cambios de potencial hasta el punto del potencial inicial Va debe damos el valor final idéntico a Va, O sea

http://www.monografias.com/trabajos14/electromag/electromag.shtml (16 of 53)25/05/2005 13:49:05

Page 191: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Escribimos esto así:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

lo cual es independiente del valor de Va y afirma explícitamente que la suma algebraica de los cambios del potencial en el recorrido completo del circuito es cero. Esta relación conduce directamente a la ecuación 2.

Estas dos maneras de determinar la corriente en circuitos de una sola malla, una basada en la conservación de la energía y la otra en el concepto de potencial, son completamente equivalentes, porque las diferencias de potencial están definidas en términos del trabajo y de la energía.

Con el fin de preparamos para el estudio de circuitos más complejos, examinaremos las reglas para hallar las diferencias de potencial; estas reglas se deducen del análisis anterior. No se pretende que el estudiante las aprenda de memoria, sino que las entienda a fondo, de modo que le resulte trivial deducirlas en cada aplicación.

I. Si un resistor se recorre en la dirección de la corriente, el cambio en el potencial es -iR; en la dirección opuesta es +iR.

2. Si una fuente de fem se recorre en la dirección de la fem (la dirección de la flecha, o de la terminal negativa a la terminal positiva), el cambio en el potencial es +x; en la dirección opuesta es -x .

Por último, recuerde que siempre nos referiremos a la dirección de la corriente como la dirección del flujo de las cargas positivas, opuesto a la dirección real del flujo de los electrones.

Resistencia interna de una fuente de fem

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Analizando la figura (a) de este circuito de una sola malla, vemos que contiene una sola fuente de fem Con una resistencia interna r. en la figura (b) se dibuja el circuito con las componentes a lo largo de una línea recta en la parte superior.

En la parte inferior se muestran 10s cambios de potencial encontrados al recorrer el circuito en el sentido de las manecillas del reloj, comenzando en el punto b. La figura 1a muestra un circuito de una sola malla, el cual pone de relieve que todas las fuentes de fem tienen una resistencia interna r intrínseca. Esta resistencia no puede suprimirse (aunque por lo general nos gustaría hacerlo) porque es una parte inherente al sistema. En la figura se muestra la resistencia interna r y la fem por separado, si bien ocupan realmente la misma región del espacio.

Podemos aplicar las reglas del circuito cerrado comenzando en cualquier punto del circuito. Comenzando en b y yendo en el sentido de las manecillas del reloj, obtenemos

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

o sea

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Compárense estas ecuaciones con la figura 3b, la cual muestra gráficamente los cambios en el potencial. Al escribir estas ecuaciones, nótese que hemos recorrido r y R en la dirección de la corriente y _ en la dirección de la fem. Se tendrá la misma ecuación si comenzamos en cualquier otro punto del circuito o si recorremos el circuito en dirección contraria al sentido de giro de las manecillas del reloj. Al despejar para i obtenemos

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

http://www.monografias.com/trabajos14/electromag/electromag.shtml (17 of 53)25/05/2005 13:49:05

Page 192: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Adviértase que la resistencia interna r reduce la corriente que la fem puede suministrar al circuito externo.

Diferencia de potencial

Como hemos dicho, para que los electrones se muevan por el conductor, es decir, para que exista una intensidad de corriente eléctrica, es necesario que algo impulse a los electrones.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Símbolo de un generador

Pues bien, la diferencia de potencial representa el "impulso" que llevan las cargas (los electrones) por el conductor y los aparatos que producen esa diferencia de potencial son los generadores.

La diferencia de potencial se representa con la letra V. Su unidad de medida es el voltio, representado como V también.

Esta unidad se llama así en honor del físico italiano Alessandro Volta (1745-1827), quien experimentó sobre los fenómenos eléctricos, y construyó la primera batería (pila) eléctrica.

Para medir la diferencia de potencial que existe entre dos puntos de un conductor se usa un aparato llamado voltímetro. Este aparato se conecta entre dos puntos del conductor, es decir se conecta en paralelo.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior En este circuito la V, que representa al voltímetro, está en paralelo

Es decir la "diferencia de alturas" o diferencia entre los potenciales de dos puntos entre los cuales se va a mover nuestra carga.

Así pues, se define la diferencia de potencial (d.d.p.) entre dos puntos como el trabajo que realiza la unidad de carga (el culombio) al caer desde el potencial más alto al más bajo.

Los potenciales y diferencias de potencial, en el Sistema Internacional, se expresan en VOLTIOS.

Divisores más usuales del voltio: Voltios milivoltios microvoltios

1 Voltio (V) = 1 103 106

1 milivoltio(mV) = 10-3 1 103

1 microvoltio(mV) = 10-6 10-3 1

El múltiplo más usual es el Kilovoltio. 1 KV = 1.000 V.

A la diferencia de potencial también se le suele llamar VOLTAJE o TENSION.

para hallar la diferencia de potencial entre dos puntos cualesquiera de un circuito, comenzamos en un punto, viajamos por el circuito hasta el otro y sumamos algebraicamente los cambios encontrados en el potencial. Esta suma algebraica es la diferencia de potencial entre los puntos. Este procedimiento es similar al de calcular la corriente en un circuito cerrado, excepto que aquí las diferencias de potencial están sumadas sólo en parte del circuito y no en todo el circuito.

Resistores en serie y paralelo

Al igual que en el caso de los capacitores, los resistores ocurren a menudo en los circuitos en varias combinaciones. Al analizar tales circuitos, es conveniente reemplazar la combinación de resistores con una sola resistencia equivalente Req, cuyo valor se

http://www.monografias.com/trabajos14/electromag/electromag.shtml (18 of 53)25/05/2005 13:49:05

Page 193: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

elige de tal modo que la operación del circuito no cambie.

Resistores conectados en paralelo

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Según la definición de combinación en paralelo de los elementos de un circuito; podemos recorrer la combinación cruzando sólo uno de los elementos; aparece la misma diferencia de potencial V entre cada elemento, y el flujo de carga se comparte entre los elementos.

La figura 5 muestra dos resistores conectados en paralelo. Buscamos la resistencia equivalente entre los puntos a y b. Supongamos que conectamos una batería (u otra fuente de fem) que mantenga una diferencia de potencial V entre los extremos de cada resistor es V. La corriente en cada uno de los resistores es,

i1 = V/R1 e i2 =V/R2 (5)

De acuerdo con las propiedades de un circuito en paralelo, la corriente total i debe compartirse entre las ramas, de modo que

i = i1 +i2 (6)

Si quisiéramos reemplazar la combinación en paralelo por una sola resistencia equivalente Req, debería fluir la misma cantidad de corriente i (porque el reemplazo no debe cambiar la operación del circuito). La corriente es, entonces,

i = V/Req (7)

Al sustituir las ecuaciones 5 y 7 en la ecuación 6, obtenemos

V = V + V .

Req R1 R2

o sea

1 = 1 + 1 . (8)

Req R1 R2

Para hallar la resistencia equivalente de una combinación en paralelo de más de dos resistores,

1 = å 1 (combinación en paralelo) (9)

Req n Rn

Esto es, para hallar la resistencia equivalente de una combinación en paralelo, sumamos los recíprocos de las resistencias individuales y tomamos el recíproco de la suma resultante. Nótese que Req es siempre menor que la resistencia mínima en la combinación en paralelo –sumando más trayectorias para la corriente, obtenemos más corriente para la misma diferencial de potencial.

En el caso especial de dos resistores en paralelo, la ecuación 8 puede escribirse

http://www.monografias.com/trabajos14/electromag/electromag.shtml (19 of 53)25/05/2005 13:49:05

Page 194: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Req = R1R2 , (10)

R1 + R2

O como el producto de las dos resistencias dividido entre su suma.

Resistores conectados en serie

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La figura muestra dos resistores conectados en serie. Las propiedades de una combinación en serie de los elementos de un circuito, nos dicen que para viajar a través de la combinación, debemos recorrer todos los elementos en sucesión; una batería conectada entre la combinación da (en general) una caída de diferencia de potencial en cada elemento diferente, y se mantiene la misma corriente en cada elemento.

Supongamos que una batería de diferencia de potencial V esté conectada entre los puntos a y b de la figura 6. Se crea una corriente i en la combinación y en cada uno de los resistores. Las diferencias de potencial en los resistores son

V1 = iR1 y V2 = iR2 (11)

La suma de estas diferencias de potencial debe dar la diferencia de potencial entre los puntos a y b mantenida por la batería, o sea

V = V1 + V2 (12)

Si reemplazamos la combinación por su resistencia equivalente Req, se establecerá la misma corriente i, de modo que

V = iReq (13)

Al combinar las ecuaciones 11, 12 y 13, obtenemos

i Req = iR1 +iR2

o sea

Req = R1 + R2

Extendiendo este resultado a una combinación en serie de cualquier número de resistores, obtenemos

Req = å Rn (combinación en serie) (15)

Esto es, para hallar la resistencia equivalente de una combinación en serie, hallamos la suma algebraica de los resistores individuales. Nótese que la resistencia equivalente de una combinación en serie es siempre mayor que la máxima resistencia en la serie –añadir más resistores en la serie significa que se obtiene menos corriente para la misma diferencia de potencial.

Circuito de mallas múltiples

La figura 9 muestra un circuito que contiene más de una malla. Para simplificar, hemos despreciado las resistencias internas de las baterías. Cuando analizamos a tales circuitos es útil considerar sus nodos y ramas. En un circuito de mallas múltiples como el de la figura 9, el nodo es un punto del circuito en el que se reúnen tres o más segmentos de alambre. Existen dos nodos en el

http://www.monografias.com/trabajos14/electromag/electromag.shtml (20 of 53)25/05/2005 13:49:05

Page 195: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

circuito de la figura 9, en b y d. (Los puntos a y c en la figura 9 no son nodos, porque sólo se reúnen dos segmentos de alambre en esos puntos). Una rama es cualquier trayectoria del circuito que comienza en un nodo y continúa a lo largo del circuito hasta el siguiente nodo. Existen tres ramas en el circuito de la figura 9; esto es, existen tres trayectorias que conectan a los nodos b y d: la rama izquierda bad, la rama derecha bcd y la rama central bd.

En circuitos de una sola malla, como los de las figuras 3 y 4, existe únicamente una corriente por determinar.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Existen diversos métodos para analizar circuitos; uno de los más sencillos, aunque laborioso, es el método de las mallas que consiste en estudiar cada una de las mallas que componen el circuito considerando la influencia de otras mallas en las ramas comunes a dos o más mallas.

Antes de entrar en el proceso de cálculo debemos distinguir entre las corrientes de rama, que son las corrientes que atraviesan cada una de las ramas, y las corrientes de malla, que son las corrientes que recorren cada malla; su valor coincide con el de la corriente de rama en las ramas no comunes a otras mallas y, en las ramas comunes a otras mallas, su suma vectorial con el resto de las corrientes de malla comunes da la corriente de la rama estudiada.

Pasos a seguir:

1) Se dibuja el esquema con todos sus elementos

2) Identificadas las mallas, se asigna un sentido a las corrientes de malla. Habitualmente se les atribuye el sentido de giro de las agujas del reloj.

3) Se aplica la ley de las tensiones de Kirchhoff a cada malla, desarrollándose un sistema de ecuaciones de las mallas. Se tendrá en cuenta que las caídas de tensión en ramas comunes a varias mallas serán debidas a la suma algebraica de todas las corrientes de malla que atraviesen la resistencia estudiada.

4) Se resuelve el sistema de ecuaciones de las mallas

5) Calculadas las intensidades de malla se despejan las intensidades de rama: en las no comunes a varias ramas, la intensidad de rama es la de la malla; en las comunes a varias mallas es la suma algebraica de sus intensidades.

Instrumentos de medición

Varios instrumentos de medición eléctrica comprenden circuitos que pueden analizarse por los métodos de este capitulo.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (21 of 53)25/05/2005 13:49:05

Page 196: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

http://www.monografias.com/trabajos14/electromag/electromag.shtml (22 of 53)25/05/2005 13:49:05

Page 197: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 11 Circuito de una sola malla que ilustra la conexión de un amperímetro A, con el cual se mide la corriente i, y un voltímetro V, con el cual se mide la diferencia de potencial entre los puntos c y d.

El Amperímetro.

El instrumento usado para medir las corrientes se llama amperímetro. Para medir la corriente en un conductor, usualmente tenemos que abrirlo o cortarlo e insertar el amperímetro de modo que la corriente a medir pase por el medidor. Es esencial que la resistencia RA del amperímetro sea muy pequeña (cero, idealmente) en comparación con las demás resistencias del circuito. De otra manera, la simple presencia del medidor cambiaría la corriente que se desea medir. En el circuito de una sola malla de la figura 11, la condición requerida, suponiendo que no estuviese conectado el voltímetro. es RA << r + R1 + R2

El amperímetro puede también emplearse como ohmímetro para medir una resistencia desconocida.

El Voltímetro.

Al instrumento que sirve para medir las diferencias de potencial se le llama voltímetro. Para hallar la diferencia de potencial entre dos puntos cualesquiera en el circuito, se conectan las terminales del voltímetro entre dichos puntos, sin abrir el circuito.

Es esencial que la resistencia Ry de un voltímetro sea muy grande (infinita, idealmente) comparada con cualquier elemento del circuito al cual esté conectado el voltímetro. De otra manera, pasarían corrientes significativas por el medidor, cambiando la corriente en el elemento del circuito en paralelo con el medidor y, por consiguiente, cambiando también la diferencia de potencial que va a medirse. En la figura 11, la condición necesaria es que

RV >> R1

http://www.monografias.com/trabajos14/electromag/electromag.shtml (23 of 53)25/05/2005 13:49:05

Page 198: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 12 Los elementos básicos de un potenciómetro empleado para comparar las fem.

A menudo se empaca una sola unidad de modo que, mediante un interruptor externo, pueda servir ya sea como amperímetro, como voltímetro o como ohmímetro. Esta versátil unidad recibe el nombre de multímetro. Las lecturas que proporciona suelen indicarse mediante una aguja que se mueve sobre una escala o mediante una pantalla digital.

El Potenciómetro.

Éste es un aparato para medir una fem _x desconocida comparándola con una fem _s están dar conocida. La figura 12 muestra sus elementos básicos. El resistor que se extiende desde a hasta e es un resistor de precisión cuidadosamente fabricado con un contacto deslizante que se muestra con posición en d. La resistencia R en la figura es la resistencia entre los puntos a y d. Cuando se usa el instrumento, _s se coloca primero en la posición _, y el contacto deslizante se ajusta hasta que la corriente i sea cero, lo cual se percibe en el sensible amperímetro A. Se dice entonces que el potenciómetro está balanceado, siendo R. el valor de R en equilibrio. En esta condición de balance tenemos, considerando la malla abcda.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

ya que i = 0 en la rama abcd, la resistencia interna r de la fuente patrón de fem (o del amperímetro) no interviene. Ahora se repite el proceso con _x , sustituida por _s, siendo balanceado el potenciómetro una vez más. La corriente io permanece sin cambio (porque i = 0) y la nueva condición de balance es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

de las ecuaciones 25 y 26 tenemos, entonces,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La fem desconocida puede hallarse en términos de la fem conocida llevando a cabo dos ajustes del resistor de precisión. Nótese que este resultado es independiente del valor de _0. En el pasado, el potenciómetro hacía las veces de patrón secundario del voltaje, permitiendo al investigador determinar en cualquier laboratorio una fem desconocida comparándola con la de una celda estándar (un aparato electroquímico similar a una batería) calibrada cuidadosamente. Hoy día, el volt se define en términos de un estándar cuántico más preciso que es relativamente fácil de reproducir en el laboratorio: las etapas cuantizadas del voltaje de un sándwich que consta de dos superconductores separados por una delgada capa aislante, llamada conexión Josephson.

El potenciómetro es el ejemplo de un indicador de nulos, el cual permite una medición de precisión mediante el ajuste del valor de un elemento del circuito hasta que en el medidor se lea cero. En este caso, una lectura de cero nos permite medir _x cuando no pasa corriente por él y así nuestra medición es independiente de la resistencia interna r de la fuente de fem. Otro instrumento de nulos es el puente de Wheatstone.

Circuitos RC

http://www.monografias.com/trabajos14/electromag/electromag.shtml (24 of 53)25/05/2005 13:49:05

Page 199: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Circuitos RC Serie

En un circuito RC en serie la corriente (corriente alterna) que pasa por la resistencia y por el condensador es la misma. Esto significa que cuando la corriente está en su punto más alto (corriente de pico), estará así tanto en la resistencia como en el capacitor.

Pero algo diferente pasa con los voltajes. En la resistencia, el voltaje y la corriente están en fase (sus valores máximos coinciden en el tiempo). Pero con el condensador esto no es así. El voltaje en el condensador está retrasado con respecto a la corriente que pasa por él. (el valor máximo de voltaje sucede después del valor máximo de corriente en 90o) Estos 90º equivalen a ¼ de la longitud de onda dada por la frecuencia de la corriente que está pasando por el circuito.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La corriente I es la misma por R y por C Vs = Vr + Vc

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El voltaje en el condensador esté atrasado con respecto a la corriente en el mismo

El voltaje total que alimenta el circuito RC en serie es igual a la suma del voltaje en la resistencia y el voltaje en el condensador.

Este voltaje tendrá un ángulo de desfase (causado por el capacitor) y se obtiene con ayuda de las siguientes formulas:

Valor del voltaje (magnitud): Vs = (VR2 + VC2)1/2

Angulo de desfase O = Arctang (-VC/VR)

A la resistencia total del conjunto resistencia-condensador, se le llama impedancia (Z) (un nombre mas generalizado) y Z es la suma (no una suma directa) del valor de la resistencia y de la reactancia del condensador y la unidad es en ohmios. Se obtiene con ayuda de la siguiente fórmula:

Vs /0 Impedancia (Z) = ---------- I /0

Cómo se aplica la fórmula? Z se obtiene dividiendo directamente Vs e I y el ángulo de Z se obtiene restando el ángulo de I del ángulo Vs.

Circuitos RC en paralelo

En un circuito RC en paralelo el valor del voltaje es el mismo tanto en el condensador como en la resistencia y la corriente que se entrega al circuito se divide entre los dos componentes.

La corriente que pasa por la resistencia y el voltaje que hay en ella están en fase (la resistencia no causa desfase) y la corriente en el condensador está adelantada con respecto a la tensión, que es igual que decir que el voltaje está retrasado con respecto a la corriente.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (25 of 53)25/05/2005 13:49:05

Page 200: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La corriente alterna total es igual a la suma de las corrientes por los dos elementos

La corriente alterna total se obtiene con ayuda de las siguientes fórmulas:

Corriente alterna Total (magnitud) It = (Ir2 + Ic2)1/2

Angulo de desfase O = Arctang (-Ic/Ir)

La impedancia Z del circuito en paralelo se obtiene con la fórmula

V /0 Z = ----------- I /0

NOTA: lo que está incluido en paréntesis elevado a la 1/2, equivale a la raiz cuadrada

Carga y descarga de un capacitor

En un circuito RC, conectado a una batería, a medida que pasa el tiempo, se observa un

aumento en la tensión del capacitor, mientras que la tensión en la resistencia disminuye. Esto es así

porque el capacitor se va cargando y, una vez que llega a su carga máxima, el circuito queda abierto

(ver figura 1). Sabemos, según las leyes de Kirchhoff que:

(1)

donde Vo es el voltaje de la batería, vR(t) es la tensión en la resistencia y v(t) es la tensión en el

capacitor. A partir de la ecuación (1), la ecuación diferencial que describe el circuito es:

(2)

Si el capacitor se encuentra inicialmente descargado, la condición inicial es q(0) = 0.

De la ecuación diferencial se obtiene la carga q en función del tiempo y, a partir de ella,

podemos obtener la corriente y las tensiones en función del tiempo. La tensión en el capacitor

durante su carga es:

(3)

http://www.monografias.com/trabajos14/electromag/electromag.shtml (26 of 53)25/05/2005 13:49:05

Page 201: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

donde t es la constante de tiempo característica:

(4)

En un circuito RC con un capacitor cargado, se produce la descarga del mismo a través

de la resistencia. La tensión en el capacitor va disminuyendo en el tiempo hasta hacerse cero, al

igual que la tensión en la resistencia. Según las leyes de Kirchhoff:

(5)

La ecuación diferencial correspondiente al circuito es:

(6)

Conociendo la carga final qo a la que llegó el capacitor durante la carga, se obtiene la

condición inicial necesaria para la resolución de la ecuación (6).

La tensión en el capacitor durante su descarga es:

(7)

Ejemplo de un Experimento

Para la realización de este experimento, utilizamos el circuito que se ilustra en la figura

1, tanto para la carga como la descarga del capacitor, simplemente moviendo los switch s1 y s2 para

cerrar uno u otro circuito RC.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (27 of 53)25/05/2005 13:49:05

Page 202: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

La fuente Vo es una batería de 9V. En ambos casos, medimos la tensión en el capacitor con un sistema de adquisición de datos conectado a una PC. Realizamos el experimento dos veces variando las resistencias R1 y R2.

Resultados

En primer lugar, analizamos la carga del capacitor para dos valores distintos de resistencia R1 usando el mismo capacitor C. Graficamos la tensión obtenida en función del tiempo de los datos experimentales, superpuesto por la curva teórica en base a la ecuación (3) como se muestra en las figuras 2 y 3.

Derivando la tensión en el capacitor se puede obtener una relación que permite obtener

la constante de tiempo característica ••del circuito:

http://www.monografias.com/trabajos14/electromag/electromag.shtml (28 of 53)25/05/2005 13:49:05

Page 203: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

En el primer caso obtuvimos una constante de tiempo de 18,76 s ± 0,02 s como puede verse en la figura 4. En el segundo experimento, ilustrado en la figura 5, obtuvimos un valor para la constante de tiempo de 10,86 s ± 0,02 s. El primer experimento fue realizado con una resistencia R1 menor que en el segundo experimento.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (29 of 53)25/05/2005 13:49:05

Page 204: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Repetimos la experiencia para la descarga del capacitor, también variando la resistencia R2 con la que se descargaba el capacitor. Graficamos la tensión en función del tiempo en las figuras 6 y 7.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (30 of 53)25/05/2005 13:49:05

Page 205: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Nuevamente buscamos una relación entre la derivada de la tensión y la tensión del capacitor para poder obtener el valor de la constante de tiempo. Realizamos los gráficos 8 y 9 de los cuales obtuvimos un valor de 21,19 s ± 0,02 s para el primer experimento y 21,89 s con un error absoluto de 0,02 s para el segundo.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (31 of 53)25/05/2005 13:49:05

Page 206: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Por último, graficamos los valores de τ obtenidos experimentalmente en función del producto de las resistencias R y el capacitor C utilizados. El resultado obtenido se muestra en la figura 10.

Conclusión

Las figuras 2 y 3 comprueban la ecuación (3) que dice que la tensión en el capacitor durante la carga tiende exponencialmente a la tensión de la fuente cuando la carga del mismo tiende a la carga máxima. En las figuras 6 y 7 se puede ver la caída exponencial de la tensión en el capacitor cuando éste se descarga hasta llegar a una tensión igual a cero.

De los datos y la relación dada en la ecuación (8) pudimos obtener el valor de las constantes de tiempo características de los circuitos, para distintas resistencias. De las figuras 4, 5, 8 y 9, y a partir de la regresión lineal, obtuvimos el valor de τ de la pendiente de las rectas.

Pudimos comprobar que para resistencias mayores, la constante de tiempo característica del circuito resulta mayor.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (32 of 53)25/05/2005 13:49:05

Page 207: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Además, se comprueba en la figura 10 la definición de la constante característica τ dada en la ecuación (4), ya que la pendiente que obtuvimos fue de 1,00 ± 0,03 de graficar los valores de τ obtenidos experimentalmente en función del producto de las resistencias R usadas en cada caso y el capacitor C utilizado de 10µF.

Los experimentos realizados comprobaron con gran aproximación a la teoría conocida sobre circuitos RC que describe su comportamiento durante la carga y la descarga de un capacitor.

3. El campo magnético

El campo magnético B

Describimos al espacio alrededor de un imán permanente o de un conductor que conduce corriente como el lugar ocupado por un campo magnético, precisamente como hemos descrito al espacio alrededor de un objeto cargado como el lugar ocupado por un campo eléctrico.

En electrostática, representamos simbólicamente la relación entre campo eléctrico y carga eléctrica por

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Esto es, las cargas eléctricas establecen un campo eléctrico, el que a su vez puede ejercer una fuerza de origen eléctrico sobre otras cargas. Una carga eléctrica en movimiento o una corriente eléctrica generan un campo magnético, el cual puede entonces ejercer una fuerza magnética sobre otras cargas o corrientes en movimiento.

La fuerza magnética sobre una carga en movimiento

Definiremos ahora el campo magnético B de la manera siguiente, basados en observaciones: la dirección de B en el punto P es la misma que una de las direcciones de v donde la fuerza es cero; y la magnitud B se determina a partir de la magnitud de F^ de la fuerza máxima ejercida cuando la carga en reposo se proyecta perpendicularmente a la dirección de B; o sea,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

En ángulos arbitrarios, nuestras observaciones se resumen por medio de la formula

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

En la siguiente figura se muestra la relación geométrica entre los vectores F, v y B; nótese que, como es siempre el caso en un producto vectorial, F es perpendicular a v, y la fuerza magnética es siempre una fuerza deflectora lateralmente.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Ya que la fuerza magnética siempre es perpendicular a v, no puede cambiar la magnitud de v, únicamente su dirección. En forma equivalente, la fuerza forma siempre un ángulo recto con el desplazamiento de la partícula y no puede realizar trabajo sobre ella.

Así pues, un campo magnético constante no puede cambiar la energía cinética de una partícula cargada en movimiento.Definimos al campo eléctrico similarmente por medio de una ecuación, , de modo que al medir la fuerza eléctrica podamos determinar la magnitud y también la dirección del campo eléctrico. Los campos magnéticos no pueden determinarse tan fácilmente con una simple medición.

Esta tabla da algunos valores típicos de campos magnéticos.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

http://www.monografias.com/trabajos14/electromag/electromag.shtml (33 of 53)25/05/2005 13:49:05

Page 208: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Esta figura muestra las líneas de B de un imán de barra. Partiendo por la agrupación de las líneas del campo fuera del imán cerca de sus extremos, inferimos que el campo magnético tiene su mayor magnitud allí. Estos extremos se llaman los polos del imán, con las designaciones norte y sur dadas a los polos en donde las líneas emergen y entran, respectivamente.

Los polos magnéticos opuestos se atraen entre si (así pues, el polo norte de un imán de barra atrae el polo sur de otro) y los polos magnéticos iguales se repelen entre si.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La fuerza de lorentz

i tanto un campo eléctrico E como un campo magnético B actúan sobre una partícula cargada, la fuerza total sobre ella puede expresarse como

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Esta fuerza se llama la fuerza de Lorentz. La fuerza de Lorentz no es una clase nueva de fuerza: simplemente es la suma de la fuerza eléctrica y magnética que pueden actuar simultáneamente sobre una partícula cargada.

La parte eléctrica de esta fuerza actúa sobre cualquier partícula cargada, ya sea que este en reposo o en movimiento; la parte magnética actúa únicamente sobre las partículas cargadas en movimiento.

Una aplicación común de la fuerza de Lorentz ocurre cuando un haz de partículas cargadas pasan por una región en donde los campos E y B son perpendiculares entre si y al vector velocidad de las partículas. Si E, B y v están orientadas como se muestra en la figura, entonces la fuerza eléctrica

esta en la dirección opuesta a la fuerza magnética

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Podemos ajustar los campos magnéticos y eléctrico hasta que las magnitudes de las fuerzas sean iguales, en cuyo caso la fuerza de Lorentz es cero. En términos Escalares,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Los campos cruzados E y B sirven, por tanto, como un selector de velocidad: únicamente partículas con velocidad v = E/B pasan por la región sin ser afectadas por los dos campos, mientras que las partículas con otras velocidades se desvían. Este valor de v es independiente de la carga o de la masa de las partículas.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Otra aplicación del selector de velocidad es el espectrómetro de masas, un aparato para separar los iones por su masa. En este caso un haz de iones, incluyendo quizá especies de masas diferentes, puede obtenerse de un vapor del material calentado en un horno. Un selector de velocidad solo deja pasar iones de una velocidad en particular, y cuando el haz resultante pasa entonces a través de otro campo magnético, las trayectorias de las partículas son arcos circulares cuyos radios están determinados por el ímpetu o momento de las partículas.

Puesto que todas las partículas tiene la misma velocidad, el radio de la trayectoria esta determinado por la masa, y cada componente de masa diferente contenido en el haz sigue una trayectoria de un radio diferente.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

http://www.monografias.com/trabajos14/electromag/electromag.shtml (34 of 53)25/05/2005 13:49:05

Page 209: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Cargas circulares

La fuerza magnética deflectora es la única fuerza importante que actúa sobre los electrones, esta fuerza tiene dos propiedades que afectan a las trayectorias de las partículas cargadas: (1) no cambia la velocidad de las partículas, y (2) siempre actúa perpendicularmente a la velocidad de las partículas.

Estas son las características que se necesitan para que una partícula se mueva en círculo a velocidad constante.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El ciclotrón.

El ciclotrón es un acelerador que produce haces de partículas cargadas energéticamente, las que pueden emplearse en experimentos de reacciones nucleares.

Consta de dos objetos metálicos huecos en forma de D llamados des. Las "des" están hechas de un material conductor como laminas de cobre y están abiertas a lo largo de sus bordes rectos están conectados a un oscilador eléctrico, el cual crea una diferencia de potencial oscilante entre las des.

Un campo magnético es perpendicular al plano de las des. En el centro del instrumento hay una fuente que emite los iones que deseamos acelerar.

Cuando los iones están en el entrehierro entre las des, son acelerados por la diferencia de potencial entre las des. Entonces, entran a una de las des, en donde no experimentaran un campo eléctrico ( por ser cero el campo eléctrico dentro de un conductor ), pero el campo magnético (que no esta blindado por las des de cobre) desvía su trayectoria en un semicírculo.

Cuando las partículas entran después al entrehierro, el oscilador ha invertido la dirección del campo eléctrico, y las partículas se aceleran de nuevo al cruzar el entrehierro. Con mayor velocidad, recorren una trayectoria de mayor radio, sin embargo, les toma exactamente la misma cantidad de tiempo recorrer el semicírculo mas grande; esta es la característica critica de la operación del ciclotrón.

La frecuencia del oscilador eléctrico debe ser ajustada para ser igual a la frecuencia del ciclotrón (determinada por el campo magnético y la carga y masa de la partícula que va a ser acelerada); esta igualdad de frecuencias se llama condición de resonancia. Si la condición de resonancia se satisface, las partículas continúan acelerándose en el entrehierro y "navegan" alrededor de los semicírculos, adquiriendo un pequeño incremento de energía en cada circuito, hasta que son desviadas afuera del acelerador.

La velocidad final de las partículas esta determinada por el radio R en el que las partículas dejan el acelerador.

Los ciclotrones típicos producen haces de protones con energías máximas en el orden de 10MeV.

Una diferencia de potencial más grande da a las partículas un "impulso" mayor en cada ciclo; el radio aumenta más rápidamente, y las partículas ejecutan menos ciclos antes de salir del acelerador. Con una diferencia menor, las partículas ejecutan más círculos pero reciben un "impulso" cada vez menor así, la energía de las partículas es independiente de la diferencia de potencial.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Un acelerador ciclotrón. Los imánes están en las cámaras grandes de arriba y de abajo. El haz es visible cuando emerge de acelerador, porque al igual que el haz de electrones de la figura ioniza, las moléculas de aire en las colisiones.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El sincrotrón.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (35 of 53)25/05/2005 13:49:05

Page 210: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Las energías más elevadas se logran usando un acelerador con un diseño diferente, llamado sincrotrón. Un ejemplo es el sincrotrón de protones de 1000GeV del Fermi National Accelerator Laboratory; en lugar de un solo imán, un sincrotón usa muchos imanes individuales a lo largo de la circunferencia de un círculo; cada imán desvía al haz en un Angulo pequeño (0.1¼).

En un entrehierro en el anillo, un campo eléctrico acelera las partículas. Las partículas se aceleran en ráfagas, y tanto la frecuencia del potencial de aceleración como la intensidad del campo magnético varían conforme se aceleran las partículas, manteniendo por tanto la resonancia para todas las energías y manteniendo constante al radio de la orbita.

El espejo magnético.

Las partículas cargadas tienden a moverse en círculos con respecto a la dirección del campo. El movimiento es, por tanto, el de una hélice, como en un resorte helicoidal. El campo aumenta cerca de los extremos de la "botella magnética", y la fuerza tiene una pequeña componente apuntando hacia el centro de la región, la cual invierte la dirección del movimiento de las partículas y provoca que se muevan en espiral en la dirección opuesta, hasta que finalmente se reflejan desde el extremo opuesto. La figura muestra una vista esquemática de la operación de un espejo magnético de esta clase.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Las partículas continúan viajando de un lugar a otro, confinadas al espacio entre las regiones de campo intenso. Tal procedimiento se emplea para confinar los gases calientes ionizados (llamados plasmas) que se emplean en las investigaciones sobre la fusión termonuclear controlada.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

El efecto Hall

En 1879, Edwin H. Hall llevo a cabo un experimento que permitió la medición directa del signo y la densidad del numero ( numero por unidad de volumen ) de los portadores de carga en un conductor.

El efecto Hall desempeña un papel crítico en nuestra comprensión de la conducción eléctrica en los metales y semiconductores.

Al someter un conductor por el que circula una corriente eléctrica estacionaria a un campo magnético externo, aparece una fuerza electromotriz perpendicular a la corriente y al campo magnético.

Al estar sometida a la corriente a un campo magnético, aparece una fuerza del tipo f = qv x B sobre ella.

Esta fuerza normalmente no puede dar origen a una corriente por que líneas se encuentran con los límites del conductor.

Pero produce una redistribución de la carga libre del conductor hasta que el campo eléctrico debido a esta carga cancela la fuerza de origen magnético.

En el exterior del conducto no existe fuerza de origen magnético y si existe la de origen eléctrico, luego se puede medir una diferencia de potencial.

A partir de una medición de la magnitud de la diferencia V de potencial Hall podemos hallar la densidad del número de los portadores de carga.

Este fenómeno da lugar a un voltaje Vh.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

FORMULA

http://www.monografias.com/trabajos14/electromag/electromag.shtml (36 of 53)25/05/2005 13:49:05

Page 211: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Dónde:

Vd es la velocidad del desplazamiento.

B es el campo magnético.

W es la anchura de la cinta.

T es el espesor de la cinta.

n es la densidad numérica de los portadores de carga.

q es la carga del portador.

El signo de los portadores de carga puede determinarse midiendo el signo del voltaje Hall y su número por unidad de volumen a partir de la magnitud Vh. Las medidas a muy bajas temperaturas y campos magnéticos muy grandes indican que la resistencia Hal.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

está cuantizada y puede tomar valores dados por:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Dónde Rk es la constante de Klitzing cuyo valor es 25.813 omega.

Para algunos metales monovalentes (Na, K, Cu, Ag) el efecto Hall indica que cada átomo contribuye, aproximadamente, con un electrón libre a la conducción.

En otros metales, el numero de electrones puede ser de mas de uno por átomo (Al) de menos de uno por átomo (Sb). En algunos metales (Be, Zn), la diferencia de potencial Hall muestra que los portadores de carga tienen un signo positivo.

En este caso la conducción es denominada por huecos o agujeros, niveles de energía desocupados en la banda de valencia. Los huecos corresponden a la ausencia de un electrón y entonces se comportan como portadores de carga positiva que se mueven a través del material. En algunos materiales, en particular los semiconductores, puede haber contribuciones sustanciales tanto de electrones como de huecos, y la simple interpretación del efecto Hall en términos de conducción libre por un tipo de portador de carga no es suficiente.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La fuerza magnética sobre una corriente

Una corriente es un conjunto de cargas en movimiento. Ya que un campo magnético ejerce una fuerza lateral sobre una carga en movimiento, también debe ejercer una fuerza lateral sobre un conductor por el cual fluya una corriente.

Esto es, se ejerce una fuerza lateral sobre los electrones de conducción en el conductor, pero puesto que los electrones no pueden escapar lateralmente, la fuerza debe transmitirse al conductor mismo.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

momento de torsión en una espira de corriente

http://www.monografias.com/trabajos14/electromag/electromag.shtml (37 of 53)25/05/2005 13:49:05

Page 212: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Cuando una espira de alambre que porta una corriente se coloca dentro de un campo magnético, esa espira puede experimentar un momento de torsión al cual tiende a hacerla girar alrededor de un eje en particular (el cual, por generalidad, podemos considerar que pasa por el centro de masa de la espira). Este principio es la base de la operación de los motores eléctricos, así como de los galvanómetros en los que se basan los medidores analógicos de corriente y de voltaje.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La figura muestra una espira rectangular de alambre dentro de un campo magnético uniforme B.

Para simplificar, solo e muestra la espira; suponemos que los alambres que llevan la corriente a la espira y desde esta están entrelazados de modo que no existe una fuerza magnética neta sobre ellos.

El campo uniforme B esta en la dirección y del sistema de coordenadas. La espira orientada de modo que el eje z se encuentra en su plano.

El plano de la espira esta indicado por un vector unitario n que es perpendicular al plano; la dirección de n se determina mediante la regla de la mano derecha, de modo que si los dedos de su mano derecha indican la dirección de la corriente en la espira, el pulgar da la dirección de n.

La fuerza neta sobre espira puede determinarse usando la ecuación F = iL x B para calcular la fuerza sobre cada uno de sus cuadro lados. así, la magnitud de la fuerza F2 en el lado 2 (de longitud b), es de

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Esta fuerza apunta en la dirección z positiva. La fuerza F4 sobre el lado 4 tiene la magnitud

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

y apunta a la dirección z negativa. Estas fuerzas son iguales y opuestas, por lo que no contribuyen a la fuerza neta sobre la aspira. Además tienen la misma línea de acción, de modo que el momento de torsión neto ejercido por estas dos fuerzas es también cero. Las fuerzas F1 y F3 tienen una magnitud común de iaB. Tienen direcciones opuestas paralela y antiparalela al eje x, de modo que tampoco contribuyen a la fuerza neta sobre la espira.

La suma de las cuatro fuerzas da una resultante de cero, por lo que llegamos a la conclusión de que el centro de masa de la espira no se acelera bajo la influencia de la fuerza magnética neta. Sin embargo, los momentos de torsión de las fuerzas F1 y F3 no se cancelan, por que no tienen la misma línea de acción. Estas dos fuerzas tienden a hacer girar a la espira alrededor de un eje paralelo al eje z. La dirección de la rotación tiende a llevar a n en alineación con B

4. ley de Ampére

La ley de Ampére

Es muy importante analizar ley de Ampère, la cual fue llamada así en honor de quién, en 1825, creo las fundaciones teóricas del electromagnetismo, implica la descripción básica de la relación existente entre la electricidad y el magnetismo, desarrollada a través de afirmaciones cuantitativas sobre la relación de un campo magnético con la corriente eléctrica o las variaciones de los campos eléctricos que lo producen.

Existe una ecuación análoga para el campo magnético, llamada ley de Ampêre, que relaciona el componente tangencial de B, sumando alrededor de una curva cerrada C con la corriente Ic que pasa a través de la curva. En forma matemática, la ley de Ampêre es:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

http://www.monografias.com/trabajos14/electromag/electromag.shtml (38 of 53)25/05/2005 13:49:05

Page 213: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Dónde C es cualquier curva cerrada e Ic es la corriente neta que penetra en el área limitada por la curva C.

La ley de Ampêre sólo es válida si las corrientes son continuas. Puede utilizarse para deducir expresiones del campo magnético en situaciones de alto grado de simetría, tales como un conductor largo y rectilíneo portador de corriente; un toro estrechamente enrollado; y un solenoide largo estrechamente enrollado.

Ley de biot savart

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

(Reemplazando qv por Id)

Ésta es la ecuación de Biot Savart que fué también deducida por Ampêre. Ésta ley es análoga a la ley de Coulomb correspondiente al campo eléctrico de una carga puntual. La fuente del campo magnético es una carga móvil qv o un elemento corriente I·dl y la carga q en la fuente del campo electrostático.

Los aspectos direccionales de los campos eléctricos y magnéticos son distintos. El campo eléctrico apunta en la dirección radial r desde la carga puntual hasta el punto del campo y el campo magnético es perpendicular a r y a la dirección del movimiento de las cargas, v, que es la dirección del elemento de corriente.

El campo magnético debido a la corriente total en un circuito puede calcularse mediante la ley de Biot-Savart para calcular el campo debido a cada elemento de corriente y después sumando (integrando) para todos los elementos de corriente del circuito.

Aplicaciones de la ley de biot savart

Campo magnético producido por una corriente rectilínea

Utilizamos la ley de Biot para calcular el campo magnético B producido por un conductor rectilíneo indefinido por el que circula una corriente de intensidad i.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior El campo magnético B producido por el hilo rectilíneo en el punto P tiene una dirección que es perpendicular al plano formado por la corriente rectilínea y el punto P, y sentido el que resulta de la aplicación de la regla del sacacorchos al producto vectorial ut x ur. Para calcular el módulo de dicho campo es necesario realizar una integración.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Se integra sobre la variable , expresando las variables x y r en función del ángulo . Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior.

En la figura, se muestra la dirección y sentido del campo magnético producido por una corriente rectilínea indefinida en el punto P. Cuando se dibuja en un papel, las corrientes perpendiculares al plano del papel y hacia el lector se simbolizan con un punto º en el interior de una pequeña circunferencia, y las corrientes en sentido contrario con una cruz "x" en el interior de dicha circunferencia tal como se muestra en la parte derecha de la figura. La dirección del campo magnético se dibuja perpendicular al plano determinado por la corriente rectilínea y el punto, y el sentido se determina por la regla del sacacorchos o la denominada de la mano derecha.

Las líneas de B

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 8: Las líneas del campo magnéticos son círculos concéntricos en un alambre recto y largo, por el cual fluye una corriente.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (39 of 53)25/05/2005 13:49:05

Page 214: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Su dirección está dada por la regla de la mano derecha.

La figura 8 muestra las líneas que representan al campo magnético B cerca de un alambre recto largo. Nótese el aumento en el espaciamiento de las líneas cuando aumenta la distancia desde el alambre. Esto representa la disminución 1/r predicha por la ecuación 11.

La figura 9 muestra las líneas magnéticas resultantes asociadas a la corriente de un alambre orientado en Angulo recto con un campo externo uniforme Be que se dirige hacia la izquierda. En cualquier punto, el campo magnético total resultante Bt es el vector suma de Bc y Bi, en donde Bi es el campo magnético creado por la corriente del alambre. Los campos Be y Bi tienden a cancelarse arriba del alambre. El punto P de la figura 10, Be y Bi se cancelan exactamente, y Bt, = 0. Muy cerca del alambre el campo esta representado por líneas circulares, y Bt ª Bi.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 10: Un alambre recto largo portador de una corriente hacia adentro de la página esta inmerso en un campo magnético externo uniforme.

Las líneas del campo magnético mostradas representan el campo resultante formado al combinar en cada punto los vectores que representan la campo uniforme original y al campo crado por la corriente en el alambre.

Para Micahel Faraday, creador del concepto, las líneas del campo magnético representaban la acción de fuerzas mecánicas, un poco parecida a la acción de una liga elástica estirada. Usando la interpretación de Faraday, podemos ver sin dificultad que el alambre de la figura 10 es jalado hacia arriba por la "tensión" de las líneas del campo. Este concepto tiene solo una utilidad limitada, y hoy DIA usamos las líneas de B principalmente para formarnos una imagen mental. En los cálculos cuantitativos usamos los vectores del campo, y describiríamos la fuerza magnética sobre el alambre de la figura 10 usando la relación F = iL x B.

Al aplicar esta relación a la figura 10, recordamos que la fuerza sobre el alambre es causada por el campo externo en el que esta inmerso el alambre; esto es, es Bc, el cual apunta hacia la izquierda. Puesto que L apunta hacia adentro de la pagina, la fuerza magnética sobre el alambre ( = iL x B.) apunta en efecto hacia arriba. Es importante usar solo el campo externo en tales cálculos, pues el campo creado por la corriente del alambre no puede ejercer una fuerza sobre el alambre, del mismo modo en que el campo gravitatorio de la Tierra no puede ejercer una fuerza sobre la Tierra misma sino solo sobre otro cuerpo. En la figura 9, por ejemplo, no existe una fuerza magnética sobre el alambre porque no este presente ningún campo magnético externo.

Solenoides y Toroides

Dos clases de componentes prácticos basados en los devanados de espiras de corriente son los solenoides y los toroides. El solenoide suele utilizarse para crear un campo magnético uniforme, al igual que el capacitor de placas paralelas crea un campo eléctrico uniforme. En los timbres de las puertas y en los altavoces, el solenoide a menudo proporciona el campo magnético que acelera a un material magnético.

Los toroides se emplean también para crear campos grandes.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

en esta figura la Sección de un solenoide "extendido" con el fin de mostrar las líneas del campo magnético.

Solenoides.

El solenoide es un alambre largo devanado en una hélice fuertemente apretada y conductor de una corriente i. La hélice es muy larga en comparación con su diámetro. ¿Cuál es el campo magnético B que genera el solenoide?

La figura 12 muestra, solo con fines de ilustración, la sección de un solenoide "extendido". En los puntos cercanos a una sola vuelta del solenoide, el observador no puede percibir que el alambre tiene la forma de arco. El alambre se comporta magnéticamente casi como un alambre recto largo, y las líneas de B debidas a esta sola vuelta son casi círculos concéntricos.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (40 of 53)25/05/2005 13:49:05

Page 215: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

El campo del solenoide es la suma vectorial de los campos creados por todas las espiras que forman el solenoide. La figura 12 sugiere que losa campos tienden a cancelarse entre alambres contiguos. También sugiere que, en los puntos dentro del solenoide y razonablemente alejados de los alambres, B es paralelo al eje del solenoide.

En el caso limita de alambres cuadrados empaquetados en forma compacta, el solenoide se convierte esencialmente en una lamina de corriente cilíndrica, y las necesidades de simetría obligan entonces a que sea rigurosamente cierto el hecho de que B sea paralelo al eje del solenoide. A continuación damos por sentado que esto es así.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 12: Líneas del campo magnético en un solenoide de longitud finita. Nótese que el campo es más intenso (lo que esta indicado por la mayor densidad e las líneas del campo) dentro del solenoide que fuera del mismo.)

Para puntos como p en la figura 12, el campo creado por la parte superior de las espiras del solenoide (marcadas con el signo ù porque la corriente sale de la pagina) apunta ala izquierda y tiende a cancelara al campo generado por ala parte inferior de las espiras del solenoide, que apunta hacia la derecha. Cuando el solenoide se vuelve más y más ideal, esto es, cuando se aproxima a la configuración de una lamina de corriente cilíndrica e infinitamente larga, el campo B en los puntos de afuera tiene a cero. Considerar que el campo externo sea cero es una buena hipótesis de un solenoide práctico si su longitud es mucho mayor que su diámetro y si consideramos únicamente los puntos externos cerca de la región central del solenoide, es decir, lejos de los extremos. La figura 13 muestra la línea de B para un solenoide real, que esta lejos de ser ideal, puesto que la longitud es ligeramente mayor que el diámetro. Aun aquí, el espaciamiento de las líneas de B en el plano central muestra que el campo externo es mucho más débil que el campo interno.

Apliquemos la ley de Ampere,

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

A la trayectoria rectangular abcd en el solenoide ideal de la figura 13 Escribiremos la integral como la suma de cuatro integrales, una por cada segmento de la trayectoria

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 13: un anillo amperiano (el rectángulo abcd) se emplea para calcular el campo magnético de este solenoide largo idealizado.

La primera integral a la derecha es Bh, donde B es la magnitud del B dentro del solenoide y h es la longitud arbitraria de la trayectoria desde a hasta b. Nótese que la trayectoria ab, si bien paralela al eje del solenoide, no necesariamente coincide con el. Resultara que b adentro del solenoide es constante en su sección transversal e independiente de la distancia desde ele eje (como sugiere por el espaciamiento igual de las líneas de B en la figura 12 cerca del centro del solenoide).

La segunda y cuarta integrales de la ecuación 21 son cero, porque en cada elemento de estas trayectorias B esta en Angulo recto con la trayectoria o bien es cero (para los puntos fuera de el). En cualquier caso, B× ds es cero, y las integrales se anulan. La tercera integral, que incluye la parte del rectángulo que se encuentra fuera del solenoide, es cero porque hemos aceptado que B es cero en todos los puntos externos de un solenoide ideal.

Par toda la trayectoria rectangular tiene el valor Bg. La corriente neta i que pasa por el anillo amperiano rectangular no es la misma que la corriente i0 en el solenoide porque l devanado atraviesa el anillo mas de una vez. Hagamos que n sea el numero de esperas por unidad e longitud: entonces la corriente total, que esta fuera de la pagina dentro del anillo amperiano rectangular de al figura 13 es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La ley de Ampere se convierte entonces en

http://www.monografias.com/trabajos14/electromag/electromag.shtml (41 of 53)25/05/2005 13:49:05

Page 216: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La ecuación 22 muestra que el campo magnético adentro de un solenoide depende únicamente de la corriente i0 y del número de espiras n por unidad de longitud.

Si bien hemos deducido la ecuación 22 para un solenoide ideal infinitamente largo, se cumple bastante bien con los solenoides reales en los puntos internos cerca del centro del solenoide. Par un solenoide ideal, la ecuación 22 indica que B no depende del diámetro o de la longitud del solenoide y que B es constante en la sección transversal del solenoide. El solenoide es una manera práctica de crear un campo magnético uniforme.

Toroides.

La figura 14 muestra aun toroide, que debemos considerar que es un solenoide doblado en forma de rosca. Hallemos el campo magnético en los puntos interiores usando la Ley de Ampere y ciertas consideraciones de simetría.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 14: Toroide. El campo interior puede determinarse usando el anillo amperiano circular que se muestra.

Partiendo de la simetría, las líneas de B forman círculos concéntricos en el interior del toroide, como se muestra en la figura. Elegimos un circulo concéntrico de radio r como anillo amperiano y lo recorremos en dirección de las manecillas del reloj. La ley de Ampere da

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Donde i0 es la corriente en el devando del toroide n es el número total de espiras. Esto da

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Al contrario de lo que ocurre con el solenoide, B no es constante en la sección transversal de un toroide. Debemos poder demostrar, a partir de la ley de ampere,d que B = 0 en los punto fuera de un toride ideal.

Una observación mas detallada de la ecuación 23 justifica nuestra anterior aseveración de que el toroide es un solenoide doblado en forma de rosca. En la ecuación 23, el denominador 2pr, es la circunferencia central del toroide, y N/2pr es justamente n, el número de espiras por unidad de longitud. Con esta sustitución, la ecuación 23 se reduce a B = m0i0n, la ecuación del campo magnético en la región central de un solenoide.

La dirección del campo magnético dentro de un toride (o de un solenoide) se deduce de la regla de la mano derecha: doble los dedos de la mano derecha de la dirección de la corriente; el pulgar derecho extendido apunta entonces en dirección al campo magnético.

Los toroides forma la característica central del Tokamak, maquina que muestra ser prometedora como base el reactor termonuclear. Estudiaremos más adelante

El campo fuera de un solenoide (opcional)

Hasta el momento ;hemos despreciado el campo fuera del solenoide pero, aun en un solenoide ideal, el campo no es cero en los puntos fuera del devanado . la figura 15 muestra una trayectoria ampiriana en forma de círculo de radio 4. ya que los devanados del solenoide o helicoidales, una espira del devanado cura la superficie encerrada por el circulo.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 15: Un anillo amperiano circular de radio r se emplea para hallar el campo tangencial externo de un solenoide.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (42 of 53)25/05/2005 13:49:05

Page 217: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

El producto B× ds para esta trayectoria depende de la componente tangencial del campo B, y por tanto la ley de Ampere da

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Que el mismo campo (en magnitud y también en dirección) que se generaría por un alambre recto. Nótese que los devanados, además de conducir corriente alrededor de la superficie del solenoide, conducen también corriente de izquierda ad derecha de la figura 15, y a este respecto el solenoide se comporta como un alambre recto en los puntos fuera del devanado.

El campo tangencial es mucho mas pequeño que el campo interior (ec.22) como podemos ver al considera la razón

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Supongamos que el solenoide consta de una capa de vueltas en la que los alambres se tocan entre si, como en la figura 13. cada intervalo a lo largó del solenoide longitud igual al diámetro D del alambre contiene una espira, y así el numero de espiran por unidad de longitud debe ser de 1/D. Entonces, la razón se convierte en

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

En un alambre típico, D=0.1 mm. La distancia r a los puntos exteriores debe ser cuando menos tan grande como el radio del solenoide el cual podría ser4 de unos cuantos centímetros. Entonces Bt/B £ 0.0001m, y el campo tangencial exterior es realmente despreciable comparado en el campo interior a lo largo del eje. Por lo tanto, estamos en lo seguro al despreciar el campo exterior.

Al dibujar un circulo amaperiano similar al de la figura 15 pero con un radio mas pequeño que el del solenoide, uno debe poder demostrar que la componente tangencial del campo interior es cero.

Electromagnetismo y los marcos de referencia

La figura muestra una partícula portadora de una carga positiva q en reposo cera de un alambre recto largo por el que fluye una corriente i. Vemos al sistema desde un marco de referencia S en el que el alambre está en reposo. Dentro del alambre hay electrones negativos que se mueven a una velocidad de arrastre vd y núcleos de iones positivos en reposo.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Figura 16: Una partícula de carga q esta en reposo y en equilibrio cerca de un alambre que conduce una corriente i. La situación es observada desde un marco de referencia S en reposo relativo a la partícula (b) la misma situación vista desde un marco S’ que se mueve con la velocidad de arrastre de los electrones en el alambre. La partícula esta también en equilibrio en este marco bajo ala influencia de las dos fuerzas FE y FB.

En cualquier longitud dada del alambre , el número de electrones es igual al número de corazas de iones, y la carga neta es cero. Los electrones pueden considerarse instantáneamente como una línea de carga negativa, la cual crea un campo eléctrico en la ubicación de que de acuerdo con al ecuación 33 del capitulo 28:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

En donde l, es la densidad de caga lineal de los electrones (un numero negativo). Las corazas de iones positivos generan también un campo eléctrico dado por una expresión similar, dependiendo de la densidad de cara lineal l, de los iones positivos. Puesto que las densidades de carga son de magnitud igual signo opuesto, l+ + l - = 0 y el campo eléctrico neto que actúa sobre la partícula es cero también.

Consideremos ahora la situación desde la perspectiva de un marco de referencia S’ que se mueve paralelo, en este marco de referencia con actúa ninguna fuerza neta de origen electromagnética sobre la partícula.

5. ley de la inducción de Faraday

http://www.monografias.com/trabajos14/electromag/electromag.shtml (43 of 53)25/05/2005 13:49:05

Page 218: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Ley de inducción de Faraday

La ley de la inducción de Faraday tiene su origen en los experimentos realizados por Michael Faraday en Inglaterra en 1831, y por Joseph Henry en Estados Unidos casi al mismo tiempo. Aunque Faraday publicó sus resultados primero, lo cual le da prioridad del descubrimiento, a la unidad en el SI se le llama henry (abreviatura H). Por otra parte la unidad de Capacitancia en el SI recibe el nombre de Farad (abreviatura F).

Los experimentos de Faraday, Henry y otros, demostraron que si el flujo magnético a través de un circuíto varía por cualquier medio, se induce una FEM que es igual en magnitud a la variación por unidad de tiempo del flujo inducido en el circuito pero aparece incluso cuando no existe corriente (circuito abierto). Al principio la FEM en un circuito se localizó en una región específica pero la fem inducida a través de un flujo magnético variable puede considerarse distribuida a través de un circuito.

E=fE dl (FEM del circuíto).

Los campos eléctricos de cargas estáticas son conservativos por lo cual su integral alrededor de una curva cerrada es cero. El campo eléctrico resultante de un flujo magnético variable no es conservativo.

Los experimentos de Faraday

La figura 1 muestra una bobina de alambre como parte de un circuito que contiene un amperímetro. Normalmente, cabría esperar que el amperímetro no mostrase corriente en el circuito por que parece que no existe una fuerza electromotriz.

Sin embargo, si desplazamos un imán de barra hacia la bobina, con su polo norte encarando a la bobina, ocurre un fenómeno notable. Al mover el imán, el indicador del amperímetro se mueve, demostrando con ello que pasa una corriente por la bobina. Si mantenemos el imán estacionario con respecto a la bobina, el amperímetro no marca. Si movemos el imán alejándose de la bobina, el medidor muestra de nuevo una desviación, pero ahora en dirección opuesta, lo cual significa que la corriente en la bobina circula en dirección opuesta. Si usamos el extremo del polo sur de un imán en lugar del extremo del polo norte, el experimento funciona como se ha descrito , pero la desviación se invierte. Cuanto más aprisa se mueve al imán, mayor será la lectura registrada en el medidor.

Experimentos posteriores demuestran que lo que importa es el movimiento relativo entre el imán y la bobina. NO existe ninguna diferencia en que movamos el imán hacia la bobina o la bobina hacia el imán.

La corriente que aparece en este experimento se llama corriente inducida y se dice que se origina por una fuerza electromotriz inducida. Nótese que no existen baterías en ninguna parte del circuito. Faraday dedujo, a partir de experimentos como este, la ley que da la magnitud y dirección a las fem inducidas. Tales fem son muy importantes en la práctica.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (44 of 53)25/05/2005 13:49:05

Page 219: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

En otro experimento se emplea el aparato de la figura 2. Las bobinas se colocan una cerca de la otra pero en reposo respecto la una de la otra. Cuando cerramos el interruptor S, creando así una corriente estacionaria en la bobina de la derecha, el medidor marca momentáneamente; cuando abrimos el interruptor, interrumpiendo de este modo la corriente, el medidor marca de nuevo momentáneamente, pero en dirección opuesta. Ninguno de los aparatos se mueve físicamente en este experimento.El experimento muestra que existe una fem inducida en la bobina izquierda de la figura 2 siempre que la corriente de la bobina derecha esté cambiando. Lo que es significativo aquí es la velocidad a la que cambia la corriente y no la intensidad de la corriente.

La característica común de estos dos experimentos es el movimiento o cambio. La causa de las fem inducidas es el imán en movimiento o la corriente cambiante.

La ley de lenz

La dirección y sentido de la fem y de la corriente inducida puede determinarse mediante el principio físico llamado LEY DE LENZ. Su definición sería: "La FEM y la corriente inducidas poseen una dirección y sentido tal que tienden a oponerse a la variación que las produce".

La corriente inducida en ella debe oponerse a esta disminución de flujo, tratando de que el campo magnético debido a esa corriente contribuya a mantener el flujo. Esto lo vemos en esta figura.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (45 of 53)25/05/2005 13:49:05

Page 220: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Fem de movimiento o cinética

FEM del movimiento: Es toda FEM introducida por el movimiento relativo de un campo magnético y un segmento de corriente. La FEM de movimiento se induce en una barra o alambre conductor que se mueve en un campo magnético incluso cuando el circuito no está completo y no existe corriente.

La FEM del movimiento es un ejemplo de la ley de Faraday donde puede entenderse el origen de la FEM considerando las fuerzas conocidas que actúan sobre los electrones del circuíto.

Una fem inducida como esta, producida por el movimiento relativo de un conductor y la fuente de un campo magnético, se llama a veces una fem de movimiento o cinética.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Campos eléctricos inducidos

La ley de Faraday que acabamos de enunciar no necesita de la presencia del conductor para inducir un campo eléctrico, es decir, un flujo magnético variable atravesando la porción superficie delimitada por una curva cerrada produce un campo eléctrico E tal que se verifica:

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La integral del segundo miembro es la circulación del vector E. Recordemos que en electrostática la circulación de E vale cero (E es un campo vectorial conservativo), por lo que concluimos que el campo eléctrico inducido no es conservativo. Por ejemplo si tuviésemos una densidad de flujo magnético B uniforme en el espacio pero variable en con el tiempo, perpendicular al plano del papel penetrando en él, el campo eléctrico inducido en los puntos de una circunferencia contenida en dicho plano tendría el mismo módulo E por simetría, su dirección sería tangente a la circunferencia en cada punto y su sentido el determinado por la regla del sacacorchos (Fig. 9.10). Si aplicamos la (9.30) tendremos que • = 2• R E, o sea, E = • /2• R.

El beatrón

El betatrón es un aparato para acelerar electrones (conocidos también como partículas beta) a altas velocidades usando campos eléctricos inducidos producidos por campos magnéticos cambiantes.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (46 of 53)25/05/2005 13:49:05

Page 221: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Teles electrones de alta energía pueden emplearse para investigación básica en física así como para producir rayos X en investigación aplicada a la industria y con fines médicos como la terapia contra el cáncer. El betatrón proporciona una ilustración excelente de la "realidad" de los campos eléctricos inducidos. Típicamente los betatrones pueden producir energías de 100 MeV, en cuyo caso los electrones son altamente relativistas (v= 0.999987c). Los betatrones pueden producir corrientes enormes, en la gama de 103 a 105 A. Sin embargo, son máquinas pulsantes, que producen pulsaciones de una anchura típica _s o menos separados por intervalos de tiempo de entre 0.01 y 1 s.

La inducción y el movimiento reactivo

Lo que parece ser un campo magnético en un marco de referencia puede parecer una mezcla de campos eléctricos y magnéticos en otro marco de referencia. Puesto que la fem está determinada por la velocidad del objeto que se mueve a través del campo magnético, está claro que depende del marco de referencia del observador. Otros observadores de marcos inerciales diferentes mediaran velocidades diferentes e intensidades del campo magnético diferentes. Por lo tanto, es necesario especificar el marco de referencia del observador al calcular las fem y las corrientes inducidas.

Si una figura muestra una espira a la que un agente externo causa que se mueva a velocidad v con respecto a un imán que proporciona un campo uniforme B sobre una región. Un observador S está en reposo con respecto con respecto al imán empleado para crear al campo B. La fem inducida en este caso es una fuerza electromotriz de movimiento o cinética por que la espira de conducción se está moviendo con respecto a este observador.

Consideremos un portador de carga positiva en el centro del extremo izquierdo de la espira. Para el observador S, esta carga q está obligada a moverse a través del campo B a velocidad v hacia la derecha junto con la espira, y experimenta una fuerza magnética dada por F = qv x B. Esta fuerza provoca que los portadores se muevan hacia arriba (en la dirección y) a lo largo del conductor; finalmente, llegan a adquirir la velocidad de arrastre vd.

La velocidad de equilibrio de los portadores resultante es ahora V, la suma vectorial de v y vd. En esta situation la fuerza magnética FB es

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

actuando (como siempre) en ángulo recto con la velocidad resultante V del portador. Al actuar sola, FB tendería a empujar a los portadores a través de la pared izquierda del conductor. Ya que esto no sucede, la pared del conductor debe ejercer una fuerza normal N sobre los portadores de magnitud tal que vd se encuentre paralela al eje del alambre; en otras palabras, N cancela exactamente a la componente horizontal de FB, dejando únicamente a la componente FB cos _ que se encuentra a lo largo de la dirección del conductor. Esta última componente de la fuerza sobre el portador también se cancela, en este caso, por la fuerza impulsora de promedio Fi asociada a las colisiones internas que experimenta el portador cuando se mueve a velocidad (constante) vd por el alambre.

La energía cinética del portador se carga al moverse por el alambre permanece constante. Esto es consistente con el hecho de que la fuerza resultante que actúa sobre el portador de carga (=FB+Fi+N) es cero. El trabajo efectuado por FB es cero por que las fuerzas magnéticas, que actúan en ángulo recto con la velocidad de una carga en movimiento, no pueden efectuar ningún trabajo sobre esa carga. Entonces, el trabajo (negativo) efectuado sobre el portador por la fuerza de colisión interna promedio debe ser cancelado exactamente por el trabajo (positivo) efectuado sobre el portador por la fuerza N. Por último N, es suministrada por el agente que tira de la espira a través del campo magnético, y la energía mecánica gastada por este agente aparece como energía interna en la espira.

Cuando un observador S fijo con respecto al imán percibe únicamente un campo magnético. Para este observador, la fuerza surge del movimiento de las cargas a través de B. El observador S’ fijo en el portador de una carga advierte también un campo eléctrico E’ y le atribuye al campo eléctrico la fuerza sobre la carga (inicialmente en reposo con respecto a S’). S dice que la fuerza es puramente de origen magnético, mientras que S’ dice que la fuerza es de origen puramente eléctrico.

Para un tercer observador S’’, en relación con el cual se mueven tanto el imán como la espira, la fuerza que tiende a mover a las cargas alrededor de la espira, no es ni puramente eléctrica, ni puramente magnética, sino un poco de cada una. En resumen, en la ecuación

http://www.monografias.com/trabajos14/electromag/electromag.shtml (47 of 53)25/05/2005 13:49:05

Page 222: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

F/q = E + v x B

Diferentes observadores se forman diferentes juicios de E, B y v pero, cuando estos están combinados, todos los observadores se forman el mismo juicio con respecto a F/q, y todos obtienen el mismo valor para la fem inducida en la espira (que depende únicamente del movimiento relativo. Esto es, la fuerza total(y, por tanto, la aceleración total) es la misma para todos los observadores, pero cada observador se forma una estimación diferente de las fuerzas eléctricas y magnéticas por separado que contribuyen a la misma fuerza total.

6. características químicas de imanes

Nombre de la roca, mineral o piedra

Magnetita

Tipo básico Ígneas y metamórficas

Grupo Óxidos

Sistema Cristalino / Estructura

Cúbico, hexaoctaédrica Cristalina. Isométrica

Composición química Fe3O4 (FeO 31%, Fe2 O3 69%);

Formación De la deshidratación de los hidróxidos de hierro.

Dureza 5.5 - 6

Textura Masas granulares

Densidad 4.9 - 5.2

Color Negro, amarillo

Brillo Semimetálico, opaca

Propiedades Muy magnética

Usos Obtención del fierro fundido y acero.

Observaciones particulares

El mineral se obtiene en minas; una en particular es la del Cerro del Mercado, mina que se encuentra en la ciudad de Durango.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (48 of 53)25/05/2005 13:49:05

Page 223: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Información La ciudad de Durango es una bella ciudad que además de sus modernas construcciones, conserva ese sabor provinciano lleno de tradiciones mexicanas. El origen de la ciudad se debe al antiguo mineral del Cerro del mercado, situado al norte de la ciudad, llamado así en memoria de su descubridor, el capitán Ginés Vázquez del Mercado. El día 15 de diciembre del 2000, el grupo asistió a las instalaciones de la mina, fue atendido muy amablemente por el Ing. Manuel Lara, quien los acompañó en un recorrido por el exterior, les explicó las fases y procesos del mineral, les mostró los molinos y explicó su funcionamiento, además los dejó convivir con el mineral y les permitió tomar diferentes muestras del mismo. Por lo aprendido, este grupo manifiesta su entusiasmo y agradecimiento a los creadores del proyecto, lo consideramos muy bien planeado y de mucho provecho.

Conclusión

Puesto que la corriente eléctrica siempre sale de la terminal negativa de la fuente de energía, el flujo de corriente en un circuito siempre tendrá la misma dirección si la polaridad de la tensión de la fuente permanece siempre invariable. Este tipo de flujo de corriente recibe el nombre de corriente directa o continua y a la fuente se le llama fuente de corriente directa. Todo circuito que use una fuente de corriente directa es un circuito de corriente continua. Los tres tipos de fuentes que se usan con más frecuencia en circuitos de corriente continua son: la batería, el generador de corriente continua y las fuentes de electrones.

Como pudimos ver el campo magnético es producido por la corriente eléctrica que circula por un conductor.

También analizamos que este campo de fuerzas está formado por cargas eléctricas en movimiento, que se manifiestan por la fuerza que experimenta una carga eléctrica al moverse en su interior.

Para determinar la expresión del campo magnético producido por una corriente se emplean dos leyes: la ley de Biot-Savart y la ley de Ampère.

podemos afirmar que la ley de Ampère proporciona una formulación alternativa de la relación de los campos magnéticos con las corrientes. Es análoga a la ley de Gauss en electrostática.

En cuanto a la ley de Biot-Savart decimos que nos da el campo magnético producido por un pequeño elemento de conductor por el que circula una corriente. Se puede utilizar para encontrar el campo magnético creado por cualquier configuración de conductores con corriente, resumiendo un poco, esta ley describe la fuerza magnética entre dos circuitos con corriente.

Es valioso conocer los experimentos realizados por Faraday y el estudio de su ley, así como la de Lenz, pues sientan las bases para el cálculo cinemático, el movimiento relativo y la evaluación de los campos eléctricos.

14 preguntas

1. ¿que es corriente eléctrica?2. ¿Qué es resistencia?3. ¿Qué es un semiconductor?4. ¿Qué es una fem?5. ¿Cuáles son los diferentes instrumentos de medición?6. ¿que es un campo magnético B?7. ¿ cual es la fuerza de Lorentz? 8. ¿que es el ciclotrón? 9. ¿que es el sincrotón?

10. ¿que dice el efecto hall? 11. ¿ que es el solenoide? 12. ¿ que es el toroides? 13. ¿ quien dio origen ala ley de inducción? 14. ¿ cual es el principio de la ley de lenz?

http://www.monografias.com/trabajos14/electromag/electromag.shtml (49 of 53)25/05/2005 13:49:05

Page 224: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

14 Respuestas

1. es el flujo de electrones en un conductor2. La diferencia de potencial entre los extremos de un conductor es directamente proporcional a la intensidad que circula por

él. A la constante de proporcionalidad se le llama resistencia del conductor. 3. Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante,

porque tiene cierto límite de resistencia por el tipo de impureza que tiene.4. es cualquier dispositivo(batería o generador) que produce un campo eléctrico y que por lo tanto puede originar un

movimiento en las cargas por un circuito.5. el amperímetro, el voltímetro, potenciómetro.6. Describimos al espacio alrededor de un imán permanente o de un conductor que conduce corriente como el lugar

ocupado por un campo magnético.7. Si tanto un campo eléctrico E como un campo magnético B actúan sobre una partícula cargada, la fuerza total sobre ella

puede expresarse como F = qe + qv x B8. El ciclotrón es un acelerador que produce haces de partículas cargadas energéticamente, las que pueden emplearse en

experimentos de reacciones nucleares.9. Las energías más elevadas se logran usando un acelerador con un diseño diferente, llamado sincrotrón. Un ejemplo es el

sincrotrón de protones de 1000GeV del Fermi National Accelerator Laboratory; en lugar de un solo imán, un sincrotón usa muchos imanes individuales a lo largo de la circunferencia de un circulo; cada imán desvía al haz en un Angulo pequeño (0.1¼).

10. En 1879, Edwin H. Hall llevo a cabo un experimento que permitió la medición directa del signo y la densidad del numero ( numero por unidad de volumen ) de los portadores de carga en un conductor. El efecto Hall desempeña un papel crítico en nuestra comprensión de la conducción eléctrica en los metales y semiconductores.

11. El solenoide suele utilizarse para crear un campo magnético uniforme, al igual que el capacitor de placas paralelas crea un campo eléctrico uniforme.

12. es un solenoide doblado en forma de rosca, también se emplea para crear campos grandes. 13. Michael faraday en Inglaterra en 1831 y por Joseph henry en usa casi al mismo tiempo. 14. La FEM y la corriente inducidas poseen una dirección y sentido tal que tienden a oponerse a la variación que las produce".

Bibliografía y reseñas

http://www.lasalle.es/vina/contenidos/temasfisica/electromagnetismo/index.htm

http://www.colegiosanrafael.cl/gustavo/sitios4.html

http://www.todo-ciencia.com/fisica-mates/0i81056300d990262239.php

http://www-istp.gsfc.nasa.gov/Education/Mmfield.html

http://www.nalejandria.com/archivos-curriculares/

http://www.geocities.com/tresmileniosdeliman/tema14.html

http://webmineral.com/help/ChemicalFormula.shtml

http://www.ejercitando.com.ar/teorquim/magnetita.htm

http://www.ifent.org/lecciones/electrostatica/eletica24.htm

http://www.irabia.org/web/ciencias/electricidad/electricidad/diferencia.htm

http://www.tochtli.fisica.uson.mx/castillo/HTM/CORRIENT.HTM

http://www.extremadurasi.org/contenidos_docentes/electro/t3.htm#4

http://www.monografias.com/trabajos14/electromag/electromag.shtml (50 of 53)25/05/2005 13:49:05

Page 225: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

http://redescolar.ilce.edu.mx/redescolar/publicaciones/publi_rocas/magnetita.htm

http://www.fluke.nl/common/country_pages/product_main.asp?locale=mxes

http://www.unicrom.com/Tutoriales/circuitoRC.asp

http://hyperphysics.phy-astr.gsu.edu/hbase/magnetic/amplaw.html

http://www.lasalle.es/vina/contenidos/temasfisica/electromagnetismo/index.htm

http://www.physics.unomaha.edu/Sowell/Phys1120/Lectures/Chap20/FaradaysLaw/default.htmlhttp://physics.njit.edu/~cdenker/physics121_week12.pdf

http://www.encyclopedia.com/html/F/Faradays.asp

http://www.fnrf.science.cmu.ac.th/theory/magnets/Induced%20Voltage.html

http://www.itcg.edu.mx/teoriaelectro/

http://hyperphysics.phy-astr.gsu.edu/hbase/electric/farlaw.html#c1

http://www.eui.upv.es/tele/ffi/LECCION5/I.HTM

http://www.csi.ull.es/~jplatas//web/cc/teoria/indext3.htm

http://www.sc.ehu.es/sbweb/fisica/elecmagnet/fem/fem.htm

http://www.cec.uchile.cl/~cutreras/apuntes/node110.html

http://www.unirioja.es/dptos/dq/fa/emo/prob_emo2/node2.html

(1) Física Universitaria, F. W. Sears, M. W. Zemansky y H. D. Young, 6ta. Ed., Editorial Fondo Educativo

Interamericano, México (1986).

(2) Física Re-Creativa, S. Gil y E. Rodriguez, 1ra. Ed., Argentina (2000).

Halliday, D.; Resnick, R.; Krane, K.S. Física. Vol.2. CECSA. México D.F. 1999. p. 661-68

Great Experiments in Physics. Morris Shamos, editor. Holt, Rinehart and Winston, New York.

The Feynman Lectures on Physics. R. Feynman. R. Leighton and M. Sands. Addison ­ Wesley. Reading.

Source Book in Physics. W. Magie. Hardvard University Press. Cambridge. Mass

Foundations of Modern Physical Science. G. Holton and D.H.D. Roller. Addison ­ Wesley. Reading. Mass.

Alonso, M.; Finn, E. Física. Addison ­ Wesley ­ Longman. México D.F. 1998.

Schaum, D.; Van der Merwe, C.W. Física General. McGraw-Hill. México D.F. 1998. p. 237-247.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (51 of 53)25/05/2005 13:49:05

Page 226: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Serway, R. Física. Tomo II. McGraw-Hill. México D.F. 1996.p. 1423-1452.

Brueker, H. Etal. "Tracking and Imaging Elementary Particles". Sci. American. August. 1991.

Close, F. The Cosmic Onicn: Quarks and the Nature of the Universe. The American Institute of Physics. 1986.

Fritzsch, H. Quarks, The Stuff of Metter. London. Allen, Lane. 1983.

Gamow, G. "Gravity and Antimatter". Sci. American. March. 1961.

Goldman, T. Etal. "Gravity and Antimatter". Sci. American. March. 1989.

Riordan, M. "The Discovery of Quarks". Science, 29 May 1992.

Sears, F. W.; Zemaasky, M. W.; Young, H. D.; Freedmand, R. A. Física Universitaria. Volumen 2. Addison ­ Wesley. Longman. México D.F. 1996. p. 1413-1452.

Cutnell, J. D.; Johnson, K. W. Física. Limusa, Méxido D.F. 1999. p. 833-901

Cromer, A. H. Física para las Ciencias de la Vida. Reverté. México D.F. 1996. p. 485-548.

Halliday, D.; Resnick, R.; Krane, K.S. Física. Vol.2. CECSA. México D.F. 1999. p. 661-68

Great Experiments in Physics. Morris Shamos, editor. Holt, Rinehart and Winston, New York.

The Feynman Lectures on Physics. R. Feynman. R. Leighton and M. Sands. Addison ­ Wesley. Reading.

Source Book in Physics. W. Magie. Hardvard University Press. Cambridge. Mass

Foundations of Modern Physical Science. G. Holton and D.H.D. Roller. Addison ­ Wesley. Reading. Mass.

alonso, M.; Finn, E. Física. Addison ­ Wesley ­ Longman. México D.F. 1998.

Schaum, D.; Van der Merwe, C.W. Física General. McGraw-Hill. México D.F. 1998. p. 237-247.

Serway, R. Física. Tomo II. McGraw-Hill. México D.F. 1996.p. 1423-1452.

Brueker, H. Etal. "Tracking and Imaging Elementary Particles". Sci. American. August. 1991.

Close, F. The Cosmic Onicn: Quarks and the Nature of the Universe. The American Institute of Physics. 1986.

Fritzsch, H. Quarks, The Stuff of Metter. London. Allen, Lane. 1983.

Gamow, G. "Gravity and Antimatter". Sci. American. March. 1961.

Goldman, T. Etal. "Gravity and Antimatter". Sci. American. March. 1989.

Riordan, M. "The Discovery of Quarks". Science, 29 May 1992.

Sears, F. W.; Zemaasky, M. W.; Young, H. D.; Freedmand, R. A. Física Universitaria. Volumen 2. Addison ­ Wesley. Longman. México D.F. 1996. p. 1413-1452.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (52 of 53)25/05/2005 13:49:05

Page 227: QUIMICA - Monografias

Teoría electromagnética - Monografias.com

Cutnell, J. D.; Johnson, K. W. Física. Limusa, Méxido D.F. 1999. p. 833-901

Cromer, A. H. Física para las Ciencias de la Vida. Reverté. México D.F. 1996. p. 485-548.

DR.CLAUDIO-RAFAEL VASQUEZ-MARTINEZ

Ingeniero industrial. Doctorado en educación.

Profesor investigador titular C.Universidad de Guadalajara.

[email protected]

Alumno:

Adolfo Castillo Mercado

[email protected]

Carrera: Ingeniería en Telemática

puerto Vallarta Jalisco, México

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos14/electromag/electromag.shtml (53 of 53)25/05/2005 13:49:05

Page 228: QUIMICA - Monografias

El Atomo - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

El átomo

Átomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra "átomo" se empleaba para referirse a la parte de materia más pequeño que podía concebirse. Esa "partícula fundamental", por emplear el término moderno para ese concepto, se consideraba indestructible. De hecho, átomo significa en griego "no divisible". El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.

Con la llegada de la ciencia experimental en los siglos XVI y XVII (véase química), los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos. Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

Teoría de Dalton

John Dalton, profesor y químico británico, estaba fascinado por el rompecabezas de los elementos. A principios del siglo XIX estudió la forma en que los diversos elementos se combinan entre sí para formar compuestos químicos. Aunque muchos otros científicos, empezando por los antiguos griegos, habían afirmado ya que las unidades más pequeñas de una sustancia eran los átomos, se considera a Dalton como una de las figuras más significativas de la teoría atómica porque la convirtió en algo cuantitativo. Dalton mostró que los átomos se unían entre sí en proporciones definidas. Las investigaciones demostraron que los átomos suelen formar grupos llamados moléculas. Cada molécula de agua, por ejemplo, está formada por un único átomo de oxígeno (O) y dos átomos de hidrógeno (H) unidos por una

http://www.monografias.com/trabajos/atomo/atomo.shtml (1 of 8)25/05/2005 13:49:28

Page 229: QUIMICA - Monografias

El Atomo - Monografias.com

fuerza eléctrica denominada enlace químico, por lo que el agua se simboliza como HOH o H2O. Véase Reacción química.

Todos los átomos de un determinado elemento tienen las mismas propiedades químicas. Por tanto, desde un punto de vista químico, el átomo es la entidad más pequeña que hay que considerar. Las propiedades químicas de los elementos son muy distintas entre sí; sus átomos se combinan de formas muy variadas para formar numerosísimos compuestos químicos diferentes. Algunos elementos, como los gases nobles helio y argón, son inertes; es decir, no reaccionan con otros elementos salvo en condiciones especiales. Al contrario que el oxígeno, cuyas moléculas son diatómicas (formadas por dos átomos), el helio y otros gases inertes son elementos monoatómicos, con un único átomo por molécula.

Ley de Avogadro

El estudio de los gases atrajo la atención del físico italiano Amedeo Avogadro, que en 1811 formuló una importante ley que lleva su nombre (véase ley de Avogadro). Esta ley afirma que dos volúmenes iguales de gases diferentes contienen el mismo número de moléculas si sus condiciones de temperatura y presión son las mismas. Si se dan esas condiciones, dos botellas idénticas, una llena de oxígeno y otra de helio, contendrán exactamente el mismo número de moléculas. Sin embargo, el número de átomos de oxígeno será dos veces mayor puesto que el oxígeno es diatómico.

Masa atómica

De la ley de Avogadro se desprende que las masas de un volumen patrón de diferentes gases (es decir, sus densidades) son proporcionales a la masa de cada molécula individual de gas. Si se toma el carbono como patrón y se le asigna al átomo de carbono un valor de 12,0000 unidades de masa atómica (u), resulta que el hidrógeno tiene una masa atómica de 1,0079u, el helio de 4,0026, el flúor de 18,9984 y el sodio de 22,9898. En ocasiones se habla de "peso atómico" aunque lo correcto es "masa atómica". La masa es una propiedad del cuerpo, mientras que el peso es la fuerza ejercida sobre el cuerpo a causa de la gravedad.

La observación de que muchas masas atómicas se aproximan a números enteros llevó al químico británico William Prout a sugerir, en 1816, que todos los elementos podrían estar compuestos por átomos de hidrógeno. No obstante, medidas posteriores de las masas atómicas demostraron que el cloro, por ejemplo, tiene una masa atómica de 35,453 (si se asigna al carbono el valor 12). El descubrimiento de estas masas atómicas fraccionarias pareció invalidar la hipótesis de Prout hasta un siglo después, cuando se descubrió que generalmente los átomos de un elemento dado no tienen todos la misma masa. Los átomos de un mismo elemento con diferente masa se conocen como isótopos. En el caso del cloro, existen dos isótopos en la naturaleza. Los átomos de uno de ellos (cloro 35) tienen una masa atómica cercana a 35, mientras que los del otro (cloro 37) tienen una masa atómica próxima a 37. Los experimentos demuestran que el cloro es una mezcla de tres partes de cloro 35 por cada parte de cloro 37. Esta proporción explica la masa atómica observada en el cloro.

Durante la primera mitad del siglo XX era corriente utilizar el oxígeno natural como patrón para expresar las masas atómicas, asignándole una masa atómica entera de 16. A principios de la década de 1960, las

http://www.monografias.com/trabajos/atomo/atomo.shtml (2 of 8)25/05/2005 13:49:28

Page 230: QUIMICA - Monografias

El Atomo - Monografias.com

asociaciones internacionales de química y física acordaron un nuevo patrón y asignaron una masa atómica exactamente igual a 12 a un isótopo de carbono abundante, el carbono 12. Este nuevo patrón es especialmente apropiado porque el carbono 12 se emplea con frecuencia como patrón de referencia para calcular masas atómicas mediante el espectrómetro de masas. Además, la tabla de masas atómicas basada en el carbono 12 se aproxima bastante a la tabla antigua basada en el oxígeno natural.

La tabla periódica

A mediados del siglo XIX, varios químicos se dieron cuenta de que las similitudes en las propiedades químicas de diferentes elementos suponían una regularidad que podía ilustrarse ordenando los elementos de forma tabular o periódica. El químico ruso Dmitri Mendeléiev propuso una tabla de elementos llamada tabla periódica, en la que los elementos están ordenados en filas y columnas de forma que los elementos con propiedades químicas similares queden agrupados. Según este orden, a cada elemento se le asigna un número (número atómico) de acuerdo con su posición en la tabla, que va desde el 1 para el hidrógeno hasta el 92 para el uranio, que tiene el átomo más pesado de todos los elementos que existen de forma natural en nuestro planeta. Como en la época de Mendeléiev no se conocían todos los elementos, se dejaron espacios en blanco en la tabla periódica correspondientes a elementos que faltaban. Las posteriores investigaciones, facilitadas por el orden que los elementos conocidos ocupaban en la tabla, llevaron al descubrimiento de los elementos restantes. Los elementos con mayor número atómico tienen masas atómicas mayores, y la masa atómica de cada isótopo se aproxima a un número entero, de acuerdo con la hipótesis de Prout.

El tamaño del átomo

La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo periodo en el que la falta de instrumentos y técnicas apropiadas impidió lograr respuestas satisfactorias. Posteriormente se diseñaron numerosos experimentos ingeniosos para determinar el tamaño y peso de los diferentes átomos. El átomo más ligero, el de hidrógeno, tiene un diámetro de aproximadamente 10-10 m (0,0000000001 m) y una masa alrededor de 1,7 × 10-27 kg. (la fracción de un kilogramo representada por 17 precedido de 26 ceros y una coma decimal). Un átomo es tan pequeño que una sola gota de agua contiene más de mil trillones de átomos.

Radiactividad

Una serie de descubrimientos importantes realizados hacia finales del siglo XIX dejó claro que el átomo no era una partícula sólida de materia que no pudiera ser dividida en partes más pequeñas. En 1895, el científico alemán Wilhelm Conrad Roentgen anunció el descubrimiento de los rayos X, que pueden atravesar láminas finas de plomo. En 1897, el físico inglés J. J. Thomson descubrió el electrón, una partícula con una masa muy inferior al de cualquier átomo. Y, en 1896, el físico francés Antoine Henri Becquerel comprobó que determinadas sustancias, como las sales de uranio, generaban rayos penetrantes de origen misterioso. El matrimonio de científicos franceses formado por Marie y Pierre Curie aportó una contribución adicional a la comprensión de esas sustancias "radiactivas" (véase radio). Como resultado de las investigaciones del físico británico Ernest Rutherford y sus coetáneos, se demostró que el uranio y algunos otros elementos pesados, como el torio o el radio, emiten tres clases diferentes de

http://www.monografias.com/trabajos/atomo/atomo.shtml (3 of 8)25/05/2005 13:49:28

Page 231: QUIMICA - Monografias

El Atomo - Monografias.com

radiación, inicialmente denominadas rayos alfa (a), beta (b) y gamma (g). Las dos primeras, que según se averiguó están formadas por partículas eléctricamente cargadas, se denominan actualmente partículas alfa y beta. Posteriormente se comprobó que las partículas alfa son núcleos de helio (ver más abajo) y las partículas beta son electrones. Estaba claro que el átomo se componía de partes más pequeñas. Los rayos gamma fueron finalmente identificados como ondas electromagnéticas, similares a los rayos X pero con menor longitud de onda (véase radiación electromagnética).

El átomo nuclear de Rutherford

El descubrimiento de la naturaleza de las emisiones radiactivas permitió a los físicos profundizar en el átomo, que según se vio consistía principalmente en espacio vacío. En el centro de ese espacio se encuentra el núcleo, que sólo mide, aproximadamente, una diezmilésima parte del diámetro del átomo. Rutherford dedujo que la masa del átomo está concentrada en su núcleo. También postuló que los electrones, de los que ya se sabía que formaban parte del átomo, viajaban en órbitas alrededor del núcleo. El núcleo tiene una carga eléctrica positiva; los electrones tienen carga negativa. La suma de las cargas de los electrones es igual en magnitud a la carga del núcleo, por lo que el estado eléctrico normal del átomo es neutro.

El átomo de Bohr

Para explicar la estructura del átomo, el físico danés Niels Bohr desarrolló en 1913 una hipótesis conocida como teoría atómica de Bohr (véase teoría cuántica). Bohr supuso que los electrones están dispuestos en capas definidas, o niveles cuánticos, a una distancia considerable del núcleo. La disposición de los electrones se denomina configuración electrónica. El número de electrones es igual al número atómico del átomo: el hidrógeno tiene un único electrón orbital, el helio dos y el uranio 92. Las capas electrónicas se superponen de forma regular hasta un máximo de siete, y cada una de ellas puede albergar un determinado número de electrones. La primera capa está completa cuando contiene dos electrones, en la segunda caben un máximo de ocho, y las capas sucesivas pueden contener cantidades cada vez mayores. Ningún átomo existente en la naturaleza tiene la séptima capa llena. Los "últimos" electrones, los más externos o los últimos en añadirse a la estructura del átomo, determinan el comportamiento químico del átomo.

Todos los gases inertes o nobles (helio, neón, argón, criptón, xenón y radón) tienen llena su capa electrónica externa. No se combinan químicamente en la naturaleza, aunque los tres gases nobles más pesados (criptón, xenón y radón) pueden formar compuestos químicos en el laboratorio. Por otra parte, las capas exteriores de los elementos como litio, sodio o potasio sólo contienen un electrón. Estos elementos se combinan con facilidad con otros elementos (transfiriéndoles su electrón más externo) para formar numerosos compuestos químicos. De forma equivalente, a los elementos como el flúor, el cloro o el bromo sólo les falta un electrón para que su capa exterior esté completa. También se combinan con facilidad con otros elementos de los que obtienen electrones.

Las capas atómicas no se llenan necesariamente de electrones de forma consecutiva. Los electrones de los primeros 18 elementos de la tabla periódica se añaden de forma regular, llenando cada capa al máximo antes de iniciar una nueva capa. A partir del elemento decimonoveno, el electrón más externo comienza una nueva capa antes de que se llene por completo la capa anterior. No obstante, se sigue

http://www.monografias.com/trabajos/atomo/atomo.shtml (4 of 8)25/05/2005 13:49:28

Page 232: QUIMICA - Monografias

El Atomo - Monografias.com

manteniendo una regularidad, ya que los electrones llenan las capas sucesivas con una alternancia que se repite. El resultado es la repetición regular de las propiedades químicas de los átomos, que se corresponde con el orden de los elementos en la tabla periódica.

Resulta cómodo visualizar los electrones que se desplazan alrededor del núcleo como si fueran planetas que giran en torno al Sol. No obstante, esta visión es mucho más sencilla que la que se mantiene actualmente. Ahora se sabe que es imposible determinar exactamente la posición de un electrón en el átomo sin perturbar su posición. Esta incertidumbre se expresa atribuyendo al átomo una forma de nube en la que la posición de un electrón se define según la probabilidad de encontrarlo a una distancia determinada del núcleo. Esta visión del átomo como "nube de probabilidad" ha sustituido al modelo de sistema solar.

Líneas espectrales

Uno de los grandes éxitos de la física teórica fue la explicación de las líneas espectrales características de numerosos elementos (véase Espectroscopia: Líneas espectrales). Los átomos excitados por energía suministrada por una fuente externa emiten luz de frecuencias bien definidas. Si, por ejemplo, se mantiene gas hidrógeno a baja presión en un tubo de vidrio y se hace pasar una corriente eléctrica a través de él, desprende luz visible de color rojizo. El examen cuidadoso de esa luz mediante un espectroscopio muestra un espectro de líneas, una serie de líneas de luz separadas por intervalos regulares. Cada línea es la imagen de la ranura del espectroscopio que se forma en un color determinado. Cada línea tiene una longitud de onda definida y una determinada energía asociada. La teoría de Bohr permite a los físicos calcular esas longitudes de onda de forma sencilla. Se supone que los electrones pueden moverse en órbitas estables dentro del átomo. Mientras un electrón permanece en una órbita a distancia constante del núcleo, el átomo no irradia energía. Cuando el átomo es excitado, el electrón salta a una órbita de mayor energía, a más distancia del núcleo. Cuando vuelve a caer a una órbita más cercana al núcleo, emite una cantidad discreta de energía que corresponde a luz de una determinada longitud de onda. El electrón puede volver a su órbita original en varios pasos intermedios, ocupando órbitas que no estén completamente llenas. Cada línea observada representa una determinada transición electrónica entre órbitas de mayor y menor energía.

En muchos de los elementos más pesados, cuando un átomo está tan excitado que resultan afectados los electrones internos cercanos al núcleo, se emite radiación penetrante (rayos X). Estas transiciones electrónicas implican cantidades de energía muy grandes.

El núcleo atómico

En 1919, Rutherford expuso gas nitrógeno a una fuente radiactiva que emitía partículas alfa. Algunas de estas partículas colisionaban con los núcleos de los átomos de nitrógeno. Como resultado de estas colisiones, los átomos de nitrógeno se transformaban en átomos de oxígeno. El núcleo de cada átomo transformado emitía una partícula positivamente cargada. Se comprobó que esas partículas eran idénticas a los núcleos de átomos de hidrógeno. Se las denominó protones. Las investigaciones posteriores demostraron que los protones forman parte de los núcleos de todos los elementos.

http://www.monografias.com/trabajos/atomo/atomo.shtml (5 of 8)25/05/2005 13:49:28

Page 233: QUIMICA - Monografias

El Atomo - Monografias.com

No se conocieron más datos sobre la estructura del núcleo hasta 1932, cuando el físico británico James Chadwick descubrió en el núcleo otra partícula, el neutrón, que tiene casi exactamente la misma masa que el protón pero carece de carga eléctrica. Entonces se vio que el núcleo está formado por protones y neutrones. En cualquier átomo dado, el número de protones es igual al número de electrones y, por tanto, al número atómico del átomo. Los isótopos son átomos del mismo elemento (es decir, con el mismo número de protones) que tienen diferente número de neutrones. En el caso del cloro, uno de los isótopos se identifica con el símbolo 35Cl, y su pariente más pesado con 37Cl. Los superíndices identifican la masa atómica del isótopo, y son iguales al número total de neutrones y protones en el núcleo del átomo. A veces se da el número atómico como subíndice, como por ejemplo }Cl.

Los núcleos menos estables son los que contienen un número impar de neutrones y un número impar de protones; todos menos cuatro de los isótopos correspondientes a núcleos de este tipo son radiactivos. La presencia de un gran exceso de neutrones en relación con los protones también reduce la estabilidad del núcleo; esto sucede con los núcleos de todos los isótopos de los elementos situados por encima del bismuto en la tabla periódica, y todos ellos son radiactivos. La mayor parte de los núcleos estables conocidos contiene un número par de protones y un número par de neutrones.

Radiactividad artificial

Los experimentos llevados a cabo por los físicos franceses Frédéric e Irène Joliot-Curie a principios de la década de 1930 demostraron que los átomos estables de un elemento pueden hacerse artificialmente radiactivos bombardeándolos adecuadamente con partículas nucleares o rayos. Estos isótopos radiactivos (radioisótopos) se producen como resultado de una reacción o transformación nuclear. En dichas reacciones, los algo más de 270 isótopos que se encuentran en la naturaleza sirven como objetivo de proyectiles nucleares. El desarrollo de "rompeátomos", o aceleradores, que proporcionan una energía elevada para lanzar estas partículas-proyectil ha permitido observar miles de reacciones nucleares.

Reacciones nucleares

En 1932, dos científicos británicos, John D. Cockcroft y Ernest T. S. Walton, fueron los primeros en usar partículas artificialmente aceleradas para desintegrar un núcleo atómico. Produjeron un haz de protones acelerados hasta altas velocidades mediante un dispositivo de alto voltaje llamado multiplicador de tensión. A continuación se emplearon esas partículas para bombardear un núcleo de litio. En esa reacción nuclear, el litio 7 (7Li) se escinde en dos fragmentos, que son núcleos de átomos de helio. La reacción se expresa mediante la ecuación

Aceleradores de partículas

Alrededor de 1930, el físico estadounidense Ernest O. Lawrence desarrolló un acelerador de partículas llamado ciclotrón. Esta máquina genera fuerzas eléctricas de atracción y repulsión que aceleran las partículas atómicas confinadas en una órbita circular mediante la fuerza electromagnética de un gran imán. Las partículas se mueven hacia fuera en espiral bajo la influencia de estas fuerzas eléctricas y magnéticas, y alcanzan velocidades extremadamente elevadas. La aceleración se produce en el vacío para que las partículas no colisionen con moléculas de aire. A partir del ciclotrón se desarrollaron otros aceleradores capaces de proporcionar energías cada vez más altas a las partículas. Como los aparatos necesarios para generar fuerzas magnéticas intensas son colosales, los aceleradores de alta energía

http://www.monografias.com/trabajos/atomo/atomo.shtml (6 of 8)25/05/2005 13:49:28

Page 234: QUIMICA - Monografias

El Atomo - Monografias.com

suponen instalaciones enormes y costosas.

Fuerzas nucleares

La teoría nuclear moderna se basa en la idea de que los núcleos están formados por neutrones y protones que se mantienen unidos por fuerzas "nucleares" extremadamente poderosas. Para estudiar estas fuerzas nucleares, los físicos tienen que perturbar los neutrones y protones bombardeándolos con partículas extremadamente energéticas. Estos bombardeos han revelado más de 200 partículas elementales, minúsculos trozos de materia, la mayoría de los cuales, sólo existe durante un tiempo mucho menor a una cienmillonésima de segundo.

Este mundo subnuclear salió a la luz por primera vez en los rayos cósmicos. Estos rayos están constituidos por partículas altamente energéticas que bombardean constantemente la Tierra desde el espacio exterior; muchas de ellas atraviesan la atmósfera y llegan incluso a penetrar en la corteza terrestre. La radiación cósmica incluye muchos tipos de partículas, de las que algunas tienen energías que superan con mucho a las logradas en los aceleradores de partículas. Cuando estas partículas de alta energía chocan contra los núcleos, pueden crearse nuevas partículas. Entre las primeras en ser observadas estuvieron los muones (detectados en 1937). El muón es esencialmente un electrón pesado, y puede tener carga positiva o negativa. Es aproximadamente 200 veces más pesado que un electrón. La existencia del pión fue profetizada en 1935 por el físico japonés Yukawa Hideki, y fue descubierto en 1947. Según la teoría más aceptada, las partículas nucleares se mantienen unidas por "fuerzas de intercambio" en las que se intercambian constantemente piones comunes a los neutrones y los protones. La unión de los protones y los neutrones a través de los piones es similar a la unión en una molécula de dos átomos que comparten o intercambian un par de electrones común. El pión, aproximadamente 270 veces más pesado que el electrón, puede tener carga positiva, negativa o nula.

Partículas elementales

Durante mucho tiempo, los físicos han buscado una teoría para poner orden en el confuso mundo de las partículas. En la actualidad, las partículas se agrupan según la fuerza que domina sus interacciones. Todas las partículas se ven afectadas por la gravedad, que sin embargo es extremadamente débil a escala subatómica. Los hadrones están sometidos a la fuerza nuclear fuerte y al electromagnetismo; además del neutrón y el protón, incluyen los hiperones y mesones. Los leptones "sienten" las fuerzas electromagnética y nuclear débil; incluyen el tau, el muón, el electrón y los neutrinos. Los bosones (una especie de partículas asociadas con las interacciones) incluyen el fotón, que "transmite" la fuerza electromagnética, las partículas W y Z, portadoras de la fuerza nuclear débil, y el hipotético portador de la gravitación (gravitón). La fuerza nuclear débil aparece en procesos radiactivos o de desintegración de partículas, como la desintegración alfa (la liberación de un núcleo de helio por parte de un núcleo atómico inestable). Además, los estudios con aceleradores han determinado que por cada partícula existe una antipartícula con la misma masa, cuya carga u otra propiedad electromagnética tiene signo opuesto a la de la partícula correspondiente. Véase Antimateria.

En 1963, los físicos estadounidenses Murray Gell-Mann y George Zweig propusieron la teoría de que los hadrones son en realidad combinaciones de otras partículas elementales llamadas quarks, cuyas interacciones son transmitidas por gluones, una especie de partículas. Esta es la teoría subyacente de las

http://www.monografias.com/trabajos/atomo/atomo.shtml (7 of 8)25/05/2005 13:49:28

Page 235: QUIMICA - Monografias

El Atomo - Monografias.com

investigaciones actuales, y ha servido para predecir la existencia de otras partículas.

Liberación de la energía nuclear

En 1905, Albert Einstein desarrolló la ecuación que relaciona la masa y la energía, E = mc2, como parte de su teoría de la relatividad especial. Dicha ecuación afirma que una masa determinada (m) está asociada con una cantidad de energía (E) igual a la masa multiplicada por el cuadrado de la velocidad de la luz ©. Una cantidad muy pequeña de masa equivale a una cantidad enorme de energía. Como más del 99% de la masa del átomo reside en su núcleo, cualquier liberación de grandes cantidades de energía atómica debe provenir del núcleo.

Hay dos procesos nucleares que tienen gran importancia práctica porque proporcionan cantidades enormes de energía: la fisión nuclear -la escisión de un núcleo pesado en núcleos más ligeros- y la fusión termonuclear -la unión de dos núcleos ligeros (a temperaturas extremadamente altas) para formar un núcleo más pesado. El físico estadounidense de origen italiano Enrico Fermi logró realizar la fisión en 1934, pero la reacción no se reconoció como tal hasta 1939, cuando los científicos alemanes Otto Hahn y Fritz Strassmann anunciaron que habían fisionado núcleos de uranio bombardeándolos con neutrones. Esta reacción libera a su vez neutrones, con lo que puede causar una reacción en cadena con otros núcleos. En la explosión de una bomba atómica se produce una reacción en cadena incontrolada. Las reacciones controladas, por otra parte, pueden utilizarse para producir calor y generar así energía eléctrica, como ocurre en los reactores nucleares.

La fusión termonuclear se produce en las estrellas, entre ellas el Sol, y constituye su fuente de calor y luz. La fusión incontrolada se da en la explosión de una bomba de hidrógeno. En la actualidad, se está intentando desarrollar un sistema de fusión controlada. Véase Energía nuclear; Armas nucleares.

Trabajo enviado por:

Ignacio Romero

[email protected]

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos/atomo/atomo.shtml (8 of 8)25/05/2005 13:49:28

Page 236: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

Dinámica interpersonal y de grupos

Indice 1. Naturaleza del conflicto 2. Comportamiento asertivo 3. Análisis transaccional 4. Dinámica del grupo 5. Métodos estructurados 6. Debilidades de los grupos

1. Naturaleza del conflicto

El conflicto surge del desacuerdo respecto a las metas o a los métodos con que se alcanzan Una encuesta revela que el 20% del tiempo de los gerentes lo gastan resolviendo problemas. El conflicto interpersonal surge de diversas fuentes, entre ellos.

● Cambio organizacional. ● Choques de personalidad. ● Distintos conjuntos de valores. ● Amenazas del estatus. ● Percepciones y puntos de vista contrarios.

Efectos Del Conflicto: A menudo los participantes en el conflicto lo consideran como una experiencia destructiva, pero estamos

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (1 of 6)25/05/2005 13:49:41

Page 237: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

ante una concepción limitada experiencia destructiva, pero estamos ante una concepción limitada.

Ventajas: Una de las ventajas del conflicto consiste en que se estimula a los individuos a buscar mejores métodos que les aporten resultados mas satisfactorio. Las impulso a ser más creativos y probar nuevas ideas. Los problemas ocultos se traen a la superficie y entonces pueden afrontarse y resolverse.

Desventajas: También existen posibles desventajas, en especial si el conflicto duro mucho time ese torno demasiado intenso. En el nivel interpersonal, puede deteriorarse la cooperación y el trabajo en equipo.

Dos Tipos De Conflicto:

● Conflicto Interpersonal.

Los conflictos interpersonales constituyen un serio problema para muchos porque afecten profundamente a sus emociones. Es necesario proteger la autoimagen y la autoestima contra el daño que puedan ocasionarles los demás. Cuando estos conceptos de si mismos se ven amenazadas ocurre un serio malestar y la relación se deteriora.

● Conflicto Intergrupal:

Los conflictos entre grupos de diferentes departamentos también causan problemas. En una sola escala menor, mas recuerdan a las guerras entre pandillas juveniles. Cada grupo se propone minar la fuerza del otro adquirir poder y mejorar su imagen. Los conflictos provienen de causas, diversas distintos puntos de vista.

Resultados Y Métodos De Resolver Conflictos: El conflicto puede dar origen o cuatro resultados bien diferenciados, según la forma en que intenten resolverlo los participantes.

Ganador – Perdedor

Ganador – Ganador

Perdedor – Perdedor

Perdedor - Ganador

2. Comportamiento asertivo

Afrontar el conflicto no es fácil para algunas personas. Cuando se ven en la necesidad de los negocios

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (2 of 6)25/05/2005 13:49:41

Page 238: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

con otros, algunos directores o gerentes pueden sentirse inferiores o cohibidos ante el poder del otro. En tales circunstancias tienden a reprimir sus sentimientos o a dejarse llevar por el enojo. Ninguna de esas respuestas es realmente productiva. La Asertividad.- Es una alternativa constructiva consiste en practicar comportamientos asertivos. La asertividad es el proceso retroalimentación honesta. El individuo asertivo no tiene miedo de pedirle a la otra persona que modifique su conducta ofensiva y no se siente incómodo por tener que rechazar las peticiones no razonables de otro. La capacitación en la asertividad consiste en enseñarle a la gente a adquirir formas eficaces de sortear varias situaciones productoras de ansiedad. Las personas asertivas son francas, honestas y expresivas. Se sienten seguras de sí mismas, conquistan el respecto y hacen que los demás se sientan valorados.

En cambio, los individuos agresivos pueden humillar a los demás, y las personas no asertivas son objeto de piedad o de desprecio por parte de la gente. Ambas alternativas de la asertividad suelen ser menos adecuadas para alcanzar la meta deseada. Etapas de la Asertividad.- Ser asertivo en una situación requiere cinco etapas, como se aprecia en la Etapas de la Asertividad. Cuando se hallan ante una situación intolerable, las personas asertivas la describen, expresan sus sentimientos y sienten empatía por la posición del otro. Y entonces ofrecen alternativas y señalan las consecuencias de las opciones que proponen. Los cinco pasos o etapas no son necesarios en todas las situaciones. Como mínimo, es importante describir la situación actual y hacer recomendaciones de cambio. El uso del resto de los paso dependerá de la importancia adiestramiento en la asertividad generalmente presentan tres pasos que pueden utilizarse, proporcionan un modelo de papeles para aplicarlo y estimulan a los participantes a practicar el comportamiento asertivo.

Formas De Cómo El Comportamiento Asertivo Es Más Eficaz.- El comportamiento asertivo casi siempre es más eficaz cuando integra varios componentes verbales y no verbales. El contacto ocular es un medio de expresar sinceridad, en tanto que una postura erguida y una posición directa del cuerpo puede intensificar, el impacto del mensaje. Pueden utilizarse gestos apropiados, son indispensables las expresiones faciales congruentes y se consiguen efectos convincentes con un tono y volumen fuertes pero modulados de la voz. Quizá lo más importante es la expresión Espontánea y decidida de una reacción honesta, como "Me molesta mucho, Antonio, que siempre entregues el informe a la hora de salir".

3. Análisis transaccional

Cuando la gente interactúa en formas asertivas y no asertivas, se dan una transacción en que una persona responde a otra. El estudio de esas transacciones recibe el nombre de análisis transaccional (AT). Este análisis fue desarrollado en la década de 1950 por Eric Berne para aplicarlo en la psicoterapia. Su aplicación a las interacciones ordinarias se hizo evidente muy pronto y fue divulgado por el libro de Berne Games People Play (1964), así como por las obras de Harris, Jongeward y otros. El objetivo del análisis transaccional es lograr una mejor comprensión de cómo las personas se relacionan entre sí, de modo que mejoren la comunicación y las relaciones humanas.

Tipos De Transacciones:

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (3 of 6)25/05/2005 13:49:41

Page 239: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

● Transacciones complementarias. ● Transacciones no complementarias.

Transacciones No Complementarias:

● Llamadas también transacciones cruzadas, se producen cuando las líneas del estimulo y respuesta no son paralelas. ● Entonces el supervisor trata al empleado mediante una transacción de adulto con adulto.

Transacciones Complementarias:

● Son cuando los estados del ego del emisor y receptor durante la transacción inicial simplemente se invierten en la respuesta. ● También podemos decir que cuando el patrón entre los estados se describe en forma gráfica las líneas son paralelas, en el cual el supervisor habla el empleado como lo hace un padre con su hijo.

Análisis Transaccional Y Liderazgo: Cuando los directores o gerentes realizan transacciones a partir de un solo estado de ego y limitan su opción de estilos de liderazgo.

Análisis Transaccional Y Resolución Del Conflicto:

● Hay varios nexos naturales entre el análisis transaccional y los métodos de resolución del conflicto que se describieron. ● El estado del padre puede llevar a utilizar una estrategia de fuerza, en tanto que el estado del hijo puede suavizar el conflicto o intentar evitarlo.

Beneficios Del Análisis Transaccional:

● Las organizaciones que lo han usado señalan que les a dado resultado de un éxito moderado. ● El adiestramiento en el análisis transaccional proporciona a los empleados ideas nuevas sobre su propia personalidad, además les ayuda a entender por que otros responden algunas veces en determinada forma. ● Una de las grandes ventajas o beneficios es el mejoramiento de la comunicación interpersonal.

4. Dinámica del grupo

Es el proceso a través del cual la gente interactúa directamente en grupos pequeños. Los grupos.- poseen propiedades diferentes a las de sus miembros del mismo modo que las moléculas difieren de los átomos que las integran. Las juntas.- Son forma común de actividad de grupo, pudiendo dar origen a decisiones de calidad que cuentan con el apoyo de los participantes. El Comité.- Es un tipo especifico de junta en el cual a los miembros en su papel de grupo se les ha delegado autoridad para resolver el problema en cuestión. La autoridad en el comité suele expresarse en

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (4 of 6)25/05/2005 13:49:41

Page 240: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

términos de un voto por cada miembro.

Factores que deben considerarse.- Son 3:

● Tamaño: Tiende a afectar la forma en que funciona. ● Composición: Solucionan problemas a los grupos de trabajo y a menudo tienen la oportunidad de solucionar a sus integrantes. ● Agendas (orden del día): Las juntas trabajen simultáneamente en dos niveles uno es tarea oficial del grupo (llamada agenda superficial) y la otra es la que mantienen ocultos bajo la mesa de conferencias (llamada agendas ocultas adquiere vida y vienen a complicar la situación).

5. Métodos estructurados

Los métodos que dan buenos resultados es el caso de objetivos son los siguientes: Lluvia de ideas, grupos normales, y la toma de decisiones con técnica delphi.

Lluvia de Ideas: Método común de estimular el pensamiento creativo. La finalidad de este método es atentar a la gente a que exprese ideas originales sin pensar en lo que piensen los demás. Estas sesiones duran de 10 minutos a una hora, solo se requiere el conocimiento general del tema. Las ventajas que nos ofrece éste método son el entusiasmo, participación mas amplia, el hecho de inspirarse en el intercambio de ideas. Grupos Nominales: A los individuos se les presenta un problema y cada uno llega a una solución de manera independiente, luego las sugerencias se intercambian y sus sugerencias se discuten. Después todos escogen por medio de voto secreto, las mejores ideas.

Toma de Decisiones con la Técnica Delphi: Se les da cuestionarios a los participantes. A los miembros se les escoge por su experiencia; se les pide expresar su evaluación de un problema o predecir una situación futura y las respuestas se resumen y se comunican a los miembros para que las analicen.

Resultados Posibles: Apoyo a las decisiones: El resultado secundario mas importante de las juntas es que los que participan en la toma de una decisión se sientan motivadas para aceptar y ponerla en práctica. Calidad de las Decisiones: Los grupos, además de apoyar las decisiones son un medio muy eficaz para resolver problemas. Tienen mas información que cualquier individuo. Otro aspecto consenso: Es cuando todos los nombres ponen en prácticas decisiones que respaldaron en conjunto. Cuando una votación es dividida hay desacuerdos.

Pregunta: ¿ Qué ventajas nos ofrece el método de Lluvia de Ideas?. Nos da las ventajas que todos van a participar en las tomas de decisiones, con mucho entusiasmo y el hecho de que todos pueden intercambiar ideas entre ellos, además nos ayuda a estimular el pensamiento creativo.

6. Debilidades de los grupos

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (5 of 6)25/05/2005 13:49:41

Page 241: QUIMICA - Monografias

Dinámica interpersonal y de grupos- Monografias.com

Son 5 debilidades que son las siguientes:

1. Lentitud y Costo: Las juntas de todo tipo son una forma lenta y cara de hacer las cosas. En ocasiones la lentitud es algo favorables, es decir hay más tiempos para reflexionar para hacer un análisis objetivo de una idea y proponer alternativas.

2. El Efecto Nivelador: Es una tendencia de un gripo a somete el pensamiento individual a la calidad promedio del pensamiento colectivo o "pensamiento de grupo".

3. Polarización: Es un comportamiento alterno. En ella los individuos traen al grupo sus predisposiciones respecto a un tema o asunto.

4. Intensificación del compromiso: Con el problema del pensamiento de grupo se relaciona estrechamente la idea de que los miembros de el pueden seguir defendiendo una línea de acción pese la evidencia que conducirá al fracaso.

5. Responsabilidad dividida: Constituye un problema siempre que se adopten decisiones en grupo. 6. Sin duda las decisiones de grupo diluyen la responsabilidad. Además brinda a los individuos la

oportunidad de evadir su responsabilidad.

Trabajo enviado por: Affón Bravo, Jimmy [email protected] Facultad De Administración

Volver al inicio | Volver arriba

Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos © 1997 Lucas Morea / Sinexi S.A.

http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (6 of 6)25/05/2005 13:49:41

Page 242: QUIMICA - Monografias

La estática de fluidos - Monografias.com

Regístrese Nuevos Publicar Toolbar Foros Ayuda

Compare precios

Consulte a los

expertosRecomendar

Recomendamos: Barra de

herramientas gratuita

Buscar: Avanzada

Bajar Trabajo

(Descargar)

Agregar a favoritos

Recomendar Imprimir

La estática de fluidos

Indice 1. Introducción 2. La densidad de los cuerpos 3. Densidad y peso específico 4. Densidad relativa 5. El fundamento del densímetro 6. La Presión 7. La Hidrostática 8. El principio de Pascal y sus aplicaciones 9. El principio de los vasos comunicantes 10. Aplicación de la ecuación fundamental de la hidrostática 11. Aplicación del principio de pascal 12. Empuje hidrostático: principio de Arquímedes 13. Aplicación del principio de arquímedes 14. La estática de los gases 15. Manómetros y barómetros

1. Introducción

La estática de fluidos estudia el equilibrio de gases y líquidos. A partir de los conceptos de densidad y de presión se obtiene la ecuación fundamental de la hidrostática, de la cual el principio de Pascal y el de Arquímedes pueden considerarse consecuencias. El hecho de que los gases, a diferencia de los líquidos,

http://www.monografias.com/trabajos5/estat/estat.shtml (1 of 14)25/05/2005 13:50:13

Page 243: QUIMICA - Monografias

La estática de fluidos - Monografias.com

puedan comprimirse hace que el estudio de ambos tipos de fluidos tengan algunas características diferentes. En la atmósfera se dan los fenómenos de presión y de empuje que pueden ser estudiados de acuerdo con los principios de la estática de gases.

Se entiende por fluido un estado de la materia en el que la forma de los cuerpos no es constante, sino que se adapta a la del recipiente que los contiene. La materia fluida puede ser trasvasada de un recipiente a otro, es decir, tiene la capacidad de fluir. Los líquidos y los gases corresponden a dos tipos diferentes de fluidos. Los primeros tienen un volumen constante que no puede mortificarse apreciablemente por compresión. Se dice por ello que son fluidos incompresibles. Los segundos no tienen un volumen propio, sino que ocupan el del recipiente que los contiene; son fluidos compresibles porque, a diferencia de los líquidos, sí pueden ser comprimidos.

El estudio de los fluidos en equilibrio constituye el objeto de la estática de fluidos, una parte de la física que comprende la hidrostática o estudio de los líquidos en equilibrio, y la aerostática o estudio de los gases en equilibrio y en particular del aire.

2. La densidad de los cuerpos

Densidad

Los cuerpos difieren por lo general en su masa y en su volumen. Estos dos atributos físicos varían de un cuerpo a otro, de modo que si consideramos cuerpos de la misma naturaleza, cuanto mayor es el volumen, mayor es la masa del cuerpo considerado. No obstante, existe algo característico del tipo de materia que compone al cuerpo en cuestión y que explica el porqué dos cuerpos de sustancias diferentes que ocupan el mismo volumen no tienen la misma masa o viceversa.

Aun cuando para cualquier sustancia la masa y el volumen son directamente proporcionales, la relación de proporcionalidad es diferente para cada sustancia. Es precisamente la constante de proporcionalidad de esa relación la que se conoce por densidad y se representa por la letra griega

m = cte · V

es decir:

m = · V

Despejando de la anterior ecuación resulta:

ecuación que facilita la definición de y también su significado físico.

http://www.monografias.com/trabajos5/estat/estat.shtml (2 of 14)25/05/2005 13:50:13

Page 244: QUIMICA - Monografias

La estática de fluidos - Monografias.com

La densidad de una sustancia es la masa que corresponde a un volumen unidad de dicha sustancia. Su unidad en el SI es el cociente entre la unidad de masa y la del volumen, es decir kg/m3.

A diferencia de la masa o el volumen, que dependen de cada objeto, su cociente depende solamente del tipo de material de que está constituido y no de la forma ni del tamaño de aquél. Se dice por ello que la densidad es una propiedad o atributo característico de cada sustancia. En los sólidos la densidad es aproximadamente constante, pero en los líquidos, y particularmente en los gases, varía con las condiciones de medida. Así en el caso de los líquidos se suele especificar la temperatura a la que se refiere el valor dado para la densidad y en el caso de los gases se ha de indicar, junto con dicho valor, la presión.

3. Densidad y peso específico

La densidad está relacionada con el grado de acumulación de materia (un cuerpo compacto es, por lo general, más denso que otro más disperso), pero también lo está con el peso. Así, un cuerpo pequeño que es mucho más pesado que otro más grande es también mucho más denso. Esto es debido a la relación P = m · g existente entre masa y peso. No obstante, para referirse al peso por unidad de volumen la física ha introducido el concepto de peso específico pe que se define como el cociente entre el peso P de un cuerpo y su volumen

El peso específico representa la fuerza con que la Tierra atrae a un volumen unidad de la misma sustancia considerada.

La relación entre peso específico y densidad es la misma que la existente entre peso y masa. En efecto:

siendo g la aceleración de la gravedad.

La unidad del peso específico en el SI es el N/m3.

4. Densidad relativa

La densidad relativa de una sustancia es el cociente entre su densidad y la de otra sustancia diferente que se toma como referencia o patrón:

Para sustancias líquidas se suele tomar como sustancia patrón el agua cuya densidad a 4 ºC es igual a 1000 kg/m3. Para gases la sustancia de referencia la constituye con frecuencia el aire que a 0 ºC de temperatura y 1 atm de presión tiene una densidad de 1,293 kg/m3. Como toda magnitud relativa, que se obtiene como cociente entre dos magnitudes iguales, la densidad relativa carece de unidades físicas.

5. El fundamento del densímetro

http://www.monografias.com/trabajos5/estat/estat.shtml (3 of 14)25/05/2005 13:50:13

Page 245: QUIMICA - Monografias

La estática de fluidos - Monografias.com

La determinación de densidades de líquidos tiene importancia no sólo en la física, sino también en el mundo del comercio y de la industria. Por el hecho de ser la densidad una propiedad característica (cada sustancia tiene una densidad diferente) su valor puede emplearse para efectuar una primera comprobación del grado de pureza de una sustancia líquida.

El densímetro es un sencillo aparato que se basa en el principio de Arquímedes (mas adelante se explica ) . Es, en esencia, un flotador de vidrio con un lastre de mercurio en su parte inferior (que le hace sumergirse parcialmente en el líquido) y un extremo graduado directamente en unidades en densidad. El nivel del líquido marca sobre la escala el valor de su densidad.

En el equilibrio, el peso P del densímetro será igual al empuje E:

P = E

Si se admite, para simplificar el razonamiento, que su forma es la de un cilindro, E será igual, de acuerdo con el principio de Arquímedes, al peso del volumen V del líquido desalojado, es decir:

donde h es la altura sumergida y S la superficie de la base del cilindro.

Dado que el peso del densímetro es igual a su masa m por la gravedad g, igualándolo al empuje resulta:

es decir:

donde m y S son constantes, luego es inversamente proporcional a la altura sumergida. Midiendo alturas sumergidas pueden, por tanto, determinarse densidades.

La determinación de la pureza de la leche de vaca es una de las aplicaciones industriales del densímetro.

6. La Presión

Cuando se ejerce una fuerza sobre un cuerpo deformable, los efectos que provoca dependen no sólo de su intensidad, sino también de cómo esté repartida sobre la superficie del cuerpo. Así, un golpe de martillo sobre un clavo bien afilado hace que penetre mas en la pared de lo que lo haría otro clavo sin punta que recibiera el mismo impacto. Un individuo situado de puntillas sobre una capa de nieve blanda se hunde, en tanto que otro de igual peso que calce raquetas, al repartir la fuerza sobre una mayor superficie, puede caminar sin dificultad.

El cociente entre la intensidad F de la fuerza aplicada perpendicularmente sobre una superficie dada y el área S de dicha superficie se denomina presión:

La presión representa la intensidad de la fuerza que se ejerce sobre cada unidad de área de la superficie

http://www.monografias.com/trabajos5/estat/estat.shtml (4 of 14)25/05/2005 13:50:13

Page 246: QUIMICA - Monografias

La estática de fluidos - Monografias.com

considerada. Cuanto mayor sea la fuerza que actúa sobre una superficie dada, mayor será la presión, y cuanto menor sea la superficie para una fuerza dada, mayor será entonces la presión resultante.

La presión en los fluidos

El concepto de presión es muy general y por ello puede emplearse siempre que exista una fuerza actuando sobre una superficie. Sin embargo, su empleo resulta especialmente útil cuando el cuerpo o sistema sobre el que se ejercen las fuerzas es deformable. Los fluidos no tienen forma propia y constituyen el principal ejemplo de aquellos casos en los que es más adecuado utilizar el concepto de presión que el de fuerza.

Cuando un fluido está contenido en un recipiente, ejerce una fuerza sobre sus paredes y, por tanto, puede hablarse también de presión. Si el fluido está en equilibrio las fuerzas sobre las paredes son perpendiculares a cada porción de superficie del recipiente, ya que de no serlo existirían componentes paralelas que provocarían el desplazamiento de la masa de fluido en contra de la hipótesis de equilibrio. La orientación de la superficie determina la dirección de la fuerza de presión, por lo que el cociente de ambas, que es precisamente la presión, resulta independiente de la dirección; se trata entonces de una magnitud escalar.

Unidades de presión

En el SI la unidad de presión es el pascal, se representa por Pa y se define como la presión correspondiente a una fuerza de un newton de intensidad actuando perpendicularmente sobre una superficie plana de un metro cuadrado. 1 Pa equivale, por tanto, a 1 N/m2.

Existen, no obstante, otras unidades de presión que sin corresponder a ningún sistema de unidades en particular han sido consagradas por el uso y se siguen usando en la actualidad junto con el pascal. Entre ellas se encuentran la atmósfera y el bar.

La atmósfera (atm) se define como la presión que a 0 ºC ejercería el peso de una columna de mercurio de 76 cm de altura y 1 cm2 de sección sobre su base.

Es posible calcular su equivalencia en N/m2 sabiendo que la densidad del mercurio es igual a 13,6 · 103 kg/m3 y recurriendo a las siguientes relaciones entre magnitudes:

Peso (N) = masa (kg) · 9,8 m/s2

Masa = volumen · densidadComo el volumen del cilindro que forma la columna es igual a la superficie de la base por la altura, se tendrá:

es decir: 1 atm = 1,013 · 105 Pa.

El bar es realmente un múltiple del pascal y equivale a 105 N/m2. En meteorología se emplea con frecuencia el milibar (mb) o milésima parte del bar · 1 mb = 102 Pa.

http://www.monografias.com/trabajos5/estat/estat.shtml (5 of 14)25/05/2005 13:50:13

Page 247: QUIMICA - Monografias

La estática de fluidos - Monografias.com

1 atm = 1 013 mb

7. La Hidrostática

Todos los líquidos pesan, por ello cuando están contenidos en un recipiente las capas superiores oprimen a las inferiores, generándose una presión debida al peso. La presión en un punto determinado del líquido deberá depender entonces de la altura de la columna de líquido que tenga por encima suyo.

Considérese un punto cualquiera del líquido que diste una altura h de la superficie libre de dicho líquido. La fuerza del peso debido a una columna cilíndrica de líquido de base S situada sobre él puede expresarse en la forma

Fpeso = mg = · V · g = · g · h · S

siendo V el volumen de la columna y la densidad del líquido. Luego la presión debida al peso vendrá dada por:

la presión en un punto

La definición de la presión como cociente entre la fuerza y la superficie se refiere a una fuerza constante que actúa perpendicularmente sobre una superficie plana. En los líquidos en equilibrio las fuerzas asociadas a la presión son en cada punto perpendiculares a la superficie del recipiente, de ahí que la presión sea considerada como una magnitud escalar cociente de dos magnitudes vectoriales de igual dirección: la fuerza y el vector superficie. Dicho vector tiene por módulo el área y por dirección la perpendicular a la superficie.

Cuando la fuerza no es constante, sino que varía de un punto a otro de la superficie S considerada, tiene sentido hablar de la presión en un punto dado. Para definirla se considera un elemento de superficie S que rodea al punto; si dicho elemento reduce enormemente su extensión, la fuerza F que actúa sobre él puede considerarse constante. En tal caso la presión en el punto considerado se definirá en la forma matemática

esta expresión, que es la derivada de F respecto de S, proporciona el valor de la presión en un punto y puede calcularse si se conoce la ecuación matemática que indica cómo varía la fuerza con la posición.

Si la fuerza es variable y F representa la resultante de todas las fuerzas que actúan sobre la superficie S la fórmula

define, en este caso, la presión media.

Si sobre la superficie libre se ejerciera una presión exterior adicional po, como la atmosférica por ejemplo, la presión total p en el punto de altura h sería

Esta ecuación puede generalizarse al caso de que se trate de calcular la diferencia de presiones p entre

http://www.monografias.com/trabajos5/estat/estat.shtml (6 of 14)25/05/2005 13:50:13

Page 248: QUIMICA - Monografias

La estática de fluidos - Monografias.com

dos puntos cualesquiera del interior del líquido situados a diferentes alturas, resultando:es deci

que constituye la llamada ecuación fundamental de la hidrostática.

Esta ecuación indica que para un líquido dado y para una presión exterior constante la presión en el interior depende únicamente de la altura. Por tanto, todos los puntos del líquido que se encuentren al mismo nivel soportan igual presión. Ello implica que ni la forma de un recipiente ni la cantidad de líquido que contiene influyen en la presión que se ejerce sobre su fondo, tan sólo la altura de líquido. Esto es lo que se conoce como paradoja hidrostática, cuya explicación se deduce a modo de consecuencia de la ecuación fundamental.

8. El principio de Pascal y sus aplicaciones

La presión aplicada en un punto de un líquido contenido en un recipiente se transmite con el mismo valor a cada una de las partes del mismo.

Este enunciado, obtenido a partir de observaciones y experimentos por el físico y matemático francés Blas Pascal (1623-1662), se conoce como principio de Pascal.

El principio de Pascal puede ser interpretado como una consecuencia de la ecuación fundamental de la hidrostática y del carácter incompresible de los líquidos. En esta clase de fluidos la densidad es constante, de modo que de acuerdo con la ecuación p = po + · g · h si se aumenta la presión en la superficie libre, por ejemplo, la presión en el fondo ha de aumentar en la misma medida, ya que · g · h no varía al no hacerlo h.

La prensa hidráulica constituye la aplicación fundamental del principio de Pascal y también un dispositivo que permite entender mejor su significado. Consiste, en esencia, en dos cilindros de diferente sección comunicados entre sí, y cuyo interior está completamente lleno de un líquido que puede ser agua o aceite. Dos émbolos de secciones diferentes se ajustan, respectivamente, en cada uno de los dos cilindros, de modo que estén en contacto con el líquido. Cuando sobre el émbolo de menor sección S1 se ejerce una fuerza F1 la presión p1 que se origina en el líquido en contacto con él se transmite íntegramente y de forma instantánea a todo el resto del líquido; por tanto, será igual a la presión p2 que ejerce el líquido sobre el émbolo de mayor sección S2, es decir:

p1 = p2

con lo que:

y por tanto:

Si la sección S2 es veinte veces mayor que la S1, la fuerza F1 aplicada sobre el émbolo pequeño se ve multiplicada por veinte en el émbolo grande.

La prensa hidráulica es una máquina simple semejante a la palanca de Arquímedes, que permite amplificar la intensidad de las fuerzas y constituye el fundamento de elevadores, prensas, frenos y

http://www.monografias.com/trabajos5/estat/estat.shtml (7 of 14)25/05/2005 13:50:13

Page 249: QUIMICA - Monografias

La estática de fluidos - Monografias.com

muchos otros dispositivos hidráulicos de maquinaria industrial.

9. El principio de los vasos comunicantes

Si se tienen dos recipientes comunicados y se vierte un líquido en uno de ellos en éste se distribuirá entre ambos de tal modo que, independientemente de sus capacidades, el nivel de líquido en uno y otro recipiente sea el mismo. Éste es el llamado principio de los vasos comunicantes, que es una consecuencia de la ecuación fundamental de la hidrostática.

Si se toman dos puntos A y B situados en el mismo nivel, sus presiones hidrostáticas han de ser las mismas, es decir:

luego si pA = pB necesariamente las alturas hA y hB de las respectivas superficies libres han de ser idénticas hA = hB.

Si se emplean dos líquidos de diferentes densidades y no miscibles, entonces las alturas serán inversamente proporcionales a las respectivas densidades. En efecto, si pA = pB, se tendrá:

Esta ecuación permite, a partir de la medida de las alturas, la determinación experimental de la densidad relativa de un líquido respecto de otro y constituye, por tanto, un modo de medir densidades de líquidos no miscibles si la de uno de ellos es conocida.

10. Aplicación de la ecuación fundamental de la hidrostática

Un submarinista se sumerge en el mar hasta alcanzar una profundidad de 100 m. Determinar la presión a la que está sometido y calcular en cuántas veces supera a la que experimentaría en el exterior, sabiendo que la densidad del agua del mar es de 1 025 kg/m3.

De acuerdo con la ecuación fundamental de la hidrostática

Considerando que la presión po en el exterior es de una atmósfera (1 atm = 1,013 · 105 Pa), al sustituir los datos en la anterior ecuación resulta:

p = 1,013 · 105 + 1025 · 9,8 · 100 = 11,058 · 105 Pa

El número de veces que p es superior a la presión exterior po se obtiene hallando el cociente entre ambas:

11. Aplicación del principio de pascal

El elevador hidráulico de un garaje funciona mediante una prensa hidráulica conectada a una toma de agua de la red urbana que llega a la máquina con una presión de 5 · 105 N/m2. Si el radio del émbolo es de 20 cm y el rendimiento es de un 90 %, determinar cuál es el valor en toneladas de la carga que como máximo puede levantar el elevador.

http://www.monografias.com/trabajos5/estat/estat.shtml (8 of 14)25/05/2005 13:50:13

Page 250: QUIMICA - Monografias

La estática de fluidos - Monografias.com

De acuerdo con el principio de Pascal:

p1 = p2

que para una prensa hidráulica se transforma en:

En este caso el dato que correspondería al émbolo pequeño de la prensa se facilita en forma de presión,

de modo que combinando las ecuaciones anteriores se tiene:

Como el rendimiento es del 90 % el valor efectivo de la carga máxima expresado en newtons será

Una tonelada métrica equivale al peso de un cuerpo de 1 000 kg de masa, es decir:

luego:

12. Empuje hidrostático: principio de Arquímedes

Los cuerpos sólidos sumergidos en un líquido experimentan un empuje hacia arriba. Este fenómeno, que es el fundamento de la flotación de los barcos, era conocido desde la más remota antigüedad, pero fue el griego Arquímedes (287-212 a. de C.) quien indicó cuál es la magnitud de dicho empuje. De acuerdo con el principio que lleva su nombre, todo cuerpo sumergido total o parcialmente en un líquido experimenta un empuje vertical y hacia arriba igual al peso del volumen de líquido desalojado.

Aun cuando para llegar a esta conclusión Arquímedes se apoyó en la medida y experimentación, su famoso principio puede ser obtenido como una consecuencia de la ecuación fundamental de la hidrostática. Considérese un cuerpo en forma de paralelepípedo, las longitudes de cuyas aristas valen a, b y c metros, siendo c la correspondiente a la arista vertical. Dado que las fuerzas laterales se compensan mutuamente, sólo se considerarán las fuerzas sobre las caras horizontales.

La fuerza F1 sobre la cara superior estará dirigida hacia abajo y de acuerdo con la ecuación fundamental de la hidrostática su magnitud se podrá escribir como :

siendo S1 la superficie de la cara superior y h1 su altura respecto de la superficie libre del líquido.

La fuerza F2 sobre la cara inferior estará dirigida hacia arriba y, como en el caso anterior, su magnitud vendrá dada por

La resultante de ambas representará la fuerza de empuje hidrostático E.

pero, dado que S1 = S2 = S y h2 = h1 + c, resulta:

que es precisamente el valor del empuje predicho por Arquímedes en su principio, ya que V = c · S es el volumen del cuerpo, la densidad del líquido, m = · V la masa del liquido desalojado y finalmente m · g es

http://www.monografias.com/trabajos5/estat/estat.shtml (9 of 14)25/05/2005 13:50:13